SlideShare a Scribd company logo
FIT 2007 第6回情報科学技術フォーラム




    ノイズのある環境下でオンライン学習が可能な
     自己増殖型ニューラルネットワークを用いた
           連想記憶モデル


          東京工業大学     知能システム科学専攻
          須藤 明人    佐藤 彰洋   長谷川 修

                               2007/09/05
知能ロボットと連想記憶
  連想記憶は人間の知的プロセスに不可欠である

  連想記憶を知能ロボットに適用する研究が近年行われて
   いる.[1][2]

 [1] K. Itoh et al., “New memory model for humanoid robots – introduction
    of co-associative memory using mutually coupled chaotic neural
    networks,” Proc. of the 2005 International Joint Conerene on Neural
    Networks, pp. 2790–2795, 2005

 [2] K. Mizutani and T. Omori, “On-line Map Formation and Path Planning
    for Mobile Robot by Associative Memory with Controllable Attention,”
    Proc. the 1999 International Joint Conference on Neural
    Networks(IJCNN’99), pp.2051-2056, 1999.
Copyright(C) 2007 Akihito Sudo All rights reserved.                         1
知能ロボットの連想記憶に必要な機能
 実世界で働く知能ロボットのための連想記憶には、以下
  の機能が必要不可欠である.
          追加学習・・・事前に全ての知識を列挙できないため


          ノイズ耐性・・・実世界のデータはノイジーなため


          実数値データの取り扱い・・・センサー情報は実数値データ


          多対多の連想・・・多対多の知識も存在するため
Copyright(C) 2007 Akihito Sudo All rights reserved.   2
従来の連想記憶モデル
 従来の連想記憶モデルは2つに大別できる

           1.分散多重学習型連想記憶モデル
                      例1:ホップフィールドネットワーク
                      例2:Bidirectional Associative Memory(BAM)


           2.競合学習型連想記憶モデル
                      例1:KFMAM(SOMを拡張した連想記憶モデル)
                      例2:KFMAM-FW(KFMAMを追加学習のために拡張)


Copyright(C) 2007 Akihito Sudo All rights reserved.               3
分散多重学習型連想記憶モデルの問題点
 分散多重学習型連想記憶モデルは
  新たな学習で、既存の知識が破壊されてしまう

                                           「追加学習に不向き」ということ!!!

 Frenchはこの問題を避けることの困難さを指摘した[1]

 [1]R. French, “Using Semi-Distributed Representation to
  Overcome Catastrophic Forgetting in Connectionist
  Networks,” Pm. of the 13h Annual Cognitive Science Society
  Conference, pp. 173–178, 1991
Copyright(C) 2007 Akihito Sudo All rights reserved.             4
一方で・・・
 “競合学習型連想記憶モデル”は比較的追加学習に向いて
  いる


 特に追加学習を目的としたモデルKFMAM-FW[1]がある
          KFMAM-FWは、新たな学習で既存の知識が破壊されない


 [1]T. Yamada et al., “Sequential Learning for Associative
  Memory using Kohonen Feature Map,” in Proc. of the 1999
  International Joint Conference on Neural Networks, pp.
  1920–1923, 1999.

Copyright(C) 2007 Akihito Sudo All rights reserved.          5
KFMAM-FWの問題点
 獲得可能な連想対の数の上限が
  事前に設定したノードの数に依存して決まってしまう
          もし、事前に設定したノード数が少なすぎると・・・
            ▪途中から連想対を追加獲得できなくなってしまう
          もし、事前に設定したノード数が多すぎると・・・
            ▪不要な計算時間とメモリを浪費してしまう



                獲得すべき知識の総数が事前にわからない環境では
                   「追加学習に不向き」ということ!!!

                 人間の赤ちゃんはこのような環境におかれている!
Copyright(C) 2007 Akihito Sudo All rights reserved.   6
研究目的
 次の機能を持つ連想記憶モデルAssociative Memory
  with SOINN (SOINN-AM) を提案する.
          上述の追加学習の問題を克服


          高いノイズ耐性を持つ
                                                      知能ロボットに不可欠
          実数値データを取り扱える


          多対多の連想を行える
Copyright(C) 2007 Akihito Sudo All rights reserved.            7
SOINNについて
 提案手法はSelf-organizing Incremental Neural
  Network (SOINN) の拡張とみなせる

 SOINNはオンラインで教師無し分類を行うことができる
          自己組織的に増殖・消滅するノードの持つ重みベクトルで、オ
           ンラインで入力されるデータを表現する




                                           入力         出力
                                       (5クラスのデータ)
Copyright(C) 2007 Akihito Sudo All rights reserved.        8
提案手法の特徴1~追加学習の観点から~
 ノードが自己組織的に増殖・消滅する
                                                      そのため・・・

   追加学習時に既存の知識が破壊されない
              KFMAM-FWでも実現されている


   学習すべき知識の量が事前にわからない環境に適応
              KFMAM-FWにできないこと


Copyright(C) 2007 Akihito Sudo All rights reserved.             9
追加学習の観点での提案手法と従来手法の比較
                                                                   学習すべき知識の
                                                      新たな学習で既存の
                                                                  総数が事前に不明な
                                                       知識を破壊しない
                                                                     環境に適応
               SOINN-AM
               (提案手法)                                    ○           ○
              KFMAM-FW                                   ○           ×
                     KFMAM                               △           ×
                          BAM                            ×           ×
    Hopfield Network                                     ×           ×
Copyright(C) 2007 Akihito Sudo All rights reserved.                           10
提案手法の特徴2
 追加学習性能だけでなく、以下の3点も実現している
          ノイズ耐性が他手法より優れている


          実数値データが取り扱える


          多対多の連想が行える




Copyright(C) 2007 Akihito Sudo All rights reserved.   11
提案手法のノイズ耐性について
 実世界のノイズには以下の2タイプがある。




 (a)のノイズについて
 提案手法は従来手法を上回る耐性を持つ。
 (b)のノイズについて
 このタイプのノイズにも提案手法は耐性がある。
          従来手法でこのタイプのノイズに耐性があるものは自己連想し
           か行えない。
Copyright(C) 2007 Akihito Sudo All rights reserved.   12
提案手法のアーキテクチャ
                             入力層は2つの入力ベクトルを受け取ることができる


                                                       ベクトル1          ベクトル2

                                         入力層                ・・・         ・・・
“エッジ”でノードが結合されることで、
    クラスタリングされる                                                           ノードは重みベクトル W を持つ
                                                                                     
                                                      重心にプロトタイプノードが           W  [ w1 , w2 ]
                                                      生成される
                                                                                  連想対に対応
                                         競合層


                               競合層では、“ノード”と、ノードをつなぐ“エッジ”が
                                      自律的に増殖・消滅する
Copyright(C) 2007 Akihito Sudo All rights reserved.                                             13
学習フェーズの概要
                              ①学習すべき連想対が入力層に入力される

                                                      F     R
                                         入力層          ・・・   ・・・




                                         競合層


                   ②競合層では、連想対を保持するノードがクラ
                   スタリングされながら自律的に増殖・消滅する
Copyright(C) 2007 Akihito Sudo All rights reserved.               14
学習フェーズのアルゴリズム1
入力層での処理

 1. 入力層に学習すべき連想対FとRが入力される
    (        )
 2. FとRを一つのベクトルXに結合する




 3. X にわずかな摂動を加えたものをIcとする
             (        )


 4. Icを競合層に入力する
Copyright(C) 2007 Akihito Sudo All rights reserved.   15
学習フェーズのアルゴリズム2
第1勝者ノードと第2勝者ノードを探す
 5. 競合層にある全てのノードの重みベクトルと、競合層へ
    の入力Icのユークリッド距離を計算


 6. 最も距離の小さいノードと、2番目に距離の小さいノー
    ドをそれぞれ「第1勝者ノード」「第2勝者ノード」と
    名付ける
                                 競合層                  競合層への入力 Ic
                                                      第1勝者ノード
                                                      第2勝者ノード

                                                                ・・・競合層のノード
Copyright(C) 2007 Akihito Sudo All rights reserved.                          16
学習フェーズのアルゴリズム3
  Icが既存のノードと同じクラスタに属するかを判定

 7. 第1勝者ノードと第2勝者ノードについて、
    下式dを計算する




 8. もし、
     Icと第1勝者の距離<第1勝者のd
           Icと第2勝者の距離<第2勝者のd
          のどちらかが成り立てば、Icは既存のノードと同じクラ
          スタに属すると判定する
Copyright(C) 2007 Akihito Sudo All rights reserved.   17
学習フェーズのアルゴリズム4
同じクラスタに属さないと判断されたときの処理
 9. Icを重みベクトルに持つノードを競合層に
   新たに生成する

                          競合層                         競合層への入力 Icを重みに持つノード
                                                               c




                        このステップでノードが新たに生成される!!!

Copyright(C) 2007 Akihito Sudo All rights reserved.                         18
学習フェーズのアルゴリズム5
同じクラスタに属すると判断されたときの処理 その1
 9’-1. 第1勝者と第2勝者の間を年齢1の“エッジ”で結合す
   る(もし既にエッジがあれば、その年齢を1に戻す)


 9’-2. 第2勝者以外のノードと第1勝者の間のエッジの年齢
   を1だけ増やす


 9’-3. 年齢が、あらかじめ定めた値                                  を越えた
   エッジを削除



Copyright(C) 2007 Akihito Sudo All rights reserved.          19
学習フェーズのアルゴリズム6
同じクラスタに属すると判断されたときの処理 その2
 9’-4. 第1勝者の重みベクトルおよび、第1勝者とエッジで
   つながっているノードの重みベクトルに      と
   をそれぞれ加える




Copyright(C) 2007 Akihito Sudo All rights reserved.   20
学習フェーズのアルゴリズム7
不要なノードを削除し、プロトタイプノードを生成
 10.もし、これまでに入力された学習データの総数が事前
   に設定した値 l の整数倍であるならば、エッジを持た
   ないノードを削除する


 11.各クラスタに属するノードの重みベクトルの平均を重
   みベクトルとして持つノードを生成する
           このノードは“プロトタイプノード”と呼ばれ、想起フェーズで
            利用される




Copyright(C) 2007 Akihito Sudo All rights reserved.   21
学習フェーズでの競合層の様子




                                                      ・・・通常のノード

                                                      ・・・プロトタイプノード


 学習データにガウシアンノイズを混入させているためクラスタに広がりがある
Copyright(C) 2007 Akihito Sudo All rights reserved.                  22
想起フェーズの概要
                  ①連想キーとしてベクトルが一つだけ入力される

                                                      F     R
                                         入力層          ・・・   ・・・




                                         競合層

                   ②対応するノードが発火し、連想結果が出力さ
                   れる
Copyright(C) 2007 Akihito Sudo All rights reserved.               23
想起フェーズのアルゴリズム1
入力層での処理
 1. 入力層にベクトル F または R が入力される


 2. 下式のIcを競合層へ入力する




Copyright(C) 2007 Akihito Sudo All rights reserved.   24
想起フェーズのアルゴリズム2
競合層での処理 その1
 3. 下式で、 Icと全てのノード i の重みベクトルの距離を計
    算する




          ここで、



          である。
Copyright(C) 2007 Akihito Sudo All rights reserved.   25
想起フェーズのアルゴリズム3
競合層での処理 その2
 4. 事前に設定した値drについて、
    が成り立つノードが全て発火する




Copyright(C) 2007 Akihito Sudo All rights reserved.   26
想起フェーズのアルゴリズム4
競合層での処理 その3
 4. 発火したノードの属するクラスタのプロトタイプノード
    の重みを  としたとき、出力Oは下式で表される




          ここで、



Copyright(C) 2007 Akihito Sudo All rights reserved.   27
想起フェーズのアルゴリズム5
競合層での処理 その4
 4’. 発火するノードが一つも無い場合は、連想キーをノイ
    ズであると判断し、”Unknown”と出力する


 注意)出力Oが複数存在することもありうる。
  この場合は、1対多の連想を行っていることになる




Copyright(C) 2007 Akihito Sudo All rights reserved.   28
実験設定~比較手法~
 分散多重学習型連想記憶モデル
          BAM with PRLAB[1]・・・論文[3]で比較手法として用いられ
           ている手法
 競合学習型連想記憶モデル
          KFMAM[2]・・・SOMを連想記憶モデルに拡張したモデル
          KFMAM-FW[3]・・・[2]の追加学習性能を高めた手法

 [1]H. Oh and S.C. Kothari, “Adaptation of the relaxation method for learning in bidirectional associative
   memory,” IEEE Tans. Neural Networks, Vol.5, No.4, pp. 576–583, 1994.
 [2]H. Ichiki et al., “Kohonen feature maps as a supervised learning machine,” in Proc. of the IEEE
   International Conference on Neural Networks, pp. 1944–1948, 1993.
 [3]T. Yamada et al., “Sequential Learning for Associative Memory using Kohonen Feature Map,” in Proc. of
   the 1999 International Joint Conference on Neural Networks, pp. 1920–1923, 1999.

Copyright(C) 2007 Akihito Sudo All rights reserved.                                                          29
実験設定~パラメタと学習回数~
 パラメタは下表のように設定した




 学習回数は以下とした
          提案手法・・・1つの連想対について50回ずつ
          BAM with PRLAB と KFMAM・・・重みが収束するまで
          KFMAM-FW・・・重みが固定されたノードができるまで

Copyright(C) 2007 Akihito Sudo All rights reserved.   30
実験設定~用いたデータ~
 用いたデータ
          2値画像・・・7×7ピクセルの英語アルファベット画像
           ▪比較手法が2値データしか扱えないため使用した




          グレースケール画像
           ・・・92×112ピクセルのAT&T顔画像データベースの画像



Copyright(C) 2007 Akihito Sudo All rights reserved.   31
行った実験
 1. 追加学習性能の比較実験


 2. 提案手法が多対多の連想を行えることの確認実験


 3. ノイズ耐性の比較実験
           2つのタイプのノイズについてそれぞれ実験


 4. 提案手法が実数値データを扱えることの確認実験


Copyright(C) 2007 Akihito Sudo All rights reserved.   32
実験1
追加学習性能の比較実験
 学習させた連想対

                                                ,     ,   ・・・


 学習データは逐次的に与えた
          バッチ学習ではない!


 学習後、連想キーとして大文字のアルファベットを与え
  出力を見た


Copyright(C) 2007 Akihito Sudo All rights reserved.             33
実験1
追加学習性能の比較実験~結果~
 全て正しく連想できたのは、提案手法とKFMAM-FW(36 nodes and 64
  nodes)のみ
 ただし、KFMAM-FW(25 nodes and 16 nodes)は学習中に無限ループに陥っ
  てしまった



      Proposed→




Copyright(C) 2007 Akihito Sudo All rights reserved.   34
実験2
多対多の連想性能の確認実験
 下図の連想対を提案手法に学習させた




 連想キーとして、A                                           、C   、F   、J   を与え、出力
  を見た
 実験結果

          すべての連想がうまくいった
Copyright(C) 2007 Akihito Sudo All rights reserved.                           35
実験3-1
ノイズ耐性の比較実験 その1
 学習させた連想対

                                                ,     ,   ・・・


 学習後、アルファベットの大文字の画像に0%~26%
  のバイナリノイズを加えたものを連想キーとして与え、
  出力を見た。
          同じノイズレベルについて100個の連想キーを生成して与えた
          ↓ノイズを加えた連想キーの例



Copyright(C) 2007 Akihito Sudo All rights reserved.             36
実験3-1
ノイズ耐性の比較実験 その1 ~結果~

 高いノイズレベルにおいても、他手法よりも正しく連想が行える
                                           100
                                                                                                  SOINN-AM
                                                    90
                                                    80                                       KFMAM-FW
                               Perfect recall (%)




                                                    70                  KFMAM (batch learning)
                                                    60
                                                    50
                                                                        KFMAM (sequential learning)
                                                    40
                                                    30             BAM (batch learning)
                                                    20
                                                    10       BAM (sequential learning)
                                                     0
                                                         0     2    4   6   8 10 12 14 16 18 20 22 24 26
                                                                              Noise level (%)
Copyright(C) 2007 Akihito Sudo All rights reserved.                                                          37
実験3-2
ノイズ耐性の比較実験 その2
 まず、下記の連想対を学習させた
                                                ,          ,        ・・・
 その後、ランダムに発生させたデータを連想キーとして
  与えたところ、以下の出力を得た
                                                       望ましい出力! 無意味な出力・・・




                                                      提案手法の出力 比較手法の出力
Copyright(C) 2007 Akihito Sudo All rights reserved.                        38
実験4
多値データの取り扱いに関する確認実験
 下図のような1対5の連想対を10人分学習させた




                                                      10人分用意し、与える

 実験結果
          SOINN-AMの出力と正解画像の次元あたりの誤差は1.0×10-5
           ~2.0×10-5と極めて低かった

Copyright(C) 2007 Akihito Sudo All rights reserved.                 39
まとめ
 以下の機能を併せ持つ連想記憶モデルを提案した
  追加学習に適する
   ▪新たな学習で既存の知識を破壊しない
   ▪知識の総数が事前にわからない環境にも適する

          高いノイズ耐性を持つ

          実数値データを取り扱える

          多対多の連想を行える
Copyright(C) 2007 Akihito Sudo All rights reserved.   40
課題・展望

 提案手法をロボットに適用する


 より複雑なタスクに対応するため、提案手法を“パターン情報ベー
  スの推論”のために拡張する
          提案手法を拡張した“パターン情報ベースの推論”について
           セッション[推論と学習](9/7 13:00~)にて発表予定




Copyright(C) 2007 Akihito Sudo All rights reserved.   41

More Related Content

What's hot

PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
Akira Miyazawa
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
 
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
Hiroshi Nakagawa
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
Taiji Suzuki
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
tmtm otm
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
matsuolab
 
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
Okamoto Laboratory, The University of Electro-Communications
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
 
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
Yoshinori Kabeya
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2Hiroyuki Kato
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデルTakeshi Sakaki
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
matsuolab
 
Prml nn
Prml nnPrml nn
Prml nn
Shota Yasui
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワークTakeshi Sakaki
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
Satoshi Hara
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
レコメンドシステムの社会実装
レコメンドシステムの社会実装レコメンドシステムの社会実装
レコメンドシステムの社会実装
西岡 賢一郎
 

What's hot (20)

PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワークPRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
 
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討モデルベース協調フィルタリングにおける推薦の透明性に関する検討
モデルベース協調フィルタリングにおける推薦の透明性に関する検討
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
C:\D Drive\Prml\プレゼン\パターン認識と機械学習2 4章 D0703
 
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
PRML上巻勉強会 at 東京大学 資料 第2章2.3.3 〜 2.5.2
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
Prml nn
Prml nnPrml nn
Prml nn
 
EMアルゴリズム
EMアルゴリズムEMアルゴリズム
EMアルゴリズム
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク2014.02.20_5章ニューラルネットワーク
2014.02.20_5章ニューラルネットワーク
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究【論文調査】XAI技術の効能を ユーザ実験で評価する研究
【論文調査】XAI技術の効能を ユーザ実験で評価する研究
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
レコメンドシステムの社会実装
レコメンドシステムの社会実装レコメンドシステムの社会実装
レコメンドシステムの社会実装
 

Viewers also liked

東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術SOINN Inc.
 
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)SOINN Inc.
 
Dr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D ThesisDr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D Thesis
SOINN Inc.
 
ロボットによる一般問題解決
ロボットによる一般問題解決ロボットによる一般問題解決
ロボットによる一般問題解決SOINN Inc.
 

Viewers also liked (9)

PBAI
PBAIPBAI
PBAI
 
東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術東工大 長谷川修研の環境学習・認識・探索技術
東工大 長谷川修研の環境学習・認識・探索技術
 
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)
 
SSA-SOINN
SSA-SOINNSSA-SOINN
SSA-SOINN
 
E-SOINN
E-SOINNE-SOINN
E-SOINN
 
I
II
I
 
Dr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D ThesisDr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D Thesis
 
PIRF-NAV2
PIRF-NAV2PIRF-NAV2
PIRF-NAV2
 
ロボットによる一般問題解決
ロボットによる一般問題解決ロボットによる一般問題解決
ロボットによる一般問題解決
 

More from SOINN Inc.

Original SOINN
Original SOINNOriginal SOINN
Original SOINN
SOINN Inc.
 
PhDThesis, Dr Shen Furao
PhDThesis, Dr Shen FuraoPhDThesis, Dr Shen Furao
PhDThesis, Dr Shen Furao
SOINN Inc.
 
SOIAM (SOINN-AM)
SOIAM (SOINN-AM)SOIAM (SOINN-AM)
SOIAM (SOINN-AM)
SOINN Inc.
 
学生さんへのメッセージ
学生さんへのメッセージ学生さんへのメッセージ
学生さんへのメッセージSOINN Inc.
 
超高速オンライン転移学習
超高速オンライン転移学習超高速オンライン転移学習
超高速オンライン転移学習SOINN Inc.
 

More from SOINN Inc. (6)

Original SOINN
Original SOINNOriginal SOINN
Original SOINN
 
PhDThesis, Dr Shen Furao
PhDThesis, Dr Shen FuraoPhDThesis, Dr Shen Furao
PhDThesis, Dr Shen Furao
 
SOINN PBR
SOINN PBRSOINN PBR
SOINN PBR
 
SOIAM (SOINN-AM)
SOIAM (SOINN-AM)SOIAM (SOINN-AM)
SOIAM (SOINN-AM)
 
学生さんへのメッセージ
学生さんへのメッセージ学生さんへのメッセージ
学生さんへのメッセージ
 
超高速オンライン転移学習
超高速オンライン転移学習超高速オンライン転移学習
超高速オンライン転移学習
 

Recently uploaded

「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
嶋 是一 (Yoshikazu SHIMA)
 
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援しますキンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
Takayuki Nakayama
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
chiefujita1
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
Toru Tamaki
 
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
Osaka University
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
Matsushita Laboratory
 
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライドHumanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
tazaki1
 
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language ModelsGenerating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
harmonylab
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
t m
 

Recently uploaded (10)

「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
 
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援しますキンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
 
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
 
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライドHumanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
 
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language ModelsGenerating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
 

SOINN-AM