SlideShare a Scribd company logo
1 of 25
DeepMind社周辺
の動向調査
(株)数理先端技術研究所
生島高裕
1
目次
1.この研究会について
2.前回からの流れ
3.DeepMind社周辺の動向調査
4.他の動き
5.今後の展開
2
DeepMind社周辺の動向調査
Neural Turing Machine (2014, NTM,Google DeepMind)
Memory Networks (2015,Facebook)
Pointer Networks (2015,Google Brain)
Dynamic Memory Networks (2016,MetaMind)
Differentiable Neural Computer (2016,DNC,DeepMind)
3
組織概要
● Google Brain
2011年に開始、現在は終了
● MetaMind
2014/12スタート、2016/4Salesforce.comが買収
● Google DeepMind
2010 DeepMind Technologiesとして起業
2014 Googleに買収
● FaceBook AI リサーチ 2013/12/10
4
Neural Turing Machine (2014, NTM)
● Abstract
NNに外部メモリリソースを付与
Turing MachineやVon Neumannのアーキテクチャに類似
コピー、ソート、連想記憶が実現できる
● 1 Introduction
コンピュータプログラム以下の3つを利用する
基本的なメカニズム(算術演算など)
論理フロー制御(分岐)
読み書き可能な外部メモリ
RNNはTuring-Complete
Neural turing machine(NTM)
大規模でアドレス可能なメモリを使用しているためこの命名になっている
NTMは勾配降下によって訓練できる微分可能なコンピュータ
ワーキングメモリのモデルと密接に類似
5
Neural Turing Machine (2014, NTM)
● 2 基礎研究 Foundational Research
● 2.1 心理学と神経科学 Psychology and Neuroscience
心理学者は作業記憶の容量制限を広範に研究しており、これはしばしば容易に想起できる情報の
「チャンク(chunk)」の数によって定量化される(Miller、1956)
これらの容量の制限は、人間の作業記憶システムにおける構造上の制約を理解することになり、
NTMでは、それを超えた
神経科学では、作業記憶プロセスは、前頭前皮質と基底核からなるシステムの機能に帰されている
(Goldman-Rakic、1995)。
前頭前野の単一ニューロンまたはニューロン群で記憶され、サルは、一時的なキューを観察し、
「遅延時間」を待ってから、キューに依存して応答するタスクを実行する。
特定のタスクは、delay period中の個々のニューロンからの持続的な発火またはより複雑な神経動態を
引き出す
6
Neural Turing Machine (2014, NTM)
最近の研究では、population codeの「次元性」の測定に基づいて、複雑なコンテキスト依存タスクの
前頭前野における遅延期間の活動を定量化し、記憶能力を予測することを示した(Rigotti et al.、2013)。
作業記憶のモデリング研究は、生物物理学的回路が持続的なニューロン発火を実現する方法
(Wang、1999)から明示的タスク(Hazy et al.、2006)(Dayan、2008)(Eliasmith、2013)
これらのうち、Hazyらのモデルは、私たち自身を修正したロング短期記憶アーキテクチャに類似している
ので、私たちの仕事に最も関連している
7
Neural Turing Machine (2014, NTM)
2.2 認知科学と言語学 Cognitive Science and Linguistics
認知科学と言語学は、コンピュータの登場によって深く影響を受けた人工知能とほぼ同じ時期に現れた
(Chomsky、1956)(Miller、2003)
目的はは、情報やシンボル処理のメタファーに基づいて人間の精神的行動を説明すること
1980年代初め、両分野とも再帰的または手続き的(ルールベース)のシンボル処理が認知の最も大きな兆
候であると考えた
並列分散処理(PDP)または連合主義の革命は、いわゆる「サブシンボリック」な思考の記述に賛成して、
シンボル処理のメタファーを脇に投げかけたプロセス(Rumelhartら、1986)。
8
Neural Turing Machine (2014, NTM)
2.2 認知科学と言語学 Cognitive Science and Linguistics
Fodor and Pylyshyn(Fodor and Pylyshyn、1988)は、認知モデリングのためのニューラルネットワークの限界に
ついて2つの有名な主張
1.コネクショニスト理論が可変バインディング、または特定のデータムをデータ構造内の特定のスロ
ットに割り当てることができないと主張
言語では、変数バインディングは遍在している
例えば、「メアリーはジョンに話しました」という形式の文を生成したり解釈したりすると、
「メアリー」には主語の役割が割り当てられ、「ジョン」にはオブジェクトの役割が割り当てられ、
「話しました」は動詞
2.FodorとPylyshynは、固定長入力ドメインを持つニューラルネットワークは、可変長構造を処理する
タスクで人間の能力を再現できないと主張した。
9
Neural Turing Machine (2014, NTM)
2.2 認知科学と言語学 Cognitive Science and Linguistics
Hinton(Hinton、1986)、Smolensky(Smolensky、1990)、Touretzky(Touretzky、1990)、Pollack(Pollack、1990)、
Plate(Plate、2003)およびKanerva(Kanerva、1990)を含むニューラルネットワーク研究者は、 2009)は、
●連結主義的枠組みの中で可変的結合と可変長構造の両方を支持することができる特定のメカニズムを研
究した。
私たちのアーキテクチャは、この作業を引き出し、強化した
可変長構造の再帰的処理は、人間の認知の特徴であるとみなされている
10
Neural Turing Machine (2014, NTM)
2.2 認知科学と言語学 Cognitive Science and Linguistics
問題になるのは、再帰的処理が、言語を可能にし、言語に特化した「ユニークな人間」の進化的イノベ
ーションであるかどうか、
また、Fitch、Hauser、Chomsky(Fitch et al.、2005)が支持する見解であるか、
人間言語の進化と再帰的処理は言語よりも前のものである(Jackendoff and Pinker、2005)
再帰的処理の進化の起源にかかわらず、人間の認知の柔軟性に不可欠である
以下は、「問題解決手法を自動で見つけるA.I.開発動向リサーチ」 八島さん解説へ
11
Differentiable Neural Computer (DNC)
1.Abstract
NN
感覚処理、シーケンス学習、強化学習
課題:変数やデータ構造の表現、外部メモリ
微分可能な神経計算機(DNC)
外部メモリマトリックスとの間で読み書きが可能なニューラルネットワークから構成
自然言語で推論や推論の問題をエミュレートするように設計された合成質問にうまく答えることができ
る
特定点間の最短経路を見つけ出し、無作為に生成されたグラフの欠落リンクを推定し、
これらのタスクを輸送ネットワークや家系図などの特定のグラフに一般化するなどのタスクを学習
強化学習で訓練することにより、DNCは邪魔なブロックを動かすパズルを解くことができた。
このパズルでは、ゴールは一定でなく記号の並びとして設定されている。
12
Differentiable Neural Computer (DNC)
2.Introduction
現代のコンピュータは、計算とメモリを分離し
演算は、アドレス可能なメモリを使用して
オペランドを出し入れすることができるプロセッサによって実行される。
2つの重要な利点
拡張可能なストレージの使用
メモリの内容を変数として扱う機能
変数はアルゴリズムの一般性にとって重要
同じプロシージャを1つのdatumまたは別のdatumで実行するには、アルゴリズムは読み取るアドレスを変更
するだけ
13
Differentiable Neural Computer (DNC)
2.Introduction
NNの計算資源および記憶資源は、ネットワーク重みおよびニューロン活動において混合されている。
大きな負担:新しいストレージを動的に割り当てることができない
認知科学者や神経科学者
変数とデータ構造表現する能力に限界があると主張してきた
NNに外部メモリへの読み書きアクセスを提供することにより、NNと計算処理の利点を組み合わせること
を目指している。
アクセスは局所的に集中しており、メモリ間の干渉を最小限にし、長期保存可能にする
システム全体は微分可能であるため、勾配降下によってエンドツーエンドで訓練することができ、ネッ
トワークは目標指向の方法でメモリを操作し、編成する方法を学習できます。
14
Differentiable Neural Computer (DNC)
3.System overview
従来のコンピュータ
メモリ内容にアクセスするための固有のアドレスを使用
a. コントローラ
b. Read and write heads
c. Memory
d. Memory usage and temporal links
DNC
微分注目機構使用上の分布を定義するために、
N個の内、行
または「場所」N×W 記憶マトリックスM
15
Differentiable Neural Computer (DNC)
3.System overview
重み付けと呼ばれるこれらの分布
各位置が読み書き操作に関与する度合いを表す
書き込みヘッド
N×Wメモリマトリックスを編集するために使用
書き込みベクトルおよび消去ベクトルを定義
コンテンツルックアップに書き込みキーを使用して
以前に書き込まれた場所を検索して編集
書込みキーは、
メモリマトリクス内の行または位置にわたって
書込み動作を選択的に集中させる重み付けの定義に寄与する
16
Differentiable Neural Computer (DNC)
4.Interaction between the heads and the memory
ヘッドとメモリの相互作用
3つのattention
①コントローラによって発せられた鍵ベクトル類似性測度に応じてメモリ内の各位置の内容と比較され
ている
類似性スコア
連想リコールのために読取りヘッドによって、またはメモリ内の既存のベクトルを修正するために書込
みヘッドによって使用され得る重み付けを決定する。
メモリロケーションのコンテンツと部分的にしか一致しないキーは、そのロケーションに強く依存する
ために引き続き使用できる
17
Differentiable Neural Computer (DNC)
4.Interaction between the heads and the memory
パターンの完成が可能になり、メモリ位置を読み取ることによって回復される値は、キーに存在しない
追加の情報を含む
キー値検索は、外部メモリ内の連想データ構造をナビゲートするための豊富なメカニズムを提供
16、17、19、20、21論文に基づく
19:Hintzman, DL MINERVA 2: a simulation model of human memory .
https://link.springer.com/article/10.3758/BF03202365
モデルは、
(1)エピソードトレースのみがメモリに記憶されていること、
(2)アイテムの複数のトレースを繰り返すこと、
(3)検索キューがすべてのメモリトレースに同時に接触すること、
(5)すべてのトレースが並行して応答し、検索された情報がそれらの合計出力を反映すること。
18
Differentiable Neural Computer (DNC)
4.Interaction between the heads and the memory
このモデルは、周波数および認識の判断タスク、
スキーマ抽象化タスク、およびペアアソシエート学習において、
人間の被験者に見られる様々な現象に成功して適用されてきました。
[2]N×Nの時間的リンク行列Lにおける連続的に書き込まれた位置の間の遷移を記録
[3]書き込みのためのメモリを割り当て
各位置の「使用法」
0と1の間の数として表され、
使用されていない場所を選ぶ重み付けが書込みヘッドに送られる。
19
Differentiable Neural Computer (DNC)
4.Interaction between the heads and the memory
しかし、DNCの記憶メカニズムと哺乳動物海馬の機能能力との間には、興味深い類似点がある。
DNCメモリの修正は速く、ワンショットにすることができ、海馬CA3シナプスおよびCA1シナプスの長期的
な増強に似ています22。
海馬歯状回(neurogenesis)23を支持することが知られている領域は、表現型
希薄さを増加させ、それにより記憶容量を24倍にすることが提案されている24:使用量ベースのメモリ割
り当ておよび疎な重み付けは、本モデルで同様の機能を提供する可能性があります。
人間の「フリー・リコール」実験は、一時的な文脈モデル25によって説明される海馬依存性の現象であり、
一時的なリンク(方法)の形成といくらかの類似性を有する、最初に提示されたのと同じ順序でのアイ
テム想起の増加した確率を示す。
20
課題
シナプス結合
シナプスの体積、レセプターの密度
神経伝達物質の多様性
誤差逆伝播
多くの脳科学者は脳が誤差逆伝播を用いているとは思っていない
情報伝達効率最大化
豊泉太郎 Ph.D.
経験に応じて神経回路が学習するしくみを理論的に解明したい。
21
創造性議論
● 説明性の獲得方法
知識レイヤをどう実現しているのか?
脳のモデル
共同化と表出化問題
● ソーカル事件
初等教育での意味判定問題
哲学者に対して行ったソーカルテスト
上位オントロジー(哲学的な意味での)知識ベース
評価系の違いによって解釈が違う
クリータとオーディエンスの非対称性
オーディエンスは評価関数、従ってクリエータのクリエータでメタ
社会現象も経済学、政治学、社会学から評価体系
● ドキュメントの自動生成
● 詐欺的な行動をする人の更生&モラリストばかりでの多様性の消滅
22
シンギュラリティに関する論争パターン
<応用編>
(1)マネー消滅派vsアンチマネー消滅派
第4次産業革命で指数関数的生産性の向上で貨幣が無くなる
マネー消滅派:土地などの一部の資産のみ電子政府管理下
アンチマネー消滅派:貨幣供給量を増やすことで対応する
(2)電子政府派vsアンチ電子政府派
AIが進むことにより、電子化が進行し人手が要らなくなる
電子政府派:最終意思決定以外、信用できない人間は排除
アンチ電子政府派:AIの暴走が怖いので非効率でも人間で
<基礎編>
(3)超知能派vsアンチ超知能派
シンギュラリティは起こる起こらないかの論争
超知能派:人間が現れたのにそれ以上の知能が現れるのは必然
アンチ超知能派:人間は崇高な生物なのでそう簡単には無理
23
シンギュラリティに関する論争パターン
(4)暗黙知派vsアンチ暗黙知派
暗黙知が形式知に変換でき且つ意味があるのかの論争
暗黙知派:暗黙知は効率が良い、全て表出化必要なし
アンチ暗黙知派:暗黙知は必ず形式知に変換可能、伝承の問題 SECIモデルのループを形成したい。
(5)身体性派vsアンチ身体性派
AIに身体性は必要かどうかの論争
身体性派:人間の心にとって身体性なくしては成り立たない
アンチ身体性派:感性をバーチャル情報で意識&自我に接続
(6)AI評価派vsアンチAI評価派
創造物をAIに評価させるべきか、べきでないかの論争
AI評価派:人間は不完全、いずれは人間を超えたAIに任すべき
アンチAI評価派:AIに任せてはダメ、最後は人間が評価
24
シンギュラリティに関する論争パターン
<ポストシンギュラリティ>
(8)超知能理解可能派vsアンチ超知能理解可能派
超知能は万能チューリングマシンの範疇かそれ以上か?
超知能理解可能派:UTMなら段階的詳細説明で理解可能
アンチ超知能理解可能派:UTM以上もしくはスピードで無理
(9)超知能善派vsアンチ超知能善派
超知能は善を創発し、無駄な争いはなくなるか?
超知能善派:超知能たるもの仙人レベル争いは超越している
アンチ超知能善派:知能と善悪は別従って人間よりリスク大
25

More Related Content

Similar to 20170415ーDeepMind社周辺の動向調査[公開].pptx

大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術
Yahoo!デベロッパーネットワーク
 

Similar to 20170415ーDeepMind社周辺の動向調査[公開].pptx (20)

[Japan Tech summit 2017] MAI 001
[Japan Tech summit 2017]  MAI 001[Japan Tech summit 2017]  MAI 001
[Japan Tech summit 2017] MAI 001
 
2018/07/26 Game change by Deep Learning and tips to make a leap
2018/07/26 Game change by Deep Learning and tips to make a leap2018/07/26 Game change by Deep Learning and tips to make a leap
2018/07/26 Game change by Deep Learning and tips to make a leap
 
Deep Learning Abstract
Deep Learning AbstractDeep Learning Abstract
Deep Learning Abstract
 
Dat002 ディープラーニン
Dat002 ディープラーニンDat002 ディープラーニン
Dat002 ディープラーニン
 
2018/3/23 Introduction to Deep Learning by Neural Network Console
2018/3/23 Introduction to Deep Learning by Neural Network Console2018/3/23 Introduction to Deep Learning by Neural Network Console
2018/3/23 Introduction to Deep Learning by Neural Network Console
 
基本から学ぶ ビッグデータ / データ分析 / 機械学習 サービス群
基本から学ぶ ビッグデータ / データ分析 / 機械学習 サービス群基本から学ぶ ビッグデータ / データ分析 / 機械学習 サービス群
基本から学ぶ ビッグデータ / データ分析 / 機械学習 サービス群
 
[Gree] グリーのソーシャルゲームにおける機械学習活用事例
[Gree] グリーのソーシャルゲームにおける機械学習活用事例[Gree] グリーのソーシャルゲームにおける機械学習活用事例
[Gree] グリーのソーシャルゲームにおける機械学習活用事例
 
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
 
2017首都大学東京情報通信特別講義
2017首都大学東京情報通信特別講義2017首都大学東京情報通信特別講義
2017首都大学東京情報通信特別講義
 
AIとScrumとスケール
AIとScrumとスケールAIとScrumとスケール
AIとScrumとスケール
 
機械学習によるリモートネットワークの異常検知
機械学習によるリモートネットワークの異常検知機械学習によるリモートネットワークの異常検知
機械学習によるリモートネットワークの異常検知
 
2018/06/22 Neural Network Console Tutorial
2018/06/22 Neural Network Console Tutorial2018/06/22 Neural Network Console Tutorial
2018/06/22 Neural Network Console Tutorial
 
大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術大規模サイトを支えるビッグデータプラットフォーム技術
大規模サイトを支えるビッグデータプラットフォーム技術
 
AI理論とビジネス 中井眞人氏 20171122
AI理論とビジネス 中井眞人氏 20171122AI理論とビジネス 中井眞人氏 20171122
AI理論とビジネス 中井眞人氏 20171122
 
Team ai 3
Team ai 3Team ai 3
Team ai 3
 
<インフラ管理者向け>チームでのAI開発を支援するAI開発プラットフォームKAMONOHASHI
<インフラ管理者向け>チームでのAI開発を支援するAI開発プラットフォームKAMONOHASHI<インフラ管理者向け>チームでのAI開発を支援するAI開発プラットフォームKAMONOHASHI
<インフラ管理者向け>チームでのAI開発を支援するAI開発プラットフォームKAMONOHASHI
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
 
首都大学東京「情報通信特別講義」2016年西尾担当分
首都大学東京「情報通信特別講義」2016年西尾担当分首都大学東京「情報通信特別講義」2016年西尾担当分
首都大学東京「情報通信特別講義」2016年西尾担当分
 
ACL2020
ACL2020ACL2020
ACL2020
 
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォームJubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
Jubatus: 分散協調をキーとした大規模リアルタイム機械学習プラットフォーム
 

Recently uploaded

Recently uploaded (8)

Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
 
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
 
情報を表現するときのポイント
情報を表現するときのポイント情報を表現するときのポイント
情報を表現するときのポイント
 
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
 
Keywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltdKeywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltd
 
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアルLoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
 
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdfネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
 
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイルLoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
 

20170415ーDeepMind社周辺の動向調査[公開].pptx