SlideShare a Scribd company logo
1 of 36
Download to read offline
http://deeplearning.jp/
A Path Towards Autonomous Machine Intelligence
小林 範久 Present Square Co.,Ltd.
DEEP LEARNING JP
[DL Papers]
1
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
書誌情報
A Path Towards Autonomous Machine Intelligence
https://openreview.net/forum?id=BZ5a1r-kVsf&fbclid=IwAR0V0k7AXd-
lkSkvQrst1tu0bt1N7ZpWkh683tFFxkBw92OduOwy0wnmQGQ
タイトル:
著者: Yann LeCun
• Yann LeCunさんの人工知能を実現するためのポジションペーパー。
• すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。
• JEPA と 階層的JEPAを提案。
• 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。
• 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。
概要:
2
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
アジェンダ
1. プロローグ
2. はじめに
3. 自律知能のためのモデル・アーキテクチャ
4. World model の設計と育成
5. Actor の設計と育成
6. Configurator の設計
7. 関連研究
8. 考察
3
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
1. プロローグ
プロローグ
4
• この文書は、伝統的な意味での技術論文でも学術論文でもなく、動物や人間の
ように学習し、推論や計画を行うことができ、外部の教師、外部の報酬ではなく、
内在する目的によって行動を起こす知的機械への道を示す、私のビジョンを表現
したポジションペーパーである。
• この論文で述べられている多くのアイデア(ほとんどすべて)は、多くの著者によって
様々な文脈で様々な形で定式化されている。
• 本論文は、これらのアイデアのどれが優先されるかを主張するものではなく、それ
らをいかにして一貫した全体像に組み立てるかについての提案を行うものである。
特に、今後の課題を挙げている。また、成功する可能性のある、あるいはそうでない
道筋をいくつか挙げている。
画像出典:
https://ja.wikipedia.org/wiki/%E3%83%A4%E3%83%B3%E3%83%BB%E3%83%AB%E3%82%AB%E3%83%B3
Yann LeCun さん
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. はじめに
5
現在、AI研究が取り組むべき課題は大きく3つ
1. 機械は観察によって、どのようにして世界を表現すること、予測することを学び、
行動することを学ぶことができるのか?
2. 機械はどのようにして、勾配に基づく学習と互換性のある方法で推論し、
計画を立てることができるのか?
3. 知覚や行動計画を、階層的に複数の抽象度で、複数の時間スケールで表現することを、
機械はどのように学習するのだろうか。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. はじめに
6
本論文の主な貢献は以下の4つ
1. すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。
2. JEPA と 階層的JEPAを提案。
3. 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。
4. 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. はじめに
7
2.1 ラーニングワールドモデル
• 人間や動物は、少ないインタラクションと観察を通して、世界の仕組みと背景知識を学ぶことができるようである。これは、し
ばしば常識と呼ばれるものを基礎を構成していると仮定できる。常識的な知識は、単に将来の結果を予測するだけでなく、
時間的、空間的に欠落した情報を補うことができる。常識とは、何がありそうで、何がありえないかを教えてくれる世界モ
デルの集合体と見ることができる。
• このような世界モデルを用いると、ほとんど試行することなく新しい技能を習得することができる。動物たちは、自分の行
動のシーケンスを予測し、推論し、計画し、探索し、問題に対する新しい解決策を想像することができる。
• 教師なし(または自己教師あり)方式で世界モデルを学習し、そのモデルを用いて予測、推論、計画を行うことを可能
にする学習パラダイムとアーキテクチャを考案することが、AIとMLの主要課題の1つであると考えている。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. はじめに
8
• 乳幼児がどの年齢で、世界の仕組みに関する様々な概念を一般に何歳ごろに獲得するかを示した図。
• 抽象度の高い概念は、低い概念の上に発達していくようである。
• このような知識の多くは、特に最初の数週間から数ヶ月の間は、ほとんど直接的に介入することなく、観察によって獲得される。
2.2 人間と動物がモデルの階層を学ぶ
Emmanuel Dupoux氏による研究
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
2. はじめに
9
• 世界に関する知識と、行動や内発的な動機・目的とを組み合わせることで、動物は新しい課題を素早く学習し、その成
果を予測することができる。
• 自分の行動がもたらす結果を予測し、計画的に行動し、成功の道筋を予測し、危険な状況を回避する。
2.2 人間と動物がモデルの階層を学ぶ
しかし、人間や動物の脳は、生存に必要な世界モデルをすべて含むことができるのだろうか?
• 本論文の一つの仮説は、動物も人間も前頭前野のどこかにたった一つの世界モデルエンジンを持っているというもので
ある。その世界モデル・エンジンは、目の前のタスクに合わせて動的に設定可能である。すべての状況に対して個別のモ
デルを持つのではなく、単一の設定可能な世界モデル・エンジンがあれば、世界の仕組みに関する知識がタスク間で共有
されるかもしれない。これにより、ある状況に対して設定されたモデルを別の状況に適用することで、類推による推論が可
能になるかもしれない。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
10
自律知能のためのアーキテクチャ
• AIシステムが動物や人間のように学習し、推論するために、
6つの個別のモジュールで構成されるアーキテクチャを提案。
• 各モジュールは微分可能であると仮定し、自身の入力に対
する目的関数の勾配推定を容易に計算し、勾配情報を
上流のモジュールに伝搬させることができるとしている。
1. Configurator モジュール
2. Perception(知覚) モジュール
3. World Model モジュール
4. Cost モジュール
5. Actor モジュール
6. Short-term Memory モジュール
6つのモジュール
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
11
自律知能のためのアーキテクチャ
1.configuratorモジュール
• 実行制御を行う。
• 実行すべきタスクが与えられると、知覚モジュール、世界モデ
ル、コスト、およびActorを目前のタスクのために設定する。
(または、これらのモジュールのパラメータを調整する。)
2.Perception(知覚)モジュール
• センサーから信号を受け取り、世界の現在の状態を推定する。
• あるタスクでは、知覚された世界の状態のごく一部だけが関
連し、有用である。Configuratorモジュールは、目前のタス
クに関連する情報を知覚モジュールから抽出する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
12
自律知能のためのアーキテクチャ
3.World Model(世界モデル) モジュール
• アーキテクチャの中で最も複雑な部分を構成。その役割は2つ。
(1) 知覚によって世界の状態に関する不足情報を推定すること。
(2) 世界のもっともらしい将来の状態を予測すること。
• 世界モデルは、世界の自然な進化を予測したり、Actorモジュールが
提案する一連のアクションの結果として将来の世界の状態を予測す
ることができる。世界モデルは、タスクに関連する世界の部分の一種
のシミュレ ータである。世界は不確実性に満ちているので、モデルは
複数の可能な予測を表すことができなければならない。
例)交差点に近づくドライバーは、交差点に近づく他の車が
一時停止標識で止まらない場合に備えて、速度を落とすかもしれない。と予測する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
13
自律知能のためのアーキテクチャ
4.Costモジュール
• エージェントの「不快感」のレベルをエネルギーと呼ばれるスカラー量
として測定する。エネルギーは2つのサブモジュール(固有コストモ
ジュールとCriticモジュール)の和である。
固有コストモジュール
不変(訓練不可能)であり、即時の不快感(エージェントの
損傷、ハードコードされた行動制約の違反など)を計算する。
Criticモジュール
固有コストの将来の値を予測する訓練可能なモジュール。
• エージェントの全体的な目的は、平均エネルギーを最小にするような状態に留まるように行動すること。
• コストモジュールは微分可能なので、コストの勾配を他のモジュールに逆伝播して、計画、推論、学習を行うことができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
14
自律知能のためのアーキテクチャ
5.Actor モジュール
• 一連の動作の提案を計算し、動作を出力する。世界モデルに対して行動
シーケンスを提案する。世界モデルは行動シーケンスから将来の世界状態
シーケンスを予測し、コストに供給する。このとき、コストは提案された行動
シーケンスに関連する将来の推定エネルギーを計算する。
• 提案された行動シーケンスに関する推定コストの勾配にアクセスできるので、
勾配に基づく方法を用いて推定コストを最小化する最適な行動シーケンス
を計算することができる。
6.Short Term Memory (短期記憶)モジュール
• 世界の過去、現在、未来の状態に関する関連情報と、それに対応する固有コ
ストの値が格納される。
• 世界モデルは、将来(または過去)の状態を時間的に予測しながら、また、
現在の世界の状態について欠落した情報を空間的に補完したり矛盾した情報
を修正しながら、短期記憶にアクセスし更新する。世界モデルは短期記憶にク
エリーを送り、取り出された値を受信したり、状態の新しい値を保存したりするこ
とができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
15
典型的な知覚-行動ループ
• 世界モデルとコストを通じて推論と計画を行う。
• Kahnemanの「システム2」になぞらえて「モード2」と呼ぶこと
にする。ここでいう「推論」とは、エネルギー最小化を意味する
広義の言葉として使用する。
モード-1
• 複雑な推論を伴わず、知覚の出力と可能な限りの短期記憶
モジュールから直接行動を起こす。
• Kahnemanの「システム1」との類似性から、これを「モード1」と
呼ぶことにする。
モード1
モード2
知覚モジュールとActorモジュールのエピソードに対して、採用できる2つのモード。
モード2
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
16
モード-1: 反応行動
• 知覚モジュールは、エンコーダを介して、タスクに関連する情報を含む世界
の状態の表現 𝑠[0] = 𝐸𝑛𝑐(𝑥)を抽出する。
• 𝐹[0] = 𝐶(𝑠[0]) とし、 (𝑠[0], 𝑓(0)) を短期メモリに格納する。
• Actorのコンポーネントであるポリシーモジュールは、状態の関数としてアク
ションを生成する。𝑎[0] = 𝐴(𝑠[0])となる。
• 世界モデル 𝑠(1) = 𝑃𝑟𝑒𝑑(𝑠[0], 𝑎[0]) と 関連するエネルギー𝑓[0] =
𝐶(𝑠[0])を用いて次の状態を予測する。取られた行動の結果としての次の
観測が利用可能になった時点で、世界モデルを調整することができるように
することもできる。
モード1
• 世界モデルを用いることで、エージェントは行動を想像し、その効果や結果
を予測することができる。これにより、外界で複数の行動を試し、その結果
を測定することができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
17
モード-2:世界モデルを使った推論と計画
モード2
Perception(知覚)モジュール
• 世界の状態 s[0] を推定する。
Actorモジュール
• 一連の行動 𝑎[0], 𝑎[1], … 𝑎[𝑡], 𝑎[𝑡 + 1], ….𝑎[𝑇]を提案する。
世界モデルモジュール
• 𝑠[𝑡+1] = 𝑃𝑟𝑒𝑑(𝑠[𝑡], 𝑎[𝑡]) を用いて、世界の状態の推定値を再帰的に予測する。
コストモジュール
• C(s[t])は予測された各状態のエネルギーを計算し、それらの合計を総エネルギーとする。
Actorモジュール
• 総エネルギーを最小化するアクションのシーケンスを推論する。そして、そのシーケンス内の最初のアクションをエフェクタに送信する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
18
モード-2:世界モデルを使った推論と計画
1. 知覚
2. 行動提案
3. シミュレーション
4. 評価
5. 計画
知覚システムは、世界の現在の状態の表現 𝑠[0] = 𝑃 (𝑥) を抽出する。
コストモジュールは、その状態に関連する即時コストを計算し、格納する。
Actorは、評価のために世界モデルに供給されるアクションの初期シーケンスを提案する。
𝑎 0 , … , 𝑎 𝑡 , … , 𝑎 𝑇
世界モデルは、提案された行動シーケンス(𝑠[1], … , 𝑠[𝑡], … , 𝑠[𝑇 ])から生じる世界状態表現の一つまたは
複数の可能性のあるシーケンスを予測する。
コストモジュールは、予測された状態遷移から総コストを推定する。
一般に時間ステップの総和として 𝐹 (𝑥) = σ𝑡=1
𝑇
𝐶 [𝑠[𝑡]]
Actorはより低いコストで新しい行動シーケンスを提案する。これは、コストの勾配が計算グラフを通してアクショ
ン変数に逆伝播される勾配ベースの手順によって行うことができる。結果として得られる最小コストの行動列は、
(ු
𝑎[0], … , ු
𝑎[𝑇 ]) と表記される。
6. 行動
7. 記憶
低コストの行動シーケンスに収束した後、Actorは低コストのシーケンス の最初の行動(または最初のいくつか
の行動)をエフェクタに送る。このプロセス全体が、次の知覚-行動エピソードに対して繰り返される。
全ての行動の後、固有コストモジュールとCriticモジュールからの状態と関連するコストが短期メモリに格納され
る。これらのペアは後でCriticの訓練や適応に利用することができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
19
「モード2」から「モード1」へ:新しいスキルの習得
• モード2最適化の結果得られる行動を近似的に実現
するためのポリシーモジュール𝐴(𝑠[𝑡])の学習方法を示
す。(右図)
モード2 推論の結果から、反応性ポリシーモジュールをトレーニングする
𝑠[𝑡 + 1] = 𝑃𝑟𝑒𝑑(𝑠[𝑡], 𝑎[𝑡]) ; ු
𝑎[𝑡 + 1] = 𝐴(𝑠[𝑡 + 1])
• 最適な行動とポリシーモジュールの出力との間の発散 𝐷(ු
𝑎[𝑡]), 𝐴(𝑠[𝑡]) を最小にするようにポリシーモジュールのパラメータが調整され
る。一旦訓練されると、ポリシーモジュールはモード1における行動 ු
𝑎[0] = 𝐴(𝑠[0])を直接生成するために使用することができる。ま
た、モード2最適化の前に、初期行動を再帰的に計算するために使用することもできる。この結果、ポリシーモジュールは、償却推論
を行い、良いアクションシーケンスの近似を生成する。
• モード 2 で動作し、最適な一連の行動
(ු
𝑎[0], … , ු
𝑎[𝑇]) を生成する。
①
②
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
20
3.2 行動の原動力となるコストモジュール
• コストモジュールは、不変の 𝑰𝑪(𝒔)と、Criticまたは訓練可能なコ
スト 𝑻𝑪(𝒔) から構成される。
• ICとTCはともに複数のサブモジュールからなり、その出力は線形
に合成される。
• 線形結合の重み 𝑢𝑖 と 𝑣𝑗 はConfiguratorモジュールによって
決定される。これにより、エージェントが異なるサブゴールに集中す
ることを可能にする。
コストモジュールのアーキテクチャ
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
3. 自律知能のためのモデル・アーキテクチャ
21
3.3 Critic の訓練
• Criticの主な役割は、固有コストの将来値を予測すること。
• 固有コストモジュールは、トリプレット(時間𝜏 、状態𝑠𝜏 、固有エネル
ギー𝐼𝐶(𝑠𝜏) )を格納する短期記憶モジュール。
• 保存された状態と対応する固有コストは、知覚された状態、または
モード2エピソード中に世界モデルによって想像した状態に対応するこ
とができる。
• 短期記憶は時間𝜏が与えられた状態 𝑠τ を検索し、時間τまたは状
態 𝑠𝜏 が与えられた固有コスト𝐼𝐶(𝑠𝜏) を検索することができる。
• 過去の状態ベクトル 𝑠τ と、後の時間における固有コスト IC(𝑠τ + 𝛿) を取得することで、将来の固有コスト値を予測するように
Criticを訓練できる。
• Critic のパラメータは、 IC(𝑠τ + 𝛿) − 𝑇𝐶(𝑠τ) 2
のような予測損失を最小化することで最適化できる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
22
Joint-Embedding Predictive Architecture(JEPA)
• 2つのエンコーディングブランチから構成される。最初のブランチは 𝑥 の表現である 𝑠𝑥
を計算し、2 番目のブランチは 𝑦 の表現である 𝑠𝑦 を計算する。
• 𝑥 から yの予測を明示的に生成することなく 𝑥 と 𝑦 の依存関係を捉える。
• 予測器モジュールは、潜在変数 𝑧 の入力を受け、𝑠𝑥 から 𝑠𝑦 を予測する。
• 2 つのエンコーダーは異なっていて良く、同じアーキテクチャである必要はない。パラ
メータを共有する必要もない。このため、𝑥 と 𝑦 は異なる性質を持つことができる。
(例: ビデオとオーディオ)。
• 予測器モジュールは 𝑥 の表現から 𝑦 の表現を予測する。予測器は潜在的な変数
𝑧 に依存することがある。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
23
Joint-Embedding Predictive Architecture(JEPA)
① エンコーダ関数 𝑠𝑦 = 𝐸𝑛𝑐(𝑦) は、異なる 𝑦 の集合に対して同じ 𝑠𝑦 を
生成させる不変性を持っているかもしれない。
② 潜在変数 𝑧 は、集合𝑍上で変化させたとき、もっともらしい予測の集合
を生成することができる。
JEPAの主な利点
• 𝑥が分かれ道に差し掛かった車の映像の場合、𝑠𝑥、𝑠𝑦は、分岐前と分岐後の車の位置、姿勢、速度などの特性を
それぞれ表し、道路に接する木や歩道の質感などの無関係な部分は無視される。
• z は、道路左側の分岐を進むか、右側の分岐を進むかを表す。
エンコーダーによって表現空間で予測を行い、𝑦 のすべての詳細を予測する必
要をなくし、無関係な詳細を除去できる。
𝒙, 𝒚, 𝒔𝒙, 𝒔𝒚, 𝒛 の具体例
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
24
エネルギーベースモデル(EBM)のトレーニング
※学習サンプルは青い点。エネルギーの低い領域はオレンジ色。
EBMトレーニングのための対照法と正則化法
対照法
• 学習サンプルのエネルギー(青い点)を押し下げ、適切に配置
された対照サンプルのエネルギー(緑の点)を引き上げる。
• 対照法は、対照サンプルが置かれた場所でのみエネルギーが引き
上げられること。対照サンプルの数が、𝑦空間の次元に比例して指
数関数的に増加することが欠点。
正則化法(非対照法)
• 学習サンプルのエネルギーを押し下げ、低エネルギー領域の体積
を最小化するような正則化項を使用する。この正則化は、エネル
ギー関数の柔軟性が許す範囲で、データ密度の高い領域を低エ
ネルギー領域内に「収縮」させる効果がある。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
25
VICReg(Bardes et al., 2021)
• 分散、不変性、共分散正則化を用いたJoint-Embedding Architectures。画像 I のバッチが与えられると、異なるビュー X と X‘ の2
つのバッチが生成され、表現 Y と Y’ に符号化される。同じ画像からの2つの埋め込み間の距離は最小化され、バッチ中の各埋め込み変
数の分散は閾値以上に維持され、バッチ中の埋め込み変数のペア間の共分散は0に引き寄せられ、互いの変数が非相関化される。2つ
のブランチは同一のアーキテクチャを必要とせず、重みも共有しない。
• 各次元に沿った埋め込み値の分散に対する単純な正則化項により、崩壊問題を回避する。
(Variance-Invariance-Covariance Regularization For Self-Supervised Learning)
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
26
JEPA の学習
• JEPAは、正則化法(非対照法)を工夫して学習させる。
(対照法は高次元では非効率になる傾向がある)
: 𝑥 に関する 𝑠𝑥 の情報量を最大化する。
: 𝑠𝑦 の 𝑦 に関する情報量を最大化する。
: 𝑠𝑦 から容易に予測できるようにする。
: 予測に用いる潜在変数 𝑧 の情報量を最小化する。
• ①、②は、情報的な経過によってエネルギー表面が平坦になることを防ぐ。
• ③は、エネルギー項 𝐷(𝑠𝑦, ǁ
𝑠𝑦 )によって強制し、𝑦 が以下のものから予測可能であることを保証する。𝑥 を表現空間に配置する。
• ④は、潜在能力からの助けをできるだけ借りずに 𝑠𝑦 を予測するようモデルに強制することで、システムが別のタイプの情報の欠落の
犠牲になるのを防ぐ。
JEPA の非対照学習
① –I(𝑠𝑥)の最大化
② –I(𝑠𝑦)の最大化
③ D(𝑠𝑦, ෥
𝑠𝑦)の誤差の最小化
④ R(z)の最小化
JEPA の場合、以下の4 つの基準によって行うことができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
27
VICReg を用いた JEPAの学習
• 𝑠𝑥 と 𝑠𝑦 は、拡張器(𝐸𝑥𝑝())を通して高次元の埋め込み 𝑣𝑥 と 𝑣𝑦 に
マッピングすることで最大化する。サンプルのバッチ上で計算された2つの微
分可能な損失項を持つ損失関数を使うことで、埋め込みの共分散行列
を恒等式に向かわせる。
VICReg を用いた JEPA の学習
③表現予測誤差 𝐷(𝑠𝑦 , ǁ
𝑠𝑦) の最小化
④𝐷( 𝑠𝑦 , ǁ
𝑠𝑦 ) = 𝐷( 𝑠𝑦 , 𝑠𝑥 ) = 𝑠𝑦 − 𝑠𝑥
2
の最小化
①𝑣𝑥 = 𝐸𝑥𝑝(𝑠𝑥) Conv(𝑣𝑥) → I
②𝑣𝑦 = 𝐸𝑥𝑝(𝑠𝑦) Conv(𝑣𝑦) → I
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
28
階層型JEPA (H-JEPA)
• JEPA はエンコーダーを訓練して、入力の無関係な細部を排除し、
表現をより予測可能なものにできる。
• 抽象的な表現を学習できるため、階層的な積み重ねが可能である。
JEPA-1が低レベルの表現を抽出し、短期予測を行う。(右図)
• JEPA-2は、JEPA-1が抽出した表現を入力とし、より長期的な予
測が可能な高次の表現を抽出する。より抽象的な表現は、長期
予測が困難な入力の詳細を無視し、より粗い世界の状態の記述
で長期予測を行うことができる。
短期予測:数秒間にハンドルやペダルを操作する一連の動作。
→同じ時間内の自分の車の軌跡を正確に予測することができる。
長期予測:他の車や信号機、歩行者などの予測不可能な外的要因に左右される。
→より長い時間の軌跡を予測することは困難である。
しかし、高い抽象度であれば正確な予測をすることができる。
具体例
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
29
階層的プランニング
① 複雑なタスクは、高レベルの世界状態表現 𝐶(𝑠2[4])から計算される高レベルのコストで定義される。
② 𝐶(𝑠2[4])を最小化する高レベルの抽象アクション(𝑎2[2], 𝑎2[4])のシーケンスが推論される。
③ 推論された抽象アクションは、下位層のサブゴールを定義する下位コストモジュール 𝐶(𝑠[2]), 𝐶(𝑠[4]) に供給される。
そして、下位層はサブゴールコストを最小化する行動シーケンスを推論する。
※ここでは2層しか示していないが、多層も同様。
モード 2 階層計画のための階層的 JEPA
①
②
②
③
③
• マルチスケール世界モデルの階層性を利用した階層
的なモード2をプランニングするためのアーキテクチャ。
• 知覚は、エンコーダーのカスケードによって、複数の
抽象化されたレベルの表現にコード化される。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
4. World model の設計と育成
30
不確実性への対応
不確実性が存在する場合の階層的な計画エピソード
• 現実的な環境は、高度に抽象化された表現を用いても、完全に予測で
きるわけではない。予測に関する不確実性は、潜在変数を持つ予測変
数で処理することができる。
• 潜在変数(赤丸)には、事前観測から得られない予測に関する情報が
含まれている。潜在変数は、エネルギー崩壊を防ぎ、その助けなしに可能
な限り予測するようにシステムを強制するために、正則化されなければなら
ない。(R1、R2は、潜在変数に対する正則化)
• 計画時には、正則化にギブス分散を適用した分布から潜在変数をサンプ
リングする。各サンプルはそれぞれ異なる予測につながる。一貫性のある潜
在的な配列を生成するために、正則化器のパラメータは以前の状態や検
索された記憶の関数とすることができる。
• 各潜在変数がk個の可能な離散値を持つ場合、可能な軌道の数は𝑘𝑡 、ここで𝑡は時間ステップの数として成長する。このような場合、
直接探索と枝刈り戦略を採用しなければならない。複数の予測軌道があれば、平均コスト、あるいはリスクを最小化するためにコストの
平均と分散の組み合わせを最小化する最適な行動シーケンスを計算することができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
5. Actor の設計と育成
31
5. Actor の設計と育成
アクターモジュールの役割は、3つ。
1. 世界モデルによるMode-2行動の予測から、コストを最小化する最適な行動系列を推論する。
2. エージェントが知らない世界の状態の部分を表す潜在的な変数の複数の構成を生成する。
3. モード1アクションを生成するためのトレーニングポリシーネットワーク。
• Actionと潜在的な変数の間に概念的な違いはない。両方の変数セットの構成は、Actorによって探索されなければならない。
• 潜在変数については、不確実性の下で計画するために、構成を探索しなければならない。行動変数については、コストを最小化する最適
なものを生成するために、構成を探索しなければならない。敵対的なシナリオ(ゲームなど)では、コストを最大化する潜在的な構成を探
索しなければならない。事実上、アクターは、最適化と探索の両役割を果たす。
• 世界モデルとコストが良好に振舞うとき、アクターモジュールは勾配に基づく最適化処理を用いて最適な行動シーケンスを推論することがで
きる。そのために、コストと展開された世界モデルを通して勾配を逆伝播することによって計算されたコストの勾配の推定値を受信する。そし
て、その推定値を用いて行動シーケンスを更新する。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
6. Configurator の設計
32
6. Configurator の設計
• コンフィギュレータは、エージェントのメインコントローラ。他のすべてのモジュールから入力を受け、そのパラメータと接続グラフを調整する。
• 変調は、信号をルーティングしたり、サブネットワークを活性化したり、注意を集中させたりすることができる。予測器と知覚エンコーダの上
位層がトランスフォーマーブロックであるシナリオでは、コンフィギュレータの出力はこれらのトランスフォーマーブロックへの追加入力トークン
であり、それによってそれらの接続グラフと機能を変更することができる。
• コンフィギュレータモジュールの利点:ハードウェアの再利用と知識の共有の2つ。
(ある環境に対して学習させた世界モデルは、わずかな変更でさまざまなタスクに利用できる。)
欠点:エージェントが一度に一つのタスクしか達成できないこと。
• コンフィギュレータの最も重要な機能は、エージェントにサブゴールを設定し、このサブゴールのためのコストモジュールを設定することである。
• コストを設定可能にする簡単な方法は、初歩的なコストサブモジュールの線形結合の重みを変調することである。
• これに対して、より洗練されたアーキテクチャでは、コストのTrainable Critic部分を柔軟に変調させることができると想像される。
• 予測器と同様に、高レベルのコストがオブジェクト間の望ましい関係のセットとして定式化されている場合(例:ナットはネジにセットされ
ているか?)、世界の状態が満たされるべき条件からどの程度乖離しているかを測定するように訓練された変換器アーキテクチャを使
用することができる。予測器と同様に、トークン入力を追加して関数を調節することができる。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
7. 関連研究
33
関連研究
• 本論文で紹介されているアイデアのほとんどは新しいものではなく、認知科学、神経科学、最適制御、ロボット工学、AI、機械学習、
特に強化学習において様々な形で長く議論されてきたものである。
• 学習済みWorld Model
• モデル予測制御
• 階層的Planning
• エネルギーベースモデル(EBM)
• Joint-Embedding Architectures
• ヒトと動物の認知
特に結びつきの強い研究
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
8. 考察
34
提案モデルに欠けているもの
• 動画から階層型JEPAを構築し、学習させることができるのか、という問題。
提案されたアプローチの広範な妥当性
Q.動物の知能モデルの基礎になりうるか?
• 提案するアーキテクチャは、単一の世界モデルエンジンを持ち、コンフィギュレータによって手元のタスクに合わせて設定することができる。
もし、脳が独立した設定不可能な世界モデルを多数含むほど大きければ、コンフィギュレータは不要となり、意識の錯覚はなくなる
と考えられる。
Q.スケーリングが全てなのか?報酬は本当に十分か?
• スケーリングだけでは不十分。現在のモデルは非常に限定的な推論しかできない。
Q.機械が常識を獲得する道となり得るか?
• 世界観測のセルフコンシステント(求めるべき解が自分自身を含むような問題)と相互依存性を捉えた世界モデルを学習するこ
とで、エージェントが情報の欠落を補い、世界モデルの違反を検出することで、常識が生まれるのではないかと推測している。
Q. 推論に記号は必要なのか?
• 勾配に基づく探索方法が勾配を用いない探索方法よりも効率的であることから、世界モデルの学習手順が、計画・推論問題が離散
問題を構成する階層的な表現を見つける方法を見つけたい。ここで提案された推論が、人間や動物が持つすべての推論を網羅でき
るかどうかはわからない。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
8. 考察
結論
35
• すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。
• JEPA と 階層的JEPAを提案。
• 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。
• 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。
感想
• 人工知能を実現する一つのシナリオとして、全体をとりまとめている様子が面白いと感じた。
Copyright (C) Present Square Co., Ltd. All Rights Reserved.
Appendix
参考文献
• Ha, D. and Schmidhuber, J. (2018b). World models. arXiv preprint arXiv:1803.10122.
• Kahneman, D. (2011). Thinking, fast and slow. Macmillan.
• Walker, J., Razavi, A., and Oord, A. v. d. (2021). Predicting video with vqvae. arXiv preprint
arXiv:2103.01950.
• Gregor, K. and LeCun, Y. (2010b). Learning fast approximations of sparse coding. In Proc.International
Conference on Machine learning (ICML'10).
• Bardes, A., Ponce, J., and LeCun, Y. (2021). Vicreg: Variance-invariance-covariance regularization for self-
supervised learning. In International Conference on Learning Repre- sentations (ICLR 2022). arXiv
preprint arXiv:2105.04906.
• LeCun, Y., Chopra, S., Hadsell, R., Ranzato, M., and Huang, F. (2006). A tutorial on energy-based
learning. In Bakir, G., Hofman, T., Scholkopf, B., Smola, A., and Taskar, B., editors, Predicting Structured
Data. MIT Press.
36

More Related Content

What's hot

SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習Deep Learning JP
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII
 
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative ModelsDeep Learning JP
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展Deep Learning JP
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Yoshitaka Ushiku
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Surveytmtm otm
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイcvpaper. challenge
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 

What's hot (20)

SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
[DL輪読会]Transframer: Arbitrary Frame Prediction with Generative Models
 
ELBO型VAEのダメなところ
ELBO型VAEのダメなところELBO型VAEのダメなところ
ELBO型VAEのダメなところ
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
 
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
 
Bayesian Neural Networks : Survey
Bayesian Neural Networks : SurveyBayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 

Similar to 【DL輪読会】A Path Towards Autonomous Machine Intelligence

東京工業大学「ロボット技術・ロボットミドルウェア」
東京工業大学「ロボット技術・ロボットミドルウェア」東京工業大学「ロボット技術・ロボットミドルウェア」
東京工業大学「ロボット技術・ロボットミドルウェア」NoriakiAndo
 
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方Project ICHIGAN
 
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現Atsushi Tadokoro
 
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニングOptuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニングTakashi Suzuki
 
ロボットによる一般問題解決
ロボットによる一般問題解決ロボットによる一般問題解決
ロボットによる一般問題解決SOINN Inc.
 
物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑むHiroto Honda
 
クラウドが実現するソフト開発・運用の変革と自動化
クラウドが実現するソフト開発・運用の変革と自動化クラウドが実現するソフト開発・運用の変革と自動化
クラウドが実現するソフト開発・運用の変革と自動化Etsuji Nakai
 
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29「グーグルの自動運転Carの技術要素」勉強会 2014.08.29
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29Minoru Chikamune
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演Ryuichi Ueda
 
仮想都市の自動生成とマルチエージェントシミュレーションの研究
仮想都市の自動生成とマルチエージェントシミュレーションの研究仮想都市の自動生成とマルチエージェントシミュレーションの研究
仮想都市の自動生成とマルチエージェントシミュレーションの研究T_Okunari
 
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)SOINN Inc.
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
OSC2012-KANSAI@Kyoto JOSUG
OSC2012-KANSAI@Kyoto JOSUGOSC2012-KANSAI@Kyoto JOSUG
OSC2012-KANSAI@Kyoto JOSUGHideki Saito
 
LED-Camp2「組込みシステム開発の勘所と実践」
LED-Camp2「組込みシステム開発の勘所と実践」LED-Camp2「組込みシステム開発の勘所と実践」
LED-Camp2「組込みシステム開発の勘所と実践」Hideki Takase
 
[DL輪読会]Learning agile and dynamic motor skills for legged robots
[DL輪読会]Learning agile and dynamic motor skills for legged robots[DL輪読会]Learning agile and dynamic motor skills for legged robots
[DL輪読会]Learning agile and dynamic motor skills for legged robotsDeep Learning JP
 
東京工業大学「ロボット技術」ロボットミドルウェア
東京工業大学「ロボット技術」ロボットミドルウェア東京工業大学「ロボット技術」ロボットミドルウェア
東京工業大学「ロボット技術」ロボットミドルウェアNoriakiAndo
 
230420_東工大授業「ロボット技術」資料.pdf
230420_東工大授業「ロボット技術」資料.pdf230420_東工大授業「ロボット技術」資料.pdf
230420_東工大授業「ロボット技術」資料.pdfNoriakiAndo
 
OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介Hiromu Yakura
 

Similar to 【DL輪読会】A Path Towards Autonomous Machine Intelligence (20)

東京工業大学「ロボット技術・ロボットミドルウェア」
東京工業大学「ロボット技術・ロボットミドルウェア」東京工業大学「ロボット技術・ロボットミドルウェア」
東京工業大学「ロボット技術・ロボットミドルウェア」
 
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方
【16-E-3】 プロジェクトIchiganの目指す新しい自治体ITアーキテクチャのあり方
 
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現
情報編集(Web) HTML5 実践3 Processingによるデータの可視化と生成的表現
 
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニングOptuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
 
ロボットによる一般問題解決
ロボットによる一般問題解決ロボットによる一般問題解決
ロボットによる一般問題解決
 
Scrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pubScrum alliance regional gathering tokyo 2013 pub
Scrum alliance regional gathering tokyo 2013 pub
 
物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む物体検出コンペティションOpen Imagesに挑む
物体検出コンペティションOpen Imagesに挑む
 
クラウドが実現するソフト開発・運用の変革と自動化
クラウドが実現するソフト開発・運用の変革と自動化クラウドが実現するソフト開発・運用の変革と自動化
クラウドが実現するソフト開発・運用の変革と自動化
 
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29「グーグルの自動運転Carの技術要素」勉強会 2014.08.29
「グーグルの自動運転Carの技術要素」勉強会 2014.08.29
 
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
2014年5月21日「パーティクルフィルタの癖から知るロボットへの確率的手法の正しい適用方法」---第58回システム制御情報学会研究発表講演会チュートリアル講演
 
仮想都市の自動生成とマルチエージェントシミュレーションの研究
仮想都市の自動生成とマルチエージェントシミュレーションの研究仮想都市の自動生成とマルチエージェントシミュレーションの研究
仮想都市の自動生成とマルチエージェントシミュレーションの研究
 
東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)東工大長谷川修研紹介 2011 (8月1日版)
東工大長谷川修研紹介 2011 (8月1日版)
 
Tuning, etc.
Tuning, etc.Tuning, etc.
Tuning, etc.
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
OSC2012-KANSAI@Kyoto JOSUG
OSC2012-KANSAI@Kyoto JOSUGOSC2012-KANSAI@Kyoto JOSUG
OSC2012-KANSAI@Kyoto JOSUG
 
LED-Camp2「組込みシステム開発の勘所と実践」
LED-Camp2「組込みシステム開発の勘所と実践」LED-Camp2「組込みシステム開発の勘所と実践」
LED-Camp2「組込みシステム開発の勘所と実践」
 
[DL輪読会]Learning agile and dynamic motor skills for legged robots
[DL輪読会]Learning agile and dynamic motor skills for legged robots[DL輪読会]Learning agile and dynamic motor skills for legged robots
[DL輪読会]Learning agile and dynamic motor skills for legged robots
 
東京工業大学「ロボット技術」ロボットミドルウェア
東京工業大学「ロボット技術」ロボットミドルウェア東京工業大学「ロボット技術」ロボットミドルウェア
東京工業大学「ロボット技術」ロボットミドルウェア
 
230420_東工大授業「ロボット技術」資料.pdf
230420_東工大授業「ロボット技術」資料.pdf230420_東工大授業「ロボット技術」資料.pdf
230420_東工大授業「ロボット技術」資料.pdf
 
OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 

Recently uploaded (12)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 

【DL輪読会】A Path Towards Autonomous Machine Intelligence

  • 1. http://deeplearning.jp/ A Path Towards Autonomous Machine Intelligence 小林 範久 Present Square Co.,Ltd. DEEP LEARNING JP [DL Papers] 1
  • 2. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 書誌情報 A Path Towards Autonomous Machine Intelligence https://openreview.net/forum?id=BZ5a1r-kVsf&fbclid=IwAR0V0k7AXd- lkSkvQrst1tu0bt1N7ZpWkh683tFFxkBw92OduOwy0wnmQGQ タイトル: 著者: Yann LeCun • Yann LeCunさんの人工知能を実現するためのポジションペーパー。 • すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。 • JEPA と 階層的JEPAを提案。 • 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。 • 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。 概要: 2
  • 3. Copyright (C) Present Square Co., Ltd. All Rights Reserved. アジェンダ 1. プロローグ 2. はじめに 3. 自律知能のためのモデル・アーキテクチャ 4. World model の設計と育成 5. Actor の設計と育成 6. Configurator の設計 7. 関連研究 8. 考察 3
  • 4. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 1. プロローグ プロローグ 4 • この文書は、伝統的な意味での技術論文でも学術論文でもなく、動物や人間の ように学習し、推論や計画を行うことができ、外部の教師、外部の報酬ではなく、 内在する目的によって行動を起こす知的機械への道を示す、私のビジョンを表現 したポジションペーパーである。 • この論文で述べられている多くのアイデア(ほとんどすべて)は、多くの著者によって 様々な文脈で様々な形で定式化されている。 • 本論文は、これらのアイデアのどれが優先されるかを主張するものではなく、それ らをいかにして一貫した全体像に組み立てるかについての提案を行うものである。 特に、今後の課題を挙げている。また、成功する可能性のある、あるいはそうでない 道筋をいくつか挙げている。 画像出典: https://ja.wikipedia.org/wiki/%E3%83%A4%E3%83%B3%E3%83%BB%E3%83%AB%E3%82%AB%E3%83%B3 Yann LeCun さん
  • 5. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. はじめに 5 現在、AI研究が取り組むべき課題は大きく3つ 1. 機械は観察によって、どのようにして世界を表現すること、予測することを学び、 行動することを学ぶことができるのか? 2. 機械はどのようにして、勾配に基づく学習と互換性のある方法で推論し、 計画を立てることができるのか? 3. 知覚や行動計画を、階層的に複数の抽象度で、複数の時間スケールで表現することを、 機械はどのように学習するのだろうか。
  • 6. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. はじめに 6 本論文の主な貢献は以下の4つ 1. すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。 2. JEPA と 階層的JEPAを提案。 3. 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。 4. 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。
  • 7. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. はじめに 7 2.1 ラーニングワールドモデル • 人間や動物は、少ないインタラクションと観察を通して、世界の仕組みと背景知識を学ぶことができるようである。これは、し ばしば常識と呼ばれるものを基礎を構成していると仮定できる。常識的な知識は、単に将来の結果を予測するだけでなく、 時間的、空間的に欠落した情報を補うことができる。常識とは、何がありそうで、何がありえないかを教えてくれる世界モ デルの集合体と見ることができる。 • このような世界モデルを用いると、ほとんど試行することなく新しい技能を習得することができる。動物たちは、自分の行 動のシーケンスを予測し、推論し、計画し、探索し、問題に対する新しい解決策を想像することができる。 • 教師なし(または自己教師あり)方式で世界モデルを学習し、そのモデルを用いて予測、推論、計画を行うことを可能 にする学習パラダイムとアーキテクチャを考案することが、AIとMLの主要課題の1つであると考えている。
  • 8. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. はじめに 8 • 乳幼児がどの年齢で、世界の仕組みに関する様々な概念を一般に何歳ごろに獲得するかを示した図。 • 抽象度の高い概念は、低い概念の上に発達していくようである。 • このような知識の多くは、特に最初の数週間から数ヶ月の間は、ほとんど直接的に介入することなく、観察によって獲得される。 2.2 人間と動物がモデルの階層を学ぶ Emmanuel Dupoux氏による研究
  • 9. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 2. はじめに 9 • 世界に関する知識と、行動や内発的な動機・目的とを組み合わせることで、動物は新しい課題を素早く学習し、その成 果を予測することができる。 • 自分の行動がもたらす結果を予測し、計画的に行動し、成功の道筋を予測し、危険な状況を回避する。 2.2 人間と動物がモデルの階層を学ぶ しかし、人間や動物の脳は、生存に必要な世界モデルをすべて含むことができるのだろうか? • 本論文の一つの仮説は、動物も人間も前頭前野のどこかにたった一つの世界モデルエンジンを持っているというもので ある。その世界モデル・エンジンは、目の前のタスクに合わせて動的に設定可能である。すべての状況に対して個別のモ デルを持つのではなく、単一の設定可能な世界モデル・エンジンがあれば、世界の仕組みに関する知識がタスク間で共有 されるかもしれない。これにより、ある状況に対して設定されたモデルを別の状況に適用することで、類推による推論が可 能になるかもしれない。
  • 10. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 10 自律知能のためのアーキテクチャ • AIシステムが動物や人間のように学習し、推論するために、 6つの個別のモジュールで構成されるアーキテクチャを提案。 • 各モジュールは微分可能であると仮定し、自身の入力に対 する目的関数の勾配推定を容易に計算し、勾配情報を 上流のモジュールに伝搬させることができるとしている。 1. Configurator モジュール 2. Perception(知覚) モジュール 3. World Model モジュール 4. Cost モジュール 5. Actor モジュール 6. Short-term Memory モジュール 6つのモジュール
  • 11. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 11 自律知能のためのアーキテクチャ 1.configuratorモジュール • 実行制御を行う。 • 実行すべきタスクが与えられると、知覚モジュール、世界モデ ル、コスト、およびActorを目前のタスクのために設定する。 (または、これらのモジュールのパラメータを調整する。) 2.Perception(知覚)モジュール • センサーから信号を受け取り、世界の現在の状態を推定する。 • あるタスクでは、知覚された世界の状態のごく一部だけが関 連し、有用である。Configuratorモジュールは、目前のタス クに関連する情報を知覚モジュールから抽出する。
  • 12. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 12 自律知能のためのアーキテクチャ 3.World Model(世界モデル) モジュール • アーキテクチャの中で最も複雑な部分を構成。その役割は2つ。 (1) 知覚によって世界の状態に関する不足情報を推定すること。 (2) 世界のもっともらしい将来の状態を予測すること。 • 世界モデルは、世界の自然な進化を予測したり、Actorモジュールが 提案する一連のアクションの結果として将来の世界の状態を予測す ることができる。世界モデルは、タスクに関連する世界の部分の一種 のシミュレ ータである。世界は不確実性に満ちているので、モデルは 複数の可能な予測を表すことができなければならない。 例)交差点に近づくドライバーは、交差点に近づく他の車が 一時停止標識で止まらない場合に備えて、速度を落とすかもしれない。と予測する。
  • 13. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 13 自律知能のためのアーキテクチャ 4.Costモジュール • エージェントの「不快感」のレベルをエネルギーと呼ばれるスカラー量 として測定する。エネルギーは2つのサブモジュール(固有コストモ ジュールとCriticモジュール)の和である。 固有コストモジュール 不変(訓練不可能)であり、即時の不快感(エージェントの 損傷、ハードコードされた行動制約の違反など)を計算する。 Criticモジュール 固有コストの将来の値を予測する訓練可能なモジュール。 • エージェントの全体的な目的は、平均エネルギーを最小にするような状態に留まるように行動すること。 • コストモジュールは微分可能なので、コストの勾配を他のモジュールに逆伝播して、計画、推論、学習を行うことができる。
  • 14. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 14 自律知能のためのアーキテクチャ 5.Actor モジュール • 一連の動作の提案を計算し、動作を出力する。世界モデルに対して行動 シーケンスを提案する。世界モデルは行動シーケンスから将来の世界状態 シーケンスを予測し、コストに供給する。このとき、コストは提案された行動 シーケンスに関連する将来の推定エネルギーを計算する。 • 提案された行動シーケンスに関する推定コストの勾配にアクセスできるので、 勾配に基づく方法を用いて推定コストを最小化する最適な行動シーケンス を計算することができる。 6.Short Term Memory (短期記憶)モジュール • 世界の過去、現在、未来の状態に関する関連情報と、それに対応する固有コ ストの値が格納される。 • 世界モデルは、将来(または過去)の状態を時間的に予測しながら、また、 現在の世界の状態について欠落した情報を空間的に補完したり矛盾した情報 を修正しながら、短期記憶にアクセスし更新する。世界モデルは短期記憶にク エリーを送り、取り出された値を受信したり、状態の新しい値を保存したりするこ とができる。
  • 15. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 15 典型的な知覚-行動ループ • 世界モデルとコストを通じて推論と計画を行う。 • Kahnemanの「システム2」になぞらえて「モード2」と呼ぶこと にする。ここでいう「推論」とは、エネルギー最小化を意味する 広義の言葉として使用する。 モード-1 • 複雑な推論を伴わず、知覚の出力と可能な限りの短期記憶 モジュールから直接行動を起こす。 • Kahnemanの「システム1」との類似性から、これを「モード1」と 呼ぶことにする。 モード1 モード2 知覚モジュールとActorモジュールのエピソードに対して、採用できる2つのモード。 モード2
  • 16. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 16 モード-1: 反応行動 • 知覚モジュールは、エンコーダを介して、タスクに関連する情報を含む世界 の状態の表現 𝑠[0] = 𝐸𝑛𝑐(𝑥)を抽出する。 • 𝐹[0] = 𝐶(𝑠[0]) とし、 (𝑠[0], 𝑓(0)) を短期メモリに格納する。 • Actorのコンポーネントであるポリシーモジュールは、状態の関数としてアク ションを生成する。𝑎[0] = 𝐴(𝑠[0])となる。 • 世界モデル 𝑠(1) = 𝑃𝑟𝑒𝑑(𝑠[0], 𝑎[0]) と 関連するエネルギー𝑓[0] = 𝐶(𝑠[0])を用いて次の状態を予測する。取られた行動の結果としての次の 観測が利用可能になった時点で、世界モデルを調整することができるように することもできる。 モード1 • 世界モデルを用いることで、エージェントは行動を想像し、その効果や結果 を予測することができる。これにより、外界で複数の行動を試し、その結果 を測定することができる。
  • 17. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 17 モード-2:世界モデルを使った推論と計画 モード2 Perception(知覚)モジュール • 世界の状態 s[0] を推定する。 Actorモジュール • 一連の行動 𝑎[0], 𝑎[1], … 𝑎[𝑡], 𝑎[𝑡 + 1], ….𝑎[𝑇]を提案する。 世界モデルモジュール • 𝑠[𝑡+1] = 𝑃𝑟𝑒𝑑(𝑠[𝑡], 𝑎[𝑡]) を用いて、世界の状態の推定値を再帰的に予測する。 コストモジュール • C(s[t])は予測された各状態のエネルギーを計算し、それらの合計を総エネルギーとする。 Actorモジュール • 総エネルギーを最小化するアクションのシーケンスを推論する。そして、そのシーケンス内の最初のアクションをエフェクタに送信する。
  • 18. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 18 モード-2:世界モデルを使った推論と計画 1. 知覚 2. 行動提案 3. シミュレーション 4. 評価 5. 計画 知覚システムは、世界の現在の状態の表現 𝑠[0] = 𝑃 (𝑥) を抽出する。 コストモジュールは、その状態に関連する即時コストを計算し、格納する。 Actorは、評価のために世界モデルに供給されるアクションの初期シーケンスを提案する。 𝑎 0 , … , 𝑎 𝑡 , … , 𝑎 𝑇 世界モデルは、提案された行動シーケンス(𝑠[1], … , 𝑠[𝑡], … , 𝑠[𝑇 ])から生じる世界状態表現の一つまたは 複数の可能性のあるシーケンスを予測する。 コストモジュールは、予測された状態遷移から総コストを推定する。 一般に時間ステップの総和として 𝐹 (𝑥) = σ𝑡=1 𝑇 𝐶 [𝑠[𝑡]] Actorはより低いコストで新しい行動シーケンスを提案する。これは、コストの勾配が計算グラフを通してアクショ ン変数に逆伝播される勾配ベースの手順によって行うことができる。結果として得られる最小コストの行動列は、 (ු 𝑎[0], … , ු 𝑎[𝑇 ]) と表記される。 6. 行動 7. 記憶 低コストの行動シーケンスに収束した後、Actorは低コストのシーケンス の最初の行動(または最初のいくつか の行動)をエフェクタに送る。このプロセス全体が、次の知覚-行動エピソードに対して繰り返される。 全ての行動の後、固有コストモジュールとCriticモジュールからの状態と関連するコストが短期メモリに格納され る。これらのペアは後でCriticの訓練や適応に利用することができる。
  • 19. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 19 「モード2」から「モード1」へ:新しいスキルの習得 • モード2最適化の結果得られる行動を近似的に実現 するためのポリシーモジュール𝐴(𝑠[𝑡])の学習方法を示 す。(右図) モード2 推論の結果から、反応性ポリシーモジュールをトレーニングする 𝑠[𝑡 + 1] = 𝑃𝑟𝑒𝑑(𝑠[𝑡], 𝑎[𝑡]) ; ු 𝑎[𝑡 + 1] = 𝐴(𝑠[𝑡 + 1]) • 最適な行動とポリシーモジュールの出力との間の発散 𝐷(ු 𝑎[𝑡]), 𝐴(𝑠[𝑡]) を最小にするようにポリシーモジュールのパラメータが調整され る。一旦訓練されると、ポリシーモジュールはモード1における行動 ු 𝑎[0] = 𝐴(𝑠[0])を直接生成するために使用することができる。ま た、モード2最適化の前に、初期行動を再帰的に計算するために使用することもできる。この結果、ポリシーモジュールは、償却推論 を行い、良いアクションシーケンスの近似を生成する。 • モード 2 で動作し、最適な一連の行動 (ු 𝑎[0], … , ු 𝑎[𝑇]) を生成する。 ① ②
  • 20. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 20 3.2 行動の原動力となるコストモジュール • コストモジュールは、不変の 𝑰𝑪(𝒔)と、Criticまたは訓練可能なコ スト 𝑻𝑪(𝒔) から構成される。 • ICとTCはともに複数のサブモジュールからなり、その出力は線形 に合成される。 • 線形結合の重み 𝑢𝑖 と 𝑣𝑗 はConfiguratorモジュールによって 決定される。これにより、エージェントが異なるサブゴールに集中す ることを可能にする。 コストモジュールのアーキテクチャ
  • 21. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 3. 自律知能のためのモデル・アーキテクチャ 21 3.3 Critic の訓練 • Criticの主な役割は、固有コストの将来値を予測すること。 • 固有コストモジュールは、トリプレット(時間𝜏 、状態𝑠𝜏 、固有エネル ギー𝐼𝐶(𝑠𝜏) )を格納する短期記憶モジュール。 • 保存された状態と対応する固有コストは、知覚された状態、または モード2エピソード中に世界モデルによって想像した状態に対応するこ とができる。 • 短期記憶は時間𝜏が与えられた状態 𝑠τ を検索し、時間τまたは状 態 𝑠𝜏 が与えられた固有コスト𝐼𝐶(𝑠𝜏) を検索することができる。 • 過去の状態ベクトル 𝑠τ と、後の時間における固有コスト IC(𝑠τ + 𝛿) を取得することで、将来の固有コスト値を予測するように Criticを訓練できる。 • Critic のパラメータは、 IC(𝑠τ + 𝛿) − 𝑇𝐶(𝑠τ) 2 のような予測損失を最小化することで最適化できる。
  • 22. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 22 Joint-Embedding Predictive Architecture(JEPA) • 2つのエンコーディングブランチから構成される。最初のブランチは 𝑥 の表現である 𝑠𝑥 を計算し、2 番目のブランチは 𝑦 の表現である 𝑠𝑦 を計算する。 • 𝑥 から yの予測を明示的に生成することなく 𝑥 と 𝑦 の依存関係を捉える。 • 予測器モジュールは、潜在変数 𝑧 の入力を受け、𝑠𝑥 から 𝑠𝑦 を予測する。 • 2 つのエンコーダーは異なっていて良く、同じアーキテクチャである必要はない。パラ メータを共有する必要もない。このため、𝑥 と 𝑦 は異なる性質を持つことができる。 (例: ビデオとオーディオ)。 • 予測器モジュールは 𝑥 の表現から 𝑦 の表現を予測する。予測器は潜在的な変数 𝑧 に依存することがある。
  • 23. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 23 Joint-Embedding Predictive Architecture(JEPA) ① エンコーダ関数 𝑠𝑦 = 𝐸𝑛𝑐(𝑦) は、異なる 𝑦 の集合に対して同じ 𝑠𝑦 を 生成させる不変性を持っているかもしれない。 ② 潜在変数 𝑧 は、集合𝑍上で変化させたとき、もっともらしい予測の集合 を生成することができる。 JEPAの主な利点 • 𝑥が分かれ道に差し掛かった車の映像の場合、𝑠𝑥、𝑠𝑦は、分岐前と分岐後の車の位置、姿勢、速度などの特性を それぞれ表し、道路に接する木や歩道の質感などの無関係な部分は無視される。 • z は、道路左側の分岐を進むか、右側の分岐を進むかを表す。 エンコーダーによって表現空間で予測を行い、𝑦 のすべての詳細を予測する必 要をなくし、無関係な詳細を除去できる。 𝒙, 𝒚, 𝒔𝒙, 𝒔𝒚, 𝒛 の具体例
  • 24. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 24 エネルギーベースモデル(EBM)のトレーニング ※学習サンプルは青い点。エネルギーの低い領域はオレンジ色。 EBMトレーニングのための対照法と正則化法 対照法 • 学習サンプルのエネルギー(青い点)を押し下げ、適切に配置 された対照サンプルのエネルギー(緑の点)を引き上げる。 • 対照法は、対照サンプルが置かれた場所でのみエネルギーが引き 上げられること。対照サンプルの数が、𝑦空間の次元に比例して指 数関数的に増加することが欠点。 正則化法(非対照法) • 学習サンプルのエネルギーを押し下げ、低エネルギー領域の体積 を最小化するような正則化項を使用する。この正則化は、エネル ギー関数の柔軟性が許す範囲で、データ密度の高い領域を低エ ネルギー領域内に「収縮」させる効果がある。
  • 25. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 25 VICReg(Bardes et al., 2021) • 分散、不変性、共分散正則化を用いたJoint-Embedding Architectures。画像 I のバッチが与えられると、異なるビュー X と X‘ の2 つのバッチが生成され、表現 Y と Y’ に符号化される。同じ画像からの2つの埋め込み間の距離は最小化され、バッチ中の各埋め込み変 数の分散は閾値以上に維持され、バッチ中の埋め込み変数のペア間の共分散は0に引き寄せられ、互いの変数が非相関化される。2つ のブランチは同一のアーキテクチャを必要とせず、重みも共有しない。 • 各次元に沿った埋め込み値の分散に対する単純な正則化項により、崩壊問題を回避する。 (Variance-Invariance-Covariance Regularization For Self-Supervised Learning)
  • 26. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 26 JEPA の学習 • JEPAは、正則化法(非対照法)を工夫して学習させる。 (対照法は高次元では非効率になる傾向がある) : 𝑥 に関する 𝑠𝑥 の情報量を最大化する。 : 𝑠𝑦 の 𝑦 に関する情報量を最大化する。 : 𝑠𝑦 から容易に予測できるようにする。 : 予測に用いる潜在変数 𝑧 の情報量を最小化する。 • ①、②は、情報的な経過によってエネルギー表面が平坦になることを防ぐ。 • ③は、エネルギー項 𝐷(𝑠𝑦, ǁ 𝑠𝑦 )によって強制し、𝑦 が以下のものから予測可能であることを保証する。𝑥 を表現空間に配置する。 • ④は、潜在能力からの助けをできるだけ借りずに 𝑠𝑦 を予測するようモデルに強制することで、システムが別のタイプの情報の欠落の 犠牲になるのを防ぐ。 JEPA の非対照学習 ① –I(𝑠𝑥)の最大化 ② –I(𝑠𝑦)の最大化 ③ D(𝑠𝑦, ෥ 𝑠𝑦)の誤差の最小化 ④ R(z)の最小化 JEPA の場合、以下の4 つの基準によって行うことができる。
  • 27. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 27 VICReg を用いた JEPAの学習 • 𝑠𝑥 と 𝑠𝑦 は、拡張器(𝐸𝑥𝑝())を通して高次元の埋め込み 𝑣𝑥 と 𝑣𝑦 に マッピングすることで最大化する。サンプルのバッチ上で計算された2つの微 分可能な損失項を持つ損失関数を使うことで、埋め込みの共分散行列 を恒等式に向かわせる。 VICReg を用いた JEPA の学習 ③表現予測誤差 𝐷(𝑠𝑦 , ǁ 𝑠𝑦) の最小化 ④𝐷( 𝑠𝑦 , ǁ 𝑠𝑦 ) = 𝐷( 𝑠𝑦 , 𝑠𝑥 ) = 𝑠𝑦 − 𝑠𝑥 2 の最小化 ①𝑣𝑥 = 𝐸𝑥𝑝(𝑠𝑥) Conv(𝑣𝑥) → I ②𝑣𝑦 = 𝐸𝑥𝑝(𝑠𝑦) Conv(𝑣𝑦) → I
  • 28. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 28 階層型JEPA (H-JEPA) • JEPA はエンコーダーを訓練して、入力の無関係な細部を排除し、 表現をより予測可能なものにできる。 • 抽象的な表現を学習できるため、階層的な積み重ねが可能である。 JEPA-1が低レベルの表現を抽出し、短期予測を行う。(右図) • JEPA-2は、JEPA-1が抽出した表現を入力とし、より長期的な予 測が可能な高次の表現を抽出する。より抽象的な表現は、長期 予測が困難な入力の詳細を無視し、より粗い世界の状態の記述 で長期予測を行うことができる。 短期予測:数秒間にハンドルやペダルを操作する一連の動作。 →同じ時間内の自分の車の軌跡を正確に予測することができる。 長期予測:他の車や信号機、歩行者などの予測不可能な外的要因に左右される。 →より長い時間の軌跡を予測することは困難である。 しかし、高い抽象度であれば正確な予測をすることができる。 具体例
  • 29. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 29 階層的プランニング ① 複雑なタスクは、高レベルの世界状態表現 𝐶(𝑠2[4])から計算される高レベルのコストで定義される。 ② 𝐶(𝑠2[4])を最小化する高レベルの抽象アクション(𝑎2[2], 𝑎2[4])のシーケンスが推論される。 ③ 推論された抽象アクションは、下位層のサブゴールを定義する下位コストモジュール 𝐶(𝑠[2]), 𝐶(𝑠[4]) に供給される。 そして、下位層はサブゴールコストを最小化する行動シーケンスを推論する。 ※ここでは2層しか示していないが、多層も同様。 モード 2 階層計画のための階層的 JEPA ① ② ② ③ ③ • マルチスケール世界モデルの階層性を利用した階層 的なモード2をプランニングするためのアーキテクチャ。 • 知覚は、エンコーダーのカスケードによって、複数の 抽象化されたレベルの表現にコード化される。
  • 30. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 4. World model の設計と育成 30 不確実性への対応 不確実性が存在する場合の階層的な計画エピソード • 現実的な環境は、高度に抽象化された表現を用いても、完全に予測で きるわけではない。予測に関する不確実性は、潜在変数を持つ予測変 数で処理することができる。 • 潜在変数(赤丸)には、事前観測から得られない予測に関する情報が 含まれている。潜在変数は、エネルギー崩壊を防ぎ、その助けなしに可能 な限り予測するようにシステムを強制するために、正則化されなければなら ない。(R1、R2は、潜在変数に対する正則化) • 計画時には、正則化にギブス分散を適用した分布から潜在変数をサンプ リングする。各サンプルはそれぞれ異なる予測につながる。一貫性のある潜 在的な配列を生成するために、正則化器のパラメータは以前の状態や検 索された記憶の関数とすることができる。 • 各潜在変数がk個の可能な離散値を持つ場合、可能な軌道の数は𝑘𝑡 、ここで𝑡は時間ステップの数として成長する。このような場合、 直接探索と枝刈り戦略を採用しなければならない。複数の予測軌道があれば、平均コスト、あるいはリスクを最小化するためにコストの 平均と分散の組み合わせを最小化する最適な行動シーケンスを計算することができる。
  • 31. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 5. Actor の設計と育成 31 5. Actor の設計と育成 アクターモジュールの役割は、3つ。 1. 世界モデルによるMode-2行動の予測から、コストを最小化する最適な行動系列を推論する。 2. エージェントが知らない世界の状態の部分を表す潜在的な変数の複数の構成を生成する。 3. モード1アクションを生成するためのトレーニングポリシーネットワーク。 • Actionと潜在的な変数の間に概念的な違いはない。両方の変数セットの構成は、Actorによって探索されなければならない。 • 潜在変数については、不確実性の下で計画するために、構成を探索しなければならない。行動変数については、コストを最小化する最適 なものを生成するために、構成を探索しなければならない。敵対的なシナリオ(ゲームなど)では、コストを最大化する潜在的な構成を探 索しなければならない。事実上、アクターは、最適化と探索の両役割を果たす。 • 世界モデルとコストが良好に振舞うとき、アクターモジュールは勾配に基づく最適化処理を用いて最適な行動シーケンスを推論することがで きる。そのために、コストと展開された世界モデルを通して勾配を逆伝播することによって計算されたコストの勾配の推定値を受信する。そし て、その推定値を用いて行動シーケンスを更新する。
  • 32. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 6. Configurator の設計 32 6. Configurator の設計 • コンフィギュレータは、エージェントのメインコントローラ。他のすべてのモジュールから入力を受け、そのパラメータと接続グラフを調整する。 • 変調は、信号をルーティングしたり、サブネットワークを活性化したり、注意を集中させたりすることができる。予測器と知覚エンコーダの上 位層がトランスフォーマーブロックであるシナリオでは、コンフィギュレータの出力はこれらのトランスフォーマーブロックへの追加入力トークン であり、それによってそれらの接続グラフと機能を変更することができる。 • コンフィギュレータモジュールの利点:ハードウェアの再利用と知識の共有の2つ。 (ある環境に対して学習させた世界モデルは、わずかな変更でさまざまなタスクに利用できる。) 欠点:エージェントが一度に一つのタスクしか達成できないこと。 • コンフィギュレータの最も重要な機能は、エージェントにサブゴールを設定し、このサブゴールのためのコストモジュールを設定することである。 • コストを設定可能にする簡単な方法は、初歩的なコストサブモジュールの線形結合の重みを変調することである。 • これに対して、より洗練されたアーキテクチャでは、コストのTrainable Critic部分を柔軟に変調させることができると想像される。 • 予測器と同様に、高レベルのコストがオブジェクト間の望ましい関係のセットとして定式化されている場合(例:ナットはネジにセットされ ているか?)、世界の状態が満たされるべき条件からどの程度乖離しているかを測定するように訓練された変換器アーキテクチャを使 用することができる。予測器と同様に、トークン入力を追加して関数を調節することができる。
  • 33. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 7. 関連研究 33 関連研究 • 本論文で紹介されているアイデアのほとんどは新しいものではなく、認知科学、神経科学、最適制御、ロボット工学、AI、機械学習、 特に強化学習において様々な形で長く議論されてきたものである。 • 学習済みWorld Model • モデル予測制御 • 階層的Planning • エネルギーベースモデル(EBM) • Joint-Embedding Architectures • ヒトと動物の認知 特に結びつきの強い研究
  • 34. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 8. 考察 34 提案モデルに欠けているもの • 動画から階層型JEPAを構築し、学習させることができるのか、という問題。 提案されたアプローチの広範な妥当性 Q.動物の知能モデルの基礎になりうるか? • 提案するアーキテクチャは、単一の世界モデルエンジンを持ち、コンフィギュレータによって手元のタスクに合わせて設定することができる。 もし、脳が独立した設定不可能な世界モデルを多数含むほど大きければ、コンフィギュレータは不要となり、意識の錯覚はなくなる と考えられる。 Q.スケーリングが全てなのか?報酬は本当に十分か? • スケーリングだけでは不十分。現在のモデルは非常に限定的な推論しかできない。 Q.機械が常識を獲得する道となり得るか? • 世界観測のセルフコンシステント(求めるべき解が自分自身を含むような問題)と相互依存性を捉えた世界モデルを学習するこ とで、エージェントが情報の欠落を補い、世界モデルの違反を検出することで、常識が生まれるのではないかと推測している。 Q. 推論に記号は必要なのか? • 勾配に基づく探索方法が勾配を用いない探索方法よりも効率的であることから、世界モデルの学習手順が、計画・推論問題が離散 問題を構成する階層的な表現を見つける方法を見つけたい。ここで提案された推論が、人間や動物が持つすべての推論を網羅でき るかどうかはわからない。
  • 35. Copyright (C) Present Square Co., Ltd. All Rights Reserved. 8. 考察 結論 35 • すべてのモジュールが微分可能で、その多くが訓練可能な全体的な認知アーキテクチャを提案。 • JEPA と 階層的JEPAを提案。 • 情報量が多く予測可能な表現を同時に生成する、非対照型自己教師あり学習 を提案。 • 不確実性の下で予測世界モデルの基礎として、階層型JEPAを使用する方法 を提案。 感想 • 人工知能を実現する一つのシナリオとして、全体をとりまとめている様子が面白いと感じた。
  • 36. Copyright (C) Present Square Co., Ltd. All Rights Reserved. Appendix 参考文献 • Ha, D. and Schmidhuber, J. (2018b). World models. arXiv preprint arXiv:1803.10122. • Kahneman, D. (2011). Thinking, fast and slow. Macmillan. • Walker, J., Razavi, A., and Oord, A. v. d. (2021). Predicting video with vqvae. arXiv preprint arXiv:2103.01950. • Gregor, K. and LeCun, Y. (2010b). Learning fast approximations of sparse coding. In Proc.International Conference on Machine learning (ICML'10). • Bardes, A., Ponce, J., and LeCun, Y. (2021). Vicreg: Variance-invariance-covariance regularization for self- supervised learning. In International Conference on Learning Repre- sentations (ICLR 2022). arXiv preprint arXiv:2105.04906. • LeCun, Y., Chopra, S., Hadsell, R., Ranzato, M., and Huang, F. (2006). A tutorial on energy-based learning. In Bakir, G., Hofman, T., Scholkopf, B., Smola, A., and Taskar, B., editors, Predicting Structured Data. MIT Press. 36