Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
Deep Learning JP
PDF, PPTX
1,371 views
[DL輪読会]Measuring abstract reasoning in neural networks
2018/07/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
Technology
◦
Related topics:
Deep Learning
•
Read more
1
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 43
2
/ 43
3
/ 43
4
/ 43
5
/ 43
6
/ 43
7
/ 43
8
/ 43
9
/ 43
10
/ 43
11
/ 43
12
/ 43
13
/ 43
14
/ 43
15
/ 43
16
/ 43
17
/ 43
18
/ 43
19
/ 43
20
/ 43
21
/ 43
22
/ 43
23
/ 43
24
/ 43
25
/ 43
26
/ 43
27
/ 43
28
/ 43
29
/ 43
30
/ 43
31
/ 43
32
/ 43
33
/ 43
34
/ 43
35
/ 43
36
/ 43
37
/ 43
38
/ 43
39
/ 43
40
/ 43
41
/ 43
42
/ 43
43
/ 43
More Related Content
PPTX
画像処理応用
by
大貴 末廣
PPTX
画像処理基礎
by
大貴 末廣
PPTX
関西CVPRML勉強会資料20150627
by
tsunekawas
PDF
E-SOINN
by
SOINN Inc.
PDF
SSA-SOINN
by
SOINN Inc.
PPTX
データサイエンス概論第一=2-1 データ間の距離と類似度
by
Seiichi Uchida
PDF
Semantic segmentation
by
Takuya Minagawa
PPTX
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
by
Seiichi Uchida
画像処理応用
by
大貴 末廣
画像処理基礎
by
大貴 末廣
関西CVPRML勉強会資料20150627
by
tsunekawas
E-SOINN
by
SOINN Inc.
SSA-SOINN
by
SOINN Inc.
データサイエンス概論第一=2-1 データ間の距離と類似度
by
Seiichi Uchida
Semantic segmentation
by
Takuya Minagawa
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
by
Seiichi Uchida
What's hot
PDF
PaperFriday: SAVOIAS: A Diverse, Multi-Category Visual Complexity Dataset
by
Kazuhiro Ota
PDF
パンハウスゼミ 異常検知論文紹介 20191005
by
ぱんいち すみもと
PPTX
Image net classification with deep convolutional neural network
by
ga sin
PDF
Deep Semi-Supervised Anomaly Detection
by
ぱんいち すみもと
PPTX
Statistical machine learning forecasting methods concerns and ways forward
by
harmonylab
PDF
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
by
Deep Learning JP
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
by
Deep Learning JP
PPTX
働き方改革版データアカデミー3 数値を使ったあるべき姿の設定
by
Hiroyuki Ichikawa
PPTX
論文紹介: Value Prediction Network
by
Katsuki Ohto
PPTX
令和元年度 実践セミナー - Deep Learning 概論 -
by
Yutaka KATAYAMA
PDF
Anomaly detection 系の論文を一言でまとめた
by
ぱんいち すみもと
PaperFriday: SAVOIAS: A Diverse, Multi-Category Visual Complexity Dataset
by
Kazuhiro Ota
パンハウスゼミ 異常検知論文紹介 20191005
by
ぱんいち すみもと
Image net classification with deep convolutional neural network
by
ga sin
Deep Semi-Supervised Anomaly Detection
by
ぱんいち すみもと
Statistical machine learning forecasting methods concerns and ways forward
by
harmonylab
【DL輪読会】Where do Models go Wrong? Parameter-Space Saliency Maps for Explainabi...
by
Deep Learning JP
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
by
Deep Learning JP
働き方改革版データアカデミー3 数値を使ったあるべき姿の設定
by
Hiroyuki Ichikawa
論文紹介: Value Prediction Network
by
Katsuki Ohto
令和元年度 実践セミナー - Deep Learning 概論 -
by
Yutaka KATAYAMA
Anomaly detection 系の論文を一言でまとめた
by
ぱんいち すみもと
Similar to [DL輪読会]Measuring abstract reasoning in neural networks
PDF
Deep Learningの基礎と応用
by
Seiya Tokui
PDF
深層ニューラルネットワークによる知識の自動獲得・推論
by
Naoaki Okazaki
PDF
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
by
Deep Learning JP
PDF
論文紹介:PaperRobot: Incremental Draft Generation of Scientific Idea
by
HirokiKurashige
PDF
AIがAIを生み出す?
by
Daiki Tsuchiya
PDF
Recurrent Neural Networks
by
Seiya Tokui
PDF
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
PPTX
survey on math transformer 2023 0628 sato
by
satoyuta0112
PPTX
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
PPTX
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
by
Deep Learning JP
PDF
20181123 seq gan_ sequence generative adversarial nets with policy gradient
by
h m
PPTX
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
PDF
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
PPTX
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
by
Deep Learning JP
PPTX
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
PPTX
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
by
Ohsawa Goodfellow
PDF
子どもの言語獲得のモデル化とNN Language ModelsNN
by
Chiba Institute of Technology
PPTX
[DL輪読会]Abstractive Summarization of Reddit Posts with Multi-level Memory Netw...
by
Deep Learning JP
PDF
NeurIPS2020参加報告
by
Sho Takase
Deep Learningの基礎と応用
by
Seiya Tokui
深層ニューラルネットワークによる知識の自動獲得・推論
by
Naoaki Okazaki
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
by
Deep Learning JP
論文紹介:PaperRobot: Incremental Draft Generation of Scientific Idea
by
HirokiKurashige
AIがAIを生み出す?
by
Daiki Tsuchiya
Recurrent Neural Networks
by
Seiya Tokui
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
by
Deep Learning JP
survey on math transformer 2023 0628 sato
by
satoyuta0112
「機械学習とは?」から始める Deep learning実践入門
by
Hideto Masuoka
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
by
Deep Learning JP
20181123 seq gan_ sequence generative adversarial nets with policy gradient
by
h m
[DL輪読会]GQNと関連研究,世界モデルとの関係について
by
Deep Learning JP
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
by
Deep Learning JP
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
by
Deep Learning JP
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
by
Naonori Nagano
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
by
Ohsawa Goodfellow
子どもの言語獲得のモデル化とNN Language ModelsNN
by
Chiba Institute of Technology
[DL輪読会]Abstractive Summarization of Reddit Posts with Multi-level Memory Netw...
by
Deep Learning JP
NeurIPS2020参加報告
by
Sho Takase
More from Deep Learning JP
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
PPTX
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
PPTX
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
PPTX
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
by
Deep Learning JP
【DL輪読会】事前学習用データセットについて
by
Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
by
Deep Learning JP
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
by
Deep Learning JP
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
by
Deep Learning JP
【DL輪読会】マルチモーダル LLM
by
Deep Learning JP
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
by
Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
by
Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
by
Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
by
Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
by
Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
by
Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
by
Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
by
Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
by
Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
by
Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
by
Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
by
Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
by
Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
by
Deep Learning JP
[DL輪読会]Measuring abstract reasoning in neural networks
1.
1 DEEP LEARNING JP [DL
Papers] http://deeplearning.jp/ Measuring abstract reasoning in neural networks (ICML2018) Norihisa Kobayashi
2.
書誌情報 2 Measuring abstract reasoning
in neural networks(ICML2018) (https://arxiv.org/abs/1807.04225) タイトル: 著者: David G.T. Barrett, Felix Hill, Adam Santoro, Ari S. Morcos, Timothy Lillicrap • ニューラルネットワークでは、大きな成果を上げているが、抽象的な推論を確立することは困難で ある事が証明されている • 本研究では、抽象推論を測定するアプローチを示し、一般化に関する洞察を明らかにする • 結果、新しいアーキテクチャ(WReN)を提示し、従来のアーキテクチャよりも高い精度を出した • また、補助訓練を行うことで、一般化の精度を高めることができた • 抽象推論と一般化の両方をモデルで研究するためのツールとして、PGMデータセットを導入 概要: 選定理由: 汎用化や抽象的な学習に興味
3.
書誌情報 3 DeepMind News &
Blog https://deepmind.com/blog/measuring-abstract-reasoning/
4.
アジェンダ 4 1. Introduction 2. Raven‘s
Progressive Matrices(RPM) 3. Procedurally generating matrices 4. Models and Experimental Setup 5. Experiments 6. Discussion
5.
1. Introduction • ニューラルネットワークベースのモデルは、大きな成果を上げているが、抽象的な推論を確立することは困難で ある事が証明されている •
抽象的な推論は人間の知性の特徴であり、重要である (アインシュタインのエレベータ思考実験など、抽象的な概念を関連付ける能力は知性において重要) 5 背景 より賢いシステムを構築するためには、ニューラルネットワークが抽象的な概念を 処理できる方法を理解し、改善が必要なところがどこにあるのかを理解することが重要
6.
1. Introduction 6 1. 最先端のニューラルネットワークは、豊富な訓練データで訓練されれば、複雑で人間が挑戦する抽象的な 推論課題に対する解決策を見つけることができるか? 2.
見つけられるのであれば、訓練データが制御されているときにどれだけうまく推論できるのか? 研究目的
7.
2. Raven‘s Progressive
Matrices(RPM) 7 Raven‘s Progressive Matrices(RPM) • アメリカの心理学者レーヴンによって1938年に考案された知能検査 • RPMは、通常不完全な3 × 3マトリックスと、8つの回答候補画像から構成 • 候補画像のどれがマトリクスを完成させるのに最適な選択肢であるかを選択する
8.
2. Raven‘s Progressive
Matrices(RPM) 8 Q.次の空欄に当てはまる図形を選択してください。
9.
2. Raven's Progressive
Matrices(RPM) 9 Q.次の空欄に当てはまる図形を選択してください。 A.「A」が正解です。何故か?
10.
2. Raven's Progressive
Matrices(RPM) 10 同じ行において、パネルが右にいくにつれて点の数が多くなっている。 そのため、右下の空欄には「4」 となることが推測できる。 =
11.
2. Raven's Progressive
Matrices(RPM) 11 点が4つあるのは「A」のみのため、Aが正解となる。
12.
2. Raven's Progressive
Matrices(RPM) 12 Q.次の空欄に当てはまる図形を選択してください。
13.
2. Raven's Progressive
Matrices(RPM) 13 Q.次の空欄に当てはまる図形を選択してください。 A.「A」が正解です。何故か?
14.
2. Raven's Progressive
Matrices(RPM) 14 各列には、点の数が「1」、「5」、「7」 のパネルがある。(このような一連を ”consistent union”と呼ぶ。) 一番右の列は、点の数が「1」のパネルが無いので、空欄は「1」なることが推測できる。 =
15.
2. Raven's Progressive
Matrices(RPM) 15 しかし、点が「1」のパネルはA, C, D, E, Hが該当するため、別の関係性を見つける必要がある。 別の関係性とは、どのようなものか?
16.
2. Raven's Progressive
Matrices(RPM) 16 各行を見ると、1列目と2列目に共通して出現してる線が3列目に現れている。(これをAND relationと呼ぶ) この関係が成り立つのは、「A」、「B」、「G」 である。
17.
2. Raven's Progressive
Matrices(RPM) 17 2つの関連性を満たしている選択肢は、「A」のみとなる。
18.
3. Procedurally generating
matrices • RPMを学習するために、Procedurally Generated Matrices (PGM) データセット を生成 • Carpenter et al.(1990)、Wang&Su(2015)を参考 18 PGMs データセットの生成 • 抽象構造を、3つの集合要素から定義 relation types(r ∈ R) :progression, XOR, OR, AND, consistent union object types(o ∈ O) :shape, line attribute types(a ∈ A):size, type, color, position, number 例:S = [r, o, a] = [progression, shape, color] (1 ≤ |S| ≤ 4)
19.
3. Procedurally generating
matrices 19 PGMs データセットの生成
20.
3. Procedurally generating
matrices 20 一般化レジーム (1)Neutral : 訓練データとテストデータは、同じ基礎分布から生成 (2)Interpolation(内挿) : 偶数のデータで訓練し、奇数のデータでテスト (3)Extrapolation(外挿) : Lowerのデータで訓練し、Upperのデータでテスト (4)Held-out Attribute shape-color : 訓練データセットにo=「shape」と、a=「color」なし (5)Held-out Attribute line-type : 訓練データセットにo=「line」と、a=「type」なし (6)Held-out Triples : 29の組み合わせのうち、7組をホールドアウト (7)Held-out Pairs of Triples : S≥2で、400の組み合わせのうち、40組をホールドアウト (8)Held-out Attribute Pairs : S≥2で、20組の (a1, a2)に対して、4組をホールドアウト 訓練データとテストデータを意図的に変えて、汎化性能を試す
21.
4. Models and
Experimental Setup • 8つのContext Panel と、8つのChoice Panel(回答候補)で構成 • 各パネルは80×80ピクセルの画像 21 入力データ • CNN-MLP • ResNet • LSTM • Wild Relation Network(WReN) • Wild ResNet • Context-blind ResNet モデル
22.
4. Models and
Experimental Setup 22 Wild Relation Network(WReN) • Relation Networks(Santoro et al. 2017)に基づくアーキテクチャ • CNNは、各Context Panelと、Choice Panelから9つの埋め込みベクトルを生成 • ベクトルはRNに渡され、Choice Panelのスコアを付ける • 各回答選択肢ごとに1つ作成された結果をsoftmax関数に渡す
23.
4. Models and
Experimental Setup 補助情報の訓練 23 • relation, object, attribute タイプをバイナリ文字列としてエンコードする「メタ・ターゲット」を構築 • 12桁で、shape, line, color, number, position, size, type, progression, XOR, OR, AND, consistent union を表現し、OR演算を行い、メタ・ターゲットを生成 例: OR([101000010000], [100100010000])= [101100010000] • 補助情報の訓練の影響を考慮する場合は、以下においてβ≠0とする L 𝑡𝑜𝑡𝑎𝑙 = 𝐿 𝑡𝑎𝑟𝑔𝑒𝑡 + βL 𝑚𝑒𝑡𝑎−𝑡𝑎𝑟𝑔𝑒𝑡
24.
5. Experiments 24 • ResNet-50
> LSTM > CNN の順で精度が高い • 最も精度が高かったのがWReN モデル別の精度の比較
25.
5. Experiments 25 質問タイプ別の精度 関係性の数 • 関係性が多いほど精度は低くなる傾向がある •
しかし、関係性が3つの場合の方が、関係性が4つ の場合より精度が低い結果となった
26.
5. Experiments 26 質問タイプ別の精度 関係性の種類 • 図形の数や、線の有無は精度が高い •
一方で、大きさや形状は精度が低い
27.
5. Experiments 27 一般化 • 最も誤差が少ないのは、Interpolation(内挿)で、 一般化誤差14:6% •
最も誤差が大きいのは、Extrapolation(外挿)で、 一般化誤差52.1% →一般化の失敗は、範囲外の入力を認識できないこと に起因する可能性がある • Held-out Triplesの一般化の精度が低いということは、 モデルが、構成要素の知識から未知の集合を推論するこ とができないことを示唆している • Heldout line-type、Held-out shape-colorの結果 から、新しい属性で作られた関係を理解できていない
28.
5. Experiments 28 補助訓練の効果 • 補助訓練により、一般化レジームの精度は向上した •
新しい組み合わせに再結合するモデルは、特に精度が向上(H.O. Triple Pairsは41.9%→56.3%、 H.O.Attribute Pairsは、27.2%→51.7%) • この発見は、知識表現(Andreas et al. 2016)のための離散チャネルの利点と、説明や理論的根拠の 誘導の利点に関する観察と一致する(Ling et al. 2017)
29.
5. Experiments 29 補助訓練の分析 • 補助訓練は、パフォーマンスを向上させることに加えて、モデルがそのPGMに存在すると判断している shapes,
attributes, relationsを測定し、モデルを把握することができる。 • WReNモデルは、メタ・ターゲットの予測が正しければ87.4%のテスト精度を達成したが、予測が正しくない 場合は34.8%であった。 • メタ・ターゲット予測は、オブジェクト、属性、およびリレーション・タイプの予測に分解できる。WReNモデルの 精度が、これらの特性のそれぞれについて予測値の関数としてどのように変化するかを調査 ⇒relationプロパティの差が最も大きい ⇒relationプロパティを正しく予測することが、タスクの成功に最も重要である メタ・ターゲット予測が、 正しい場合のテスト精度 メタ・ターゲット予測が、 誤っている場合のテスト精度 shapes 78.2% 62.2% attributes 79.5% 49.0% relation 86.8% 32.1%
30.
6. Discussion 30 1. 最先端のニューラルネットワークは、豊富な訓練データで訓練されれば、複雑で人間が挑戦する抽象的な 推論課題に対する解決策を見つけることができるか? 研究目的に対する結果 •
ニューラルネットワークは抽象推論を学ぶことができる • CNNやResNetsなどの標準的なビジュアルプロセッシングモデルでは不十分であり、 WReNによって複雑な視覚的推論の問題を解決することを学んだ。 • 補助訓練を行うことで精度を向上させる方法を見つけた。メタ・ターゲットを生成することで、 モデルの汎化能力が向上した。
31.
6. Discussion 31 2.複雑で人間が挑戦する抽象的な推論課題に対する解決策を見つけられるのであれば、訓練データが制御 されているときにどれだけうまく推論できるのか? 研究目的に対する結果 • モデルは非常に制約されており、有限の属性と値で少数の関係から構成されている •
本研究のモデルは、日常生活における経験を、馴染みのない視覚的な推論問題設定に移す必要が ある人間とは異なり、知覚的および構造的均一性の高い質問セットで訓練している。 • 既知の属性値の間を補間する必要がある場合、またよく知られていない組み合わせで既知の抽象的 なコンテンツを適用する場合、モデルは一般化されている。しかしながら、この制約された領域内であっ ても、彼らは経験を超えてインプットに推論する必要があるとき、あるいはまったく馴染みのない属性に 対処する必要があるとき、著しく精度が低くなった。 • 後者の行動では、モデルと人間とは非常に異なる。 XORなどの関係を線の色に適用できる人間は、 ほぼ確実にそれを形の色に適用ができる。
32.
6. Discussion 32 • 本研究の重要な貢献は、抽象推論と一般化の両方をモデルで研究するためのツールとして、 PGMデータセットを導入したこと その他貢献 •
メタラーニングなど一般化に向けた改善 • WReNモデルの改良 課題
33.
6. Discussion 33 • (記載されているが)限られた条件の中でのテストであるので、抽象的な推論を行うにはまだ課題がある •
一方で、質問タイプによる違いや一般化レジームごとの精度の違いを見比べると違いが出ていたり、補助的 な学習で精度を高めたりと、抽象化・一般化に向けた参考となった 感想
34.
Appendix 参考文献 34 • Andreas, J.,
Klein, D., and Levine, S. Modular multitask reinforcement learning with policy sketches. arXiv preprint arXiv:1611.01796, 2016. • http://proceedings.mlr.press/v80/santoro18a/santoro18a-supp.pdf • https://deepmind.com/blog/measuring-abstract-reasoning/
35.
Appendix ハイパーパラメータ 35
36.
Appendix その他例題 36
37.
Appendix 37 Q.次の空欄に当てはまる図形を選択してください。
38.
Appendix 38 Q.次の空欄に当てはまる図形を選択してください。 A.「A」が正解です。何故か?
39.
Appendix 39 同じ列において、パネルが下にいくにつれて図形の数が多くなっている。 そのため、右下の空欄には、図形の数が「5」 となることが推測できる。 =
40.
Appendix 40 しかし、図形の数が「5」のパネルはA, B, C,
E, F, Hが該当するため、別の関係性を見つける必要がある。 別の関係性とは、どのようなものか?
41.
Appendix 41 各行を見ると、1列目と2列目に共通して出現してる線が3列目に現れている。(2問目と同様) この関係が成り立つのは、「A」、「D」、「E」、「H」 である。他に関係性は無いか?
42.
Appendix 42 各列を見ると、1列目と2列目は共通して「灰色」、「濃い灰色」、「黒色」の三色が表示されている。 3列目を見ると、「黒色」 が無いため、空欄には「黒色」が該当することが推測される。 ここは「濃い灰色」では ないか?と思われる
43.
Appendix 43 3つの関連性を満たしている選択肢は、「A」のみとなる。
Download