Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習

Tatsuya Shirakawa
Tatsuya ShirakawaResearcher, Deep Learning - ABEJA, Inc. at ABEJA, Inc.
May 13th, 2019
Tatsuya Shirakawa
Seeing Unseens with Machine Learning

⾒えていないものを⾒出す機械学習
Tech-on MeetUp#06 — What can “AI (I)” do?
Tatsuya Shirakawa
2
ABEJA, Inc. (Researcher)
- Deep Learning (CV, Graph, NLP, )
- Machine Learning
Github https://github.com/TatsuyaShirakawa
NTT Data Mathematical Systems Inc.
- Mathematical Optimization
- Machine Learning / Deep Learning
Math.
Tech blog http://tech-blog.abeja.asia/
- 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開
- 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介
- 双曲空間でのMachine Learningの最近の進展
- より良い機械学習のためのアノテーションの機械学習
Now
Researchers at ABEJA
3
1.
2.
3.
4.
先に⾒つける
シンプルに解く
先に失敗する
• 最新テクノロジーのキャッチアップ
• 技術視点を交えた新しいビジネス構想
• 独⾃技術の開発・検証
• ⾼難易度タスクのコアロジックの構築
• 技術ソリューションの提案
• プロダクトの根本的な精度改善
• アイデアの検証
• 既存のやり⽅/考え⽅の再検討

視点を与える
AIの特性ふりかえり
4
MLについて⾔いたいこと
AI
ML
DL
Daniel Kehneman
There are two modes of thought
System 1(勘・直感)
fast, instinctive and emotional
System 2(論理的思考)
Slower, more deliberative, and more logical
5
MLはコッチ
6(Andrew Ng, “AI Transformation Playbook”)
AIは運⽤することで

改善する
AIは⼈間の代替ではない
7
Human AI
同じ作業を続ける ✔
スケールさせる ✔
未知な状況への適応 ✔
複雑な作業 ✔
適材適所が⼤事
Today’s Talk
1. Software 2.0

2. Bigger, Deeper and Better

3. Discovery 2.0
8
1. Software 2.0

2. Bigger, Deeper and Better

3. Discovery 2.0
9
Software 2.0
Software 1.0 — Write a program that works
- Explicit instructions to the computer which identifies a specific point in
program space with some desirable behavior
Software 2.0 — Find a desirable program that fits to data
- A rough skelton of the code (e.g. NNs) that identifies a subset of program
space to search
- Search this space for a program that works
10
Why Software 2.0?
"it is significantly easier to collect the data (or more generally, identify a
desirable behavior) than to explicitly write the program”
11
Dogs and Cats
Why dogs are dogs and cats are cats?
12
Gender, Age, Recognition is Not Trivial !
13
Paradigm Change
Things which is hard to define/code can be learn implicitly from data
14
00110110110

11010101010
11010111011

10110110100
01010111011
Coding Learn
Software
Today’s Talk
1. Software 2.0

2. Bigger, Deeper and Better

3. Discovery 2.0
15
Bigger, Deeper and Better
16
Large Scale GAN Training for High Fidelity Natural Image Synthesis (2018.9)
 BigGAN — 巨⼤な計算リソースで学習された巨⼤なモデルで⾼解像度画像の⽣成に成功。
GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism (2018.11)
 GPipe — 巨⼤なNNを効率的に学習するための分散学習ライブラリ。ImageNetで新SOTA。
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018.10)
 BERT — 巨⼤なモデルを巨⼤なデータで教師なしすることで⾔語理解系タスクにたいする強⼒な初期モデルを獲得
Language Models are Unsupervised Multitask Learners (2019.2)

 GPT-2 — 巨⼤な⾔語モデルをクリーンで巨⼤なデータで学習し、⽂書⽣成系タスクをゼロショットで⾼精度にこなせるモデルを獲得
BigGAN — Class Conditionalな⾼解像度画像⽣成
既存のSOTA⼿法(SA-GAN)に対して、バッチサイズやチャンネル数を増やし、各種⼯夫を加え
ることで、512x512のClass Conditionalな⾼精度画像⽣成に成功。既存SOTAを⼤きく上回るスコ
アを達成。
17“Large Scale GAN Training for High Fidelity Natural Image Synthesis ”
GPipe — 巨⼤なNNの学習に最適化された分散学習ライブラリ
複数のGPUを活⽤してForward/Backward計算をスケーラブルかつ効率的に⾏うライブラリ。こ
れを⽤いて学習された巨⼤なモデルはImageNetで新たなSOTAを達成。
18(“GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism”)
BERT — ⾔語理解系タスクでの強⼒な教師なし事前学習⼿法
強⼒なモデル(BERT)を教師なしで構成できる下記の2タスクで事前学習することで

さまざまな⾔語理解系タスクでSOTAを⼤幅更新
19
The cat [MASK] on the mat
sat
1. 単語の⽳埋め
GLUE test results (論⽂より)
1. The man went to [MASK] store
2. He bought a gallon [MASK] milk
→ IsNext / NotNext?
2. ⼆⽂が連続⽂かどうかの判定
GPT-2 — クリーンで多様なデータで学習された巨⼤な⾔語モデル
信頼性の⾼いWebページをクローリングして得たクリーンで多様なコーパス(WebText)上で
強⼒な⾔語モデル(GPT-2)を教師なし学習(尤度最⼤化)。

⽂書⽣成系のさまざまなタスクのZero-shot学習でSOTAを更新
20
21
Winning Way
Larger (Cleaner) Datasets 

+ Deeper Neural Networks
Today’s Talk
1. Software 2.0

2. Bigger, Deeper and Better

3.Discovery 2.0
22
Can You See Gender/Age from Ears?
23
0 10 20 30 40 50 60 70 80
Age
Can You See Gender, Age and BMI from Eyes (Fundus)?

How about Heart / Brain Diseases?
24
0 10 20 30 40 50 60 70 80
Age
DNNs Can See Gender/Age from Ears
D. Yaman+, “Age and Gender Classification from Ear Images”, IWBF2018
25
Age: 18-28 / 29-38 / 39-48 / 49-58 / 58-68+
DNNs Can See Gender, Age, BMI and even 

Brain/Heart Diseases from Eyes
R. Poplin+, “Prediction of cardiovascular risk factors from retinal fundus 

photographs via deep learning”, Nature Biomedical Engineering 2018
26
What happens?
DNNs can see what human cannot see or recognize.
27
…
Discovery 2.0
Discovery 1.0 — Fully Utilizing Domain Knowledge
- explicit construction of hypothesis is constructed mainly from
domain knowledge or deep understanding of the domain
Discovery 2.0 — Seeing by Training
- capture some aspects of data by training models on it
- not new but should be emphasized again
28
※ serendipity could be another source of discovery :)
Discovery 2.0 — Seeing by Training
1. Seeing Predictability / Correlation
29
Discovery 2.0 — Seeing by Training
1. Seeing Predictability / Correlation
Beyond human imagination

- Every data should be connect to create new connections
Correlation first
- Correlation finding is the first goal
- Causality should be checked post-hook if possible
Relatively cheap to apply if data exists
- Models should have weak domain dependence (e.g. NNs)
30
Graph Convolutional Neural Networks (GCNNs)
A specific type of neural networks which is 

designed for processing connectivity of data well
31
Tech blog http://tech-blog.abeja.asia/
- 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開
- 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介
- 双曲空間でのMachine Learningの最近の進展
- より良い機械学習のためのアノテーションの機械学習
Task Relations — Taskonomy
Relation = Transferability

A. R. Zamir+, “Taskonomy: Disentangling Task Transfer Learning”, CVPR2018
32
Autoencoding
Object Class.
Scene Class.
Curvature
Denoising
Occlusion Edges
Egomotion
Cam. Pose (fix)
2D Keypoint
3D Keypoint
Cam. Pose (nonfix)
Matching
Reshading
Distance
Z-Depth
Normals
Layout
2.5D Segm.
2D Segm.
Semantic Segm.
Vanishing Pts.
Novel Task 1
Novel Task 2
Novel Task 3
Autoencoding
Object Class.
Scene Class.
Curvature
Denoising
Occlusion Edges
Egomotion
Cam. Pose (fix)
2D Keypoint
3D Keypoint
Cam. Pose (nonfix)
Matching
Reshading
Distance
Z-Depth
Normals
Layout
2.5D Segm.
2D Segm.
Semantic Segm.
Vanishing Pts.
Novel Task 1
Novel Task 2
Novel Task 3
https://storage.googleapis.com/taskonomy_slides/taskonomy_slides.html
Discovery 2.0 — Seeing by Training
1. Seeing Predictability / Correlation

2. Representation Learning / Embeddings
33
T. Mikolov+, “Distributed representation of words and phrases and their 

compositionality, NeurIPS2013
https://github.com/facebookresearch/poincare-embeddings
Hyperbolic Space
• Manifolds with positive constant sectional curvature
• Tree structure is naturally aligned in the space

→ automatic tree structure detection!
34
Tech blog http://tech-blog.abeja.asia/
- 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開
- 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介
- 双曲空間でのMachine Learningの最近の進展
- より良い機械学習のためのアノテーションの機械学習
「異空間散歩!双曲空間を歩いてみよう。」
Hyperbolic Embeddings
35
[M. Nickel+]

Poincaré Embeddings ~
17’ 05 18’ 04
[C. D. Sa+]

Representation Tradeoff ~

(Near-exact tree embs., h-MDS)
[O. Ganea+]

Hyperbolic Entailment Cones

(Poincare embs. + Order embs.)
18’ 05
[C. Gulcehre+]

Hyperbolic Attention Networks

(Einstein Mid. Point)
[O. Ganea+]

Hyperbolic Neural Networks
[M. Nickel+]

Learning Continuous Hierarchies

in the Lorentz Model~
[A. Tifrea+]

Poincaré Glove ~
(Poincaré Glove)
18’ 06 18’ 10 …19’ 2
[R. Suzuki+]

Hyperbolic Disk Embeddings
[A. Gu+]

Mixed-Curvature 

Representations
18’ 9
Mixed-Curvature Representations
A. Gu+, “Learning Mixed-Curvature Representations in Products of model Spaces”, ICLR2019
ユークリッド空間、球⾯、双曲空間の積空間への埋め込みを構成することで、
様々な(断⾯)曲率の空間への埋込を可能にした。
36
37
データの構造が

⾒えた!
Discovery 2.0 — Seeing by Training
1. Seeing Predictability / Correlation

2. Representation Learning / Embeddings
※ Off course, domain/scientific knowledge is crucial for efficient/meaningful exploration
38
What can AI (I) do?
39
00110110110

11010101010
11010111011

10110110100
01010111011
Coding Learn
Software
Discovery
Dom
ain
Know
ledge
Learn
Software 1.0 Software 2.0
Discovery 1.0
Discovery 2.0
What can AI (I) do?
40
Psychology 

x

AI
⼈格⼼理学(Personality Psychology)
Personality Psychology is a scientific study which aims to show how people
are individually different due to psychological forces (wikipedia).
41
Personality Traits(特性)

Features
Personality Types(類型)
Clustering / Classification
あなたは◯◯タイプ!
ex) ex)
Big 5(Five Factor Model, FFM)
42
1. Openness(経験への開放性)

is a general appreciation for art, emotion, adventure, 

unusual ideas, imagination, curiosity, and variety of experience
2. Conscientiousness(誠実性)

is a tendency to display self-discipline, act dutifully, and strive 

for achievement against measures or outside expectations
3. Extraversion(外向性)

is characterized by breadth of activities (as opposed to depth), surgency 

from external activity/situations, and energy creation from external means
4. Agreeableness(協調性)

trait reflects individual differences in general concern for social harmony
5. Neuroticism(神経症的傾向)

is the tendency to experience negative emotions, such as anger, anxiety, or depression
(wikipedia)
Big5はすごい!
• さまざまな研究で提案されたパーソナリティ特性との相関性が⾼い(事実上の
デファクトスタンダード)

• 英語辞書中のパーソナリティに関する単語と既存パーソナリティテストの結果
を総合して作られた、けっこうデータ駆動な作られ⽅
• 双⼦の研究によると、Big5の変動のだいたい50%は遺伝で、残りの50%は環境
で決まっている(分散分析)
• Big5のうち、Agreeablenessをのぞいた4つは、年をとってもあまり変化しない
43
What can I do?
1. Personality embeddings (in hyperbolic spaces?)
2. Multimodal analysis (facial expressions, psychological measures, )
3. More efficient assessor (like Akinator?)





脳科学、遺伝学、進化論、⼼理学、…、機械学習の融合領域!
44
45
Annotation Driven AI
1 of 45

Recommended

データに内在する構造をみるための埋め込み手法 by
データに内在する構造をみるための埋め込み手法データに内在する構造をみるための埋め込み手法
データに内在する構造をみるための埋め込み手法Tatsuya Shirakawa
3K views62 slides
ヒトの機械学習 by
ヒトの機械学習ヒトの機械学習
ヒトの機械学習Tatsuya Shirakawa
2.4K views105 slides
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19 by
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19Tatsuya Shirakawa
1.7K views49 slides
Retail Face Analysis Inside-Out by
Retail Face Analysis Inside-OutRetail Face Analysis Inside-Out
Retail Face Analysis Inside-OutTatsuya Shirakawa
1.6K views49 slides
ICCV2019 report by
ICCV2019 reportICCV2019 report
ICCV2019 reportTatsuya Shirakawa
4.5K views68 slides
NeurIPS2021読み会 Fairness in Ranking under Uncertainty by
NeurIPS2021読み会 Fairness in Ranking under UncertaintyNeurIPS2021読み会 Fairness in Ranking under Uncertainty
NeurIPS2021読み会 Fairness in Ranking under UncertaintyTatsuya Shirakawa
124 views15 slides

More Related Content

What's hot

強化学習の基礎的な考え方と問題の分類 by
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類佑 甲野
71.4K views43 slides
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝 by
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝Preferred Networks
2.1K views18 slides
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太 by
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太Preferred Networks
925 views78 slides
20190509 gnn public by
20190509 gnn public20190509 gnn public
20190509 gnn publicJiro Nishitoba
3.6K views26 slides
ゲーム体験を支える強化学習の実応用について by
ゲーム体験を支える強化学習の実応用についてゲーム体験を支える強化学習の実応用について
ゲーム体験を支える強化学習の実応用についてJun Okumura
9.4K views30 slides
深層学習とTensorFlow入門 by
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門tak9029
36.4K views179 slides

What's hot(20)

強化学習の基礎的な考え方と問題の分類 by 佑 甲野
強化学習の基礎的な考え方と問題の分類強化学習の基礎的な考え方と問題の分類
強化学習の基礎的な考え方と問題の分類
佑 甲野71.4K views
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝 by Preferred Networks
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
日本ソフトウェア科学会第36回大会発表資料「帰納的プログラミングの初等教育の試み」西澤勇輝
Preferred Networks2.1K views
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太 by Preferred Networks
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
Preferred Networks925 views
ゲーム体験を支える強化学習の実応用について by Jun Okumura
ゲーム体験を支える強化学習の実応用についてゲーム体験を支える強化学習の実応用について
ゲーム体験を支える強化学習の実応用について
Jun Okumura9.4K views
深層学習とTensorFlow入門 by tak9029
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門
tak902936.4K views
[DL輪読会]Relational inductive biases, deep learning, and graph networks by Deep Learning JP
[DL輪読会]Relational inductive biases, deep learning, and graph networks[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP4.1K views
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔 by Preferred Networks
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks15.3K views
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太 by Preferred Networks
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks4.4K views
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α by 佑 甲野
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + αNIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
佑 甲野5.8K views
多様な強化学習の概念と課題認識 by 佑 甲野
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
佑 甲野58K views
FeUdal Networks for Hierarchical Reinforcement Learning by 佑 甲野
FeUdal Networks for Hierarchical Reinforcement LearningFeUdal Networks for Hierarchical Reinforcement Learning
FeUdal Networks for Hierarchical Reinforcement Learning
佑 甲野4.5K views
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute... by SSII
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
SSII2.8K views
Neural networks for Graph Data NeurIPS2018読み会@PFN by emakryo
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo11.8K views
Deep learningの概要とドメインモデルの変遷 by Taiga Nomi
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi26.5K views
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔 by Preferred Networks
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
Preferred Networks4.6K views
IPAB2017 深層学習を使った新薬の探索から創造へ by Preferred Networks
IPAB2017 深層学習を使った新薬の探索から創造へIPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
Preferred Networks29.2K views
機械学習 / Deep Learning 大全 (1) 機械学習基礎編 by Daiyu Hatakeyama
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
Daiyu Hatakeyama3.8K views
CDLE Lt甲子園予選会 2021 #1 0527 01(itok) by Naoya Tosaka
CDLE Lt甲子園予選会 2021 #1 0527 01(itok)CDLE Lt甲子園予選会 2021 #1 0527 01(itok)
CDLE Lt甲子園予選会 2021 #1 0527 01(itok)
Naoya Tosaka414 views

Similar to Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習

NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニング by
NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニングNGC でインフラ環境整備の時間短縮!素早く始めるディープラーニング
NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニングNVIDIA Japan
2.2K views32 slides
Generative Deep Learning #01 by
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01逸人 米田
51 views36 slides
semantic segmentation サーベイ by
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイyohei okawa
4.8K views34 slides
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19) by
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)Yaboo Oyabu
2.4K views42 slides
Deep Learning技術の最近の動向とPreferred Networksの取り組み by
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みKenta Oono
28.1K views75 slides
Bridging between Vision and Language by
Bridging between Vision and LanguageBridging between Vision and Language
Bridging between Vision and LanguageShion Honda
1.8K views48 slides

Similar to Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習(20)

NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニング by NVIDIA Japan
NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニングNGC でインフラ環境整備の時間短縮!素早く始めるディープラーニング
NGC でインフラ環境整備の時間短縮!素早く始めるディープラーニング
NVIDIA Japan2.2K views
Generative Deep Learning #01 by 逸人 米田
Generative Deep Learning #01Generative Deep Learning #01
Generative Deep Learning #01
逸人 米田51 views
semantic segmentation サーベイ by yohei okawa
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
yohei okawa4.8K views
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19) by Yaboo Oyabu
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
Yaboo Oyabu2.4K views
Deep Learning技術の最近の動向とPreferred Networksの取り組み by Kenta Oono
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Kenta Oono28.1K views
Bridging between Vision and Language by Shion Honda
Bridging between Vision and LanguageBridging between Vision and Language
Bridging between Vision and Language
Shion Honda1.8K views
Generative deeplearning #02 by 逸人 米田
Generative deeplearning #02Generative deeplearning #02
Generative deeplearning #02
逸人 米田46 views
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA by LeapMind Inc
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
LeapMind Inc5.1K views
グラフデータ分析 入門編 by 順也 山口
グラフデータ分析 入門編グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口34.9K views
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection by Deep Learning JP
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
[DL輪読会]EfficientDet: Scalable and Efficient Object Detection
Deep Learning JP7K views
デザインパターン勉強会 by Tetsuya Yoshida
デザインパターン勉強会デザインパターン勉強会
デザインパターン勉強会
Tetsuya Yoshida1.2K views
20230105_TITECH_lecture_ishizaki_public.pdf by Kazuaki Ishizaki
20230105_TITECH_lecture_ishizaki_public.pdf20230105_TITECH_lecture_ishizaki_public.pdf
20230105_TITECH_lecture_ishizaki_public.pdf
Kazuaki Ishizaki414 views
深層学習フレームワーク Chainer の開発と今後の展開 by Seiya Tokui
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui26.9K views
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare by Preferred Networks
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks2.1K views
Tableau x Einstein 連 携 に 関 す る 勝 手 な 考 察 by Tomohiro Iwahashi
Tableau x Einstein 連 携 に 関 す る 勝 手 な 考 察Tableau x Einstein 連 携 に 関 す る 勝 手 な 考 察
Tableau x Einstein 連 携 に 関 す る 勝 手 な 考 察
Tomohiro Iwahashi413 views
ピクサー USD 入門 新たなコンテンツパイプラインを構築する by Takahito Tejima
ピクサー USD 入門 新たなコンテンツパイプラインを構築するピクサー USD 入門 新たなコンテンツパイプラインを構築する
ピクサー USD 入門 新たなコンテンツパイプラインを構築する
Takahito Tejima36.5K views
Generative Adversarial Networks (GAN) @ NIPS2017 by Koichi Hamada
Generative Adversarial Networks (GAN) @ NIPS2017Generative Adversarial Networks (GAN) @ NIPS2017
Generative Adversarial Networks (GAN) @ NIPS2017
Koichi Hamada15.8K views
MapReduceによる大規模データを利用した機械学習 by Preferred Networks
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
Preferred Networks15.8K views
新しいソフトウェアエンジニアリングのためのパターンランゲージに向けて by Hironori Washizaki
新しいソフトウェアエンジニアリングのためのパターンランゲージに向けて新しいソフトウェアエンジニアリングのためのパターンランゲージに向けて
新しいソフトウェアエンジニアリングのためのパターンランゲージに向けて
Hironori Washizaki811 views

More from Tatsuya Shirakawa

2021 10-07 kdd2021読み会 uc phrase by
2021 10-07 kdd2021読み会 uc phrase2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phraseTatsuya Shirakawa
4K views16 slides
Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ... by
 Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ... Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ...
Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ...Tatsuya Shirakawa
1.3K views38 slides
Hyperbolic Neural Networks by
Hyperbolic Neural NetworksHyperbolic Neural Networks
Hyperbolic Neural NetworksTatsuya Shirakawa
2.5K views29 slides
Learning to Compose Domain-Specific Transformations for Data Augmentation by
Learning to Compose Domain-Specific Transformations for Data AugmentationLearning to Compose Domain-Specific Transformations for Data Augmentation
Learning to Compose Domain-Specific Transformations for Data AugmentationTatsuya Shirakawa
785 views27 slides
Icml2017 overview by
Icml2017 overviewIcml2017 overview
Icml2017 overviewTatsuya Shirakawa
1.4K views33 slides
Poincare embeddings for Learning Hierarchical Representations by
Poincare embeddings for Learning Hierarchical RepresentationsPoincare embeddings for Learning Hierarchical Representations
Poincare embeddings for Learning Hierarchical RepresentationsTatsuya Shirakawa
41.5K views29 slides

More from Tatsuya Shirakawa(8)

Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ... by Tatsuya Shirakawa
 Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ... Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ...
Taskonomy: Disentangling Task Transfer Learning -- Scouty Meetup 2018 Feb., ...
Tatsuya Shirakawa1.3K views
Learning to Compose Domain-Specific Transformations for Data Augmentation by Tatsuya Shirakawa
Learning to Compose Domain-Specific Transformations for Data AugmentationLearning to Compose Domain-Specific Transformations for Data Augmentation
Learning to Compose Domain-Specific Transformations for Data Augmentation
Tatsuya Shirakawa785 views
Poincare embeddings for Learning Hierarchical Representations by Tatsuya Shirakawa
Poincare embeddings for Learning Hierarchical RepresentationsPoincare embeddings for Learning Hierarchical Representations
Poincare embeddings for Learning Hierarchical Representations
Tatsuya Shirakawa41.5K views
Improving Variational Inference with Inverse Autoregressive Flow by Tatsuya Shirakawa
Improving Variational Inference with Inverse Autoregressive FlowImproving Variational Inference with Inverse Autoregressive Flow
Improving Variational Inference with Inverse Autoregressive Flow
Tatsuya Shirakawa3.2K views

Seeing Unseens with Machine Learning -- 
見えていないものを見出す機械学習

  • 1. May 13th, 2019 Tatsuya Shirakawa Seeing Unseens with Machine Learning
 ⾒えていないものを⾒出す機械学習 Tech-on MeetUp#06 — What can “AI (I)” do?
  • 2. Tatsuya Shirakawa 2 ABEJA, Inc. (Researcher) - Deep Learning (CV, Graph, NLP, ) - Machine Learning Github https://github.com/TatsuyaShirakawa NTT Data Mathematical Systems Inc. - Mathematical Optimization - Machine Learning / Deep Learning Math. Tech blog http://tech-blog.abeja.asia/ - 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開 - 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介 - 双曲空間でのMachine Learningの最近の進展 - より良い機械学習のためのアノテーションの機械学習 Now
  • 3. Researchers at ABEJA 3 1. 2. 3. 4. 先に⾒つける シンプルに解く 先に失敗する • 最新テクノロジーのキャッチアップ • 技術視点を交えた新しいビジネス構想 • 独⾃技術の開発・検証 • ⾼難易度タスクのコアロジックの構築 • 技術ソリューションの提案 • プロダクトの根本的な精度改善 • アイデアの検証 • 既存のやり⽅/考え⽅の再検討
 視点を与える
  • 5. Daniel Kehneman There are two modes of thought System 1(勘・直感) fast, instinctive and emotional System 2(論理的思考) Slower, more deliberative, and more logical 5 MLはコッチ
  • 6. 6(Andrew Ng, “AI Transformation Playbook”) AIは運⽤することで
 改善する
  • 7. AIは⼈間の代替ではない 7 Human AI 同じ作業を続ける ✔ スケールさせる ✔ 未知な状況への適応 ✔ 複雑な作業 ✔ 適材適所が⼤事
  • 8. Today’s Talk 1. Software 2.0
 2. Bigger, Deeper and Better
 3. Discovery 2.0 8 1. Software 2.0
 2. Bigger, Deeper and Better
 3. Discovery 2.0
  • 9. 9
  • 10. Software 2.0 Software 1.0 — Write a program that works - Explicit instructions to the computer which identifies a specific point in program space with some desirable behavior Software 2.0 — Find a desirable program that fits to data - A rough skelton of the code (e.g. NNs) that identifies a subset of program space to search - Search this space for a program that works 10
  • 11. Why Software 2.0? "it is significantly easier to collect the data (or more generally, identify a desirable behavior) than to explicitly write the program” 11
  • 12. Dogs and Cats Why dogs are dogs and cats are cats? 12
  • 13. Gender, Age, Recognition is Not Trivial ! 13
  • 14. Paradigm Change Things which is hard to define/code can be learn implicitly from data 14 00110110110
 11010101010 11010111011
 10110110100 01010111011 Coding Learn Software
  • 15. Today’s Talk 1. Software 2.0
 2. Bigger, Deeper and Better
 3. Discovery 2.0 15
  • 16. Bigger, Deeper and Better 16 Large Scale GAN Training for High Fidelity Natural Image Synthesis (2018.9)  BigGAN — 巨⼤な計算リソースで学習された巨⼤なモデルで⾼解像度画像の⽣成に成功。 GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism (2018.11)  GPipe — 巨⼤なNNを効率的に学習するための分散学習ライブラリ。ImageNetで新SOTA。 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018.10)  BERT — 巨⼤なモデルを巨⼤なデータで教師なしすることで⾔語理解系タスクにたいする強⼒な初期モデルを獲得 Language Models are Unsupervised Multitask Learners (2019.2)
  GPT-2 — 巨⼤な⾔語モデルをクリーンで巨⼤なデータで学習し、⽂書⽣成系タスクをゼロショットで⾼精度にこなせるモデルを獲得
  • 17. BigGAN — Class Conditionalな⾼解像度画像⽣成 既存のSOTA⼿法(SA-GAN)に対して、バッチサイズやチャンネル数を増やし、各種⼯夫を加え ることで、512x512のClass Conditionalな⾼精度画像⽣成に成功。既存SOTAを⼤きく上回るスコ アを達成。 17“Large Scale GAN Training for High Fidelity Natural Image Synthesis ”
  • 19. BERT — ⾔語理解系タスクでの強⼒な教師なし事前学習⼿法 強⼒なモデル(BERT)を教師なしで構成できる下記の2タスクで事前学習することで
 さまざまな⾔語理解系タスクでSOTAを⼤幅更新 19 The cat [MASK] on the mat sat 1. 単語の⽳埋め GLUE test results (論⽂より) 1. The man went to [MASK] store 2. He bought a gallon [MASK] milk → IsNext / NotNext? 2. ⼆⽂が連続⽂かどうかの判定
  • 21. 21 Winning Way Larger (Cleaner) Datasets 
 + Deeper Neural Networks
  • 22. Today’s Talk 1. Software 2.0
 2. Bigger, Deeper and Better
 3.Discovery 2.0 22
  • 23. Can You See Gender/Age from Ears? 23 0 10 20 30 40 50 60 70 80 Age
  • 24. Can You See Gender, Age and BMI from Eyes (Fundus)?
 How about Heart / Brain Diseases? 24 0 10 20 30 40 50 60 70 80 Age
  • 25. DNNs Can See Gender/Age from Ears D. Yaman+, “Age and Gender Classification from Ear Images”, IWBF2018 25 Age: 18-28 / 29-38 / 39-48 / 49-58 / 58-68+
  • 26. DNNs Can See Gender, Age, BMI and even 
 Brain/Heart Diseases from Eyes R. Poplin+, “Prediction of cardiovascular risk factors from retinal fundus 
 photographs via deep learning”, Nature Biomedical Engineering 2018 26
  • 27. What happens? DNNs can see what human cannot see or recognize. 27 …
  • 28. Discovery 2.0 Discovery 1.0 — Fully Utilizing Domain Knowledge - explicit construction of hypothesis is constructed mainly from domain knowledge or deep understanding of the domain Discovery 2.0 — Seeing by Training - capture some aspects of data by training models on it - not new but should be emphasized again 28 ※ serendipity could be another source of discovery :)
  • 29. Discovery 2.0 — Seeing by Training 1. Seeing Predictability / Correlation 29
  • 30. Discovery 2.0 — Seeing by Training 1. Seeing Predictability / Correlation Beyond human imagination
 - Every data should be connect to create new connections Correlation first - Correlation finding is the first goal - Causality should be checked post-hook if possible Relatively cheap to apply if data exists - Models should have weak domain dependence (e.g. NNs) 30
  • 31. Graph Convolutional Neural Networks (GCNNs) A specific type of neural networks which is 
 designed for processing connectivity of data well 31 Tech blog http://tech-blog.abeja.asia/ - 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開 - 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介 - 双曲空間でのMachine Learningの最近の進展 - より良い機械学習のためのアノテーションの機械学習
  • 32. Task Relations — Taskonomy Relation = Transferability
 A. R. Zamir+, “Taskonomy: Disentangling Task Transfer Learning”, CVPR2018 32 Autoencoding Object Class. Scene Class. Curvature Denoising Occlusion Edges Egomotion Cam. Pose (fix) 2D Keypoint 3D Keypoint Cam. Pose (nonfix) Matching Reshading Distance Z-Depth Normals Layout 2.5D Segm. 2D Segm. Semantic Segm. Vanishing Pts. Novel Task 1 Novel Task 2 Novel Task 3 Autoencoding Object Class. Scene Class. Curvature Denoising Occlusion Edges Egomotion Cam. Pose (fix) 2D Keypoint 3D Keypoint Cam. Pose (nonfix) Matching Reshading Distance Z-Depth Normals Layout 2.5D Segm. 2D Segm. Semantic Segm. Vanishing Pts. Novel Task 1 Novel Task 2 Novel Task 3 https://storage.googleapis.com/taskonomy_slides/taskonomy_slides.html
  • 33. Discovery 2.0 — Seeing by Training 1. Seeing Predictability / Correlation
 2. Representation Learning / Embeddings 33 T. Mikolov+, “Distributed representation of words and phrases and their 
 compositionality, NeurIPS2013 https://github.com/facebookresearch/poincare-embeddings
  • 34. Hyperbolic Space • Manifolds with positive constant sectional curvature • Tree structure is naturally aligned in the space
 → automatic tree structure detection! 34 Tech blog http://tech-blog.abeja.asia/ - 異空間への埋め込み!Poincare Embeddingsが拓く表現学習の新展開 - 機は熟した!グラフ構造に対するDeep Learning、Graph Convolutionのご紹介 - 双曲空間でのMachine Learningの最近の進展 - より良い機械学習のためのアノテーションの機械学習 「異空間散歩!双曲空間を歩いてみよう。」
  • 35. Hyperbolic Embeddings 35 [M. Nickel+]
 Poincaré Embeddings ~ 17’ 05 18’ 04 [C. D. Sa+]
 Representation Tradeoff ~
 (Near-exact tree embs., h-MDS) [O. Ganea+]
 Hyperbolic Entailment Cones
 (Poincare embs. + Order embs.) 18’ 05 [C. Gulcehre+]
 Hyperbolic Attention Networks
 (Einstein Mid. Point) [O. Ganea+]
 Hyperbolic Neural Networks [M. Nickel+]
 Learning Continuous Hierarchies
 in the Lorentz Model~ [A. Tifrea+]
 Poincaré Glove ~ (Poincaré Glove) 18’ 06 18’ 10 …19’ 2 [R. Suzuki+]
 Hyperbolic Disk Embeddings [A. Gu+]
 Mixed-Curvature 
 Representations 18’ 9
  • 36. Mixed-Curvature Representations A. Gu+, “Learning Mixed-Curvature Representations in Products of model Spaces”, ICLR2019 ユークリッド空間、球⾯、双曲空間の積空間への埋め込みを構成することで、 様々な(断⾯)曲率の空間への埋込を可能にした。 36
  • 38. Discovery 2.0 — Seeing by Training 1. Seeing Predictability / Correlation
 2. Representation Learning / Embeddings ※ Off course, domain/scientific knowledge is crucial for efficient/meaningful exploration 38
  • 39. What can AI (I) do? 39 00110110110
 11010101010 11010111011
 10110110100 01010111011 Coding Learn Software Discovery Dom ain Know ledge Learn Software 1.0 Software 2.0 Discovery 1.0 Discovery 2.0
  • 40. What can AI (I) do? 40 Psychology 
 x
 AI
  • 41. ⼈格⼼理学(Personality Psychology) Personality Psychology is a scientific study which aims to show how people are individually different due to psychological forces (wikipedia). 41 Personality Traits(特性)
 Features Personality Types(類型) Clustering / Classification あなたは◯◯タイプ! ex) ex)
  • 42. Big 5(Five Factor Model, FFM) 42 1. Openness(経験への開放性)
 is a general appreciation for art, emotion, adventure, 
 unusual ideas, imagination, curiosity, and variety of experience 2. Conscientiousness(誠実性)
 is a tendency to display self-discipline, act dutifully, and strive 
 for achievement against measures or outside expectations 3. Extraversion(外向性)
 is characterized by breadth of activities (as opposed to depth), surgency 
 from external activity/situations, and energy creation from external means 4. Agreeableness(協調性)
 trait reflects individual differences in general concern for social harmony 5. Neuroticism(神経症的傾向)
 is the tendency to experience negative emotions, such as anger, anxiety, or depression (wikipedia)
  • 43. Big5はすごい! • さまざまな研究で提案されたパーソナリティ特性との相関性が⾼い(事実上の デファクトスタンダード)
 • 英語辞書中のパーソナリティに関する単語と既存パーソナリティテストの結果 を総合して作られた、けっこうデータ駆動な作られ⽅ • 双⼦の研究によると、Big5の変動のだいたい50%は遺伝で、残りの50%は環境 で決まっている(分散分析) • Big5のうち、Agreeablenessをのぞいた4つは、年をとってもあまり変化しない 43
  • 44. What can I do? 1. Personality embeddings (in hyperbolic spaces?) 2. Multimodal analysis (facial expressions, psychological measures, ) 3. More efficient assessor (like Akinator?)
 
 
 脳科学、遺伝学、進化論、⼼理学、…、機械学習の融合領域! 44