Home
Explore
Submit Search
Upload
Login
Signup
Check these out next
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
全力解説!Transformer
Arithmer Inc.
【メタサーベイ】Video Transformer
cvpaper. challenge
[DL輪読会]World Models
Deep Learning JP
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
メタスタディ (Vision and Language)
Shintaro Yamamoto
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
1
of
28
Top clipped slide
一般向けのDeep Learning
Jun. 2, 2013
•
0 likes
563 likes
×
Be the first to like this
Show More
•
484,649 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Download Now
Download to read offline
Report
Technology
PFI 全体セミナーで発表した、専門家向けではなく一般向けのDeep Learning(深層学習)の解説です。どのような場面で活躍しているのか、今までの学習手法と何が違うのかを解説しています。
Preferred Networks
Follow
Vice-President at Preferred Networks
Recommended
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
1.1K views
•
39 slides
CV分野におけるサーベイ方法
Hirokatsu Kataoka
23.4K views
•
29 slides
生成モデルの Deep Learning
Seiya Tokui
47.6K views
•
38 slides
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
56.4K views
•
43 slides
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
38.5K views
•
62 slides
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
4.4K views
•
33 slides
More Related Content
Slideshows for you
(20)
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
•
14K views
全力解説!Transformer
Arithmer Inc.
•
7.5K views
【メタサーベイ】Video Transformer
cvpaper. challenge
•
1.6K views
[DL輪読会]World Models
Deep Learning JP
•
5.8K views
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
•
44.8K views
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
•
1.8K views
メタスタディ (Vision and Language)
Shintaro Yamamoto
•
1.4K views
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
•
8.4K views
「世界モデル」と関連研究について
Masahiro Suzuki
•
12.6K views
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
•
7.1K views
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
•
63.6K views
ドメイン適応の原理と応用
Yoshitaka Ushiku
•
4.8K views
Introduction to YOLO detection model
Takamitsu Oomasa
•
60.3K views
Devil is in the Edges: Learning Semantic Boundaries from Noisy Annotations
Kazuyuki Miyazawa
•
3.4K views
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
•
2.8K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
•
6.6K views
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
•
6.7K views
ディープラーニングを用いた物体認識とその周辺 ~現状と課題~ (Revised on 18 July, 2018)
Masakazu Iwamura
•
12.9K views
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜
SSII
•
2.6K views
【DL輪読会】Representational Continuity for Unsupervised Continual Learning ( ICLR...
Deep Learning JP
•
455 views
Viewers also liked
(20)
決定木学習
Mitsuo Shimohata
•
180.7K views
今日から使える! みんなのクラスタリング超入門
toilet_lunch
•
170.1K views
バンディットアルゴリズム入門と実践
智之 村上
•
170.2K views
SVMについて
mknh1122
•
276K views
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
•
156.2K views
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
Naoki Yanai
•
157.9K views
パターン認識 第10章 決定木
Miyoshi Yuya
•
140.1K views
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
•
734.1K views
トピックモデルを用いた 潜在ファッション嗜好の推定
Takashi Kaneda
•
119K views
ロジスティック回帰の考え方・使い方 - TokyoR #33
horihorio
•
281.2K views
Simple perceptron by TJO
Takashi J OZAKI
•
206.2K views
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
•
248.3K views
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
Koichi Hamada
•
288.6K views
Pythonとdeep learningで手書き文字認識
Ken Morishita
•
196.1K views
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
•
211.6K views
全脳関西編(松尾)
Yutaka Matsuo
•
18.4K views
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
Takashi Abe
•
39.1K views
機械学習プロフェッショナルシリーズ輪読会 #2 Chapter 5 「自己符号化器」 資料
at grandpa
•
35.6K views
機械学習によるデータ分析まわりのお話
Ryota Kamoshida
•
567.3K views
Deep learningの軽い紹介
Yoshihisa Maruya
•
112.4K views
Similar to 一般向けのDeep Learning
(19)
気の合う人達と社外で社内勉強会
Yu Shibatsuji
•
412 views
Deep learningの入り口
ikasumi
•
936 views
Gakusei lt
TomoyukiHirose2
•
118 views
ICML2013読み会 開会宣言
Shohei Hido
•
6.1K views
研究・企業・生き方について 情報科学若手の会2011
Preferred Networks
•
5.7K views
Chaienr meetup#2 UEI Deep Station ; A GUI for Deep learning
Ryo Shimizu
•
1.8K views
Hello deeplearning!
T2C_
•
2.2K views
Learn Languages 2022まとめ
法林浩之
•
42 views
ディープラーニングの最新動向
Preferred Networks
•
109.5K views
Machine Learning, Deep Learning how to use in civic tehnology
Kaz Furukawa
•
541 views
AI(ディープラーニング)超入門
大輔 浅井
•
1.2K views
[DL輪読会]Collaborative Deep Metric Learning for Video Understanding(KDD2018)
Deep Learning JP
•
681 views
集合知プログラミング勉強会キックオフMTG LT用資料
tetsuro ito
•
1.4K views
子供の言語獲得と機械の言語獲得
Yuya Unno
•
35.4K views
20150930
nlab_utokyo
•
24.3K views
DeNAにおける機械学習・深層学習活用
Kazuki Fujikawa
•
21.5K views
NIPS2015概要資料
Shohei Hido
•
6.8K views
気の合う人達と社外で社内勉強会
Yu Shibatsuji
•
2.3K views
Deep Q-learning from Demonstrations
Kenshi Abe
•
393 views
More from Preferred Networks
(20)
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
•
542 views
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Preferred Networks
•
198 views
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Preferred Networks
•
20.3K views
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
•
1.1K views
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
•
1.8K views
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Preferred Networks
•
1.5K views
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Preferred Networks
•
218 views
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
•
422 views
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
Preferred Networks
•
399 views
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Preferred Networks
•
129 views
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Preferred Networks
•
129 views
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Preferred Networks
•
567 views
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks
•
1.4K views
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Preferred Networks
•
1.5K views
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
Preferred Networks
•
1.4K views
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
Preferred Networks
•
1.2K views
Topology Managerについて / Kubernetes Meetup Tokyo 50
Preferred Networks
•
714 views
PFN Summer Internship 2021 / Kohei Shinohara: Charge Transfer Modeling in Neu...
Preferred Networks
•
3.2K views
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
Preferred Networks
•
2.7K views
わかる!metadata.managedFields / Kubernetes Meetup Tokyo 48
Preferred Networks
•
1.5K views
Recently uploaded
(20)
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
•
56 views
ペンタエリスリトール市場.pdf
HinaMiyazu
•
3 views
JSONEncoderで詰まった話
とん とんぼ
•
144 views
社内ソフトスキルを考える
infinite_loop
•
87 views
Forguncy製品概要.pptx
フォーガンシー
•
97 views
初学者のためのプロンプトエンジニアリング実践.pptx
Akifumi Niida
•
469 views
【DL輪読会】Poisoning Language Models During Instruction Tuning Instruction Tuning...
Deep Learning JP
•
101 views
JSAI2023_企画セッション(仕掛学)資料
Matsushita Laboratory
•
17 views
Forguncy8 製品概要 202305.pptx
フォーガンシー
•
56 views
20230601_Visual_IoTLT_vol14_kitazaki_v1.pdf
Ayachika Kitazaki
•
71 views
量子論.pdf
hiro150493
•
8 views
ChatGPT触ってみた
infinite_loop
•
58 views
MC-800DMT intrusion detector manual
Vedard Security Alarm System Store
•
3 views
JSTQB_テストプロセスの概念モデル.pdf
akipii Oga
•
242 views
JSTQB_テストマネジメントとレビュープロセス.pdf
akipii Oga
•
214 views
OpenJDKのコミッタってどんなことしたらなったの?解決してきた技術課題の事例から見えてくる必要な知識と技術(JJUG CCC 2023 Spring)
NTT DATA Technology & Innovation
•
137 views
AIEXPO_CDLE名古屋紹介
KotaMiyano
•
4 views
PCベース制御による集中制御.pdf
ssusercd9928
•
19 views
ネットワークパケットブローカー市場.pdf
HinaMiyazu
•
7 views
Kubernetes超入門
Takashi Suzuki
•
5 views
一般向けのDeep Learning
⼀一般向けの Deep Learning 岡野原 ⼤大輔 株式会社Preferred Infrastructure hillbig@preferred.jp PFI
全体セミナー 2013/5/30 @ PFI
DeepLearning l 専⾨門家向けの情報はいろいろな場所で⼿手に⼊入る l DeepLearning.net l
Google+ DeepLearning Group l ⼈人⼯工知能学会 連載解説「Deep Learning(深層学習)」 l 各分野の利利⽤用⽅方法、歴史、理理論論、実装について l 私も第3回実装編を書いています l Deep Learningの話は⼀一部の機械学習屋向けの話なのか? →否 l 今⽇日は⼀一般向けにDeep Learningを説明してみます 2
ブログで書いたらとても注⽬目された 3 あれから7ヶ月
2012年年に衝撃が⾛走る l 画像認識識・⾳音声認識識・化合物の活性予測でDNNが最⾼高精度度を達成 l 2位以下をぶっちぎる l
100mの世界記録におけるボルトのような⽴立立場 l ⾮非専⾨門家が達成したことにも衝撃 l 「化合物の活性予測は初めてだけど、試したら出ちゃった」 4
あらゆる分野でDeep Learningの話がでてくる l 学会での嵐嵐 l
主要学会のチュートリアルで紹介 l ICML(機械学習), ACL(⾃自然⾔言語処理理), CVPR(画像処理理) l 学会も誕⽣生!ICLR (元々snowbird workshop) l ビジネスでの嵐嵐 l Microsoftが⾳音声認識識をDeepLearningベースに置き換える l おそらく、Googleなど他の企業も置き換える l 中⼼心⼈人物のHinton+ポスドクが⽴立立ち上げた会社をGoogleが即買収 l Googleのエンジニアの中⼼心⼈人物のJeff Deanも携わる l 新聞などの記事でも取り上げられる 5
⼀一般物体認識識の例例(LSVRC2012優勝チーム) 6 ⼀一般物体のカテゴリ認識識 間違えた場合も、納得の できる間違え⽅方 (右下のtape playerを 携帯電話と間違えている) http://www.image-net.org/challenges/LSVRC/ 2012/ilsvrc2012.pdf
ニューラルネット(NN)の歴史 (1/2) l 1940年年代頃から何度度もブームが l
Perceptron, BackPropagation, … l しかし90年年代頃からの⻑⾧長い冬の時代 l 2006年年からDeep Neural Netとしての復復活 l Hinton, BengioらによるPreTraining とAutoEncoderの登場 l 深い階層を持った場合でも勾配が拡散せず学習できる l Ngらによる視覚野の働きに似た画像特徴抽出 l ⼈人の視覚認識識の仕組みを部分的に再現できた l しかしまだ⼀一部の研究者のみが注⽬目している状況 7
ニューラルネット(NN)の歴史 (2/2) l 2010年年以降降の発展 l
多くの分野でのベンチマークテストによる圧勝 l ⼀一般物体画像認識識、⾳音声認識識、薬物活性予測 l これまでのstate-of-the-artを⼤大きく凌凌駕すると共に、 ⾮非専⾨門家が達成したことに衝撃 l ⼤大規模NNからの教師無学習(後述) l Googleらがは1000万枚の画像を利利⽤用してパラメータ数が数⼗十億 からなる⼤大規模NNを2000台(16000コア)で1週間で学習 l 教師無し学習で知識識のようなものが得られる 8
なぜ深層学習がこれほど成功したか l Hinton⽈曰く:「Bengioらが90年年代に培った⼿手法」 + 「⼤大規模データ」
+ 「DropOut」 l 特に⼤大きなブレークスルーがあったわけではない l 学習⼿手法の改善 l PreTraning, AutoEncoder, Dropout, Maxout、学習率率率調整 l 実装技術の改善 l GPGPUや⼤大規模クラスタの利利⽤用 l ニューラルネットはこれまで注⽬目されていなかっただけ + これまでの学習⼿手法の煮詰まり感 l 既存⼿手法(線形分類器、ベイズ、カーネル法)に関して やれることはほぼやった。特徴抽出は⽐比較的⼿手付かず 9
機械学習のおさらい l 機械学習=経験(データ)によって賢くなるアルゴリズム l データから知識識・ルールを⾃自動獲得する l
データの適切切な表現⽅方法も獲得する l ⼈人⼯工知能の中で、⼈人が知識識やルールを 明⽰示的に与える⽅方法の限界から⽣生まれてきた 10 学習データ 分類モデル
機械学習が急速に広まった理理由 特徴表現と分析処理理の分離離 11 特徴抽出:問題や分野の特徴を 捉えた抽象化されたデータ 分野に依存しない 様々な⼿手法の適⽤用 11 ⽂文書 (0,
1, 0, 2.5, -‐‑‒1, …) (1, 0.5, 0.1, -‐‑‒2, 3, …) (0, 1, 0, 1.5, 2, …) 特徴ベクトル グラフィカルモデル 分類/回帰 SVM, LogReg, PA, CW, ALOW, Naïve Bayes, CNB, DT, RF, ANN クラスタリング K-‐‑‒means, Spectral Clustering, NNF, MMC, LSI, LDA, GM, DP 構造分析 HMM, MRF, CRF, … 画像 センサ情報 ⾏行行動履履歴 l 異異なる分野で同じ機械学習⼿手法が適⽤用可能
特徴抽出 l ⼊入⼒力力データから特徴を抽出し特徴ベクトルで表す l テキスト、画像、⾳音声、数値 l
各領領域の専⾨門家による職⼈人芸であった 12 周囲が黄色 1 中心が茶 1 花びらの割合 0.7 ⾼高さ 150 世の中ではビッグデー タというキーワードが 注⽬目されていますが, ⼀一⼝口にビッグデータと いっても⽴立立場や観点に よって定義は様々です. 他の要素は0とする ビッグデータ 2 世の中 1 キーワード 1 定義 1 IT関連 ひまわり 特徴ベクトル 分析結果
DeepLearning 深層学習による特徴抽出(=表現学習) l 機械学習は次の2つのステップからなると説明した l STEP1
⼊入⼒力力データからの特徴抽出 l STEP2 特徴に対する学習・推論論 l 特徴抽出は今でもドメイン知識識や⼈人⼿手による試⾏行行錯誤が必要 l ⾃自然⾔言語処理理、画像処理理、⾏行行動履履歴 … 毎に異異なる技 l Feature Engineeringとも呼ばれる⼀一種のアート l どれを使うか、どう組み合わせるのか、値はどうするのか l 特徴抽出も⾃自動化できないか? l 特徴抽出は機械学習の実⽤用上なボトルネック l ⼈人⼿手は本当に最適か、さらに改善できないか? ⇒ 表現学習 13
表現学習 「実世界の観測情報から本質的な情報を抽出し表現する」⽅方法を学習 l 世の中のデータは⼀一⾒見見、複雑で量量が多く処理理が困難なように⾒見見える l 本質な情報を抽出し表現できればメリットはたくさん! l その後の問題が簡単な問題となる l 可視化しやすい l
⼀一般化しやすい l 原因もわかりやすい l データサイズも少ない 14 手書き文字データ(元々256次元) 2次元で表現した場合
情報表現の代表選⼿手 主成分分析 (PCA: Principal
Component Analysis) l ⾼高次元データの集合を少数の主成分のベクトルで表す l 各⾏行行がデータに対応する⾏行行列列Xに対する特異異値分解が X = UΣVT の時、Uが主成分ベクトル, VΣTが主成分値 l 元のデータを⼆二乗誤差最⼩小での近似に対応 l redsvdを使えばコマンド1発で 巨⼤大な⾏行行列列もPCAできるよ! 15
情報表現 l データ圧縮 l データをうまく表現することにより、情報を失わず 同じ情報をより短い符号⻑⾧長で表す l データ変換 l フーリエ変換・ウェーブレット変換 l Burrows
Wheeler変換 l データ要約 l クラスタリング 16
深層学習の場合 17 階層的に情報表現をより 「総合的」かつ「抽象的」 な情報に変換していく (各出⼒力力は⾮非線形な関数)
深層学習の場合 顔の学習の例例 18 l 深いレイヤーはパーツを 組み合わせた全体の学習 l 浅いレイヤーは単純な パーツを学習
浅いレイヤー 小さい部品 より具体的なもの 深いレイヤー 全体的な特徴 より抽象的なもの
表現学習をとことんやったら? DistBelief [J. Dean+,
NIPS 13] 19 非同期での大規模学習をサポート - オンラインの並列学習 (SGD) - バッチ学習の並列学習 (L-BFGS) - 16000コアでの並列学習が可能 Youtubeから得られた 200 x 200の 画像 1000万枚に対して教師無し学習 (AutoEncoderと似たRICAと呼ばれる 方法でDNNを学習) 次項以降で学習で得られた 最上部のニューロンが反応する画像 を紹介
右:学習で得られたニューロンが最も反応する画像 左:このニューロンに反応したテスト画像 20
右:学習で得られたニューロンが最も反応する画像 左:このニューロンに反応したテスト画像 21
⾃自然⾔言語の場合 [Richard+ ] l 別PDFを参照 22
深層学習による情報表現の獲得 l 層の数が多いNNによって、観測データから本質的なデータを抽 出した、内部表現/潜在表現/特徴量量を抽出する l ⼀一度度抽出さえできれば簡単な線形分類器でも学習可能 l
⼀一度度抽出したらいろんなタスクに利利⽤用可能 l 特定の課題に特化しているわけではないので l 元々のデータに潜在的な構造があるため l ⾼高次元の観測データが低次元の部分空間や多様体上に集中して分布 →データの分布に沿った座標系を取ることで効率率率的に表現可能 (主成分分析の例例) 23
Disentagling l 「もつれをほどける」「ほぐれる」という意味 l 元々のデータが⾼高次元中で絡まっている状態を、 うまくほぐして表現することで低次元で簡単な情報にする l
実際、その後簡単な線形分類器で⾼高精度度を達成する l 先程のGoogleの例例はImage netでの最⾼高精度度を達成 l データに対する仮説:観測データを⽣生み出してている 情報源は少数のコンセプト・属性からなる l なので、そのような少数のコンセプト・属性を⾒見見つければ良良い 24
⽂文書の2次元へのマッピング 右側のDNNベースの⼿手法はきれいに分かれる 25
DNNの信じる世界 = Principal
of Compositionality l 複雑な現象の意味は、それを構成する部品の意味の組み合わせであ る l ⼈人間(⽣生物)の多くの認識識がこれを満たす l テキスト、画像、⾳音声 l DNNはPrincipal of Compositionalityを利利⽤用している l 情報表現も、単純な部品の組み合わせで複雑な情報も表現できる l 部品は上位の複数の部品で共有される l これらの関係再帰的に効率率率よく学習できる 26
まとめ 27
深層学習 = 表現学習 l
DNNにより、表現学習を⾏行行える l ⼈人間の認識識がうまくいく分野はうまく学習しているようにみえる l 構⽂文解析, Sentiment Analysis l ⾳音声認識識 l 画像認識識、映像認識識 l 化合物分類(職⼈人が⾒見見ると⼀一発で分かる) l しかし … l 精度度が欲しいだけの場合は必ずしもDNNじゃなくても良良い l 3層程度度のfully-connected NN + dropout + maxoutで最⾼高精度度 l http://rodrigob.github.io/ l DNNの研究・実⽤用化はまだ道半ば 28