Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Preferred Networks
PDF, PPTX
15,923 views
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
PFNの丸山宏がソフトウェア科学会 第20回プログラミングおよびプログラミング言語ワークショップ(PPL2018) で行った招待講演「演繹から帰納へ~新しいシステム開発パラダイム~」のスライドです。
Technology
◦
Read more
28
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 50
2
/ 50
3
/ 50
4
/ 50
5
/ 50
6
/ 50
7
/ 50
8
/ 50
9
/ 50
10
/ 50
11
/ 50
12
/ 50
13
/ 50
14
/ 50
15
/ 50
16
/ 50
17
/ 50
18
/ 50
19
/ 50
20
/ 50
21
/ 50
22
/ 50
23
/ 50
24
/ 50
25
/ 50
26
/ 50
27
/ 50
28
/ 50
29
/ 50
30
/ 50
31
/ 50
32
/ 50
33
/ 50
34
/ 50
35
/ 50
36
/ 50
37
/ 50
38
/ 50
39
/ 50
40
/ 50
41
/ 50
42
/ 50
43
/ 50
44
/ 50
45
/ 50
46
/ 50
47
/ 50
48
/ 50
49
/ 50
50
/ 50
More Related Content
PDF
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
by
SSII
PDF
実装レベルで学ぶVQVAE
by
ぱんいち すみもと
PPTX
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
PDF
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
PDF
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
【メタサーベイ】基盤モデル / Foundation Models
by
cvpaper. challenge
SSII2022 [OS3-02] Federated Learningの基礎と応用
by
SSII
実装レベルで学ぶVQVAE
by
ぱんいち すみもと
畳み込みニューラルネットワークの高精度化と高速化
by
Yusuke Uchida
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
【DL輪読会】ViT + Self Supervised Learningまとめ
by
Deep Learning JP
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
by
Deep Learning JP
What's hot
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PPTX
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
by
西岡 賢一郎
PDF
“機械学習の説明”の信頼性
by
Satoshi Hara
PDF
Domain Adaptation 発展と動向まとめ(サーベイ資料)
by
Yamato OKAMOTO
PPTX
強化学習における好奇心
by
Shota Imai
PDF
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
PDF
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
by
Deep Learning JP
PDF
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
by
Hideki Tsunashima
PDF
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
PDF
3D CNNによる人物行動認識の動向
by
Kensho Hara
PDF
失敗から学ぶ機械学習応用
by
Hiroyuki Masuda
PDF
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
PDF
モデルではなく、データセットを蒸留する
by
Takahiro Kubo
PPTX
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
by
Deep Learning JP
PDF
Jubatus Casual Talks #2 異常検知入門
by
Shohei Hido
PPTX
[DL輪読会]DropBlock: A regularization method for convolutional networks
by
Deep Learning JP
PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
by
RyuichiKanoh
PDF
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
by
Masahiro Suzuki
PDF
強化学習の分散アーキテクチャ変遷
by
Eiji Sekiya
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
by
西岡 賢一郎
“機械学習の説明”の信頼性
by
Satoshi Hara
Domain Adaptation 発展と動向まとめ(サーベイ資料)
by
Yamato OKAMOTO
強化学習における好奇心
by
Shota Imai
ドメイン適応の原理と応用
by
Yoshitaka Ushiku
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
by
SSII
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
by
Deep Learning JP
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
by
Hideki Tsunashima
強化学習と逆強化学習を組み合わせた模倣学習
by
Eiji Uchibe
3D CNNによる人物行動認識の動向
by
Kensho Hara
失敗から学ぶ機械学習応用
by
Hiroyuki Masuda
時系列予測にTransformerを使うのは有効か?
by
Fumihiko Takahashi
モデルではなく、データセットを蒸留する
by
Takahiro Kubo
[DL輪読会]大規模分散強化学習の難しい問題設定への適用
by
Deep Learning JP
Jubatus Casual Talks #2 異常検知入門
by
Shohei Hido
[DL輪読会]DropBlock: A regularization method for convolutional networks
by
Deep Learning JP
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
by
RyuichiKanoh
(DL hacks輪読) How to Train Deep Variational Autoencoders and Probabilistic Lad...
by
Masahiro Suzuki
強化学習の分散アーキテクチャ変遷
by
Eiji Sekiya
Similar to 20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
PDF
PRML学習者から入る深層生成モデル入門
by
tmtm otm
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
PPTX
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
PDF
効率的学習 / Efficient Training(メタサーベイ)
by
cvpaper. challenge
PDF
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
PDF
TVM の紹介
by
Masahiro Masuda
PDF
鷲崎弘宜, "高品質なAIシステムの開発・運用のための"フレームワーク", eAIシンポジウム 2025年1月16日
by
Hironori Washizaki
PPTX
まだプログラム手で書いて消耗してるの?~入出力例からプログラムを自動生成する技術~(NTTデータ テクノロジーカンファレンス 2019 講演資料、2019...
by
NTT DATA Technology & Innovation
PDF
20171212 gtc pfn海野裕也_chainerで加速する深層学習とフレームワークの未来
by
Preferred Networks
PPTX
機械学習応用システムの開発技術(機械学習工学)の現状と今後の展望
by
Nobukazu Yoshioka
PDF
Seeing Unseens with Machine Learning -- 見えていないものを見出す機械学習
by
Tatsuya Shirakawa
PDF
LED-Camp2「組込みシステム開発の勘所と実践」
by
Hideki Takase
PPTX
survey on math transformer 2023 0628 sato
by
satoyuta0112
PDF
超スマート社会時代のシステム&ソフトウェア品質知識体系 - SQuBOK 2020 における AI、IoT、クラウド、オープンソース、アジャイル、DevO...
by
Hironori Washizaki
PDF
機械学習工学と機械学習応用システムの開発@SmartSEセミナー(2021/3/30)
by
Nobukazu Yoshioka
PDF
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
PPTX
組込みSW開発技術研究会キックオフミーティング
by
静岡大学情報学部 組込みシステムアーキテクト研究所
PDF
JAZUG_TOHOKU_modeki_20230324_共有版.pdf
by
Yuya Modeki
PPTX
【Dll171201】深層学習利活用の紹介 掲載用
by
Hirono Jumpei
PDF
Deep learning reading club @ nimiri for SWEST
by
Kiyoshi Ogawa
PRML学習者から入る深層生成モデル入門
by
tmtm otm
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
by
Preferred Networks
[DL輪読会]Flow-based Deep Generative Models
by
Deep Learning JP
効率的学習 / Efficient Training(メタサーベイ)
by
cvpaper. challenge
深層学習と確率プログラミングを融合したEdwardについて
by
ryosuke-kojima
TVM の紹介
by
Masahiro Masuda
鷲崎弘宜, "高品質なAIシステムの開発・運用のための"フレームワーク", eAIシンポジウム 2025年1月16日
by
Hironori Washizaki
まだプログラム手で書いて消耗してるの?~入出力例からプログラムを自動生成する技術~(NTTデータ テクノロジーカンファレンス 2019 講演資料、2019...
by
NTT DATA Technology & Innovation
20171212 gtc pfn海野裕也_chainerで加速する深層学習とフレームワークの未来
by
Preferred Networks
機械学習応用システムの開発技術(機械学習工学)の現状と今後の展望
by
Nobukazu Yoshioka
Seeing Unseens with Machine Learning -- 見えていないものを見出す機械学習
by
Tatsuya Shirakawa
LED-Camp2「組込みシステム開発の勘所と実践」
by
Hideki Takase
survey on math transformer 2023 0628 sato
by
satoyuta0112
超スマート社会時代のシステム&ソフトウェア品質知識体系 - SQuBOK 2020 における AI、IoT、クラウド、オープンソース、アジャイル、DevO...
by
Hironori Washizaki
機械学習工学と機械学習応用システムの開発@SmartSEセミナー(2021/3/30)
by
Nobukazu Yoshioka
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
組込みSW開発技術研究会キックオフミーティング
by
静岡大学情報学部 組込みシステムアーキテクト研究所
JAZUG_TOHOKU_modeki_20230324_共有版.pdf
by
Yuya Modeki
【Dll171201】深層学習利活用の紹介 掲載用
by
Hirono Jumpei
Deep learning reading club @ nimiri for SWEST
by
Kiyoshi Ogawa
More from Preferred Networks
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
by
Preferred Networks
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PDF
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
by
Preferred Networks
PDF
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
PDF
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
by
Preferred Networks
PDF
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
by
Preferred Networks
PDF
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
by
Preferred Networks
PDF
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
by
Preferred Networks
PDF
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
by
Preferred Networks
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
by
Preferred Networks
PDF
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
by
Preferred Networks
PDF
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
by
Preferred Networks
PPTX
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
by
Preferred Networks
PDF
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
by
Preferred Networks
PDF
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
by
Preferred Networks
PDF
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
by
Preferred Networks
PDF
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
by
Preferred Networks
PDF
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
by
Preferred Networks
PDF
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
by
Preferred Networks
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
by
Preferred Networks
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
by
Preferred Networks
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
by
Preferred Networks
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
by
Preferred Networks
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
by
Preferred Networks
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
by
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
by
Preferred Networks
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
by
Preferred Networks
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
by
Preferred Networks
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
by
Preferred Networks
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
by
Preferred Networks
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
by
Preferred Networks
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
by
Preferred Networks
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
by
Preferred Networks
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
by
Preferred Networks
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
by
Preferred Networks
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
by
Preferred Networks
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
by
Preferred Networks
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
1.
演繹から帰納へ ~新しいシステム開発パラダイム~ 3/5, 2018 Preferred Networks,
丸山 宏 PPL2018招待講演
2.
自己紹介: 1983 東京工業大学修士課程修了 –
(米澤明憲先生の下で)論理型言語、自然言語処理 1983-2009 日本IBM東京基礎研究所 – 形式言語理論、構文解析、全文検索、手書き文字認識 – 分散処理(XML、Webサービス) – セキュリティ いわゆるコン ピュータサイ エンス 統計・ 機械学習 2011-2016 統計数理研究所 — 統計モデリング、ビッグデータ解析 2016年4月: 株式会社Preferred Networks — 深層学習
3.
人工知能とは「CSを進化させる営み」 1956-1974 第1次人工知能ブーム • 記号処理
(LISP) • Means-End Analysis • 自然言語処理 1980-1987 第2次人工知能ブーム • 知識表現 (e.g. フレーム) • エキスパートシステム • オントロジー 2008 第3次人工知能ブーム • 統計的機械学習・深層学習 - 動的メモリ管理 - 探索アルゴリズム - 形式言語理論 - : - オブジェクト指向 - モデリング言語 - セマンティックWeb - : 帰納的システム開発 (機械学習工学) 「人工知能」技術はコアのCSへ コンピュータサ イエンティスト から見ると
4.
Software 2.0? https://petewarden.com/2017/11/13/deep-learning-is-eating-software/
5.
深層学習とは何か – (状態を持たない*)関数 Y
= f(X)X Y 超多次元、(連 続変数・カテゴ リ変数の任意の 組み合わせ) 判別・制御なら ば比較的低次元、 生成ならば超多 次元 *推論時にパラメタ更新を行うオンライン学習についてはこの限りでない
6.
普通の関数の作り方: 例 摂氏から華氏への変換 double
c2f(double c) { return 1.8*c + 32.0; } 入力: C 出力: F ただし、FはCを華氏で表したもの 仕様 アルゴリズム F = 1.8 * C + 32モデル 人が持つ 先験的知識 モデルが既知/アルゴリズムが構成可能である必要
7.
深層学習のやり方 – 訓練データを用いる 訓練データセット 観測 訓練(ほぼ自動でパラメタθを決定)
8.
機械学習(=統計モデリング)すると… モデル: 線形回帰式 モデル・アルゴリズムが未知でよい
9.
機械学習における、モデル選択の重要性 過学習に陥らずに、適切なモデルを選ぶには? この訓練データ をよく再現する モデルは? パラメタが多す ぎると過学習に
10.
先ほどの例を深層学習で訓練してみると… … … 出力Y 入力X 2層10ノード の中間層 合計141個の パラメタ 程よい近似 各ノードの入力は線 形結合。活性化関数 はランプ関数 ロス関数は平均2乗 誤差。これを逆伝搬 することで学習 モデルの形によらず(あまり)過学習しない!
11.
汎用計算機構としての深層学習 桁違いに多いパラメタ – 任意の多次元非線形関数を近似可能*
疑似的にチューリング完全! 出力(超多次元) 入力(超多次元) * G. Cybenko. Approximations by superpositions of sigmoidal functions. Mathematics of Control, Signals, and Systems, 2(4):303–314, 1989.
12.
訓練はどのように動くか (Facebook Yann
LeCunによる動画) https://code.facebook.com/pages/1902086376686983
13.
自動運転のためのセグメンテーション https://www.youtube.com/watch?v=lGOjchGdVQs モデルが不明:人手による正解アノテーション(1)
14.
ロボットビジョン: Amazon Picking Challenge
2016 2nd Place in the Picking Task モデルが不明:人手による正解アノテーション(2)
15.
音声によるロボットのコントロール モデルが不明:人手による正解アノテーション(3)
16.
Consumer Electronics Show
(CES) 2016 CESにおける自動運転デモ アルゴリズムが不明:逆問題として定式化(1)
17.
強化学習によるシステム開発 https://research.preferred.jp/2015/06/distributed-deep-reinforcement-learning/
18.
線画への自動着色アプリPaintsChainer アルゴリズムが不明:逆問題として定式化(2)
19.
統計的機械学習の本質的限界 (1) 訓練データ モデル 将来が過去と同じでないと正しく予測できない 時間軸 過去に観測されたデー タに基づいて訓練 訓練 訓練済みモデルに基いて 新しい値を予測
20.
統計的機械学習の本質的限界 (2) 訓練データに現れない、希少な事象に対して無力 訓練データセット 内挿 外挿 ?? 機械学習はひらめかない、臨機応変な対応をしない
21.
統計的機械学習の本質的限界 (3) 本質的に確率的 元分布 独立・同分布(i.i.d.) 訓練データ 学習済みモデル サンプリングに バイアスが入る ことは避けられ ない!
22.
深層学習とは何か(まとめ) 関数(プログラム)の作り方 – 演繹でなくて帰納
モデルやアルゴリズムがわからなくても、訓練データセットがあれば 作れる – 教師信号の与え方次第で、驚くようなことが… 本質的に統計モデリング – 元分布が独立・同分布であることが前提 – 近似しかできない(バイアスが入ることを避けられない)
23.
新しいプログラミングパラダイムとしての 深層機械学習
24.
典型的な機械学習応用システム 収集 前処理 訓練 推論 前処理 入力 正解データ 出力 訓練済みモデル生データ 収集 訓練データ 入力 推論パイプライン 訓練パイプライン
25.
訓練誤差と汎化誤差 未学習領域 • モデルの複雑 さが 足りない 過学習領域 •
モデルを簡単化する • 汎化テクニックを使う • 訓練データを増やす Daniel Beckstein, “Practical Methodology”, Chapter 11 of Goodfellow, I., Bengio, Y., Courville, A., Deep Learning, MIT Press, 2016. 汎化誤差 訓練誤差
26.
Assessment PoC Pilot
Deployment Maintenance • お客様の理解度 • ビジネス目標 • 機械学習への適 合度 • データの入手可 能性 : • データの量・ 品質は足りて いるか • 期待する精度 が達成できそ うか : • ビジネスプロセ スへの組み込み はうまくいった か • ビジネス目標は 達成できたか : CP1 CP2 CP3 CP4 • 性能の監視 • データ・ドリ フトの監視 : 典型的なシステム構築サイクル より探索的
27.
課題(1)品質: 機械学習システムは、高金利クレジット! • CACE
(Changing Anything Changes Everything) 原理 – すべてが絡み合っている https://static.googleusercontent.com/media/rese arch.google.com/en//pubs/archive/43146.pdf • どのArtifactも推論の精度に影響を与える。 しかし、個別に正しさを保証することは困難
28.
深層学習におけるテスト: データの分割と、漏れ データ セット 訓練用データ 汎化性能テスト 用データ 評価用データ 評価 訓練 訓練済みモデルX 評価用データの情 報が、訓練に使わ れてはならない
29.
確率的なシステムに対する社会受容? Wall Street Journal,
7/7, 2016 http://jp.wsj.com/articles/SB11860788629023424577004582173882125060236 テスラの事故 ただし… V字開発をすれば100%安全なのか? 出典:Wikipedia
30.
典型的なバグ密度(アセンブラ相当1,000行あたりのバグ 数) http://www.softrel.com/Current%20defect%20density%20statistics.pdf
31.
品質指標 – 多くの場合プロセス品質指標 http://www.ipa.go.jp/files/000028859.pdf この車の安全性は? 例:
どのくらいレビュー に時間を割いたか?
32.
第3者による客観的な品質指標の可能性 非公開の評価用データ 自動化された、第3者による評価 評価 評価結果のみ を返す この車の安全性は?
33.
課題(2)再利用:訓練済みモデルの再利用パターン 同タスク 新タスク 同タスク 2. Fine Tuning White
box再利用 1. Copy : 4. Distillation Black box再利用 同タスク 3. Ensemble 元モデルをそのまま使う NNの一部あるいは全部を再利用、 新たな訓練データを加えて、似た 領域の異なるタスクに利用する 元モデルを教師として、新 たなモデルを訓練する 複数の元モデルの出力を組 み合わせて精度を向上させ る
34.
訓練済みモデルフォーマットの標準化(1) 訓練 https://www.khronos.org/nnef 推論
35.
訓練済みモデルフォーマットの標準化(2): ONNX message ModelProto
{ optional int64 ir_version = 1; : optional GraphProto graph = 7; }; message GraphProto { repeated NodeProto node = 1; optional string name = 2; repeated TensorProto initializer = 5; optional string doc_string = 10; repeated ValueInfoProto input = 11; repeated ValueInfoProto output = 12; repeated ValueInfoProto value_info = 13; } message TensorProto { repeated int64 dims = 1; optional DataType data_type = 2; optional Segment segment = 3; repeated float float_data = 4 [packed = true]; : optional string name = 8; } message NodeProto { repeated string input = 1; repeated string output = 2; optional string name = 3; optional string op_type = 4; repeated AttributeProto attribute = 5; optional string doc_string = 6; } Node Tensor Tensor
36.
課題(3)アーキテクチャ・パターン: モデルベース開発か、モデルフリー開発か? モデルベース開発 (演繹的) モデルフリー開発 (帰納的) • モデルがよく知られている • モデルを明快に書き下せる •
モデルと現実世界のギャッ プが小さい • モデルは時間とともに(あ まり)変化しない • 教師信号がない • モデルが不明 • モデルを書き下せない • モデルと現実世界の ギャップが大きい • モデルは時間とともに大 きく変化する • 教師信号が得られる 適材適所
37.
B-TreeをDeep Learningに置き換える https://www.arxiv-vanity.com/papers/1712.01208v1/ Keyから アドレス の予測 予測モデル をDNNに置 き換え
38.
AlphaGoは離散的な木探索とDLの融合 Silver, David, et
al. "Mastering the game of Go with deep neural networks and tree search." nature 529.7587 (2016): 484-489.
39.
難しい問題の解法:非決定的探索問題としての定式化 探索オラクル NP困難問題に対する新しいアーキテクチャ・パターン
40.
課題(4): PPLコミュニティの方に考えていただきたいこと 1. 多次元の
“Shape” を対象とした型システム 2. 機械学習システムの訓練速度、推論精度、推論速度、モニタリングなど クロスカッティング・コンサーンを表現できるプログラミング
41.
2/27「機械学習・ディープラーニングでPythonを使う嬉しさ とツラミを分かちあう会」でのPFN酒井さんのプレゼン https://www.slideshare.net/sakai/mlxse20180227-python
42.
https://www.slideshare.net/sakai/mlxse20180227-python
43.
https://www.slideshare.net/sakai/mlxse20180227-python
44.
https://www.slideshare.net/sakai/mlxse20180227-python
45.
“Programming by Optimization”
の考え方 パラメト リックな ソース Weaving ドメイン依存 の入力分布 最適化ツール Hoos, Holger H. "Programming by optimization." Communications of the ACM 55.2 (2012): 70-80. ドメイン依存のパフォーマンスをクロ スカッティングコンサーンとしたアス ペクト指向??
46.
“Instrumentation” の重要性 概念ドリフトの モニタリング 推論精度の モニタリング 訓練ハイパーパ ラメタの設定 前処理パラメタ の設定 「推論精度」「学習速度」「モニタリ ング」などをクロスカッティング・コ ンサーンとするWeaving??
47.
終わりに:AI人材不足論 7/31/2017 MONOist http://monoist.atmarkit.co.jp/mn/articles/1707/31/news037.html
48.
いつか来た道:ソフトウェア危機 (1960年代) ソフトウェア工学の夜明け
49.
ソフトウェア科学会「機械学習工学研究会」が発足します!! ソフトウェア科学会 機械学習工学研究会 5/17、学士会館にて キックオフシンポジウム開催!
50.
Thank You
Download