SlideShare a Scribd company logo
2019年11月24日
増田博之
機械学習の未解決課題
2
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
3
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
4
敵対的事例(Adversarial Example)とは?
参考:はじめてのAdversarial Example
CNNを騙すノイズ
人の目ではわからないような変化にCNNは騙される
この論文を起点にCNNの脆弱性が多く指摘されています
パンダ テナガザル
5
物体認識への介入
デジタルデータにノイズをのせて初めて騙せるんでしょ?
という訳ではない・・・
ライフルに
誤認識させるカメ
エスプレッソに
誤認識させる
野球ボール
視点やスケール、光源などが変化する現実世界には効力はない
と言われていたがその主張が覆る
特集記事、動画
両方3Dプリンタで
作成した模型
6
ML実応用へのクラッキング
カメラに半透明シールを貼り誤認識を誘発
自動運転
一時停止を時速45マイル制限に誤認識
顔認識
メガネで別人になりすまし
撮像系 音声認識
スマートスピーカーに誤認識を誘発
7
◼ 敵対的事例(攻撃)とそれを防ぐロバストな学習(防御)の戦い
• 防御法が提案されても、後にそれを破る攻撃法が提案される流れが多い
• コンペ形式で攻撃と防御を競う(リンク)
• ML実応用に向けて理論的保証をつける研究が盛んに
◼ ニューラルネットは何を見て認識しているのか?の解明
• CNNは形状ではなくテクスチャを見て認識してる(解説)
• 逆にロバストな識別機は人が見ているような低周波成分に着目している(論文)
• Adversarial Exampleはバグではなく、CNNにとっては意味ある特徴(解説)
本分野のトレンド
CNNは形状ではなく
テクスチャを見て認識してる
ロバストなモデルのSaliency Mapは
低周波成分に着目している
8
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
9
強化学習の活用先
ゲーム
スマホゲーム(DeNA) Dota2(OpenAI)
ロボット制御
電力削減
データセンター冷却(Google DeepMind)
様々な分野に活用が期待されている技術ですが
その学習の再現性については課題が指摘されています
モデル構造の設計
NASNet AutoML Vision(Google)
Dactyl (OpenAI)
10
強化学習における再現性課題(Random Seed)
NeurIPS2018招待講演
「Reproducible, Reusable, and Robust Reinforcement Learning」より
✓ Random Seedを変えただけで性能が大きく変わる
11
強化学習における再現性課題(アルゴリズム)
✓ タスクによってベストのアルゴリズムが変わる
HalfCheetah Hopper
Swimmer
12
強化学習における再現性課題(ハイパーパラメータ)
✓ ハイパーパラメータで性能が大きく変わる
13
強化学習における再現性課題(試行回数)
✓ いくつか試行し上位を採用すれば、スコアが上振れする
14
提出論文はどこまでこれらについて言及してるか?
✓ 再現性に関する各種項目についてきちんと言及している
論文は多くない
15
再現性を担保するために
初期値や探索、重みの更新などのランダム性が相まって
強化学習の再現性は大きな課題となってます
(論文通りに実装しても再現しないことが起こるので注意が必要)
16
生成モデル(GAN)における再現性の課題
GANによるデータ生成はこの数年で大きく進展
しかし学習の安定性については未解決で、長く議論されている
https://twitter.com/goodfellow_ian/status/1084973596236144640
17
GANとは?
参考:はじめてのGAN
2つのネットワークを競わせて学習することで
本物そっくりなデータを出力する生成モデルを作ります
GAN: Generative Adversarial Network
よく贋作師とそれを見破る鑑定人で例えられます
リアルデータ
Generator
Dが見抜けないような
データを生成する
Discriminator
Gの生成データと
リアルデータとを区別する
18
学習の安定化を阻む課題:Mode Collapse
Mode Collapse(解説)
Deep Learningの学習の中で、GAN等で主に問題となる数種類の結果のみを
出力するようになってしまう問題のこと.
GとDが拮抗して互いに学習することで品質が向上していくが、
逆に片方だけが強くなるとそればかりを生成して学習が進まなくなってしまう
(ちょうどよいライバル関係でないと、互いの成長が止まる的なイメージ)
いらすとや
画像生成
Twitter画像検索
アニメ画像からラーメン二郎まで
色んな生成画像を見ることができます
19
学習を安定化させるための提案(ノウハウ)
GANを学習させる際の14のテクニック
1. 入力を正規化
2. GのLoss関数を修正する
3. Zはガウス分布から
4. BatchNormalization
5. 勾配がスパースになるものは避ける
6. DのOutputの正解ラベルには、ノイジーなラベルを使う
7. DCGANやハイブリッドモデル
8. 強化学習における安定性のテクニックを使う
9. 最適化手法はAdamを使う
10.学習がうまく進んでいるのかを確認する
11.DとGの学習を統計的に制御しない
12.画像データにラベルがついているのであれば、使う
13.InputやLayerにノイズを入れる
14.Gに学習、テストの両段階において、Dropoutを入れる
何となく必要な気がするものから、謎(闇)のテクニックまで満載
20
安定に学習できるアルゴリズムは何か?
Are GANs Created Equal? A Large-Scale Study
◼ 論文の主張
• 色んなモデルが提案されているが、どのモデルもパラメータに対してセンシ
ティブにスコアが変動している⇒どれも大差ないという結論
• 論文中に提示されたパラメータが比較的良いスコアを示しているのは事実だ
が、安定性はどのモデルでも弱い(他の生成モデルVAEの安定感が際立つ)
真に安定な学習方法は未だに明らかになっていない
⇒ここが解決すれば、様々な分野に展開される可能性を秘めた技術
21
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
22
ブラックボックスによりおこる課題
ローンが組めない理由を「AI magic!」で返されて納得できますか?
ローン審査をAIで自動判定した場合
NIPS2017公平性に関する発表より
23
XAI(説明可能なAI)の開発
機械学習の説明可能性への取り組みより
何をもって説明可能とするか?の考え方、アプローチは様々
それぞれ「AIを安心して利用できるように」の理念のもとで研究が行われている
注目領域の可視化
予測根拠、因果関係の提示 説明の学習
モジュール化による説明性向上
24
Google、ゴリラ問題
説明の難しさと合わせて、モデルへの直接的介入も現状は難しい
結局、機械学習モデルが何を学んでいるのかは具体的にわからない
https://twitter.com/jackyalcine/status/615329515909156865
グーグルの画像認識システムは、まだ
「ゴリラ問題」を解決できていない──見
えてきた「機械学習の課題」
Googleはお詫びの声明を出し、問題に
対応した同社のエンジニアはゴリラのタ
グを当面は使用停止にすると公表。その
うえで、「長期的な解決策に取り組んでい
く」と話していた。
↓
2年以上経ったいま、その“解決策”は
Google フォトのタグの一覧からゴリラや
そのほかの霊長類の名前を削除すること
にとどまっている。
25
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
26
バイアス課題に関する代表事例1
◼ Microsoftの会話Bot 「Tay」(解説)
ユーザーとの会話から学習する
新しい会話Botをリリース
↓
悪意あるユーザーから
人種差別や性差別、暴力表現などを学習し
不適切発言を連発
↓
開始16時間でサービス停止に
Hitler was right I hate the jews
(ヒトラーは正しかった。ユダヤ人は大嫌い)r
◼ アマゾンの人材採用AI(解説)
採用希望者の願書(履歴書など)をもとに
自社に適した人材を選びだす
↓
女性の評価を低く見積もる傾向が発覚
(IT系は男性が多く不均衡だからと見解が示されるが、
過去にそういったバイアスがあったからでは?
という専門家の意見も挙がっている)
27
バイアス課題に関する代表事例2
◼ 顔変換アプリ「FaceApp」(記事)
どの事例も所有する過去データをピュアに学習した結果、起きた事例
顔写真をアップすると「表情」「性別」「年齢」などの
見た目を変換できるアプリ
↓
「Hot(魅力的)」のフィルタを選ぶと
肌の色を白っぽくしてしまう
↓
人種差別騒動となり謝罪
(俳優などの有名人の顔写真で構成された
CelebAデータセットで学習したためと思われる)
◼ テキストにおける性別と職業(記事)
インターネットから220万語を収集してAIに学習
↓
単語の関連性を測定すると
性別と職業に強い関連性が表れていた
28
バイアス課題に関する代表事例3
◼ オンライン広告(記事)
黒人系とされる名前を検索すると
犯罪歴調査に関する広告が表示される
公平性に配慮した学習とその理論的課題より
29
公平性を保ち学習する難しさ
入力データからセンシティブな情報(性別、人種、出身国など)を
取り除いて学習すればいいんじゃない?
という訳ではない・・・
たとえセンシティブ情報を取り除いたとしても
別の情報にそれに紐づく情報が潜んでいる可能性がある
性別:●●
趣味:野球
部活動:野球部
学生時代に力を入れたこと:
私はチームでキャプテンを務め・・・
性別:●●
趣味:手芸
部活動:オーケストラ
学生時代に力を入れたこと:
私はフルート奏者として・・・
30
公平性(Fareness)の重要性
◼ Griggs VS Duke Power Co.の裁判(1971結審)
• 1955年、デューク・エナジー社(米国の電力会社)が昇進に高校学位
もしくは特定の資格保持を必須要件に
• 上記要件が、人種に紐づくproxyになっていた
• 高卒率: 34%(白人) 12%(黒人)(1960年次)
• 資格保持者: 58%(白人) 6%(黒人)
• 裁判結果「職業でのパフォーマンスに明確な関係のない資格や学
位」は実際の差別意図があるかないかに関わらず無効
このような事例を受けて機械学習が与える
社会への影響が議論されています
米雇用機会均等委員会(EEOC)
“雇用・昇進上の決定が特定のグループに
不利になるようになってはいけない”
31
どういった対策が検討されているか?
Eの特徴量から
性別を見抜く
◼ 学習データからバイアスを取り除く
◼ 公平性に関する制約条件(正則化項)を設ける
• 差別的インパクト
• 均等オッズ条件 などで不平等な判定をするモデルにペナルティをかける
◼ ネットワーク構成にバイアスを取り除く機構を設ける
• Adversarial Trainingの仕組みを入れ、特徴量からバイアスを取り除く(解説)
Dが男性か女性かを
識別できないような
中間特徴量を生成する
バイアスが除去された
中間特徴量から
目的タスクを学習する
参考:Fairness-Aware Data Mining, 公平性に配慮した学習とその理論的課題
32
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
33
機械学習による高品質なデータの生成
whichFaceisReal.com(解説記事)
GANの冒頭で触れましたが、近年の生成モデルは
ぱっと見では人でも区別がつかないレベルにまで来ています
どっちが本物の顔写真でしょうか?
34
機械学習によって生み出されるフェイクニュース1
You Won’t Believe What Obama Says In This Video!
機械学習技術が悪用される可能性を示した有名な動画
動画だから本物、証拠になるとは限らなくなった
35
機械学習によって生み出されるフェイクニュース2
ホントに見破れる?AIとフェイクニュースにまつわる課題を徹底解説より
◼ 言語モデル「GPT-2」による記事の自動生成(解説記事)
※塗りつぶしの文章を入力すると
以降の文面をAIが自動生成
GPT-2は文章の要約や、翻訳といった言語処理用に開発したもの
開発者は悪用を恐れ、縮小版モデルと論文のみを発表時に公開
36
フェイクニュースを検知するAI
フェイクニュースを見破るAIの開発が進む
( Adversarial Exampleと同じくこちらも「AI vs AI」の構図に)
どうやってフェイクニュースを見破るか?
◼ ディープフェイク見破る新手法、顔の動きの微妙な「クセ」に着目(解説、記事)
⇒瞬きや顔の動きのクセからリアルとフェイクを見抜くことが可能
◼ フェイクニュースを見破るのAI開発
• AIを用いたテキストジェネレーターをフェイクニュース検出器として活用(解説)
• GPT-2開発チームはGPT-2で生成された文章を95%近い精度で検出(記事)
◼ FacebookによるDeepfake Detection Challengeの立ち上げ(記事)
⇒Facebookはこの取り組みに1000万ドル以上を投資する計画
37
目録
◼ 敵対的事例( Adversarial Example )
◼ 汎用性、再現性
◼ ブラックボックス
◼ バイアス
◼ フェイクニュース
◼ まとめ
38
まとめ
ICMLやNeurIPSといった機械学習系のトップカンファレンスでは
下記キーワードのもと、その実現に向けた議論がされています
「AI for Social Good」
(社会に役立つAI)
「Trustworthy Machine Learning」
(信頼できる機械学習)
今年、「AIによる内定辞退予測」のニュースが話題となりましたが
AI活用が社会問題を引き起こすリスクがあることを理解の上
機械学習をどう活用すべきかご再考下さい
39
教科書
◼ Adversarial Example
• はじめてのAdversarial Example
• Adversarial Examples 分野の動向
◼ 再現性、汎用性
• Reproducible, Reusable, and Robust Reinforcement Learning
• How to Train a GAN? Tips and tricks to make GANs work
◼ ブラックボックス
• 説明可能AI(Explainable AI)
◼ バイアス
• Fairness-Aware Data Mining
• 公平性に配慮した学習とその理論的課題
◼ フェイクニュース
• ホントに見破れる?AIとフェイクニュースにまつわる課題を徹底解説
40
ご清聴ありがとうございました
41
信頼できるAIの実現に向けた研究分類
AAAI 2019 Tutorial on On Explainable AI

More Related Content

What's hot

[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by FactorisingDeep Learning JP
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language ModelsDeep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Yuya Unno
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計Takahiro Kubo
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE広樹 本間
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networkstm1966
 
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-Deep Learning JP
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)Shota Imai
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性西岡 賢一郎
 

What's hot (20)

[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising[DL輪読会]Disentangling by Factorising
[DL輪読会]Disentangling by Factorising
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
 
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
 
2019年度チュートリアルBPE
2019年度チュートリアルBPE2019年度チュートリアルBPE
2019年度チュートリアルBPE
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
Graph Neural Networks
Graph Neural NetworksGraph Neural Networks
Graph Neural Networks
 
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
[DL輪読会]`強化学習のための状態表現学習 -より良い「世界モデル」の獲得に向けて-
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
 

Recently uploaded

Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)keikoitakurag
 
20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdf20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdfAyachika Kitazaki
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...atsushi061452
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)NTT DATA Technology & Innovation
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。iPride Co., Ltd.
 
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptxssuserbefd24
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルCRI Japan, Inc.
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizesatsushi061452
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptxyassun7010
 

Recently uploaded (10)

Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
Amazon Cognitoで実装するパスキー (Security-JAWS【第33回】 勉強会)
 
20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdf20240523_IoTLT_vol111_kitazaki_v1___.pdf
20240523_IoTLT_vol111_kitazaki_v1___.pdf
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
2024年5月25日Serverless Meetup大阪 アプリケーションをどこで動かすべきなのか.pptx
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 

機械学習の未解決課題