SlideShare a Scribd company logo
1 of 33
Download to read offline
Deep Learning 輪読会 2017

第15章 表現学習
松尾研究室
リサーチエンジニア 曽根岡 侑也
構成
15章 表現学習
15.1 層ごとの貪欲教師なし事前学習
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
15.2 転移学習とドメイン適応
15.3 半教師あり学習による原因因子のひもとき
15.4 分散表現
15.5 深さがもたらす指数関数的な増大
15.6 潜在的な原因発見のための手がかり
2
はじめに
• 本章の内容:表現を学習するとは何か
– 「表現を学習する」とは
– 「よい表現」とは
– 表現の共有
– マルチドメイン、マルチタスク、マルチモーダルで有用
– 転移学習、ドメイン適応
– 分散表現の優位性
3
表現学習
• 表現次第で情報処理タスクの難易度は変わる
- 例1)アラビア数字の計算(「CCX割るVI」 vs 「210 割る 6」 )
- 例2)数値リストのソート(連結リスト vs 木)
• 良い表現とは何か
- それに続くタスクを簡単にするもの、タスク次第
- (例)NNの分類の場合、Softmaxに渡す表現は線形分離可能であるべき
- 入力の情報をできるだけ保存すること vs 好ましい特性の獲得
• 教師なし学習・半教師あり学習に役立つ
- ラベルなしデータでよい表現を学習し、教師あり学習で使用
4
15.1 層ごとの貪欲教師なし事前学習
• 層ごとの貪欲教師なし事前学習
- 畳み込みなどの特殊な構造を使わず深層教師あり学習を可能にした

初めての方法で深層学習を再燃させるきっかけ
- あるタスク(教師無し)で学習した表現が別タスクで有用と示した実例
- 層ごとに教師なし学習し全部の層の初期化を行ない、その後再学習させる
- (例)深層自己符号化器、深層ボルツマンマシン
5
15.1 層ごとの貪欲教師なし事前学習
• 層ごとの貪欲教師なし事前学習のアルゴリズム
6
15.1 層ごとの貪欲教師なし事前学習:事前学習
• 事前学習(Pretraining)
- 一度他のタスクで学習し, その後 再学習(fine-tune)すること
- 事前学習と再学習の二段階を刺すことが多い
• 事前学習の主な使い方
- 特徴抽出器:抽出した表現の上に分類機をつけ、分類機だけを再学習
- パラメータの初期化:モデル全体を再学習させる

(参考:ChainThaw:層ごとに再学習)
7
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 多くの分類タスクでは事前学習によりテスト誤差を改善する

一方、平均的には「害がある」or「利益がない」
事前学習しないときの
平均値
事前学習の害
化合物活性予想
8
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 教師なし事前学習を行う動機・アイデア
1. NNの初期パラメータ選択が正則化の効果があるという仮説
• 事前学習なしでは到達できない領域にモデルを初期化している
2. 入力分布の学習が出力への写像の学習を手助けしうる
• 教師なしタスクで有用な特徴量は教師ありでも有用
9
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 表現学習の観点で有効なとき
- 自然言語のような初期表現が不十分なものに有効
- 画像のような既にリッチなベクトル空間ではそこまで有用ではない
• 正則化の観点で有効なとき
- ラベルなしデータは大量にあるが、ラベルありデータが少ないとき
• その他の有効なとき
- 学習される関数が極めて複雑な場合
• 通常の正則化が単純な関数を学習させようとしているのに対して、

学習タスクに有用な特徴量を発見させる方向に働いている
10
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 教師なし事前学習は正則化だけでなく訓練誤差も改良する
• 到達不可能な領域に事前学習が導いていることを示す実験 [Erhan, (2010)]
- 事前学習をすると一貫した特定の関数へ収束する
- 事前学習により、推定過程の分散を低下 + 過適合のリスクを低下
11
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 事前学習が最もよく働くのはいつか [Erhan 2010]
- より深いネットワークではテスト誤差の平均と分散を低下させた

※ この実験は、ReLU・ドロップアウト・バッチ正規化以前の話
• 教師なし事前学習がどのように正規化として機能するのか
- 観測データを生成する潜在因子に関する特徴量の発見の手助けをしている
12
15.1.1 教師なし事前学習はいつ、なぜうまく働くのか
• 教師なし事前学習のデメリット
- 正則化の強度を調整するわかりやすい方法がない
- 事前学習時のハイパーパラメータ調整が難しい
• 2段階でのステップをふむため、事前学習のハイパーパラメータを

再学習時の結果をみて変更する必要がある
• 現在のユースケース
- 自然言語処理の単語埋め込み以外ほとんど使わない

(one-hot, 大量のラベルなしデータがあるという理由)
- 教師あり事前学習はよく使われており主流のものは公開されている
13
15.2 転移学習とドメイン適応
• ある設定(分布P1)で学んだことを別の設定(分布P2)の汎化能力の向上を

試みるアイデアがある
- 同一の表現が双方の問題設定で有用というアイデア
• 転移学習
- 異なる2つ以上のタスクで学習
- P1とP2の変化を説明する因子が近いという仮定
- あるタスクで学習したあとに近いタスクで再学習する
- 例1)犬猫分類 → アリハチ分類(エッジなどの下位概念を共有)
- 例2)音声認識(人毎に変更、上位層の言語モデルを共有)
14
15.2 転移学習とドメイン適応
• ドメイン適応
- タスクは同じであるが、入力分布が異なる問題で学習
- 例)音楽レビューの感情分析 → 家電レビューの感情分析

(語彙や文体が違うため、再学習が必要)
• コンセプトドリフト
- 時間経過でデータ分布が変化することを考慮した転移学習
15
15.2 転移学習とドメイン適応
• マルチタスク学習
- 復数のタスクを同時に学習し共通の表現を一部で利用する
• マルチタスク学習や転移学習の構造例(右図)
- 出力変数yはすべてのタスクで共通
- 3つのタスクに対する入力を

共通の特徴量に変換するよう学習
16
15.2 転移学習とドメイン適応
• ゼロショット学習:ラベルあり事例はなし
- 入力x, 出力y, タスクを記述する確率変数Tでモデル化
- 例)大量のテキストで学習し、物体認識する

猫の特徴のテキストから画像に猫がいるかを判定
- 例2) 機械翻訳

単一言語コーパスからそれぞれの言語の分散表現を学習し結びつける
• ワンショット学習:ラベルありが1つだけ与えられる
- ラベル無しで潜在的なクラスを分けるような表現を学習
- 1つのラベルありデータがあれば特徴空間上で周りにあるデータの

ラベルを推論できる
17
15.2 転移学習とドメイン適応
• マルチモーダル学習
- あるモダリティの表現と他のモダリティの表現、事例のペアから

表現の関係を捉える
18
15.3 半教師あり学習による原因因子のひもとき
• 良い表現とは何か
- データの潜在的原因に対応しており、

各特徴量が異なる潜在的な原因に対応しているため、互いに解きほぐせる
- モデリングしやすい表現であることが多い
• 半教師あり学習
- 観測データからxの表現として潜在的原因を学習しyに結びつける
x
p(x)
y=1 y=2 y=3
半教師あり学習が成功する例:混合分布 19
15.3 半教師あり学習による原因因子のひもとき
• 観測xの原因となる潜在因子hを見つけることができ、

ラベルyがその潜在因子と結びつきであれば、半教師あり学習が有効
- p(y | x)は周辺分布p(x)と密接に結びついているため、

p(x)の知識は手助けになるはずである
20
• 課題:
- 観測結果の大半が多くの潜在的原因によって生成されている
- 全ての潜在的原因を捉えて、紐解くことはほぼ不可能
• 重要な研究テーマ
- 「それぞれの状況で何を符号化するべきか」を決定すること
1. 最も適切な変化の要因群を捉えるように教師あり + 教師なしを利用
2. 教師なしのみであれば大きな表現を使う
21
15.3 半教師あり学習による原因因子のひもとき
• どの潜在的原因を顕著とするか
- 最適化する誤差の設定 ≒ どの原因が顕著と考えるかの設定
- 画像の場合、平均二乗誤差だと小さいものが消える

⇒ 卓球の玉を動かすロボティクスタスクだと問題に
Input Reconstruction
22
15.3 半教師あり学習による原因因子のひもとき
• GANの登場
- 分類器を騙すように画像を生成モデルを学習する方法
- 顕著とするものを決める方法すら学習する
• 分類機が識別できるものは全て顕著とされる
• 潜在的原因因子の学習のメリット
- 因果関係は普遍的なため、時間やドメインなどに対してロバストになる
Ground Truth MSE Adversarial
23
15.4 分散表現
• 分散表現:互いに分離可能な要素により構成された表現
- k個の値を持つn個の特徴量を利用することで  の概念を表現できる
- データを説明する潜在因子を隠れ層が学習できるという仮説に基づく
24
15.4 分散表現
• 分散表現:n次元のバイナリ素性ベクトル(左)
-   の状態を取ることができる、一般的に  を表すことができる
• シンボリック表現(onehot表現):各要素が各シンボルを表す(右)
- n個の異なる状態のみが起こる相互排他的な表現
h1
h2 h3
h = [1, 1, 1]>
h = [0, 1, 1]>
h = [1, 0, 1]>
h = [1, 1, 0]>
h = [0, 1, 0]>
h = [0, 0, 1]>
h = [1, 0, 0]>
25
15.4 分散表現
• 非分散表現に基づく学習アルゴリズム例
- k平均法を含むクラスタリング手法:1つのクラスタに割り当てられる
- k近傍法アルゴリズム:

少数のテンプレートやプロトタイプ事例が関連付けられる
- 決定木:1つの葉ノードのみが活性化する
- 混合ガウスや混合エキスパート:
- ガウシアンカーネルを用いたカーネルマシン:

復数の値により表現されるが独立に制御するのは容易ではない
- n-gramによる言語/翻訳モデル:

文脈(シンボルの連なり)の集合は接尾辞の木構造に応じて仕切られる
26
15.4 分散表現
• 分散表現によるメリット
- 異なる概念感で共通の属性による汎化(ex:猫と犬)
- 類似度の測定が可能
- 複雑な構造が少数のパラメータによって表現できる時が有効
• 統計的な観点による比較:’   の領域を分解する際
- 非分散学習:識別可能な領域数と同じ事例が最低でも必要
- 分散表現:    のパラメータ数で分割可能

⇒ 少ないパラメータのモデルで良いため汎化に必要なデータは少ない
27
15.4 分散表現
• GANを使った分散表現
- 性別やサングラスなどの表現を分離して獲得できている
- + =
28
15.5 深さがもたらす指数関数的な増大
• 原因因子はかなり高次なため、深層分散表現が必要
• 莫大なユニット数があれば隠れ層を持つネットワークは万能近似器
- 多種類の関数を近似
- 不十分な深さの場合、ユニット数は入力規模に対して指数関数的になる
- 基本的に十分な深さがあると指数関数的なメリットがある
• 例)積和ネットワーク(SPN)
- 確率変数の集合に対する確率分布を計算する ために多項式回路を利用
- 有限の深さで確率分布を表せるが、表現力が制限される可能性がある
- 深くなるほど、指数関数的な表現力を持つ
29
15.6 潜在的な原因発見のための手がかり
• まとめ
- よい表現は、原因因子をひもとく表現である
- 教師あり学習は、直接的に変動の因子を少なくとも1つ紐解いている
- 表現学習は特設的ではない手がかりを利用している
• よりよい表現を獲得するために正則化戦略が必要
- 人間が解けるタスクに類似した様々なAIタスクに適用可能な

一般的な正則化戦略を見つけるのが深層学習の目的の1つ
30
15.6 潜在的な原因発見のための手がかり
• 滑らかさ:僅かな変動εに対して         が成立するという仮定.

     これにより、入力の近傍店を汎化できる
• 線形性:幾つかの変数の間の関係が線形であるという仮定.
• 復数の説明因子:データが複数の潜在的な説明因子により生成されており,

        因子の各状態がわかれば大半のタスクは解けるという仮定.
• 原因因子:モデルは変動因子hを観測データ x の原因として扱うように構築し

     その逆は成り立たない
• 深さあるいは説明因子の階層性 :

上位の抽象的な概念は階層構造をなす単純な概念により定義できるという仮定
31
15.6 潜在的な原因発見のための手がかり
• タスク間の共有因子:

タスク間で共有の原因を持ちそうな時、因子hを共通に使える部分がある
• 多様体:確率の大部分は集中しており、集中領域は局所的につながっている
• 自然なクラスタリング:入力空間において結合された多様体は

           それぞれ 1 つのクラスに割り当てられると仮定.
• 時間的・空間的なコヒーレンス:

1. 最も重要な説明因子は時間をかけてゆっくり変化

2. 真の潜在的な説明因子を予測する方が生の観測値を予測するよりも簡単であることを仮定
• スパース性:大半の特徴量は,大半の入力を説明するのに関連していない
• 因子の依存関係の簡潔さ:

よい高次の表現では因子は互いに単純な依存関係で結び付いている
32
参考文献
• Deep Learning
– Ian Goodfellow, Yoshua Bengio, Aaron Courville
– 日本語版
– https://www.amazon.co.jp/%E6%B7%B1%E5%B1%A4%E5%AD%A6%E7%BF%92-
Ian-Goodfellow/dp/4048930621
33

More Related Content

What's hot

最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展Deep Learning JP
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまでharmonylab
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用Yoshitaka Ushiku
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用Yasunori Ozaki
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論Deep Learning JP
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)Preferred Networks
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANsDeep Learning JP
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 

What's hot (20)

最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
【DL輪読会】マルチエージェント強化学習における近年の 協調的方策学習アルゴリズムの発展
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
強化学習 DQNからPPOまで
強化学習 DQNからPPOまで強化学習 DQNからPPOまで
強化学習 DQNからPPOまで
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
ドメイン適応の原理と応用
ドメイン適応の原理と応用ドメイン適応の原理と応用
ドメイン適応の原理と応用
 
POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用POMDP下での強化学習の基礎と応用
POMDP下での強化学習の基礎と応用
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
不老におけるOptunaを利用した分散ハイパーパラメータ最適化 - 今村秀明(名古屋大学 Optuna講習会)
 
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 

Similar to [DL輪読会]Deep Learning 第15章 表現学習

理解型インプットタスクを用いた授業実践
理解型インプットタスクを用いた授業実践理解型インプットタスクを用いた授業実践
理解型インプットタスクを用いた授業実践Yu Tamura
 
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバックKen Urano
 
Rm20150617 7key
Rm20150617 7keyRm20150617 7key
Rm20150617 7keyyouwatari
 
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)N.K KooZN
 
Tsubota 20120915
Tsubota 20120915Tsubota 20120915
Tsubota 20120915nextedujimu
 
プロソディの捉え方とその指導_06.03.2015
プロソディの捉え方とその指導_06.03.2015プロソディの捉え方とその指導_06.03.2015
プロソディの捉え方とその指導_06.03.2015Kazuhito Yamato
 
Tefl20140603 6key
Tefl20140603 6keyTefl20140603 6key
Tefl20140603 6keyyouwatari
 
Tefl20130514 5key
Tefl20130514 5keyTefl20130514 5key
Tefl20130514 5keyyouwatari
 
Rm20140521 6key
Rm20140521 6keyRm20140521 6key
Rm20140521 6keyyouwatari
 
LETkansai_20130511_watari_key
LETkansai_20130511_watari_keyLETkansai_20130511_watari_key
LETkansai_20130511_watari_keyyouwatari
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...Deep Learning JP
 

Similar to [DL輪読会]Deep Learning 第15章 表現学習 (12)

理解型インプットタスクを用いた授業実践
理解型インプットタスクを用いた授業実践理解型インプットタスクを用いた授業実践
理解型インプットタスクを用いた授業実践
 
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック
目標言語を使った外国語の授業: 効果的なインプット・インタラクション・フィードバック
 
Rm20150617 7key
Rm20150617 7keyRm20150617 7key
Rm20150617 7key
 
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)
知識構成型ジグソー法を用いた協調学習 ― 21世紀に向けた学習スタイル ― (2015)
 
Tsubota 20120915
Tsubota 20120915Tsubota 20120915
Tsubota 20120915
 
プロソディの捉え方とその指導_06.03.2015
プロソディの捉え方とその指導_06.03.2015プロソディの捉え方とその指導_06.03.2015
プロソディの捉え方とその指導_06.03.2015
 
Tefl20140603 6key
Tefl20140603 6keyTefl20140603 6key
Tefl20140603 6key
 
Tefl20130514 5key
Tefl20130514 5keyTefl20130514 5key
Tefl20130514 5key
 
JSET2010
JSET2010JSET2010
JSET2010
 
Rm20140521 6key
Rm20140521 6keyRm20140521 6key
Rm20140521 6key
 
LETkansai_20130511_watari_key
LETkansai_20130511_watari_keyLETkansai_20130511_watari_key
LETkansai_20130511_watari_key
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...[DL輪読会]data2vec: A General Framework for  Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
 

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-ResolutionDeep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxivDeep Learning JP
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLMDeep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat ModelsDeep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...Deep Learning JP
 

More from Deep Learning JP (20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
 
【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
 
【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM【DL輪読会】マルチモーダル LLM
【DL輪読会】マルチモーダル LLM
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo... 【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
 
【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
 
【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
 

Recently uploaded

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)Hiroki Ichikura
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 

Recently uploaded (12)

Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
【早稲田AI研究会 講義資料】3DスキャンとTextTo3Dのツールを知ろう!(Vol.1)
 
論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 

[DL輪読会]Deep Learning 第15章 表現学習