SlideShare a Scribd company logo
1 of 8
Download to read offline
深層学習 Day3Day4 レポート
深層学習 Day3
1:再帰型ニューラルネットワークの概念
再帰型ニューラルネットワークは、各入力は独立したものであると考える従来のニュー
ラルネットワークの仕組みに加え、中間層からの出力を再度入力として処理することで、
時間的なつながりを維持した状態で処理を可能にしたもの。RNN は自然言語分野で特に
よく用いられる。
確認テスト:サイズ 5×5 フィルタサイズ 3×3 ストライド 2 パディング 1 の畳み込
み出力サイズ
3×3
確認テスト:RNN の重みの 3 種類目は?
中間層から中間層に戻す際の重み
演習チャレンジ
(2)
確認テスト:dz/dx を求めよ
dz/dt =2t, dt/dx=1,
dz/dt・dt/dx = dz/dx = 2t = 2(x+y)
確認テスト:y1 を数式で表せ
y1=g(Wout・Win・x1+W・S0+b +c)
コード演習問題:
(2) delta_t.dot(U)
実装演習:leaning rate の違いによる変化を確認した
考察:learning rate を大きく設定した場合、非常に早く収束した。問題設定が
単純であったからか、発散することは無かった。
learning
rate
0.1 0.5 0.9
2:LSTM
長期的な依存関係を学習することのできる、再帰型ニューラルネットワーク(RNN)の一
種。CEC と呼ばれる中間層を持ちそこにこれまでの入力値、中間層の出力を保存してお
り、RNN では中間層の出力をそのまま次の中間層に渡していたが、LSTM ではこれをC
ECで記憶、入力ゲート・出力ゲートで処理することで、処理と記憶を分けている。
不要になったデータは忘却ゲートで削除される。
確認テスト:シグモイド関数を微分した際の最大値
(2) 0.25
演習チャレンジ:
(1) gradient * rate
確認テスト:無くなっても影響を及ぼさないものはどのゲートで処理されるか
忘却ゲート
演習チャレンジ
(2) input_gate * a + forget_gate * c
3:GRU
LSTM ではパラメータ数が多く計算負荷が高かった為、GRUではそのパラメータを大
幅に削減し、精度もLSTMと同等以上を確保した。LSTMと比べて出力ゲートを書く
ため、LSTMよりパラメータが少なくなり計算負荷が低くなる。
確認テスト:LSTMとCECが抱える問題
LSTMはパラメータ数が多く計算負荷が高い点が問題。CECは勾配が 1 となり学習
能力が無いため、それを補うためのパラメータが多く、LSTMの計算負荷が高くなる原
因となっている。
演習チャレンジ
(4) (1-z) * h + z * h_bar
確認テスト:LSTMとGRUの違い
LSTMは入力、出力、忘却ゲートとCECがある。GRUはCECが無く、更新ゲート
とリセットゲートを持つ。GRUの方がパラメータ数が少なく、計算量が少ない。
4:双方向 RNN
過去の情報だけではなく、未来の情報を加味することで制度を向上させるためのモデ
ル。機械翻訳や文書の推敲などに用いられ、文書は未来の情報も一度に入ってくるため、
それらの情報を使用して精度を向上させる。
演習チャレンジ:
(4) np.concatenate([h_f, h_b[::-1]], axis=1)
5:Seq2Seq
2 つのネットワークが合わさって使用される(Encoder-Decoder)、自然言語用のネット
ワーク。機械翻訳などに使用される。Encoder では文章を単語などのトークンに分割され
たものが蓄積され、最終的には文脈がベクトル表現で保持されたことになる。Decoder で
はその保持された情報をトークンごとに作り直す。英語→日本語の翻訳をイメージすると
理解しやすい。
確認テスト:seq2seq について説明している物
(2)
演習チャレンジ:(き)に当てはまるものはどれか
(1) E.dot(w)
確認テスト:Seq2Seq、HRED、VHRED の違い
Seq2Seq は文脈間の履歴(会話の流れ)は考慮されない。
HRED は Seq2Seq + Context RNN で、過去 n-1 個の発話から次の発話を生成する。前の
文脈に沿った応答を作成することができ、過去の発話の履歴を加味した返答ができる。
VHRED は HRED に VAE の潜在変数の概念を追加することで、単純な応答を返しがち
であった HRED の問題点を解決したもの。
確認テスト:VAE 穴埋め
確率分布
6:Word2vec
RNN では単語の様な可変長の文字列を NN に与えることはできなかったため、固定長
形式で単語を記述する必要があったが、学習データからボキャブラリを作成し、ボキャブ
ラリ×任意の単語のベクトル次元数の重み行列を作成することにより、大規模データの分
散表現の学習が現実的な計算速度とメモリ量で実現可能にした。
7:Attention Mechanism
Seq2Seq では単語の数に関わらず固定次元ベクトルの中に入力しなければならなかったた
め、長い文章への対応が難しかった。そこで Attension Mechanism では「入力と出力のど
の単語が関連しているのか」の関連度を学習する事で、一文の中で何が重要かを見つけ不
要なものを排除した。
確認テスト:RNN と word2vec、seq2seq、Attention の違い
RNN:時系列データを処理するのに適したネットワーク
word2vec:単語の分散表現ベクトルを得る手法
seq2seq:一つの時系列データから別の時系列データを得るネットワーク
Attention:時系列データの中身に対して関連性に重みを付ける手法
深層学習 Day4
1:強化学習
長期的に報酬を最大化できるように環境の中で行動を選択できるエージェントを作るこ
とを目標とする機械学習の一分野。行動の結果として与えられる利益(報酬)をもとに、行
動を決定する原理を改善していくことを目的とする。ある方策をとった時の価値を評価す
る為、方策関数と価値関数を学習させる。
2:AlphaGo
AlphaGo は囲碁に対して教師あり学習+強化学習を適用したもの。AlphaGo Lee は
PolicyNet(方策関数)と ValueNet(価値関数)を組み合わせ、探索法としてモンテカルロ木探
索を採用している。PolicyNet は囲碁のマス数(19*19)と 48 チャンネルの入力を畳み込
み、活性化関数(ReLU)、出力の活性化関数は SoftMax を利用し、19*19 のマスのどこの
マスに打つのが良いのかを出すネットワーク。ValueNet は 19*19 と 49 チャンネル。手番
についてのチャンネルが PolicyNet から増えている。出力は現局面での勝率を-1~1 で表し
たものを出力する。そのため、畳み込みのあとに全結合層を 2 つ挟み、1 次元の出力とし
ている。
AlphaGo Zero は、PolicyNet と ValueNet を 1 つのネットワークとし、ResidualNet を導
入、モンテカルロ木探索の中から RollOut シミュレーションをなくしたもの。ResidualNet
はネットワークにショートカットを作成し、勾配爆発、勾配消失を抑える効果を狙ってい
る。このことで 100 層を超えるネットワークでの安定した学習が可能になった。
3:軽量化・高速化技術
深層学習は多くのデータを使用したり、パラメータ調整の為に多くの時間を使用する
為、高速な計算が求められる。高速化技術としては、モデル並列、データ並列等の並列化
処理を行い、並列化したデータを並列処理が得意な GPU で処理させる GPGPU、モデル
の軽量化技術として、量子化(大量の重みパラメータの精度を落とす)、蒸留(学習済みの精
度の高いモデルの知識を軽量なモデルへ継承させる)、プルーニング(モデルの精度に寄与
が少なりニューロンを削減することでモデルの軽量化、高速化を行う)があげられる。
4:応用モデル
MobileNets:ディープラーニングのモデル軽量化、高速化、高精度化を目指した手法。
畳み込みレイヤーの計算量が多いことを解決する為、Depthwise
Convolution(入力マップのチャネルごとに特定のフィルタで畳み込みを実
施し、出力マップをそれらと結合。フィルタが減る分計算量が減る)と
Pointwise Convolution(1*1 のカーネルで畳み込む)を利用している。
DenseNet:DenseBlock で出力層に前の層の入力を足し合わせている。ResNet とよく似
ているが、ResNet はある層に与えられた信号をそれよりも少し上位の層の
出力に追加するスキップ接続により深いネットワークを訓練できるように
したもので、DenseNet は前方の層からの出力すべてが後方の層への入力
として用いられる。
Wavenet:音声生成モデル。時系列データに対して畳み込みを適用し、Dilated
convolution(層が深くなるにつれて畳み込むリンクを離し受容野を増やす)
を採用している。
確認問題:MobileNets の(い)と(う)に入る言葉
(い)H*W*C*K*K
(う)H*W*C*M
確認問題:Wavenet の(あ)、(い)に入る言葉
(あ)Dilated causal convolution
(い)パラメータ数に対する受容野が広い
5:Transformer
Seq2seq:系列を入力として系列を出力するモデル。
RNN のモデルでは間違いが起こると誤差が連鎖的に大きくなっていき、学
習が不安定になったり収束されなくなる問題があるが、TeacherForcing によ
って正解ラベルを直接 Decoder の入力にする等の工夫が考えられる。また
TeacherForcing では学習時と評価時に分布が異なってしまうデメリットがあ
るが、Scheduled Sampling 等と混ぜ合わせることで改善できる。
Transformer:エンコーダ、デコーダに RNN を使用せず、Attention のみを使用する
Attention は翻訳先の各単語を選択する際に翻訳元の文中の各単語の隠れ
状態を利用したもので、クエリに一致するキーを検索し、対応するバリ
ューを取り出す操作であるとみなすことができる。
実装演習:Seq2seq
Wheel のバージョン違いで動作しなかったようなので 0.34.1 に修正して実行した。
考察:プログラムを追っていくことで、Seq2seq による言語翻訳の動作の流れが非常に
よく理解できた。出来上がったものは、英語から全く別の日本語になってしまう
こともあるので信頼度は低いが、基本的な動きが理解できた点は良かった。
確認事項:
登録単語の確認
結果
実装演習:Transformer
考察:プログラムを追っていくことで、Transformer の Attention がどの段階で入って
動作するのかなど、動きがよく理解できた。また、実行結果も seq2seq よりはま
ともな文章になっており、信頼性も向上していることが確認できた。
実行結果:
6:物体検知・セグメンテーション
物体検知は入力画像から、何がどこにあるのかを出力するもの。出力はバウンディング
ボックスで、物体位置と物体のクラスと確信度が合わせて出力されることが多い。通常の
クラス分類問題では閾値を上げても出力の数は変わらなかったが、物体検知では確信度が
閾値を超えなかった場合は出力対象とならないので注意が必要。代表的なデータセットは
VOC12,ILSVRC17,MS COCO18,OICOD18 などがあげられる。手法としては AlexNet が
登場した後 SIFT→DCNN へと移り変わった。代表的なフレームワークは大きく 2 種類に
分けられ、2 段階検出器(候補領域の検出とクラス推定を別々に行い精度が高いが速度は遅
い)、1 段階検出器(検出とクラス推定を同時に行う。精度は低いが速度が速い。)。
セマンティックセグメンテーションは画像内の全画素にラベルやカテゴリを関連付ける
アルゴリズムで、畳み込みなどで落ちた画素数をアップサンプリングで戻す工夫がなされ
ている。アップサンプリングの手法として Deconvolution、Transposed convolution がある
が、畳み込みの逆演算ではない為、Pooling で失われた情報が復元されるわけでは無い。

More Related Content

What's hot

論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learningKazuki Adachi
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4Takeshi Sakaki
 
Neural Networks: Multilayer Perceptron
Neural Networks: Multilayer PerceptronNeural Networks: Multilayer Perceptron
Neural Networks: Multilayer PerceptronMostafa G. M. Mostafa
 
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?Deep Learning JP
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化marsee101
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial NetworksDeep Learning JP
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6matsuolab
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces UnderfittingDeep Learning JP
 
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2HiroyukiTerada4
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化MatsuiRyo
 
Introduction to Prioritized Experience Replay
Introduction to Prioritized Experience ReplayIntroduction to Prioritized Experience Replay
Introduction to Prioritized Experience ReplayWEBFARMER. ltd.
 
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-SupervisionDeep Learning JP
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 

What's hot (20)

Prml nn
Prml nnPrml nn
Prml nn
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.42013.12.26 prml勉強会 線形回帰モデル3.2~3.4
2013.12.26 prml勉強会 線形回帰モデル3.2~3.4
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
Neural Networks: Multilayer Perceptron
Neural Networks: Multilayer PerceptronNeural Networks: Multilayer Perceptron
Neural Networks: Multilayer Perceptron
 
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
【DL輪読会】Is Conditional Generative Modeling All You Need For Decision-Making?
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
PRML輪読#6
PRML輪読#6PRML輪読#6
PRML輪読#6
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting【DL輪読会】Dropout Reduces Underfitting
【DL輪読会】Dropout Reduces Underfitting
 
PRML 5.3-5.4
PRML 5.3-5.4PRML 5.3-5.4
PRML 5.3-5.4
 
ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2ラビットチャレンジレポート 深層学習Day2
ラビットチャレンジレポート 深層学習Day2
 
ベイズ最適化
ベイズ最適化ベイズ最適化
ベイズ最適化
 
Introduction to Prioritized Experience Replay
Introduction to Prioritized Experience ReplayIntroduction to Prioritized Experience Replay
Introduction to Prioritized Experience Replay
 
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision
【DL輪読会】Unpaired Image Super-Resolution Using Pseudo-Supervision
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 

Recently uploaded

TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドKen Fukui
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドKen Fukui
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドKen Fukui
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドKen Fukui
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」inspirehighstaff03
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」inspirehighstaff03
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」inspirehighstaff03
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」inspirehighstaff03
 
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」inspirehighstaff03
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」inspirehighstaff03
 
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfMy Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfinspirehighstaff03
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」inspirehighstaff03
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slidessusere0a682
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」inspirehighstaff03
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」inspirehighstaff03
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」inspirehighstaff03
 
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」inspirehighstaff03
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」inspirehighstaff03
 

Recently uploaded (20)

TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
 
My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」My Inspire High Award 2024 「AIと仲良くなるには?」
My Inspire High Award 2024 「AIと仲良くなるには?」
 
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
My Inspire High Award2024「外国人が日本のテーブルマナーに驚く理由は?」
 
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
My Inspire High Award 2024「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」
 
My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」My Inspire High Award 2024  「正義って存在するの?」
My Inspire High Award 2024  「正義って存在するの?」
 
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
My Inspire High Award 2024「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」
 
My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」My Inspire High Award 2024    「孤独は敵なのか?」
My Inspire High Award 2024    「孤独は敵なのか?」
 
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdfMy Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
My Inspire High Award 2024「Yakushima Islandってなんか変じゃない?」.pdf
 
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」My Inspire High Award 2024「他者と自分、対立を防ぐには?」
My Inspire High Award 2024「他者と自分、対立を防ぐには?」
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
 
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」My Inspire High Award 2024「なぜ議会への関心が低いのか?」
My Inspire High Award 2024「なぜ議会への関心が低いのか?」
 
My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」My Inspire High Award 2024 「本当の『悪者』って何?」
My Inspire High Award 2024 「本当の『悪者』って何?」
 
My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」My Inspire High Award 2024「老いることは不幸なこと?」
My Inspire High Award 2024「老いることは不幸なこと?」
 
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
My Inspire High Award 2024「なぜ、好きなことにいつかは飽きるの」
 
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
My Inspire High Award 2024「世の中の流行はどのようにして生まれるのか」
 

ラビットチャレンジ Day3 day4レポート