SlideShare a Scribd company logo
1 of 76
Download to read offline
応用数学・機械学習・深
層学習(全編1)
HIROKI SANO
これは
istudy Academy 現場で潰しが効く
ディープラーニング講座の
終了課題レポートです。
URL:http://study-ai.co.jp/jdla/
線形代数
行列
• スカラー・・・普通の数
• ベクトル・・・向きを持つスカラーのセット
• 行列・・・ベクトルの集まり。ベクトルを並べたもの
• 行列とベクトルの積
a b e g = a×e+b×f a×g+b×h
c d f h c×e+d×f c×g+d×h
逆行列
• 逆数とは、その数に掛け合わせるとになる数。
例)3は1/3、2/5は5/2
• 逆行列・・・n次の正則行列Aについて、
AB=BA=E となるn次正方行列Bを逆行列といい
A-1(インバース)で表す。
(逆行列は正則行列1つにつき、1つしかない)
※問題でインバースは逆行列を求めよ、という意
・単位行列・・・かけてもかけられても相手が変化しない、
「1」のような行列をいう。
逆行列の求め方
• 逆行列の求め方・・・掃き出し法を使う。
(行列の横に単位行列を記載し、行列を単位行列にするために、
行を何倍する、行を入れ替える、などを行う。)
・逆行列が存在しない条件・・・ad-bc=0(2つのベクトルに
囲まれる平行四辺形の面積がゼロの場合)
・行列式・・・逆行列の有無を判別する。
【行列式の求め方】
a11 a12 a13
a21 a22 a23 = a11 – a21 + a31
a31 a32 a33
a22 a23
a32 a33
a12 a13
a32 a33
a12 a13
a22 a23
a b
c d
= ad-bc
固有値・固有ベクトル
a b x
c d y
=λ
x
y
x
y ≠ 0
上記の式が成り立つとき、
この特別な数ベクトル を、行列 のλに対する固有ベクトル
λを行列 の固有値という。
a b
c d
a b
c d
x
y
1 4
2 3
=51
1
1
1
固有値 固有ベクトル
例
固有値分解
ある実数を正方形に並べて作られた行列Aが固有値λ1,λ2・・・
と固有ベクトルv1,v2・・・を持ったとする。
この固有値を対角線上に並べた行列とそれに対応する固有ベクト
ルを並べた行列を用意した時、それらは AV=VAと関連づけられ
る。
したがってA=VAV-1 と変形できる。
このような正方形の行列を3つの行列の積に変換することを
固有値分解という。
この変換によって、行列の累乗の計算が容易になるなどの利点が
ある。
特異値分解
正方形ではない長方形の行列もMMTをかけると正方形になり分
解できる。
⇒画像を圧縮するのに便利。
⇒画像が似ているかをコンピュータが分かるようになる。
M =
1 2 3
3 2 1
=
1/√2 -1/√2
1/√2 1/√2
2√6 0 0
0 2 0
1/√3 1/√3 1/√3
1/√2 0 -1/√2
1/√6 -2/√6 1/√6
例
統計学
集合
A ∪ B A ∩ B
U A = A B A
確率
• 頻度確率(客観確率)・・・発生する頻度
• ベイズ確率(主観確率)・・・信念の度合い
• 確率の程度
• 条件付き確率・・・事象Bの条件下でAとなる確率
⇒すべての条件下ではないため、確率は上がる。
• ベイズ則・・・事象Aと事象Bに対して以下が成り立つ。
P(A)P(B|A)=P(B)P(A|B)
P(A) =
n(A) 事象Aが起こる数
n(U) すべての事象の数
=
P(A|B)
統計
• 確率変数・・・事象と結びつけられた数値
• 確率分布・・・事象の発生する確率の分布
• 期待値・・・確率変数の平均の値またはありえそうな値
• 分散・・・データの散らばり具合
• 共分散・・・2つのデータ系列の傾向の違い
(正は似た傾向、負は逆の傾向、ゼロは関係性なし)
• 標準偏差・・・分散の平方根を求めて単位を戻したもの。
統計
• ベルヌーイ分布・・・コイントスのイメージ。表裏が同じ
確率でなくても扱える。
P(x|μ)=μ(1-μ)
• マルチヌーイ・・・さいころを転がすイメージ。各面が出る
割合が同じでなくても扱える。
• 二項分布・・・ベルヌーイ分布の多試行版。
• ガウス分布・・・釣鐘型の連続分布
X 1-X
推定
• 推定と真の値を区別するため、真の値をΘとすると
推定値はΘ(シータハット)と表す。
• 標本平均・・・点平均の大表。一致制と不偏性がある。
• 標本分散・・・一致制は満たすが、不偏性は満たさない。
• 不偏分散・・・標本分散の標本が少ないとばらつきが大きくな
るため、それを修正する。1/n-1を掛ける。
情報科学
情報科学
• 自己情報量・・・その情報量の珍しさ
I(x)=-log(P(x))=log(W(x))
• log(対数)・・・3 =9⇒log 9=2
|⇒珍しいことは数字が小さくなるため、大きく見せる。
• シャノンエントロピ・・・自己情報量の期待値
• カルバック・ライブラーダイバージェンス・・・同じ事象・
確率分布における異なる確率分布P,Qの違いを表す。
PとQの珍しさの違い。
2
3
情報科学
• DKL(P||Q)・・・Qが最初に知っている情報、
Pがあとから分かった情報。
• 交差エントロピー(Hを使う)・・・KLダイバージェンスの一
部分を取り出したもの。Qについての自己情報量をPの分布で平
均している。
⇒ H(P,Q)=-ΣP(x)logQ(x)k
機械学習
線形回帰モデル
• 回帰問題・・・ある入力から出力を予測する問題
⇒直線で予測・・・線形回帰
⇒曲線で予測・・・非線形回帰
• 線形回帰モデル・・・回帰問題を解くための器楽学習モデル
教師あり学習
• 線形結合・・・入力ベクトルと未知のパラメータの内積
• モデルのパラメータ・・・モデルに含まれる推定すべき未知の
パラメータ
⇒最小二乗法により推定
線形回帰モデル
• モデル数式
【単回帰モデル】 【線形重回帰モデル】
データの分解とモデルの汎化性能測定
モデルの汎化性能を測定するため(未知のデータに対してどれく
らい制度が高いかを図るため)にデータの分割を行う。
⇒学習用データと検証用データに分けて、学習に使ったデータ
と別のデータで検証を行う。
線形回帰モデルのパラメータ推定
• 線形回帰モデルのパラメータ推定は最小二乗法を利用
• 平均二乗誤差・・・データとモデルの二乗誤差。
小さいほど直線とデータの距離が小さい。
• 最小二乗法・・・学習データの平均二乗誤差を最小とする
パラメータを検索
⇒勾配がゼロになる点を求める。
※最尤法による回帰係数の推定
・・・最尤関数の最大化を利用した推定
⇒回帰の場合には、最尤法による解は最小二乗法の解と一致
ハンズオンの考察
Scikit-learn(SKL)を初めて利用してみた。Numpyで記載する
と大量のコーディングが必要となるが、SKLなら簡単に線形回帰
モデルが作成できることを知った。
ハンズオンの考察
Fitというコマンドは平均二乗誤差を最小にするような点を見つ
ける。
⇒Wハットを確認するAPIは、model.coef_,model.intercept_
これで推定された回帰係数、推定された切片を確認できる。
非線形回帰モデル
• 線形回帰では説得力がない場合に非線形を適用。
• 基底展開法・・・回帰関数として基底関数と呼ばれる基地の非
線形関数とパラメータベクトルの線型結合を使用。未知パラ
メータは線形回帰モデルと同様に最小2乗法や最尤法により推
定。
⇒多項式関数、ガウス型基底関数、スプライン関数/Bスプラ
イン関数が良く使われる。
未学習と過学習
• 未学習・・・学習データに対して十分小さな誤差が得られない
モデル⇒モデルの表現力が低い
• 過学習・・・小さな誤差は得られたけどテスト集合誤差との
差が大きいモデル⇒表現力の抑止が必要
⇒対策
• 不要な基底関数を削除する⇒モデルの複雑さを変化させる。
適切な基底関数を用意する。
• 正則化法(罰則化法)・・・モデルの複雑さに伴って、その値
が大きくなる正則化項(罰則項)を課した関数を最小化させる。
正則化法(罰則化法)
• Ridge推定量・・・丸の制約量の中でMSEを最小にする点を
探す⇒縮小推定と呼ぶ
⇒L2ノルムを利用
• Lasso推定量・・・ダイヤモンドの制約量の中でMSEを最小に
する点を探す
⇒W1に対して係数が0となる
⇒いくつかのパラメータを正確に0に推定
⇒スパース推定と呼ぶ
⇒L1ノルムを利用
交差検証法
適切な表現力のモデル(汎化性能が高いモデル)を見つけるため
には、適正な基底関数の個数、位置、バンド幅、正則化パラメー
タを見つける必要がある。
⇒交差検証法で見つける。
【モデル選択】
• ホールドアウト法・・・単に学習用とテスト用にデータを分割
• クロスバリデーション(交差検証)・・・イテレータごとに
学習用と検証用にデータを分割
(イテレータごとに検証データをかぶらせない)
⇒モデルごとに精度の平均(CV値)を算出して一番小さい
モデルを採用する。
ロジスティック回帰モデル
• ロジスティック回帰モデルは、回帰と記載があるが、分類問題
(クラス分類)
• 線形回帰モデルをそのままシグモイド関数(※)の入力に使う
⇒ロジスティック線形回帰モデル
※シグモイド関数・・・入力は実数だが出力は0~1の値
⇒シグモイド関数の微分は、シグモイド関数自信で表現可能
(機械学習はモデルのパラメータ推定を行うが、そのパラメータ
はMSEや尤度の最大、最小を求める必要があり、その時には微
分をつかうため、その微分が簡単にできるからこれを使う)
最尤推定
• ロジスティック回帰モデルはベルヌーイ分布(※)を使う。
※ベルヌーイ分布・・・確率pで1、確率1-pで0をとる
離散確率分布(コイン投げのイメージ)
• 同時確率・・・あるデータが得られた時、それが同時に
得られる確率
• 尤度関数・・・同時確率とは逆に、データは固定し、
パラメータを変化させる。
⇒尤度関数を最大化するようなパラメータを選ぶ推定量を
最尤推定という。
対数尤度関数
• 対数尤度関数・・・尤度関数を最大とするパラメータを推定
するときに、微分は大変だが、対数を取る
と簡単になる。よって、対数尤度関数の
最大となる点を求める
(=尤度関数が最大になる点と同じ)
勾配降下法
• ロジスティック回帰モデル(最尤法)では対数尤度関数をパラ
メータで微分して0になる値を求めるが困難
⇒勾配降下法を利用する。対数尤度関数を係数とバイアスに
関して微分するときに使う。
⇒パラメータが更新されなくなったら勾配が0
=最適解が求められたことになる。
• 勾配降下法ではパラメータを更新するのにn個すべてのデータ
に対する和を求める必要があり、メモリが足りない、
計算時間が膨大になるなどの問題がある。
⇒確率的勾配降下法を利用して解決
確率的勾配降下法(SGD)
• 勾配降下法ですべてをやるのではなく、ランダムにデータを選
んで更新するため、確率的となる。
• 勾配降下法では初期値に近い山に収束しやすいが、隔離的勾配
降下法では、その問題を解決する。
• 少しずつ修正していって、収束したところが最尤推定量となる。
勾配降下法のη(イータ)は学習の幅を調整する。最初は大き
くてもよいが収束するにしたがって小さくしないといけない。
モデルの評価(混同行列(confusion matrix)
モデルの検証方法の1つ。モデルの予測,データ True,True=
(TP)True Positive True,False=(FP)FalsePositive
False,True=(FN)False Negative False,False=(FN)True
Negative
⇒ 正解か不正解か+モデルがPositiveかNegativeかをつける。
モデルの評価(混同行列(confusion matrix)
• 正解率・・・正解した数/全データ
⇒データに偏りがある場合、すべてを偏りがある
ほうにすると性能がよく見えてしまう。
• 適合率(Precition)・・・TP/TP+FP モデルでPositiveと
回答した中の正解率。スパムメールの検知など
で重要なメールを誤判定されたくない場合など。
• 再現率(Recall)・・・TP/TP+FN 正しいデータでTrueに
なっているものの中での正解率。ガン検診で
多少の誤判定があっても再検査すればよい場合など。
• F値・・・上記2つはトレードオフの関係にあるような場合、
その平均を取るために使う。
ハンズオンの考察
• ロジスティック回帰でもタイタニックのような本物のデータでの機械学習、パラメータ
の自動探索ができることを知った。
• madplotlibでは以下のようなグラフを作成できることに驚き、大変実用的だと感じた。
• Numpyのコードはやはり難解だったため、時間をかけて理解する必要があると感じた。
• Seaborn・・・Matplotlibのラッパーでもっとかっこよく可視化するためのライブラリー
Seabornのオフィシャルサイトのギャラリー
にコードも記載されている。
主成分分析
主成分分析・・・多変量データの持つ構造をより少数個の指標に
まとめる。情報の損失はなるべく小さくする
必要がある。学習データの分散が最大になる
方向への線形変数を求める手法。
制約付き最適化問題を解く必要がある。
分散共分散行列の固有ベクトルが解。
ラグランジュ関数・・・制約付き最適化問題の解き方として、
ラグランジュ関数を最大にする係数ベクトルを探索
(微分して0になる点)
⇒分散共分散行列の固有値と固有ベクトルを求めることが、制約
付き最適化問題の解となる。
主成分分析
• 寄与率・・・第k主成分の分散の全分散に対する割合。
圧縮したデータの情報保持率。
• 累積寄与率・・・第1-k主成分まで圧縮した際の情報損失量
の割合
ハンズオンの考察
ロジスティック回帰後30次元の
データで97%の情報を保持
2次元に圧縮した図。
60%以上は保持できている。
• 主成分分析は、次元の多いデータを圧縮して計算を楽にする。
• ただし、圧縮してしまうと寄与率が低くなり、使えない場合も
あるため、どのくらいの情報量を保持できてるか確認する。
k近傍法(kNN)
• K近傍法(kNN)(ケイニアレストネイバー)
・・・k個のクラスラベルの中で最も多いラベルを
割り当てる分類問題のための機械学習手法。
kを変えると結果も変わる。kをおおきくすると
決定境界は滑らかになる。
k=1のことを最近傍法と呼ぶ。
ハンズオン
• k=10の時の分類結果。
• kを多くするほど、境界線は滑らかになる。
k平均法(k-means)
• k平均法(k-means)
・・・与えられたデータをk個のクラスタに分類するクラスタ
リング手法。教師なし学習。初期値を与えると最も近い
クラスタに割り当てられる。グループができたらその
中心点(初期値)を計算し移動。再割り当てと中心の
更新を繰り返す。
⇒初期値が近いとうまくクラスタリングができない。
⇒k-means++を使うと初期値の 決め方を使うとうまくいく。
⇒1つ目の初期値から遠いところに次の初期値を置く。
※kの値を変えるとクラスタリング結果も変わる。
(多くすると無理やり分類してしまうので注意)
演習問題における追加知識
深層学習(前編1)
ニューラルネットワーク
ニューラルネットワーク全体像
• クライアントは入力⇒出力を気にするが、中間層が重要。
• 入力層の数は任意に決められるが、何が重要なのか、を理解してい
れる必要がある。
• 中間層に伝播するときにウェイトとバイアスがかけられる。
【確認テスト】
ディープラーニングは何をやろうとしているのか。
⇒入力値に対して適切な重みとバイアスを見つけ出し、未知のデータ
の分類わけや回帰を行う。
模範解答⇒誤差を最小化するためのパラメータを発見すること。
最適化の最終目的は?
⇒③重み、④バイアス
ニューラルネットワーク全体像
• 以下の図が理解できれば良い。
• 重みとバイアスを両方表すときはw(スモールw)と記載する。
【確認テスト】
・中間層、出力層に行くときに
ウエイトとバイアスがかけられるが、
この数値の誤差を最小化していく。
ニューラルネットワークの全体像
ニューラルネットワークでできること
• 回帰(結果予想、ランキング(順位予想))
⇒お金を稼げるAIは、研究が進んでいる。
⇒線形回帰、回帰木、ランダムフォレスト、ニューラルネットワーク(NN)
• 分類(判別、認識、読み取り、種類など)
⇒ベイズ分類、ロジスティック回帰、決定木、
ランダムフォレスト、ニューラルネットワーク(NN)
【実用例】
自動売買、チャットボット、翻訳、音声解釈、囲碁、将棋AIなど
⇒良いものはネットには乗らないため、自分で勉強して収束させる必要がり。
⇒音声データなどを取得するのは難しいため、既存のライブラリやAPIなどを
利用する。
⇒この実用例以外にも多くの事例があるため、ニュースなどに敏感になる。
Section1)入力層~中間層
【確認テスト1】
動物分類の実例
u= np.dot(x,W)+b
※内積を取る際には、次元を合わせる必要あり。
【例】3×4 4×3←4を合わせる。
【確認テスト2】
u=w1x1+w2x2+w3x3+w4x2+b
=Wx+b ↑Pythonで記載
【確認テスト3】
中間層の出力部分抜出
# 中間層出力
z = functions.relu(u)
print_vec("中間層出力", z)
※functions.reluは活性化関数
Section1)入力層~中間層
演習問題
ウェイト、バイアスともにラン
ダムにした結果
※np.zerosは0、np.onesは1を
並べる関数
※ウェイト(w)の数(次元
数)と入力値(x)の数は合わ
せる必要がある。(あっていな
いとValue Errorが出る。)
Section2)活性化関数
• 活性化関数・・・入力値の値によって、次の層への信号の
ON/OFFや強弱を定める働きをもつ。
【確認テスト】線形と非線形の違いを図に表せ
線形 非線形
※情報量が複雑になると
線形で分離できなくなり
非線形になる。その時に
活性化関数を用いる。
中間層用活性化関数
• ステップ関数・・・閾値を超えたら発火する関数。パーセプト
ロンで使われていて、ディープラーニングでは使われていない。
0,1の間を表現できず、線形分離可能なものしか学習できな
い。
⇒非線形のものを表現したい↓
• シグモイド(ロジスティック)関数・・・0~1間を緩やかに
変化し、信号の強弱を伝えられるようになり、ニューラルネッ
トワーク普及のきっかけの一つとなった。しかし大きな値では
出力の変化が微小なため、勾配消失問題を引き起こすことが
あった。0や1ぴったりを取らないため、計算リソースを使う。
• ReLU関数・・・閾値を設けてそれ以内は0、それを超えた場
合はその数字を返す関数。勾配消失問題の回避とスパース化に
貢献。今最も使われている活性化関数だが、必ずしもこれを使
うわけではなく、構造によってはこれ以外のものも考える必要
がある。
中間層用活性化関数
全結合NN 単層・複数ノード
• 中間層は任意で決められるが、増やした場合、その分のウェイ
トとバイアスが必要。活性化関数の効果で一部の出力は弱く、
一部は強く伝播される。計算リソースの弊害もあるため、増や
せばよいわけではない。
【確認問題】
z=f(u) .. (1,5) のソースコード
-----------------------------
z = functions.step(u)
⇒関数はfunctions.pyに定義されている
確認
• W 4×3 の時、入力は4、
バイアスは3となる。
ウェイト10×5
Relu関数の出力 ⇒
※JNでコメントアウト、
コメントインのショートカットはCtrl+/
Section3) 出力層
• 出力層の役割・・・人間が視覚できる数字にする。活性化関数で出
力したものと訓練データ(正解値)と比較する。
※出力は統計的な理論値のため、100%の時やばらつきがない場合
などは数値をうたがう。
• 誤差関数・・・出力と訓練データの比較の時に使う。出てきた誤差
を少なくしていく。
【確認テスト】
2乗をする意味・・・誤差がマイナスで出てくるとプラスのものと足
し合わせてしまうと差分ではなくなるため。
½はどういう意味か・・・2乗している誤差の大きさを合わせるため
に半分にする。
• 中間層は信号の強弱を調整するが、出力層は信号の大きさをそ
のまま変換する必要がある、という違いがある。
• 出力層は0~1の範囲で、総和を1とする必要がある。
⇒よって活性化関数は、中間層と異なる
【出力層の活性化関数・誤差関数】
• 関数は以下の通りでFIXしている。計算しやすいため、この組
み合わせとなっている。
Section3) 出力層
確認テスト
←関数の定義
←次元数を2とする
←xにxの転置を入力
←xを軸0の時の最大から引き算
←yの転置を出力 ↑②/③xの対数を軸0の
時のxの対数の合計で割
る
確認テスト
←関数の定義
←次元数を1とする
←要素数の変換
←dとyのサイズが同じなら
←軸が0の時の一番大きい要素を取得
←yの行数を取得
←yの行数のログを取り足し合わせて微小の値(0にならないように)
足したものをyの行数で割る。
1次元だと不正
解は0ため、乗
算すると必ず教
師データがさす
値になるため以
下の処理を行う
Section4)勾配降下法
• 勾配降下法⇒誤差を最小化するパラメータwを発見するため
に使う。誤差をパラメータで微分した値∇Eに
学習率を掛け合わせたものをパラメータから
減算する。
【確認テスト】
勾配降下法のソースコード
# 誤差
loss = functions.cross_entropy_error(d, y)
grad = backward(x, d, z1, y)
for key in ('W1', 'W2', 'b1', 'b2'):
network[key] -= learning_rate * grad[key]
Section4)勾配降下法
• 学習率(ε)
・・・学習率の値によって、学習の効果が異なる。大きくしす
ぎた場合は、最小値にたどり着かず発散してしまう。小さくしす
ぎた場合は、発散することはないが収束するまで時間がかかって
しまう。また、小さいと三次関数とかになると、大域的極小解に
たどり着かず、局所的極小解で収束してしまう可能性もある。
⇒学習率の決定方法、収束性向上のためのアルゴリズムが必要
• Momentum
• AdaGrad
• Adadelta
• Adam
Section4)勾配降下法
• 確率的勾配降下法(SGD)
・・・勾配降下法は全サンプルの平均誤差だが、確率的勾配降
下法はランダムに抽出したサンプルの誤差を取って更新を掛ける。
⇒メリット
・計算コストの軽減(データが情報な場合など有効)
・局所極小解に収束するリスクの軽減(0ではない)
・オンライン学習
【確認テスト】
オンライン学習・・・学習するデータをまとめて一括で処理する
バッチ学習に対して、学習データが入ってくるたびにその都度新
たに入ってきたデータのみを使って学習を行うこと。
Section4)勾配降下法
• ミニバッチ勾配降下法
・・・ランダムに分割したデータの集合(ミニバッチ)Dt
に属するサンプルの平均誤差。確率的勾配降下法の
メリットを失わずに、特定のデータ集合へのアプローチ
のため、並列処理ができ、計算資源の有効活用ができる。
【確認テスト】
この数式のの意味を図で説明
1 2 3 4 5 6 7
サンプルを抽出してウェイトから減算
= ウェイト - サンプル⇒
誤差勾配の計算
• 数値微分・・・プログラムで微小な数値を生成し、疑似的に
微分を計算する
⇒負荷が高い(毎回順伝播の掲載をするため)
⇒誤差逆伝播法を利用する。
開発環境
• ローカルではGPUが注目されている。並列処理がポイント。
⇒計算処理は大切。ゲーミングPCが効率的
• 大規模ならクラウド。AWSのほうがNVIDIAを使えるから有利
⇒月額4,5万くらいでそこそこ使える。
• 可能な限り学習済みモデルを使い、必要な時のみAIサーバを使
う。
• OSとのバージョンの互換性を考える。
• フレームワークも多いため、活用する。
Section5) 誤差逆伝播法
誤差をパラメータで微分するには、数値微分でも算出可能である
が、計算リソースが大きい。⇒誤差逆伝播法
• 誤差逆伝播法・・・算出された誤差を出力層側から順に微分し、
まえの層へと伝播。最小限の計算で各パラメータでの微分値を
解析的に計算する手法。
⇒不要な再帰的計算を避けて微分を算出できる。
【確認テスト】
すでに行った計算結果を
保持しているソースコード
# 出力層でのデルタ
delta2 = functions.d_sigmoid_with_loss(d, y)
# b2の勾配
grad['b2'] = np.sum(delta2, axis=0)
# W2の勾配
grad['W2'] = np.dot(z1.T, delta2)
# 中間層でのデルタ
delta1 = np.dot(delta2, W2.T) * functions.d_relu(z1)
# b1の勾配
grad['b1'] = np.sum(delta1, axis=0)
# W1の勾配
grad['W1'] = np.dot(x.T, delta1)
具体的な計算
Section5) 誤差逆伝播法
演習
• 活性化関数を変えるだけで結果が大きく異なることを確認
• 入力値を変えることでも結果が変わる。
シグモイド関数、-5~5のランダム入力値、学習率0.1、抽
出数1000での結果
⇒大きくばらけた。
ランダムな数値だし、
抽出量も大きくしたため。
確認テスト
delta2 = functions.d_mean_squared_error(d, y)
grad['W2'] = np.dot(z1.T, delta2)
出力層側の活性化関数は、
恒等写像と仮定している
場合は、y=uとなり、u
をuで微分した値は1と
なるため、そのまま渡す
ことになる。
uをwjiで微分した値、
delta2に渡した値とz1の転
置の内積値を取ることで
w2の勾配を求める。
終了課題
• アイリスデータの回帰か分類を行う。
• ソースコード(最低限JNで動くこと)
• 可視化した図・・・入力値、中間層数、ノード数、誤差関数、
パラメータの誤差を少なくするための工夫
終了課題考察
• Irisデータ
**Data Set Characteristics:**
:Number of Instances: 150 (50 in each of three classes)
:Number of Attributes: 4 numeric, predictive attributes and the class
:Attribute Information:
- sepal length in cm
- sepal width in cm
- petal length in cm
- petal width in cm
- class:
- Iris-Setosa
- Iris-Versicolour
- Iris-Virginica
終了課題の可視化
他クラス分類を行うため、活性化関数はソフトマックス関数、
誤差関数は交差エントロピーを使う。
x1 がく片の長さ
x2 がく片の幅
x3 花びらの長さ
x4 花びらの幅
入力層
x1 z1
(1)
x2 z2
(1)
x3 z3
(1)
x4 z4
(1)
u1 z1
(2)
u2 z2
(2)
u3 z3
(2)
(1)
中間層 出力層
(1)
(1)
u1 z1
(3)(2)
yp yt
w , b w , b
(1) (1) (2) (2)
誤差関数
交差エントロピー活性化関数
ソフトマックス関数
終了課題考察
インターネットには多くの情報が載っているが、なかなかまとまった情報
は乗っていない。多くのサイトと本を参考とした。
【参考とした主なサイト、本】
・https://newtechnologylifestyle.net/tensorflow-kerasでの教師あり学習%e3%80%80-アヤメの分類
・http://tadaoyamaoka.hatenablog.com/entry/2016/04/10/120305
・https://www.infiniteloop.co.jp/blog/2018/01/learning-keras-04/
・https://yolo.love/scikit-learn/iris/
・https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.train_test_split.html
・https://fits.hatenablog.com/entry/2016/05/31/215019
・https://note.nkmk.me/python-scikit-learn-svm-iris-dataset/
・https://github.com/levelfour/machine-learning-2014/wiki/第1回---iris-classification
・https://jp.mathworks.com/help/deeplearning/ref/trainsoftmaxlayer.html
【参考とした主なサイト、本】
・基礎からわかる!しっかりわかる線形代数ゼミ ナツメ社
・DEEP LEARNING 深層学習 ASCII DWANGO
・ゼロから作るDeepLearning O’REILLY
・ディープラーニングの数学 日経BP社
・入門Python3 O’REILLY
・Python3ではじめるシステムトレード Pan Rolling
論文解説
• 論文に何を求めているのか、によって読み方が変わる。
⇒本などの参考文献を確認する。
⇒論文を読む場合は、先に実験結果、結論を見て、理解した後
に読むと理解が早い。
• 実験結果は詳細が記載されていないこともある。(前提がなかった
り、常識として抜けていたり。)
⇒論文作者の考えていることを100%理解して実装するのは
難しいため、自分で考えて使えるようにする。
• あくまで読むべき目的の設定に応じた使い方をする必要がある。
⇒1つ1つをじっくり読むのではなく、ポイントを絞って
多くを読むほうが良い。

More Related Content

What's hot

2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)
2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)
2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)Akira Asano
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)Akira Asano
 
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24)
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24) 2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24)
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24) Akira Asano
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)Akira Asano
 
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)Akira Asano
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)Akira Asano
 
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)Akira Asano
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)Akira Asano
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)Akira Asano
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)Akira Asano
 
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)Akira Asano
 
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)Akira Asano
 
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)Akira Asano
 
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)Akira Asano
 
自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門Koji Sekiguchi
 
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)Akira Asano
 
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)Akira Asano
 
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)Akira Asano
 
Rabitt challenge mathematics
Rabitt challenge mathematicsRabitt challenge mathematics
Rabitt challenge mathematicsTakumaYamauchi1
 
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)Akira Asano
 

What's hot (20)

2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)
2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)
2015年度秋学期 応用数学(解析) 第14回 ルベーグ測度と完全加法性 (2016. 1. 14)
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第15回 ルベーグ積分 (2015. 1. 22)
 
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24)
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24) 2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24)
2015年度秋学期 応用数学(解析) 第1回 イントロダクション (2015. 9. 24)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第13回 複素関数論(2) 孤立特異点と留数 (2018. 12. 18)
 
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)
2015年度秋学期 応用数学(解析) 第4回 収束とは何か,ε-δ論法 (2015. 10. 22)
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
 
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
2016年度秋学期 応用数学(解析) 第15回 ルベーグ積分 (2017. 1. 19)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第14回 測度論(1) ルベーグ測度と完全加法性 (2019. 1. 8)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第12回 複素関数論(1) 複素関数・正則関数 (2018. 12. 11)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
 
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
2016年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2016. 12. 15)
 
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)
2016年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2016. 12. 8)
 
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)
2016年度秋学期 応用数学(解析) 第13回 孤立特異点と留数 (2016. 12. 22)
 
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)
2018年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 第8回 2階線形微分方程式(2) (2018. 11. 13)
 
自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門自然言語処理における機械学習による曖昧性解消入門
自然言語処理における機械学習による曖昧性解消入門
 
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
 
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第2回 無限にも大小がある (2014. 10. 2)
 
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)
2014年度秋学期 応用数学(解析) 第1部・「無限」の理解 / 第3回 実数とは何か (2014. 10. 9)
 
Rabitt challenge mathematics
Rabitt challenge mathematicsRabitt challenge mathematics
Rabitt challenge mathematics
 
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)
2016年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2016. 12. 1)
 

Similar to AI course report part 1

Math tutorial public
Math tutorial publicMath tutorial public
Math tutorial publicKenta Oono
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryshima o
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
GPUによる多倍長整数乗算の高速化手法の提案とその評価
GPUによる多倍長整数乗算の高速化手法の提案とその評価GPUによる多倍長整数乗算の高速化手法の提案とその評価
GPUによる多倍長整数乗算の高速化手法の提案とその評価Koji Kitano
 
連立方程式~連立方程式とグラフ~
連立方程式~連立方程式とグラフ~連立方程式~連立方程式とグラフ~
連立方程式~連立方程式とグラフ~studyPresenter
 
【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながりMathCafe
 

Similar to AI course report part 1 (6)

Math tutorial public
Math tutorial publicMath tutorial public
Math tutorial public
 
Introduction of introduction_to_group_theory
Introduction of introduction_to_group_theoryIntroduction of introduction_to_group_theory
Introduction of introduction_to_group_theory
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
GPUによる多倍長整数乗算の高速化手法の提案とその評価
GPUによる多倍長整数乗算の高速化手法の提案とその評価GPUによる多倍長整数乗算の高速化手法の提案とその評価
GPUによる多倍長整数乗算の高速化手法の提案とその評価
 
連立方程式~連立方程式とグラフ~
連立方程式~連立方程式とグラフ~連立方程式~連立方程式とグラフ~
連立方程式~連立方程式とグラフ~
 
【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり【第34回数学カフェの予習会#1】微分と代数学のつながり
【第34回数学カフェの予習会#1】微分と代数学のつながり
 

Recently uploaded

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (10)

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 

AI course report part 1