SlideShare a Scribd company logo
1 of 35
Download to read offline
データ解析 第1回
2018年4月12日 八谷 大岳
1
機械学習(データ解析)とは
2
 データから知識・ルールを獲得するアルゴリズムの研究
 人が知識やルールを明示的に与える方法の限界から生まれた
 2000年頃から統計的学習技術の研究が盛んに行われてきた
 2012年頃からビッグデータブームと、Deep learningの登場で、
機械学習の分野を超えて一躍注目を集め始める
人物
非人物
学習データ 機械学習
人物と非人物を識別する
知識・ルール
データ分析と機械学習の関係
3
 統計的アルゴリズムを用いる目的によって、呼ばれ方異なる
 機械学習:予測、戦略獲得
 データ分析:分析、調査
【統計的アルゴリズム】
単回帰
判別・分類
クラスタリング
主成分分析
重回帰
ベイズ
ニューラルネット
予
測
分
析データ分析
データ
機械学習
強化学習
人工知能の講義にて
カバー
機械学習の実用例1
 画像領域分割
 各画素を人、空、木、草、建物カテゴリに分類
 より綺麗な写真を撮るために、
領域の種類に合わせて適切な画像処理を適用
 空の明度を抑えて、人の明度を上げるなど
 顔認証
 登録された顔画像と比較して同一人物か否かを分類する
 NEC・NeoFace:コンサートのチケットレス入場や会社の入退室管理
 LYKAON:万引き犯の顔画像と一致する人が入店時に店員に通知
顔認証によるコンサートの入場チェック(NEC・TAPIRIS) 顔認証して店員に通知(LYKAON)
空、人の領域を特定
4
機械学習の実用例2
 手書き文字認識
 郵便番号を自動認識し、はがきを自動仕分け(ゆうびん自動化機)
 1時間に4万通の郵便番号を認識し、地域ごとの仕分けが可能
 さらに、番地や部屋番号まで認識し、配達しやすい順番に並べ替え可能
5
https://jpn.nec.com/kids/himitsu/04.html
機械学習の成功例:コンピュータ将棋
6
 2013年の電王戦(現役プロとコンピュータとの対局)にて
コンピュータが3勝1敗1分けで勝利
 2014年は、コンピュータが4勝1敗で圧倒的勝利
 2000年代後半から機械学習の成功+並列探索の導入で
急速に強くなる
機械学習の成功例:画像認識
 近年、機械学習のDeep Learningが数多くのタスク(画像認識、
顔認識、行動認識など)で従来の技術を凌駕
 大規模画像分類Imagenet で、従来の画像認識技術に
10%の大差で優勝
Team name Error
1 SuperVision 0.153
2 ISI (SHIFT+FV,
LBP+FVなど)
0.262
3 OXFORD_VGG 0.270
4 XRCE/INRIA 0.271
5 Univ. of Amsterdam 0.296
【2012年の結果】
10%の差
Team name Error
1 VGG 0.074
2 GoogLeNet 0.148
3 SYSU_Vision 0.319
4 MIL 0.337
5 MSRA Visual
Computing
0.355
【2014年の結果】
上位は全部深層学習
分類誤差:7%まで低減!
黒色:ハンドメード特徴量
赤色:深層学習
8
内容
9
 データ解析(機械学習)の実用例と成功例
 データ解析(機械学習)とは
 講義の概要
 ベクトルの復習
 ベクトルの和と差
 2点間の距離
 ベクトルの内積
 ベクトルの外積
機械学習が急速に広まった理由1
10
 特徴量表現と分析処理の分離
 あらゆる分野で大量のデータが生成されている
 異なる分野・データで同じ機械学習アルゴリズムが適用可能
 問題や分野の特徴を捉えた特徴量抽出により、
どの分野にも機械学習を適用できる
学習データ
特徴量表現 機械学習
機械学習が急速に広まった理由2
11
 無料のライブラリが拡充
 scikit-learn, Tensorflow, Caffe, chainer, libsvm, SVMlight,…
 特徴量の設計さえできれば誰でも一般的な機械学習を適用できる時代
 しかし、使いこなすためには機械学習の知識が必要
 機械学習は数学の異種格闘技
 確率統計、線形代数、微積分、情報理論および最適化
5階層のConvolutional neural networkが
数十行のPythonコードで実装できるようになった
内容
16
 データ解析(機械学習)の実用例と成功例
 データ解析(機械学習)とは
 講義の概要
 ベクトルの復習
 ベクトルの和と差
 2点間の距離
 ベクトルの内積
 ベクトルの外積
授業の目的と進め方
17
 目的:
 授業で必要な基礎数学を復習
 線形代数、確率統計、微積分および最適化方法
 データ解析(機械学習)の基本的手法を学ぶ
 回帰分析、主成分分析、因子分析、クラスター分析および判別分析
 進め方:
 【講義前】
 教員:Moodleにて、事前に次回の講義のスライドを公開
 学生:一通り予習、講義にスライドを持参
 【講義中】
 教員:スライドを説明、演習問題を出題、解答例を説明
 学生:説明を聞き、演習問題を各自で解き、最後に演習レポートを提出
 【講義後】
 教員:課題を出題
 学生:課題を各自で解き、次回の授業開始前に課題レポートを提出
成績の評価&レポートの提出方法
18
 配点:
 講義中の演習レポート:10点
 講義後の課題レポート:20点
 最後の筆記試験:70点
 演習レポートの提出方法:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート の提出方法:
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる
講義内容
19
数学の復習
機械学習の基礎
教科書
20
 意味が分かる多変量解析
 著者:石井俊全
 出版社:ベレ出版
 価格:2,052円
 特徴:
 初学者向け
 意味を理解することを重視
講義を受ける上での注意
21
 講義中は静粛に
 私語をしないこと
 歩き回らないこと
 携帯電話はマナーモード
 時間厳守
 開始時刻(14時50分)前に課題レポートを提出
 質問はいつでも
 講義中は、挙手で質問
 講義後の質問も歓迎
 部屋はA607
 メールアドレス:hhachiya@sys.wakayama-u.ac.jp
内容
22
 データ解析(機械学習)の実用例と成功例
 データ解析(機械学習)とは
 講義の概要
 ベクトルの復習
 ベクトルの和と差
 2点間の距離
 ベクトルの内積
 ベクトルの外積
スカラーとベクトル
23
 スカラー(Scalar):1つの実数
 大きさだけを表す
 質量、温度、長さなど
 スカラーは細い小文字で表現, x, y, z
 ベクトル(Vector):実数の組
 大きさに加え方向を表す
 速度、力など
 ベクトルは、太い小文字で表現する, w
 成分の数:
 2次元ベクトルの場合2個:
 3次元ベクトルの場合3個:
𝒘𝒘 =
2
5
𝒘𝒘 =
2
5
4
0 𝑦𝑦
𝑧𝑧
𝒘𝒘
ベクトルは矢印で表示
𝑥𝑥
ベクトルの和と差
24
 和:
 差:
ベクトルは平行移動に対し不変
なので、
𝒘𝒘𝟏𝟏 =
1
2
𝒘𝒘𝟐𝟐 =
2
1
𝒘𝒘𝟏𝟏 + 𝒘𝒘𝟐𝟐 =
1 + 2
2 + 1
=
3
3
𝒘𝒘𝟏𝟏 − 𝒘𝒘𝟐𝟐 =
1 − 2
2 − 1
=
−1
1
𝒘𝒘𝟏𝟏 + 𝒘𝒘𝟐𝟐
𝒘𝒘𝟏𝟏
𝒘𝒘𝟐𝟐
𝒘𝒘𝟏𝟏
𝒘𝒘𝟏𝟏 = 𝒘𝒘𝟏𝟏
𝒘𝒘𝟏𝟏
𝒘𝒘𝟐𝟐𝒘𝒘𝟏𝟏 − 𝒘𝒘𝟐𝟐
−𝒘𝒘𝟐𝟐
多次元ベクトルの応用例
25
 データ解析(機械学習)では、データをベクトルで表現する
 例:画像の場合
 各要素に、ピクセル値を持つベクトル
高さH
幅W
12
24
64
184
WxH次元ベクトル
12 24 64 184
35 21 72 118
54 13 90 200
86 99 86 42
W行
H列
2点間の距離
26
 2点間の距離はベクトルの差の大きさ
 ユークリッド距離、L2ノルム、 L2距離とも呼ばれる
w1
w2
w1-w2
𝒘𝒘𝟏𝟏 =
𝑤𝑤11
𝑤𝑤12
=
1
2
𝒘𝒘𝟐𝟐 =
𝑤𝑤21
𝑤𝑤22
=
2
1
𝒘𝒘𝟏𝟏 − 𝒘𝒘𝟐𝟐 = (𝑤𝑤11 − 𝑤𝑤21)2+(𝑤𝑤12 − 𝑤𝑤22)2
= (1 − 2)2+(2 − 1)2= 2
-w2
𝒘𝒘𝟏𝟏 − 𝒘𝒘𝟐𝟐 =
𝑤𝑤11 − 𝑤𝑤21
𝑤𝑤12 − 𝑤𝑤22
演習1:2点間の距離を求める
27
 N次元の点aとbの距離を、各自計算してください
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
𝒂𝒂 =
𝑎𝑎1
𝑎𝑎2
⋮
𝑎𝑎𝑁𝑁
𝒃𝒃 =
𝑏𝑏1
𝑏𝑏2
⋮
𝑏𝑏𝑁𝑁
ベクトルの内積
29
 同じ次元数を持つ2つのベクトルの積
 内積の表記方法:
 内積の結果がスカラーになるため、スカラー積とも言う
 同じベクトル同士の内積の平方根を、L2ノルムと言う
𝒂𝒂 � 𝒃𝒃 𝒂𝒂, 𝒃𝒃 𝒂𝒂𝚻𝚻
𝒃𝒃
𝒂𝒂 � 𝒃𝒃 = 𝒂𝒂𝚻𝚻 𝒃𝒃 = 𝑎𝑎1, 𝑎𝑎2
𝑏𝑏1
𝑏𝑏2
= 𝑎𝑎1 𝑏𝑏1+ 𝑎𝑎2 𝑏𝑏2 = ∑𝑖𝑖=1
2
𝑎𝑎𝑖𝑖 𝑏𝑏𝑖𝑖
𝒂𝒂 � 𝒂𝒂 = 𝑎𝑎1
2
+𝑎𝑎2
2
= 𝒂𝒂
𝒂𝒂 =
𝑎𝑎1
𝑎𝑎2
𝒃𝒃 =
𝑏𝑏1
𝑏𝑏2
内積の便利な使い方:直交条件
30
 内積を用いて、2つのベクトルが直交しているか確認
 2つのベクトルのなす角θは90度
 正規直交基底ベクトル
 ひとつの要素だけ「1」、それ以外は「0」
 ノルムは「1」
 異なる基底ベクトルは直交:内積が「0」
𝒂𝒂 � 𝒃𝒃 = 𝒂𝒂 𝒃𝒃 cos 𝜃𝜃 = 0
cos 90° = 0
𝒂𝒂𝒃𝒃
x y
z










=
0
0
1
i










=
0
1
0
j










=
1
0
0
k
o
1=== kji
0=•=•=• ikkjji
θ
内積の便利な使い方:直交展開
31
 任意のベクトルを、正規直交基底ベクトルを用いて表現










==
0
0
1
1ϕi










==
1
0
0
3ϕk










==
0
1
0
2ϕj
∑=
=
n
i
ii
1
)( φφaa ・










=










+










+










=++=
z
y
x
zyxzyx
a
a
a
aaaaaa
1
0
0
0
1
0
0
0
1
 kjia
x
y
z
O
a
各次元□□□に射影し分解してから、ベクトルに再構成
内積の便利な使い方:座標変換
32
 座標変換:任意のベクトルを、異なる座標系で表現
 新しい座標系の正規直交基底ベクトルを用いて、直交展開
 新しい座標系でのベクトル:
𝑎𝑎1
𝒂𝒂
𝒊𝒊
𝒋𝒋
𝒂𝒂
𝒊𝒊𝒊𝒋𝒋𝒋
𝒂𝒂 = 𝒂𝒂 � 𝒊𝒊 𝒊𝒊+ 𝒂𝒂 � 𝒋𝒋 𝒋𝒋 = 𝒂𝒂 � 𝒊𝒊𝒊 𝒊𝒊𝒊+ 𝒂𝒂 � 𝒋𝒋𝒋 𝒋𝒋𝒋
𝑎𝑎2
𝑎𝑎𝑎1
𝑎𝑎𝑎2
𝑎𝑎1 𝑎𝑎2
元の座標系への射影
𝑎𝑎𝑎1 𝑎𝑎𝑎2
新しい座標系への射影
𝒂𝒂 � 𝒊𝒊′
, 𝒂𝒂 � 𝒋𝒋𝒋 𝚻𝚻
外積
33
 ベクトルaとbの外積ベクトル:aとbの平行四辺形に直交
 外積の演算結果はベクトルで、ベクトル積とも呼ぶ
 外積ベクトルのノルム: aとbが張る平行四辺形の面積
θ
c
𝒄𝒄 = 𝒂𝒂 × 𝒃𝒃
𝒄𝒄 = 𝒂𝒂 𝒃𝒃 sin 𝜃𝜃
𝒄𝒄𝒄 = 𝒃𝒃 × 𝒂𝒂
𝒄𝒄𝒄
𝒄𝒄 = 𝒄𝒄′b
a
右ネジの法則
3次元正規直交基底ベクトルの外積
34
 右ねじ回転順の2つの基底ベクトルの外積は、
もう一つ基底ベクトルに対応
 右ねじ回転の逆順の2つの基底ベクトルの外積は、
もう一つの基底ベクトルの反対向きのベクトルに対応
x
y
z
i
jk𝒊𝒊 × 𝒋𝒋 = 𝒌𝒌 𝒋𝒋 × 𝒌𝒌 = 𝒊𝒊
𝒌𝒌 × 𝒊𝒊 = 𝒋𝒋
𝒋𝒋 × 𝒊𝒊 = −𝒌𝒌 𝒌𝒌 × 𝒋𝒋 = −𝒊𝒊
𝒊𝒊 × 𝒌𝒌 = −𝒋𝒋
x
y
z
i
jk
-k
-i
-j
3次元ベクトルの外積
35
 ベクトルを直交展開
 直交展開したベクトルの外積を計算
𝒂𝒂 = 𝑎𝑎𝑥𝑥 𝒊𝒊 + 𝑎𝑎𝑦𝑦 𝒋𝒋 + 𝑎𝑎𝑧𝑧 𝒌𝒌
𝒃𝒃 = 𝑏𝑏𝑥𝑥 𝒊𝒊 + 𝑏𝑏𝑦𝑦 𝒋𝒋 + 𝑏𝑏𝑧𝑧 𝒌𝒌
𝒂𝒂 × 𝒃𝒃 = 𝑎𝑎𝑥𝑥 𝒊𝒊 + 𝑎𝑎𝑦𝑦 𝒋𝒋 + 𝑎𝑎𝑧𝑧 𝒌𝒌 × 𝑏𝑏𝑥𝑥 𝒊𝒊 + 𝑏𝑏𝑦𝑦 𝒋𝒋 + 𝑏𝑏𝑧𝑧 𝒌𝒌
= 𝑎𝑎𝑦𝑦 𝑏𝑏𝑧𝑧 − 𝑎𝑎𝑧𝑧 𝑏𝑏𝑦𝑦 𝒊𝒊+ 𝑎𝑎𝑧𝑧 𝑏𝑏𝑥𝑥 − 𝑎𝑎𝑥𝑥 𝑏𝑏𝑧𝑧 𝒋𝒋+ 𝑎𝑎𝑥𝑥 𝑏𝑏𝑦𝑦 − 𝑎𝑎𝑦𝑦 𝑏𝑏𝑥𝑥 𝒌𝒌
=
𝑎𝑎𝑦𝑦 𝑏𝑏𝑧𝑧 − 𝑎𝑎𝑧𝑧 𝑏𝑏𝑦𝑦
𝑎𝑎𝑧𝑧 𝑏𝑏𝑥𝑥 − 𝑎𝑎𝑥𝑥 𝑏𝑏𝑧𝑧
𝑎𝑎𝑥𝑥 𝑏𝑏𝑦𝑦 − 𝑎𝑎𝑦𝑦 𝑏𝑏𝑥𝑥
i × i = j × j = k × k = 0
i × j = k, j × k = i, k × i = j
j × i = -k, k × j = -i, i × k = -j
各自計算して確認してください。
演習2:3次元ベクトルの外積
36
 タイトル「演習レポート」、日付、学生番号、氏名を用紙の
一番上に記載
を求めなさい。
 
bac
ba
×=










−=










=










−=










=
4
2
3
,
2
3
1
z
y
x
z
y
x
b
b
b
a
a
a
課題
38
1. 、 のとき、以下を求めなさい。
2. 、 のとき、以下の問いに答えなさい。
1. を証明しなさい。
2. 、 かつ の関係が
成り立ち、ゼロではない実数tとkが存在する場合、
その関係を表す関数 を求めなさい。
3. ベクトル を、反時計まわりに45度回転した
座標系に座標変換しなさい。
a = 3i + 2j b = 5i – 3j
a + b=? a – b=? 3a + b=?
𝒂𝒂 = 𝟑𝟑, −𝟏𝟏
𝚻𝚻
𝒃𝒃 =
𝟏𝟏
𝟐𝟐
,
𝟑𝟑
𝟐𝟐
𝚻𝚻
𝒂𝒂 ⊥ 𝒃𝒃
𝒙𝒙 = 𝒂𝒂 + (𝑡𝑡 𝟐𝟐 − 𝟑𝟑)𝒃𝒃 𝒚𝒚 = −𝑘𝑘𝒂𝒂 + 𝑡𝑡 𝒃𝒃 𝒙𝒙 ⊥ 𝒚𝒚
𝑘𝑘 = 𝑓𝑓(𝑡𝑡)
𝒂𝒂 = 𝟑𝟑, 𝟐𝟐 𝚻𝚻
T: 転置
レポートの提出方法
39
 演習レポート:
 タイトル「演習レポート」、日付・学生番号・氏名を用紙の一番上に記載
 課題レポート :
 タイトル「課題レポート」、出題日・学生番号・氏名を用紙の一番上に記載
 2ページ以上になる場合は、ホッチキス留め
 A4サイズの用紙を使用
 一度に複数の課題レポートを提出する場合出題日ごとに別々に綴じる
補足資料
40
ImageNet Challengeとは
41
 2010年から始まった大規模画像認識のコンペティション
 1000クラスのカテゴリ分類を行うclassificationタスクと、
200クラスの物体検出を行うdetectionタスクがある
 PASCAL VOC(detectionのコンペティション)が、2012年で
終了したため、ImageNetに注目が集まっている
【detectionの例】【classificationの例】
・PASCAL VOCとImageNetの比較
・ImageNetは大規模化している
ImageNet
42
Car mirror
baseball
butterfly
・Dalmatian, coach dog
・Newfoundland
・German shepherd
・Eskimo dog, husky
・African hunting dog
canoe
yawl
dog

More Related Content

What's hot

多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジーKLab Inc. / Tech
 
[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian ProcessesDeep Learning JP
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数Deep Learning JP
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元Shogo Muramatsu
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスShoichi Taguchi
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめYuichiro MInato
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論Taiji Suzuki
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタToshihisa Tanaka
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度Masa Kato
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題についてjkomiyama
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)Takashi J OZAKI
 

What's hot (20)

多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー多目的強凸最適化のパレート集合のトポロジー
多目的強凸最適化のパレート集合のトポロジー
 
[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes[DL輪読会]Deep Neural Networks as Gaussian Processes
[DL輪読会]Deep Neural Networks as Gaussian Processes
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
 
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセスPydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
Pydata_リクルートにおけるbanditアルゴリズム_実装前までのプロセス
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
ウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタウィナーフィルタと適応フィルタ
ウィナーフィルタと適応フィルタ
 
敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度敵対的学習に対するラデマッハ複雑度
敵対的学習に対するラデマッハ複雑度
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
バンディット問題について
バンディット問題についてバンディット問題について
バンディット問題について
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)
 

Similar to データ解析1 ベクトルの復習

機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門Hayato Maki
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析Hirotaka Hachiya
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習Seiichi Uchida
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法Hirotaka Hachiya
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用Hirotaka Hachiya
 
2つの数値項目の関連を探る方法を知り予測出来るようになる
2つの数値項目の関連を探る方法を知り予測出来るようになる2つの数値項目の関連を探る方法を知り予測出来るようになる
2つの数値項目の関連を探る方法を知り予測出来るようになるwebcampusschoo
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knnsesejun
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較y-uti
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】Naoki Hayashi
 
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案__106__
 
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学schoowebcampus
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度Seiichi Uchida
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knnsesejun
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術Yoshihiro Mizoguchi
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築Hiroshi Kajino
 
Kerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGKerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGOgushi Masaya
 

Similar to データ解析1 ベクトルの復習 (20)

機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習データサイエンス概論第一=8 パターン認識と深層学習
データサイエンス概論第一=8 パターン認識と深層学習
 
データ解析12 k平均法
データ解析12 k平均法データ解析12 k平均法
データ解析12 k平均法
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
2つの数値項目の関連を探る方法を知り予測出来るようになる
2つの数値項目の関連を探る方法を知り予測出来るようになる2つの数値項目の関連を探る方法を知り予測出来るようになる
2つの数値項目の関連を探る方法を知り予測出来るようになる
 
実践データ分析基礎
実践データ分析基礎実践データ分析基礎
実践データ分析基礎
 
Datamining 5th knn
Datamining 5th knnDatamining 5th knn
Datamining 5th knn
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
 
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学
Excelを使って学ぶ、統計の基礎(3限目) 先生:米谷 学
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
Datamining 5th Knn
Datamining 5th KnnDatamining 5th Knn
Datamining 5th Knn
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築
 
Kerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGKerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUG
 

More from Hirotaka Hachiya

人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎Hirotaka Hachiya
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎Hirotaka Hachiya
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎Hirotaka Hachiya
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズHirotaka Hachiya
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用Hirotaka Hachiya
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎Hirotaka Hachiya
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用Hirotaka Hachiya
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習Hirotaka Hachiya
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習Hirotaka Hachiya
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデルHirotaka Hachiya
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learningHirotaka Hachiya
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシンHirotaka Hachiya
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデルHirotaka Hachiya
 

More from Hirotaka Hachiya (13)

人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン人工知能10 サポートベクトルマシン
人工知能10 サポートベクトルマシン
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

データ解析1 ベクトルの復習