SlideShare a Scribd company logo
による
データ分析まわりのお話
@canard0328
機 械 学 習
データサイエンティスト 2
今世紀でもっともセクシーな職業
ハーバード・ビジネス・レビュー 2013年年2⽉月号
2018年年までに⽶米国で14〜~19万⼈人不不⾜足
マッキンゼー 2011年年5⽉月
求められるスキル
ビジネススキル,機械学習/ビッグデータ,
数学/OR,プログラミング,統計
Analyzing the Analyzers, O’reilly 2013
機械学習ツール・書籍の充実 3
ツール
書籍
書籍やWebの隙間を埋めるようなお話ができれば
本⽇日お話すること 4
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
教師あり学習(後述)寄りの内容が多いです
ターゲットにしている⽅方 5
1. 分析を始めようとしている⼈人
基本的な分析⼿手順を知ることができます
2. 分析結果を受け取る⼈人
分析の妥当性を判断することができます
3. 分析を依頼する⼈人
基礎検討を⾃自前で⾏行行うことができます
本⽇日お話しないこと 6
1. 統計のこと
検定とか,有意差がどうとか
2. アルゴリズムの詳細
数式とか
3. ツールの使い⽅方
Webや書籍が充実しています
4. ビッグデータ関連
データベースとか分散処理理とか
本⽇日お話すること 7
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
⼀一般的なデータ形式 8
年年齢 性別 加⼊入⽇日 加⼊入プラン 地区 解約
23 男 2012/03/03スタンダード 東京 0
34 ⼥女女 2014/11/23スタンダード 埼⽟玉 1
49 男 2000/05/11プレミアム 千葉葉 0
19 男 2013/12/05ライト ⼤大阪 0
60 ⼥女女 2011/03/28シニア 東京 0
・
・
・
説明変数,特徴量量 ⽬目的変数
特徴量量の分類 9
名義尺度度
名前,電話番号など
順序尺度度
レースの着順など
間隔尺度度
摂⽒氏,華⽒氏など(乗除不不可)
⽐比例例尺度度
質量量,⻑⾧長さなど
特徴量量の分類 10
数値データ(量量的変数)
⽐比例例尺度度,(間隔尺度度)
カテゴリデータ(質的変数)
名義尺度度,順序尺度度,(間隔尺度度)
機械学習アルゴリズムは数値データを
前提としているものが多い.
カテゴリデータを数値データへ変換
ダミー変数(1-of-K表現) 11
カテゴリデータを数値データへ変換
加⼊入プラン
スタンダード
スタンダード
プレミアム
ライト
シニア
・
・
・
ライト スタンダード シニア
0 1 0
0 1 0
0 0 0
1 0 0
0 0 1
・
・
・
Feature hashing / Hashing trick 12
ダミー変数はカテゴリの種類が多いと
特徴量量の次元数が⼤大きくなりすぎる
Feature hashingにより任意の次元に削減
Nの値がある程度度⼤大きければ精度度への影響⼩小
x := new vector[N]
for f in features:
h := hash(f)
x[h mod N] += 1
http://en.wikipedia.org/wiki/Feature_hashing
⽋欠損値の扱い 13
捨てる
⽋欠損値が少数,データが⼤大量量
置換する
最頻値,中央値,平均値
補間する
時系列列データ
⽋欠損値の⽣生じ⽅方が完全にランダムでない限り
分析に影響を与える
完全情報最尤推定法,多重代⼊入法
正規化 14
xの値を10倍しただけでK-meansの
結果が変わってしまう
正規化 15
必要であれば特徴量量ごとに正規化
(Normalization)を⾏行行う
σ
µ−
=
x
z
σ
µ :xの平均
:xの標準偏差
平均0,標準偏差1にする変換が⼀一般的
次元の呪い 16
次元の呪い(Curse of dimensionality)
特徴量量(説明変数)の数が増えると汎化性能※を
向上させることが難しくなる
使えそうなデータはなんでも特徴量量に加えて
しまえ,は危険
特徴選択や次元削減により特徴量量の数を減らす
データを⽤用意する段階で特徴量量を吟味することが⾮非常に重要
次元の呪いについて,詳しくは「球⾯面集中現象」を検索索
※未知のデータを予測する性能
特徴選択 17
特徴選択(Feature selection)
特徴量量の中から有⽤用なものを選び出す
全ての特徴量量の組み合わせを試すのは困難
前向き法(Forward stepwise selection)
有⽤用な特徴量量を1つずつ選択していく
後ろ向き法(Backward stepwise selection)
不不要な特徴量量を1つずつ削除していく
特徴選択機能を含む機械学習アルゴリズム
決定⽊木,ランダムフォレスト,Lasso
次元削減 18
次元削減(dimension(ality) reduction)
できるだけ元の情報量量を損なわないように
低次元(少特徴量量)のデータに変換する
主成分分析(Principal component analysis (PCA))
データ全体の分布を近似する部分空間を求める
(線形)判別分析(Linear discriminant analysis (LDA))
ラベルごとの分布の分離離度度が最⼤大になる部分空間を求める
次元削減 19
x1
x2
主成分分析による次元削減のイメージ
次元削減 20
x1
x2
判別分析による次元削減のイメージ
醜いアヒルの⼦子定理理 21
醜いアヒルの⼦子定理理(Ugly duckling theorem)
醜いアヒルの⼦子と普通のアヒルの⼦子の類似性は
2⽻羽の普通のアヒルの⼦子の類似性と等しい
問題から独⽴立立した万能な特徴量量は存在しない
特徴量量の設計が重要
1章のまとめ 22
データの前処理理
ダミー変数,⽋欠損値処理理,正規化
次元の呪い
特徴量量が多いと分析が困難に 特徴選択や次元削減
醜いアヒルの⼦子定理理
万能な特徴量量は無い 特徴量量の決定が重要
本⽇日お話すること 23
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
機械学習とは 24
“Machine learning is the science of getting
computers to act without being explicitly
programmed.” Andrew Ng
⼀一般的にはコンピュータの振る舞い⽅方(モデル)を
(⼤大量量の)データから学習することにより獲得する.
機械学習の分類 25
教師あり学習(supervised learning)
データが⼊入⼒力力と出⼒力力のペアから成る
• 分類(識識別)(classification):出⼒力力がラベル
• 回帰(regression):出⼒力力が数値
教師なし学習(unsupervised learning)
データは⼊入⼒力力のみ
• クラスタリング
• 頻出パタンマイニング
• 外れ値検出(outlier detection)
機械学習の分類 26
その他の分類
• 半教師あり学習(semi-supervised learning)
• 強化学習(reinforcement learning)
• 能動学習(active learning)
• 逐次学習(online learning)
• 転移学習(transfer learning)
・・・
機械学習のアルゴリズム 27
教師あり学習
• 線形モデル(単/重回帰)
• ロジスティック回帰
• 判別分析
• k近傍法
• 決定⽊木
• サポートベクターマシン
• ニューラルネットワーク
• ナイーブベイズ
• ランダムフォレスト
機械学習のアルゴリズム 28
教師なし学習
• K-means クラスタリング
• 階層的クラスタリング
• Apriori
• One-class SVM
アルゴリズム利利⽤用時の注意点 29
アルゴリズムによっては
データの分布などに仮定を
おいているものがある.
仮定に合わないデータを分析した場合
適切切な結果が得られないことも
アルゴリズム利利⽤用時の注意点 30
線形モデル(単/重回帰分析)
x
y
εββββ +++++= ii xxxy L22110
線形モデルは誤差が等分散
正規分布であることを仮定
⼀一般化線形モデル
(generalized linear model)
※ロジスティック回帰はこの⼀一種
⼀一般化
(ポアソン分布,⼆二項分布,
ガンマ分布,・・・)
アルゴリズム利利⽤用時の注意点 31
K-meansクラスタリング
K-meansクラスタリングは
各クラスタが同じ⼤大きさの
超球であることを仮定して
いる
混合正規分布
(Gaussian mixture model)
クラスタの⼤大きさに
差がある場合
アルゴリズム利利⽤用時の注意点 32
ノーフリーランチ定理理
あらゆる問題で性能の良良い
万能な学習アルゴリズムは存在しない
⽬目的に適したアルゴリズムを選択しましょう
とは⾔言っても,実⽤用上,上⼿手くいくことの多いアルゴリズムがあるのも事実
2章のまとめ 33
教師あり学習
データが⼊入⼒力力と出⼒力力のペア
分類(識識別),回帰
教師なし学習
データが⼊入⼒力力のみ
クラスタリング,頻出パタンマイニング,外れ値検出
注意点
データの分布などに仮定をおいているアルゴリズムもある
ノーフリーランチ定理理:万能なアルゴリズムは無い
本⽇日お話すること 34
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
回帰モデルの評価基準 35
平均絶対誤差(Mean absolute error)
⼩小さいほど良良い
平均⼆二乗誤差(Mean square(d) error)
⼩小さいほど良良い
Root Mean Square(d) Errorもよく使われる
決定係数R2(Coefficient of determination)
説明変数が⽬目的変数をどれくらい説明するか
0(悪い)〜~1(良良い)
特徴量量が多いほど⼤大きな値に ⾃自由度度調整済み決定係数
( ) Nyy
N
i ii∑=
−= 1
ˆMAE
( )( ) Nyy
N
i ii∑=
−= 1
2
ˆMSE
分類(識識別)モデルの評価基準 36
精度度(Accuracy)
正解数÷データ数
誤差率率率(Error rate)
1-精度度
1万⼈人のデータの内100⼈人が陽性の場合,
常に陰性と判定するモデルの精度度は99%
これはよいモデルといえるだろうか?
分類(識識別)モデルの評価基準 37
混同⾏行行列列(Confusion matrix)
予測値
陽性 (Positive) 陰性 (Negative)
正
解
陽性
真陽性
(True positive : TP)
偽陰性
(False negative : FN)
陰性
偽陽性
(False positive : FP)
真陰性
(True  negative  :  TN)
※予測したい事象が⽣生じている状態が「陽性」
病気を判別したければ,病気の状態が「陽性」で健康な状態が「陰性」
分類(識識別)モデルの評価基準 38
適合率率率(Precision)
TP/(TP + FP)
陽性と予測したものの正解率率率
再現率率率(Recall)
TP/(TP + FN)
陽性のうち正しく予測できた率率率
F値(F1 score, F-measure)
2・(適合率率率・再現率率率) / (適合率率率+再現率率率)
分類(識識別)モデルの評価基準 39
真陽性率率率(True Positive Rate)
TP/(TP + FN)
陽性のうち正しく予測できた率率率(ヒット率率率)
偽陽性率率率(False Positive Rate)
FP/(FP + TN)
陰性のうち誤って陽性と予測した率率率(誤報率率率)
分類(識識別)モデルの評価基準 40
1万⼈人のデータの内100⼈人が陽性のとき
常に陰性と判定するモデル
予測値
陽性(Positive) 陰性(Negative)
正
解
陽性 0 100
陰性 0 9900
精度度:0.99
適合率率率:0
再現率率率:0
F値:0
脱線:不不均衡データの分析 41
ラベルに偏りのあるデータは予測が困難
重みづけ
ライブラリを利利⽤用する場合,簡単に重みづけ可能な
場合が多い
サンプル数の調整
少ない⽅方を増やす,多い⽅方を減らす,両⽅方
SMOTEアルゴリズム
実際にはどちらも決め⼿手とならないことも多い...
分類(識識別)モデルの評価基準 42
真陽性率率率と偽陽性率率率はトレードオフ
陽性の取りこぼしが無いよう閾値を設定すると,
真陽性率率率は⾼高くなるが,偽陽性率率率も⾼高くなる.
ROC曲線
モデルのパラメータを変化させながら,偽陽性率率率と
真陽性率率率をプロットしたもの
AUC
ROC曲線の下側の⾯面積.1.0が最良良
分類(識識別)モデルの評価基準 43
ROC曲線とAUC
3章のまとめ 44
精度度
精度度が⾼高ければよいのか?
適合率率率,再現率率率,F値
精度度以外にも様々な評価基準
ROC曲線,AUC
真陽性率率率と偽陽性率率率のトレードオフを可視化
本⽇日お話すること 45
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
分析時の注意点 46
適切切にデータを前処理理して,
適切切なアルゴリズムを選んで分析した.
誤差が⼤大きい,このアルゴリズムは
使えない!
本当ですか?
> clf = SVC().fit(X, y)
ハイパーパラメータ 47
アルゴリズムはハイパーパラメータを
調整することで性能が⼤大きく変化
ハイパーパラメータの調整法は?
> clf = SVC(kernel=‘rbf’, C=1.0 gamma=0.1).fit(X, y)
グリッドサーチ 48
各パラメータを適当な範囲で変化させ,最も性能の
よいパラメータの組み合わせを選択する
良良
←
性
能
→
悪
グリッドサーチ 49
パラメータの変化幅,刻み幅
経験に依るところ⼤大
物理理量量的なもの(例例:決定⽊木の深さ)は常識識的な範囲で
そうでないものは桁を変えて(10-2,10-1,100,101,102)
2段(多段)グリッドサーチ
初めは広く,荒く
範囲を絞って狭く,細かく
分析時の注意点 50
適切切にデータを前処理理して,
適切切なアルゴリズムを選んで分析した.
誤差0.0(回帰)/F値1.0(分類)だ!
完璧なモデルができた!
本当ですか?
分析時の注意点 51
このモデル(誤差0.0)は未知のデータを
正しく予測できるでしょうか?
過学習 52
過学習(Over fitting)
与えられたデータに(ノイズも含めて)過度度に適合
してしまい,訓練誤差は⼩小さいが,未知データに対
する性能が低下してしまう状態.
汎化性能
未知のデータに対する性能(汎化性能)を定量量化し
た汎化誤差を⼩小さくすることが重要
表現⼒力力の⾼高いアルゴリズム使⽤用時,特徴量量が多いとき,与えられたデータが少な
いときに過学習しやすい.
過学習対策 53
正則化(Regularization)
モデルを学習する際に,複雑さが増すことに対する
ペナルティを設け,過学習を防ぐ
複雑さの指標:L2ノルム,L1ノルム,etc.
正則化を考慮した線形モデル
・リッジ回帰(Ridge regression):L2ノルム
・Lasso:L1ノルム
正則化しすぎても性能がでない(Under fitting)
過学習対策 54
交差検証(Cross validation)
データを学習⽤用と評価⽤用に分割する
1. B〜~Eで学習,Aで評価
2. A,C〜~Eで学習,Bで評価
3. A,B,D,Eで学習,Cで評価
4. A〜~C,Eで学習,Dで評価
5. A〜~Dで学習,Eで評価
6. 1〜~5の平均を算出
5分割交差検証(5-fold cross validation)
過学習対策 55
データの分割の仕⽅方
ランダムにK分割
1サンプルとそれ以外に分割
Leave-one-out cross validation(LOOCV)
ラベルの⽐比率率率を保ったまま分割
Stratified cross validation
ラベルの⽐比率率率に偏りのある場合に有効
過学習対策 56
先頭から順にK分割
時刻 温度度 湿度度 天気
8:00 23.2 63.0 曇
8:05 23.5 65.1 曇
8:10 24.0 68.0 曇
8:15 24.1 69.3 ⾬雨
8:20 24.2 70.1 ⾬雨
8:25 24.2 70.2 ⾬雨
8:30 23.9 69.6 曇
…
時系列列データでは,前後の
データの関連が強いことが
ある.
これをランダムに学習⽤用と
評価⽤用に分けてしまうと,
汎化誤差が不不当に⼩小さくな
る.
過学習対策 57
何らかの属性に応じて分割
新たな被験者に対するモデ
ルの性能を評価する場合,
データを被験者ごとに分割
すると良良い.
学習データと評価データの両⽅方に同じ被験
者のデータが含まれると,汎化誤差が不不当
に⼩小さくなる.
名前 x y 姿勢
A 23.2 63.0 ⽴立立
A 23.5 65.1 ⽴立立
A 24.0 68.0 座
B 24.1 69.3 座
B 24.2 70.1 座
B 24.2 70.2 ⽴立立
C 23.9 69.6 寝
…
誤差について 58
真のモデル
得られたサンプル
推定したモデル
誤差
ε=N(0, σ2)
差=σ2+Bias2+Variance
Bias(バイアス)
モデルの能⼒力力に起因する差
Variance(バリアンス)
サンプルに起因する差
バイアスとバリアンス 59
真のモデル
誤差 ε
得られたサンプルたち
推定したモデルたち
真の
モデル
バイアス
バリアンス
バイアスとバリアンス 60
誤差 ε
得られた
サンプルたち
推定した
モデルたち
真のモデル
差は⼤大きいが,差のばらつきは⼩小さい → ハイバイアス/ローバリアンス
1次式でモデリング
バイアスとバリアンス 61
誤差 ε
得られた
サンプルたち
推定した
モデルたち
真のモデル
サンプルによる差が⼤大きい → ローバイアス/ハイバリアンス
多項式でモデリング
バイアスとバリアンス 62
バイアスとバリアンスはトレードオフの関係
柔軟性の⾼高いモデル(アルゴリズム)
バイアス⼩小,バリアンス⼤大 ハイバリアンス
過学習(Over fitting)
柔軟性の低いモデル(アルゴリズム)
バイアス⼤大,バリアンス⼩小 ハイバイアス
Under fitting
現在のモデルの状態を確認するには?
学習曲線 63
データサイズを変えながら訓練スコア(誤差)
汎化スコア(誤差)をプロット
学習曲線 64
ハイバイアスの⽬目安
訓練スコア(誤差)が低い(⼤大きい)
訓練スコアと汎化スコアの差が⼩小さい
ハイバリアンスの⽬目安
訓練スコアと汎化スコアの差が⼤大きい
汎化スコアの改善がサチっていない
学習曲線 65
ハイバイアス ハイバリアンス
スコアが低い
スコアの差が⼩小さい
スコアの差が⼤大きい
学習曲線 66
ハイバイアスの場合
(有効な)特徴量量を増やす
アルゴリズムを(柔軟性の⾼高いものに)変更更する
ハイバリアンスの場合
データを増やす
(不不要な)特徴量量を削除する
4章のまとめ 67
過学習
汎化性能を評価する必要有
交差検証
データ,⽬目的に応じて⼿手法を選択
バイアス,バリアンス
モデルがどういう状態なのか,学習曲線で確認
本⽇日お話したこと 68
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス
宣伝 69
機械学習⽀支援システム MALSS
(Machine Learning Support System)
機械学習によるデータ分析の⼀一部を⾃自動化する
Pythonライブラリ
機能
• ダミー変数⽣生成,⽋欠損値補間,正規化
• アルゴリズム⾃自動選択
• 交差検証,グリッドサーチ
• 分析結果レポート
• サンプルコード⽣生成
宣伝 70
機械学習⽀支援システム MALSS
インストール
利利⽤用⽅方法
> pip install –U malss
> from malss import MALSS
> clf = MALSS('classification‘, lang=‘jp’)
> clf.fit(X, y, ‘report_output_dir')
> clf.make_sample_code('sample_code.py')
宣伝 71
機械学習⽀支援システム MALSS
レポート
宣伝 72
機械学習⽀支援システム MALSS
レポート
参考⽂文献 73
戦略略的データサイエンス⼊入⾨門
F. Provost他/オライリー・ジャパン
Coursera: Machine Learning
Andrew Ng/https://www.coursera.org/course/ml
scikit-learn Tutorials
http://scikit-learn.org/stable/tutorial/
Tutorial: Machine Learning for Astronomy with Scikit-learn
http://www.astroml.org/sklearn_tutorial/
データ解析のための統計モデリング⼊入⾨門
久保 拓拓弥/岩波書店
朱鷺鷺の杜Wiki
http://ibisforest.org/
参考⽂文献 74
MALSS (Machine Learning Support System)
https://pypi.python.org/pypi/malss/
https://github.com/canard0328/malss
Pythonでの機械学習を⽀支援するツール MALSS(導⼊入)
Qiita/http://qiita.com/canard0328/items/fe1ccd5721d59d76cc77
Pythonでの機械学習を⽀支援するツール MALSS(基本)
Qiita/http://qiita.com/canard0328/items/5da95ff4f2e1611f87e1
Pythonでの機械学習を⽀支援するツール MALSS(応⽤用)
Qiita/ http://qiita.com/canard0328/items/3713d6758fe9c045a19d
本⽇日お話したこと 75
1. データのこと
Keywords: ダミー変数,⽋欠損値,正規化,次元の呪い
2. 機械学習のこと
Keywords: 機械学習の分類,アルゴリズム,注意点
3. 評価のこと
Keywords: 混同⾏行行列列,適合率率率,再現率率率,F値,ROC曲線
4. 分析のこと
Keywords: 過学習,交差検証,学習曲線,バイアス・バリアンス

More Related Content

What's hot

大規模な組合せ最適化問題に対する発見的解法
大規模な組合せ最適化問題に対する発見的解法大規模な組合せ最適化問題に対する発見的解法
大規模な組合せ最適化問題に対する発見的解法
Shunji Umetani
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
智之 村上
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
H Okazaki
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
Haruka Ozaki
 
レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法
Takeshi Mikami
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 

What's hot (20)

大規模な組合せ最適化問題に対する発見的解法
大規模な組合せ最適化問題に対する発見的解法大規模な組合せ最適化問題に対する発見的解法
大規模な組合せ最適化問題に対する発見的解法
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践バンディットアルゴリズム入門と実践
バンディットアルゴリズム入門と実践
 
探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット探索と活用の戦略 ベイズ最適化と多腕バンディット
探索と活用の戦略 ベイズ最適化と多腕バンディット
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
 
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018機械学習で泣かないためのコード設計 2018
機械学習で泣かないためのコード設計 2018
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
変分ベイズ法の説明
変分ベイズ法の説明変分ベイズ法の説明
変分ベイズ法の説明
 
レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法レコメンドアルゴリズムの基本と周辺知識と実装方法
レコメンドアルゴリズムの基本と周辺知識と実装方法
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 

Viewers also liked

スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
narumikanno0918
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
Etsuji Nakai
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
 
主成分分析 (pca)
主成分分析 (pca)主成分分析 (pca)
主成分分析 (pca)
Ji Wang
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
Minoru Chikamune
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
nishio
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
Takahiro Kubo
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
toilet_lunch
 
SVMについて
SVMについてSVMについて
SVMについて
mknh1122
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
Koichi Hamada
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJOTakashi J OZAKI
 
Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Takeshi Mikami
 
30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト
Satoru Yamamoto
 
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリングNewman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Atsushi KOMIYA
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
Takashi Kaneda
 

Viewers also liked (20)

スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
主成分分析 (pca)
主成分分析 (pca)主成分分析 (pca)
主成分分析 (pca)
 
「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11「機械学習 By スタンフォード大学」勉強会 2015.09.11
「機械学習 By スタンフォード大学」勉強会 2015.09.11
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
 
今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門今日から使える! みんなのクラスタリング超入門
今日から使える! みんなのクラスタリング超入門
 
SVMについて
SVMについてSVMについて
SVMについて
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
Simple perceptron by TJO
Simple perceptron by TJOSimple perceptron by TJO
Simple perceptron by TJO
 
Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」Rによるデータサイエンス13「樹木モデル」
Rによるデータサイエンス13「樹木モデル」
 
30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト30分でわかる『R』によるデータ分析|データアーティスト
30分でわかる『R』によるデータ分析|データアーティスト
 
Newman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリングNewman アルゴリズムによるソーシャルグラフのクラスタリング
Newman アルゴリズムによるソーシャルグラフのクラスタリング
 
トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定トピックモデルを用いた 潜在ファッション嗜好の推定
トピックモデルを用いた 潜在ファッション嗜好の推定
 

Similar to 機械学習によるデータ分析まわりのお話

Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
Kohta Ishikawa
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
Masaru Tokuoka
 
コンピュータビジョンの観点から見たAIの公平性
コンピュータビジョンの観点から見たAIの公平性コンピュータビジョンの観点から見たAIの公平性
コンピュータビジョンの観点から見たAIの公平性
cvpaper. challenge
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
Hirofumi Tsuruta
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
 
H231126 統計および確率を利用した予測と判断rev1
H231126 統計および確率を利用した予測と判断rev1H231126 統計および確率を利用した予測と判断rev1
H231126 統計および確率を利用した予測と判断rev1
Kenichi Takara
 
コース導入講義(荒木)
コース導入講義(荒木)コース導入講義(荒木)
コース導入講義(荒木)
Faculty of Economics, Momoyama Gakuin University
 
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1
ryuhmd
 
(道具としての)データサイエンティストのつかい方
(道具としての)データサイエンティストのつかい方(道具としての)データサイエンティストのつかい方
(道具としての)データサイエンティストのつかい方
Shohei Hido
 
相互情報量.pptx
相互情報量.pptx相互情報量.pptx
相互情報量.pptx
Tanaka Hayato
 
dplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリングdplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリング
Somatori Keita
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
Hirotaka Hachiya
 
金融業界でよく使う統計学
金融業界でよく使う統計学金融業界でよく使う統計学
金融業界でよく使う統計学
Nagi Teramo
 

Similar to 機械学習によるデータ分析まわりのお話 (13)

Introduction to statistics
Introduction to statisticsIntroduction to statistics
Introduction to statistics
 
DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)DARM勉強会第3回 (missing data analysis)
DARM勉強会第3回 (missing data analysis)
 
コンピュータビジョンの観点から見たAIの公平性
コンピュータビジョンの観点から見たAIの公平性コンピュータビジョンの観点から見たAIの公平性
コンピュータビジョンの観点から見たAIの公平性
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
H231126 統計および確率を利用した予測と判断rev1
H231126 統計および確率を利用した予測と判断rev1H231126 統計および確率を利用した予測と判断rev1
H231126 統計および確率を利用した予測と判断rev1
 
コース導入講義(荒木)
コース導入講義(荒木)コース導入講義(荒木)
コース導入講義(荒木)
 
MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1MLaPP輪講 Chapter 1
MLaPP輪講 Chapter 1
 
(道具としての)データサイエンティストのつかい方
(道具としての)データサイエンティストのつかい方(道具としての)データサイエンティストのつかい方
(道具としての)データサイエンティストのつかい方
 
相互情報量.pptx
相互情報量.pptx相互情報量.pptx
相互情報量.pptx
 
dplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリングdplyr と purrrを用いたデータハンドリング
dplyr と purrrを用いたデータハンドリング
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
金融業界でよく使う統計学
金融業界でよく使う統計学金融業界でよく使う統計学
金融業界でよく使う統計学
 

Recently uploaded

単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
atsushi061452
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 

Recently uploaded (15)

単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
論文紹介: Exploiting semantic segmentation to boost reinforcement learning in vid...
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 

機械学習によるデータ分析まわりのお話