SlideShare a Scribd company logo
1 of 81
Download to read offline
R言語による
回帰分析入門
    @yokkuns 里 洋平

第12回R勉強会@東京(Tokyo.R#12)
       2011/03/05
                          1
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      2
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      3
自己紹介
               ●
                   名前 : 里 洋平
               ●   ID   : yokkuns
               ●
                   職業 : Webエンジニア



●
    興味のある事
     –   統計解析、データマイニング、機械学習など


                                    4
slideshareに資料を公開しています




                        5
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      6
回帰分析
●
    変数間の関係を分析する手法
     –   説明変数を用いて目的変数を説明




                           7
回帰分析
●
    変数間の関係を分析する手法
     –   説明変数を用いて目的変数を説明




                           8
回帰分析
●
    変数間の関係を分析する手法
     –   説明変数を用いて目的変数を説明




     目的変数       説明変数


                           9
回帰分析




線形関係          非線形関係


                      10
回帰分析
時系列解析 - ARモデル




                図 : http://ameblo.jp/kazue-fujiwara/entry-10762340069.html

                                                                         11
回帰分析
金融工学 - ベータの推定




                図 : http://www.sigmabase.co.jp/keyword/list/h/beta_chi.htm


                                                                             12
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      13
線形回帰分析
■線形単回帰分析




■線形重回帰分析




               14
線形単回帰分析
●
    説明変数が1つの線形回帰分析




                     15
線形単回帰分析

lm(formula, data, weights, subset, na.action)


formula : モデルの形式
data      : 回帰分析に用いるデータセット
weights : 用いる説明変数に重みを指定
subset : データセットの中の一部を用いる場合に指定
na.action : 欠損値の扱いを指定




                                                16
線形単回帰分析
           回帰分析の関連関数
 関数        内容             使用例
coef       回帰係数          coef(cars.lm), cars.lm$coef
fitted     用いたデータの予測値    fitted(cars.lm), cars.lm$fitted
deviance   残差の平方和        deviance(cars.lm)
anova      回帰係数の分散分析     anova(cars.lm)
predict    新たなデータに対する予   predict(cars.lm)
           測値
print      要約より簡単な結果     print(cars.lm)
summary    回帰分析結果の要約     summary(cars.lm)
plot       回帰診断プロット      plot(cars.lm)


                                                           17
線形単回帰分析
                          電子部品データ

標本番号     1    2     3      4      5    6      7      8      9     10     11     12
抵抗値x    0.91 0.83 0.8     0.83   0.86 0.85   0.84   0.81   0.79   0.89   0.85   0.83
仕上がり    7.2   4.1   2.9   3.8    5.7   5.1   4.4    3.6    3.1    6.4    4.7    4.2
のスコアy



● xは製造工程である部分を測定した抵抗値
● yは最終的に出来た製品の仕上がりを表すスコア




                                                                                 18
線形単回帰分析




          19
線形単回帰分析




          20
線形単回帰分析
最小2乗法




                  21
線形単回帰分析
最小2乗法




                  22
線形単回帰分析
最小2乗法




         残差



                  23
線形単回帰分析
最小2乗法
残差の2乗和を最小にする
直線を求める




          残差



                  24
線形単回帰分析




          25
線形単回帰分析
   指定したモデルの確認の出力




               26
線形単回帰分析


     残差分布の四分位数




                 27
線形単回帰分析



          切片の推定値と
          その検定結果




                28
線形単回帰分析




          傾きの推定値と
          その検定結果




                29
線形単回帰分析




          標準誤差




             30
線形単回帰分析




          決定係数と
          調整済み決定係数




                31
線形単回帰分析




          分散分析後のF値
          と結果



                32
線形単回帰分析




          33
線形単回帰分析
残差とフィット値のプロット




                 34
線形単回帰分析
残差の正規Q-Qプロット




                  35
線形単回帰分析
残差の平方根プロット




                 36
線形単回帰分析
残差と影響力プロット(梃子値とクックの距離)




                         37
線形単回帰分析
信頼区間と予測区間




                 38
線形重回帰分析

説明変数が複数の線形回帰分析




                 39
線形重回帰分析

           airquality




1973年5月から9月までのニューヨークの大気状態を記録したデータ
●




                                    40
線形重回帰分析




          41
線形重回帰分析
Ozoneを目的変数として、Solar.R、Wind、Tempを説明変数とした重回帰分析




                                          42
線形重回帰分析
Ozoneを目的変数として、Solar.R、Wind、Tempを説明変数とした重回帰分析




                       AIC
                       ●
                         統計モデルを評価するための指標
                                          43
線形重回帰分析




          44
線形重回帰分析
相互作用をを考慮したモデルを構築




                   45
線形重回帰分析
相互作用をを考慮したモデルを構築




               相互作用を考慮しないモデルより
               AICの値が小さくなった!

                   662.3732 < 681.7127




                                         46
線形重回帰分析
AICを用いてモデル•変数を選択する関数step




                           47
線形重回帰分析
AICを用いてモデル•変数を選択する関数step




                           AICが一番小さくなる回帰式




                                      48
線形重回帰分析
step関数で求めたモデルの要約




                    49
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      50
非線形回帰分析
目的変数と説明変数が非線形的な関係である回帰分析




                           51
非線形回帰分析
●
    多項式回帰
●
    一般化線形モデル
●
    ロジスティック回帰
●
    平滑化回帰
●
    加法モデル




                      52
多項式回帰

目的変数を多項式で表す




              53
多項式回帰
           非線形回帰分析を行う関数

      nls(formula, data, start, trace)


formula   : モデルの形式
data      : 回帰分析に用いるデータセット
start     : パラメータの初期値
trace     : 計算過程の結果を返す場合はTRUEを指定




                                         54
多項式回帰
人工デー
タ




        55
多項式回帰




        56
多項式回帰




        57
多項式回帰




        58
一般化線形モデル
●
    線形回帰分析
     –   残差が正規分布に従うと仮定
     –   従っていない場合使えない


●
    一般化線形モデル
     –   正規分布を拡張した分布族に対応させる
     –   非線形の現象を線形と同じように簡単に
     –   不自然な尺度で解釈しないように工夫した解析方法
                               59
一般化線形モデル
          一般化線形モデルの関数

       glm(formula, family, data)

formula   : モデルの形式
family    : 当てはめる分布族のリンク関
数
data       : データセット




                                    60
一般化線形モデル
          関数glmで仕様可能な主な分布
          族
分布族(family)              リンク            リンク関数
正規(gaussian)            μ              link=”identity”
ニ項(binomial)            log(μ/(1-μ))   link=”logit”
ポアソン(poisson)           log(μ)         link=”log”
ガンマ(Gamma)              1/μ            link=”inverse”
逆正規(Inverse.gaussian)   1/μ^2          Link=”1/mu^2”




                                                         61
一般化線形モデル

               airquality




●   1973年5月から9月までのニューヨークの大気状態を記録したデータ




                                        62
一般化線形モデル




           63
一般化線形モデル




           64
ロジスティック回帰
●
    2値データを目的変数とした回帰モデル
●
    ロジスティック関数を用いて分析を行う




                         65
ロジスティック回帰

            SpaceShuttle




スペースシャトル•チャレンジャーの打ち上げ時に生じるO-リングの故障状況



                                   66
ロジスティック回帰
glmを使ってロジスティック回帰




                   67
ロジスティック回帰




            68
ロジスティック回帰




            69
平滑化回帰
複雑な傾向のデータを滑らかな曲線で当てはめる




                         70
平滑化回帰
           局所重み付き回帰法を行う関数

     loess(formula, data, span, degree...)


formula   : モデルの形式
data      : 用いるデータセット
span      : 平滑の度合いをコントロールするパラメータ
degree    : 当てはめる多項式の次数




                                             71
平滑化回帰
     B-スプライン関数による
  平滑化スプライン曲線を当てはめる
smooth.spline(x, y, df, spar, ...)

    x      : 予測変量
    y      : 反応変量
    df     : 等価自由度
    spar    : 平滑化パラメー
    タ




                                     72
73
一般化加法モデル




           74
一般化加法モデル
            一般化加法モデルを求める関数

         gam(formula, family, data, ...)
formula : モデルの書式。モデル式の右辺に平滑化関数を使
う
family   : 残差の分布族
data     : データセット


使える平滑化関数
lo : 局所回帰関数
s : 平滑化スプライン関数
bs : B-スプライン関数
ns : 自然スプライン関数
                                           75
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      76
まとめ
●
    Rで回帰分析を学びました
●
    Rでは、lm、glm、nlsなどの回帰分析をする
    ための関数が用意されており、簡単に分析が出
    来る
●
    gamを使う事で、非常に複雑なデータも扱うこ
    とが出来る




                           77
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      78
発表者募集しています!




              79
AGENDA
●
    自己紹介
●
    回帰分析とは
●
    線形回帰分析
●
    非線形回帰分析
●
    まとめ
●
    最後に


                      80
ご清聴
ありがとうございました



              81

More Related Content

What's hot

パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Hiroshi Shimizu
 
Isolation forest
Isolation forestIsolation forest
Isolation forestkataware
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
Rにおける大規模データ解析(第10回TokyoWebMining)
Rにおける大規模データ解析(第10回TokyoWebMining)Rにおける大規模データ解析(第10回TokyoWebMining)
Rにおける大規模データ解析(第10回TokyoWebMining)Shintaro Fukushima
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” Hajime Sasaki
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれHiroshi Shimizu
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章nocchi_airport
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門Retrieva inc.
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理wada, kazumi
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
03 「重回帰分析」の入門
03 「重回帰分析」の入門03 「重回帰分析」の入門
03 「重回帰分析」の入門Shuhei Ichikawa
 
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編Hiroshi Shimizu
 

What's hot (20)

パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説Cmdstanr入門とreduce_sum()解説
Cmdstanr入門とreduce_sum()解説
 
正準相関分析
正準相関分析正準相関分析
正準相関分析
 
Isolation forest
Isolation forestIsolation forest
Isolation forest
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
Rにおける大規模データ解析(第10回TokyoWebMining)
Rにおける大規模データ解析(第10回TokyoWebMining)Rにおける大規模データ解析(第10回TokyoWebMining)
Rにおける大規模データ解析(第10回TokyoWebMining)
 
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処” WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
WI2研究会(公開用) “データ分析でよく使う前処理の整理と対処”
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれRで因子分析 商用ソフトで実行できない因子分析のあれこれ
Rで因子分析 商用ソフトで実行できない因子分析のあれこれ
 
社会心理学とGlmm
社会心理学とGlmm社会心理学とGlmm
社会心理学とGlmm
 
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
StanとRでベイズ統計モデリングに関する読書会(Osaka.stan) 第四章
 
ブースティング入門
ブースティング入門ブースティング入門
ブースティング入門
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理Rでのtry関数によるエラー処理
Rでのtry関数によるエラー処理
 
Stanでガウス過程
Stanでガウス過程Stanでガウス過程
Stanでガウス過程
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
03 「重回帰分析」の入門
03 「重回帰分析」の入門03 「重回帰分析」の入門
03 「重回帰分析」の入門
 
マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編マルチレベルモデル講習会 理論編
マルチレベルモデル講習会 理論編
 

Similar to Tokyo r12 - R言語による回帰分析入門

[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章Haruki Eguchi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場Daisuke Yoneoka
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習HiroyukiTerada4
 
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2Computational Materials Science Initiative
 
Data assim r
Data assim rData assim r
Data assim rXiangze
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Shohei Kumagai
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル). .
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】Naoki Hayashi
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceishii yasunori
 
PSIM使い方のヒントとコツ
PSIM使い方のヒントとコツPSIM使い方のヒントとコツ
PSIM使い方のヒントとコツPSIMcafe
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...Deep Learning JP
 
第1回R勉強会@東京
第1回R勉強会@東京第1回R勉強会@東京
第1回R勉強会@東京Yohei Sato
 

Similar to Tokyo r12 - R言語による回帰分析入門 (20)

[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場第三回統計学勉強会@東大駒場
第三回統計学勉強会@東大駒場
 
第2回DARM勉強会
第2回DARM勉強会第2回DARM勉強会
第2回DARM勉強会
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
W8PRML5.1-5.3
W8PRML5.1-5.3W8PRML5.1-5.3
W8PRML5.1-5.3
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2
CMSI計算科学技術特論A (2015) 第11回 行列計算における高速アルゴリズム2
 
Data assim r
Data assim rData assim r
Data assim r
 
Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用Partial least squares回帰と画像認識への応用
Partial least squares回帰と画像認識への応用
 
Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)Stanの紹介と応用事例(age heapingの統計モデル)
Stanの紹介と応用事例(age heapingの統計モデル)
 
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
【学会発表】LDAにおけるベイズ汎化誤差の厳密な漸近形【IBIS2020】
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
 
PSIM使い方のヒントとコツ
PSIM使い方のヒントとコツPSIM使い方のヒントとコツ
PSIM使い方のヒントとコツ
 
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
[DL Hacks] Deterministic Variational Inference for RobustBayesian Neural Netw...
 
CMSI計算科学技術特論B(8) オーダーN法1
 CMSI計算科学技術特論B(8) オーダーN法1 CMSI計算科学技術特論B(8) オーダーN法1
CMSI計算科学技術特論B(8) オーダーN法1
 
第1回R勉強会@東京
第1回R勉強会@東京第1回R勉強会@東京
第1回R勉強会@東京
 

More from Yohei Sato

Tokyor60 r data_science_part1
Tokyor60 r data_science_part1Tokyor60 r data_science_part1
Tokyor60 r data_science_part1Yohei Sato
 
Tokyor60 opening
Tokyor60 openingTokyor60 opening
Tokyor60 openingYohei Sato
 
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組み
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組みTokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組み
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組みYohei Sato
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Yohei Sato
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2Yohei Sato
 
Tokyor39 yokkuns
Tokyor39 yokkunsTokyor39 yokkuns
Tokyor39 yokkunsYohei Sato
 
EasyHtmlReportの紹介
EasyHtmlReportの紹介EasyHtmlReportの紹介
EasyHtmlReportの紹介Yohei Sato
 
20131206 japan r
20131206 japan r20131206 japan r
20131206 japan rYohei Sato
 
Tokyor35 人工データの発生
Tokyor35 人工データの発生Tokyor35 人工データの発生
Tokyor35 人工データの発生Yohei Sato
 
ドリコムの分析環境とデータサイエンス活用事例
ドリコムの分析環境とデータサイエンス活用事例ドリコムの分析環境とデータサイエンス活用事例
ドリコムの分析環境とデータサイエンス活用事例Yohei Sato
 
R言語で学ぶマーケティング分析 競争ポジショニング戦略
R言語で学ぶマーケティング分析 競争ポジショニング戦略R言語で学ぶマーケティング分析 競争ポジショニング戦略
R言語で学ぶマーケティング分析 競争ポジショニング戦略Yohei Sato
 
Rでレポートメール
RでレポートメールRでレポートメール
RでレポートメールYohei Sato
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデルYohei Sato
 
Rでピボットテーブル
RでピボットテーブルRでピボットテーブル
RでピボットテーブルYohei Sato
 
第3回Japan rパネルディスカッション
第3回Japan rパネルディスカッション第3回Japan rパネルディスカッション
第3回Japan rパネルディスカッションYohei Sato
 
Tokyor26 data fusion
Tokyor26 data fusionTokyor26 data fusion
Tokyor26 data fusionYohei Sato
 
Tokyor24 yokkuns
Tokyor24 yokkunsTokyor24 yokkuns
Tokyor24 yokkunsYohei Sato
 
Tokyowebmining19 data fusion
Tokyowebmining19 data fusionTokyowebmining19 data fusion
Tokyowebmining19 data fusionYohei Sato
 
傾向スコア解析とUplift Modelling
傾向スコア解析とUplift Modelling傾向スコア解析とUplift Modelling
傾向スコア解析とUplift ModellingYohei Sato
 
Complex network ws_percolation
Complex network ws_percolationComplex network ws_percolation
Complex network ws_percolationYohei Sato
 

More from Yohei Sato (20)

Tokyor60 r data_science_part1
Tokyor60 r data_science_part1Tokyor60 r data_science_part1
Tokyor60 r data_science_part1
 
Tokyor60 opening
Tokyor60 openingTokyor60 opening
Tokyor60 opening
 
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組み
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組みTokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組み
Tokyor45 カーネル多変量解析第2章 カーネル多変量解析の仕組み
 
Tokyor42_r_datamining_18
Tokyor42_r_datamining_18Tokyor42_r_datamining_18
Tokyor42_r_datamining_18
 
Tokyor42 ggplot2
Tokyor42 ggplot2Tokyor42 ggplot2
Tokyor42 ggplot2
 
Tokyor39 yokkuns
Tokyor39 yokkunsTokyor39 yokkuns
Tokyor39 yokkuns
 
EasyHtmlReportの紹介
EasyHtmlReportの紹介EasyHtmlReportの紹介
EasyHtmlReportの紹介
 
20131206 japan r
20131206 japan r20131206 japan r
20131206 japan r
 
Tokyor35 人工データの発生
Tokyor35 人工データの発生Tokyor35 人工データの発生
Tokyor35 人工データの発生
 
ドリコムの分析環境とデータサイエンス活用事例
ドリコムの分析環境とデータサイエンス活用事例ドリコムの分析環境とデータサイエンス活用事例
ドリコムの分析環境とデータサイエンス活用事例
 
R言語で学ぶマーケティング分析 競争ポジショニング戦略
R言語で学ぶマーケティング分析 競争ポジショニング戦略R言語で学ぶマーケティング分析 競争ポジショニング戦略
R言語で学ぶマーケティング分析 競争ポジショニング戦略
 
Rでレポートメール
RでレポートメールRでレポートメール
Rでレポートメール
 
Rで階層ベイズモデル
Rで階層ベイズモデルRで階層ベイズモデル
Rで階層ベイズモデル
 
Rでピボットテーブル
RでピボットテーブルRでピボットテーブル
Rでピボットテーブル
 
第3回Japan rパネルディスカッション
第3回Japan rパネルディスカッション第3回Japan rパネルディスカッション
第3回Japan rパネルディスカッション
 
Tokyor26 data fusion
Tokyor26 data fusionTokyor26 data fusion
Tokyor26 data fusion
 
Tokyor24 yokkuns
Tokyor24 yokkunsTokyor24 yokkuns
Tokyor24 yokkuns
 
Tokyowebmining19 data fusion
Tokyowebmining19 data fusionTokyowebmining19 data fusion
Tokyowebmining19 data fusion
 
傾向スコア解析とUplift Modelling
傾向スコア解析とUplift Modelling傾向スコア解析とUplift Modelling
傾向スコア解析とUplift Modelling
 
Complex network ws_percolation
Complex network ws_percolationComplex network ws_percolation
Complex network ws_percolation
 

Tokyo r12 - R言語による回帰分析入門