SlideShare a Scribd company logo
相関係数
ベクトルで理解する相関係数




MATSUURA Satoshi
matsuura@is.naist.jp


         1
相関が強い/弱いとは?

とても強い(線形)                強い                    弱い
料金               物理の得点                    成果




             >                        >
0      消費量       0            数学の得点       0         予算




                         2
相関係数
・目的
 2つの集合(x, y)の線形関係を定量的に表現したい


・性質
 1.相関係数は[-1, 1]の範囲で表す。
 2.0に近いほど相関が弱く、1(-1)に近づくほど相関が強い。
 3.相関関数が3倍になる事は、3倍の相関を得ることを示さない。
   相関度合いの比較を可能とするだけである。


・計算式
 x = (x1, x2, x3, ... xn), y = (y1, y2, y3, ... yn)の時
                                                        n
 x, yの相関関係Rは下記の式で求まる。だたし、      である。               x = n i=1 xi
                                                  ¯ 1

                       n
                       i=1 (xi     x)(yi
                                   ¯        y)
                                            ¯
      R=          n                    n
                  i=1 (xi    x)2
                             ¯         i=1 (yi    y )2
                                                  ¯

                                   3
問題点
・危険な(浅い)理解の仕方

     相関係数って、
関連がどれくらい有るかの値でしょ。


  ・値の大小が何を意味するか分からない
  ・そもそも[-1,1]の値を取る事を知らない
  ・相関係数が3倍になると3倍の相関が
   あると思ってしまう
            4
Goal
・簡潔な理解の仕方

     相関係数って、
     cosθ でしょ。

・[-1,1]の値を取るのは自明
・二つの集合(ベクトル)が同じ向き→1, 逆向き→-1
・¦cosθ¦ 1(強い相関)、¦cosθ¦ 0(弱い相関)

              5
そもそも線形の関係とは

線形:直線上に並ぶ
y

y4                         ・二つの集合(x, y)を考える
y3
                           ・x = (x1, x2, ... xn), y = (y1, y2, ... yn)とする
y2
y1                         ・(x1, y1), (x2, y2), ... (xn, yn)の全ての点を、
                            ある一つの直線が通過する時、二つの集合は
                            線形の関係にあると呼ぶ。
                       x
0    x1 x2   x3   x4




                                    6
線形関係の特徴

線形:直線上に並ぶ          重心を取る            重心と原点を重ねる

y              y                       y

                      x                0
                                           x
                                               x



0      x       0           x



             POINT: 重心は必ず直線上の点になる




                     7
線形関係の特徴

重心と原点が重なる
                    ・平行移動後の集合を(x , y )とする
 ように平行移動
                    ・x = (x1 , x2 , ... xn ), y = (y1 , y2 , ... yn )
   y       y = ax   →y = ax の関係が成り立つ

   0                              ・最重要ポイント
       x
             x                    x , y をn次元空間の1点と捉える


                    ・x , y の二つのベクトルの向きが等しい(a > 0)




                              8
ベクトルとcosθ
  y       y = ax

  0
                   ・線形の関係
      x            ・ベクトルx , y は4次元上で同一の方向を指す
            x

                   ・x , y で作る角度が0→cosθの値は1


  y       y = ax
                   ・線形に近い関係
  0
      x
            x
                   ・ベクトルx , y は4次元上で似た方向を指す
                   ・x , y で作る角度が小さい→cosθの値は1に近い


  y       y = ax
                   ・線形から遠い関係
  0
      x
            x
                   ・ベクトルx , y は4次元上で違った方向を指す
                   ・x , y で作る角度が大きい→cosθの値は0に近い



4点(4次元)は想像しにくいので、具体的な3点で確認してみて下さい
                          9
このcosθが
相関係数です。


   10
本当でしょうか?
  (以下確認)


   11
cosθの導出

         初期状態            (回帰直線と)重心を求める              重心を原点へ平行移動

     y                         y                        y


                                   x
                                                        0
                                                            x
     0          x              0          x                          x




                       POINT: 重心は必ず回帰直線上の点になる*




* 回帰直線:最小二乗法より求められる直線。重心が回帰直線上に存在することを確認するには少々の計算が必要(末尾のおまけを参照の事)。

                                   12
cosθの導出
                 ・初期状態の集合を(x, y)とする
                 ・平行移動後の集合を(x , y )とする
y                ・x = (x1 , x2 , ... xn ), y = (y1 , y2 , ... yn )


0                                       内積を考える
    x
          x


                 x ・y = ¦x ¦¦y ¦cosθ
                 ここで平行移動した距離は原点と重心間の距離に
                                 n
                        x = n i=1 xi
                        ¯ 1
                 等しく、       のように表される(yも同様)。
                 cosθについて解くと、下記を得る(p.3のRと同じ式)。

                      n
                      i=1 (xi         x)(yi
                                      ¯       y)
                                              ¯
        cos =    n                        n
                 i=1 (xi        x)2
                                ¯         i=1 (yi   y )2
                                                    ¯
                           13
ここまでのまとめ
       1.   集合 x, yの相関係数を求めたい
       2.   集合の重心を原点に合わせるように平行移動
       3.   平行移動後の集合 x , y をn次元の1点と捉える
       4.   ベクトルx , y から得られるcosθが求める相関係数

    ・相関係数の解釈の仕方

          どれだけ点(集合)が直線に沿って分布しているか
                      ↓
      どれだけベクトル(平行移動後の集合)が同じ方向を向いているか

y                      y                   y


                           x
                                           0
                                               x
0            x         0        x                  x




                           14
相関係数って、
  cosθ でしょ、
と思えたでしょうか。


     15
ここまで説明した、
相関係数のイメージが
 掴めれば十分です。
 (以下、おまけ)

    16
残された疑問
  ・なぜ、回帰直線を利用するのか
  ・本当に、回帰直線上に集合の重心が位置するのか
  ・回帰直線とcosθの関係はどうなっているのか
・p.12 cosθの導出より

         初期状態          (回帰直線と)重心を求める           重心を原点へ平行移動

     y                      y                    y


                                x
                                                 0
                                                     x
     0            x         0         x                  x




                      POINT: 重心は必ず回帰直線上の点になる
                                17
回帰直線を利用する理由
相関係数:線形関係にどれだけ近いか(遠いか)を示す値
              ↓
       基準となる直線が必要だ
              ↓
 出来るだけ、点(集合)の近くを通る直線を設定しよう
  (そうで無いと線形関係の場合、点(集合)が線上に存在しないという矛盾した状態が生じる)

            ↓
   そういう直線は最小二乗法で求められるよ
            ↓
  回帰直線:最小二乗法によって算出される直線

                       18
回帰直線と重心
       f (x) = ax + b
求める直線を        とおき、最小二乗法により求める。
       n
                                   J    J
J=          (yi       f (x)) が最小の時、       が成り立つ。
                            2
                                     =0   =0
      i=1
                                   a    b
                  n
      J
        =2     xi (axi + b               yi )2 = 0
      a    i=1
                  n
      J                                                          n
        =2     (axi + b              yi ) = 0
                                         2
                                                              =
                                                          以後、   とする。
      b    i=1                                                  i=1



  a         x2 + b
             i         xi           xi yi = 0

  a         xi + nb             yi = 0

                       n                        n
   x = n i=1 xi y = n i=1 yi
    ¯ 1         ¯ 1
ここで、             とおくと、

       xi yi     x2
             =a   i
                    + b¯
                       x
       n        n
                                             - (1)               y = a¯ + b
                                                                 ¯          (¯, y )
                                                                             x ¯
                                                            (1)式、      より重心   は
                                                                      x
  y = a¯ + b
  ¯    x                                                    回帰直線上に存在することがわかる



                                                     19
回帰直線とcosθ
続いて、回帰直線を求める。(1)より b を消去すると、

  xi yi              x2
            xy = a(
            ¯¯        i
                                       x2 )
                                       ¯                              - (2)
  n                 n

ここで、(2)式の右辺、左辺を整理する。
                                                                          n
  x2                  x2           xi               ¯
                                                    x2
   i
          x2 =
          ¯            i
                               2¯
                                x     +                                    =n
                                                                 (αが定数の時      が成り立つ)
 n                   n            n                n                     i=1

            =        (x2
                       i       2xi x + x2 )
                                   ¯ ¯
                 n
            =        (xi       x)2
                               ¯                                      - (2a)
                 n

  xi yi                  xi yi
           xy =
           ¯¯                    xy + y x + xy
                                 ¯ ¯ ¯¯ ¯ ¯
  n                      n
                         xi yi           ¯
                                      xi y     yi x + n¯y
                                                  ¯    x¯
                 =             +
                         n                   n
                 =       (xi yi         ¯
                                     xi y     yi x + xy )
                                                 ¯ ¯¯
                     n
                 =       (xi      x)(yi
                                  ¯           y)
                                              ¯                      - (2b)
                     n
                                                            20
回帰直線とcosθ
(2a), (2b)式を(2)に代入してaを得る。
       (xi     x)(yi y )
                ¯    ¯
 a=
             (xi x)2
                  ¯

(1)式に代入し、bを得る。
 b=y
   ¯   a¯
        x
             (xi     x)(yi y )
                      ¯     ¯
  =y
   ¯                           ¯
                               x
                   (xi x)
                        ¯ 2



a, bより回帰直線が下記の様に求まる。
       (xi     x)(yi y )
                ¯     ¯            (xi     x)(yi y )
                                            ¯     ¯
 y=                      x+y
                           ¯                         ¯
                                                     x       - (3)
             (xi x)
                  ¯ 2                    (xi x)
                                              ¯ 2



        y                                       y
                                                                     回帰直線

                                                    x                重心  y )
                                                                       (¯, ¯
                                                                        x

        0                x                      0        x




                                              21
回帰直線とcosθ
相関係数:線形関係にどれだけ近いかを示す値。
下図において回帰直線と点との差(赤線部)が小さいほど線形関係に近い。
→ 二乗和の比を利用して表す(定義。平行移動後の状態を利用する)。


・平行移動後の回帰直線をr(x)とすると、

             r(xi x)2
                   ¯
  R2 =                  - (4)
             (yi y )2
                  ¯



                                           (xi   ¯
                                                 x, y i   y)
                                                          ¯
  y                       y                                     y = r(x)


         x                                        (xi     ¯
                                                          x, r(xi   x))
                                                                    ¯

                          0
                              x
  0             x                      x
                                                                      x


                                  22
回帰直線とcosθ
(3)式よりr(x)は下記の様に求まり、(4)式を整理する。
                  (xi     x)(yi y )
                           ¯     ¯
 r(x) =                             x
                        (xi x)
                             ¯ 2


              r(xi x)2
                    ¯
 R =
  2
              (yi y )2
                   ¯
                  P
                      (xi x)(yi y )
                       P ¯       ¯
              (          (xi x)2
                              ¯     (xi    x))2
                                           ¯
      =
                            (yi y )2
                                  ¯
              P
          (   (xi x)(yi y ))2
               P ¯        ¯
              ( (xi x)
                     ¯ 2 )2          (xi    x)2
                                            ¯
      =
               (yi y )2
                    ¯
        ( (xi x)(yi y ))2
               ¯      ¯
      =
         (xi x)2 (yi y )2
             ¯          ¯

したがって、相関係数Rは下記の様に求まる。

                        (xi     x)(yi
                                ¯           y)
                                            ¯
 R=
                   (xi        x)2
                              ¯           (yi     y )2
                                                  ¯           p.13で求めたcosθと同じ式が得られた




                                                         23
おまけのまとめ

    ・相関係数:線形関係にどれだけ近いかを示す値。
     → 二乗和の比を利用して表す(定義)
    ・回帰直線からcosθと同じ値が得られた



・まとめの一言

    時には、定義から相関係数を導ける事も必要でしょう。
普段は、相関係数=cosθとベクトルと共にイメージ出来れば十分です。




                24
参考文献

・相関係数
http://ja.wikipedia.org/wiki/%E7%9B%B8%E9%96%A2%E4%BF
%82%E6%95%B0


・5 回帰直線(1)
http://www.kwansei.ac.jp/hs/z90010/sugakuc/toukei/rp4/rp4.htm




                              25

More Related Content

What's hot

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly
Deep Learning JP
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
Toru Imai
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
Yuichiro MInato
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
Yusuke Uchida
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
hoxo_m
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画までShunji Umetani
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
Deep Learning JP
 
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 

What's hot (20)

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
 
【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly【DL輪読会】Factory: Fast Contact for Robotic Assembly
【DL輪読会】Factory: Fast Contact for Robotic Assembly
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
非制約最小二乗密度比推定法 uLSIF を用いた外れ値検出
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで組合せ最適化入門:線形計画から整数計画まで
組合せ最適化入門:線形計画から整数計画まで
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~分散学習のあれこれ~データパラレルからモデルパラレルまで~
分散学習のあれこれ~データパラレルからモデルパラレルまで~
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 

Similar to ベクトルで理解する相関係数

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
sleepy_yoshi
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
Shin Asakawa
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1Kohta Ishikawa
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
Junki Marui
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)Mizuguchi1205
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)
Kazuhiro Suga
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
Akira Asano
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
Akira Asano
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
Akira Asano
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
裕樹 奥田
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
kunihikokaneko1
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
Akira Asano
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
Kota Mori
 
C03
C03C03
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
Kei Uchiumi
 

Similar to ベクトルで理解する相関係数 (20)

8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
量子アニーリング解説 1
量子アニーリング解説 1量子アニーリング解説 1
量子アニーリング解説 1
 
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
【DBDA勉強会2013】Doing Bayesian Data Analysis Chapter 16: Metric Predicted Variab...
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)
 
【材料力学】3次元空間のひずみ (II-11 2018)
【材料力学】3次元空間のひずみ  (II-11 2018)【材料力学】3次元空間のひずみ  (II-11 2018)
【材料力学】3次元空間のひずみ (II-11 2018)
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
2014年度春学期 画像情報処理 第13回 Radon変換と投影定理 (2014. 7. 16)
 
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
2014年度秋学期 応用数学(解析) 第4部・複素関数論ダイジェスト / 第12回 複素関数・正則関数 (2014. 12. 18)
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
2015年度秋学期 応用数学(解析) 第12回 複素関数・正則関数 (2015. 12. 10)
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布wq-1. ポアソン分布、指数分布、アーラン分布
wq-1. ポアソン分布、指数分布、アーラン分布
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
2015年度春学期 画像情報処理 第13回 Radon変換と投影定理
 
さくっと線形代数
さくっと線形代数さくっと線形代数
さくっと線形代数
 
C03
C03C03
C03
 
Crfと素性テンプレート
Crfと素性テンプレートCrfと素性テンプレート
Crfと素性テンプレート
 

Recently uploaded

FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
Sony - Neural Network Libraries
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
NTT DATA Technology & Innovation
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
Fukuoka Institute of Technology
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
yassun7010
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
atsushi061452
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
iPride Co., Ltd.
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 

Recently uploaded (16)

FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdfFIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
FIDO Alliance Osaka Seminar: LY-DOCOMO-KDDI-Mercari Panel.pdf
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 
【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow【AI論文解説】Consistency ModelとRectified Flow
【AI論文解説】Consistency ModelとRectified Flow
 
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
YugabyteDB適用に向けた取り組みと隠れた魅力 (DSS Asia 2024 発表資料)
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
 
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
単腕マニピュレータによる 複数物体の同時組み立ての 基礎的考察 / Basic Approach to Robotic Assembly of Multi...
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdfFIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
FIDO Alliance Osaka Seminar: PlayStation Passkey Deployment Case Study.pdf
 
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
2024年度_サイバーエージェント_新卒研修「データベースの歴史」.pptx
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdfFIDO Alliance Osaka Seminar: Welcome Slides.pdf
FIDO Alliance Osaka Seminar: Welcome Slides.pdf
 
FIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdfFIDO Alliance Osaka Seminar: CloudGate.pdf
FIDO Alliance Osaka Seminar: CloudGate.pdf
 
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdfFIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
FIDO Alliance Osaka Seminar: NEC & Yubico Panel.pdf
 
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
論文紹介: Offline Q-Learning on diverse Multi-Task data both scales and generalizes
 
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その2) 2024/05/24の勉強会で発表されたものです。
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 

ベクトルで理解する相関係数