2014.11.29 Hijiyama.R 
重回帰分析で 
交互作用効果 
日本学術振興会 
広島大学大学院教育学研究科 
平川真 
@hirakawamakoto
重回帰分析 
✔複数の独立変数で従属変数を予測する 
ŷ = a + b1x1 + b2x2 
x1 
x2 
y 
b1 
b2
交互作用効果 
✔独立変数の効果が他の変数によって変わる 
e.g., *ただしイケメンに限る 
✔調整効果(moderation effect) とも 
z 
調整変数(moderator) 
x y 
xがyに及ぼす影響を、zが調整する
交互作用効果を表現する 
xとzの積を新たな変数としてモデルに加える 
ŷ = a + b1x + b2z + b3xz 
✔右辺をxに注目して整理 
ŷ = (b1 + b3z)x + a + b2z 
⇒ xの傾きが、zの値によっても決まる
積をとる前に中心化 
中心化: 実現値から平均値を引く 
ID x z x_c z_c xz xz_c 
1 1 5 -2 2 5 -4 
2 2 1 -1 -2 2 2 
3 5 4 2 1 20 2 
4 4 2 1 -1 8 -1 
5 1 1 -2 -2 1 4 
6 2 5 -1 2 10 -2 
7 5 2 2 -1 10 -2 
8 4 4 1 1 16 1 
M 3 3 0 0 
しないとx*zとx、zが強く相関⇒ 多重共線の問題 
中心化すると、相関がおさえられる 
← x*z, -x*-z > 0; x*-z, -x*z<0 
xz xz_c 
x .77 .00 
z .54 .00 
x_c .77 .00 
z_c .54 .00
分析手順 
1) 変数の中心化 
2) 交互作用項を加えて重回帰分析 
3) 単純傾斜(simple slope)の検定 
zの任意の値(平均±1SD) でxの効果を検討 
⇒基準を±1SDにずらして重回帰分析を実施
分析データ 
仮想データ(n=175) 
測定変数: 
✔相手が好意を伝達してくる程度(独立変数: appeal) 
✔相手の外見的魅力(調整変数: nice) 
✔相手に対する好意度(従属変数: like) 
RQ: 
好意を伝達してくる程度が好意度に及ぼす影響は、 
外見的魅力によって調整されるか??
変数の中心化 
データセットのappealという変数からappealの平均を引き、 
appeal_cという変数を作成しなさい、という意味 
na.rm = T は欠損値を省く、という意味
重回帰分析 
lm関数を使用lm (従~ 独1 + 独2 + ・・・, データの指定)
重回帰分析 
独立変数に中心化した変数を入れる 
交互作用をみたい変数を“:”でつなぐ
単純傾斜の検定 
+1SD変数は(平均+1SD) を引いて作成 
- 1SD変数は(平均-1SD) を引いて作成
単純傾斜の検定
標準化係数が出したいです 
標準化したデータセットで分析する
標準化係数が出したいです 
+ 1SD -1 SD
pequodパッケージ 
大文字!! 
独立変数調整変数
pequodパッケージ

重回帰分析で交互作用効果

Editor's Notes

  • #2  連続変量で変数を測定した場合でも、分散分析のように要因間の交互作用効果に興味があることも多い。 従来ではそれらの変数を高群・低群のように2値化してから分散分析を行ってきたが、データ効率の悪さと検出力の低さなどから、最近ではこのような方法は推奨されていない。 そこで、変数の連続性を残したままで、交互作用効果を検討する方法を紹介する。
  • #3 重回帰分析とは、複数の独立変数で従属変数を予測する分析です モデルはこんな感じです。
  • #4 今回、重回帰分析で交互作用を検討するわけですが、交互作用効果のおさらいです。 交互作用効果があるということは、独立変数の効果が他の変数によって変わるということです。 具体例はこれです。 この「なんてね」という言葉の背後に隠された意味は、皆さんご存知の、「ただしイケメンに限る」というやつです。 好意を伝達されてうれしくなるという、好意の伝達がうれしさに及ぼす影響は、好意を伝達してくる相手がイケメンかどうかという他の変数によってかわる。かわる可能性がある。 ということを「ただしイケメンに限る」という言葉は端的に表しています。
  • #5 さて、重回帰モデルで、交互作用を表現するやり方ですが、 一般的なものは、2つの変数の席をモデルに加えるというものです。 なぜこれが交互作用効果を表しているのかですが、 つまり、重回帰式に積項を加えるというわりと簡単な操作で、重回帰分析で交互作用効果を検討することができます。
  • #6 ただし、積をとるまえに中心化を行う必要があります。 中心化は、その変数の個人の得点からその変数の全体平均値を引くことで行います。 中心化の作業を行わないと 2つの変数の積であるxzは当然、もとの変数x, z と関連してしまいます。 xが高いとxzも高くなってしまうということです。 で、独立変数間に高い相関があると多重共線の問題が生じてしまいます。 素点を使って積項を作成すると、変数間に強い相関が生じてしまいますので、それをおさえるために中心化という作業が必要なわけです。
  • #7 単純傾斜の検定は、心理学の領域では調整変数の±1SDで検討されるのが主流です