Advertisement
Advertisement

More Related Content

Slideshows for you(20)

Advertisement

Recently uploaded(20)

Advertisement

(実験心理学徒だけど)一般化線形混合モデルを使ってみた

  1. 一般化線形混合モデルを使ってみた 広島大学 教育学研究科 学習心理学研究室 山根 嵩史 2015.05.23 Hijiyama.R #2 実験心理学徒 だけど
  2. 自己紹介 氏名 : 山根 嵩史 所属 : 広島大学大学院 教育学研究科 教育人間科学専攻 学習心理学研究室 研究テーマ : メタ記憶,読解方略 R歴:5年程度 Mail : t.yamane1969@gmail.com Twitter : @T_Yamane 最近ハマっていること:ねこあつめ(iPhoneアプリ)
  3. お品書き 【一般化線形混合モデル(GLMM)とは】  一般化線形混合モデル(GLMM)とは  GLMMを使う理由 【RでGLMMを実行する】  lme4パッケージの使い方  GLMMでANOVA
  4. 一般化線形混合モデル(GLMM)とは 線形モデル(LM) いわゆる回帰分析や重回帰分析 一般化線形モデル(GLM) 従属変数のデータの分布として,正規分布以外 の 確率分布を仮定できる 一般化線形混合モデル(GLMM) 独立変数以外に従属変数に影響を与えている 可能性のある“変量効果”(e.g., 個体差) をモデル に
  5. GLMMを使う理由 心理学界隈でも周知されつつある 日本社会心理学 春の方法論セミナー 「なぜ今GLMMなのか」 竹澤正哲 先生 “これまで様々な道具を使い分けて分析していたデータ は、GLMMひとつで分析できてしまう” “項目を変量効果として扱わないと,同一項目に回答す る参加者が増えるほど,タイプⅠエラーが増加する” (http://www.socialpsychology.jp/sympo/seminar_150325.html)
  6. (僕が)GLMMを使う理由 実験計画最高!分散分析最高! ANOVA君さん!! ...と思っていました
  7. Murayama, Sakaki, Yan, & Smith (2014) “メタ記憶研究では参加者ごとに判断の正確さを 算出し,その後グループごとのt検定などを実施 することが多いが,項目の効果を加味しないと タイプ1エラーの確率がインフレするよ” (僕が)GLMMを使う理由
  8. (僕が)GLMMを使う理由
  9. 第7回DARM勉強会 「混合モデルを使って反復測定分散分析をす る」 (ANOVA君さんの)井関龍太 先生 “分散分析を色々な状況に適応させようと すると,既存の分散分析モデルだけでは 対応しきれない” (https://sites.google.com/site/studygroup13csrm/activity) (僕が)GLMMを使う理由
  10. やろう! GLMM!! → まずは分散分析をGLMMで実行してみる (間違いを見つけたらご指摘ください...) (僕が)GLMMを使う理由
  11. RでGLMMを実行する RでGLMMを実行できるパッケージはいくつか存 在 ・lme4パッケージ ・glmmMLパッケージ ・glmmパッケージ ⇒ lme4のglmer関数がお勧め 複数の変量効果を指定できる ※glmmMLとlme4の比較については清水先生のサイトを参照 (http://norimune.net/2365)
  12. glmer関数の使い方 いわゆるRのモデル式の描き方 y ~ A + B + A:B 「*」で主効果と交互作用を一度に指定できる 変量効果は(1|X)で指定する 参加者(subject)による違いを表す場合 →(1|subject) 刺激項目(stim)による違いを表す場合→(1|stim) family引数では従属変数の分布を指定 0/1データや上限のあるカウントデータでは binominal glmer(モデル式, data=データ, family = “分布”, ...)
  13. データの説明 ・学習→再認課題を行う記憶実験 ・1要因3水準(方略使用ナシ/方略1/方略2)の参加者間計画 ・従属変数は再認課題の正答/誤答(1/0)の二値のデータ ※一般的な記憶研究では,各参加者の正答率を算出して水準ごとに比較 GLMMで一要因ANOVA
  14. GLMMで一要因ANOVA(モデル式) glmer(correct ~ ST1 + ST2 + (1|subject) + (1|item), data = dat1, family = “binomial”) 統制群(方略使用ナシ群)に対する2つの記憶方略 の 効果を見るため,ST1とST2をダミー変数と して使用 変量効果として参加者(subject)と項目(item)を投 入 ※一般的な記憶研究では,参加者はランダムサンプリングし, 項目は基準表から選定することで対処 従属変数は二値なので,分布は“binominal”
  15. GLMMで一要因ANOVA(出力) summary関数で結果を出力 Random effect 切片および傾きが,投入した変 量効果においてどれだけばらつ いていたかの情報が出力される Fixed effect 今回は切片とST2が有意 記憶方略2のみ記憶成績に対し て効果があった
  16. 通常の一要因ANOVAと比較 (直接比較はできないものの)結果が違う...! そもそも正答率のような確率に対を分散分析の対 象にするのは疑問の余地がある
  17. データの説明 ・学習→再認課題を行う記憶実験 ・方略使用(使用あり/ナシ)×学習項目(有意味語/無意味 語) の2要因参加者間計画 ・従属変数は再認課題の正答/誤答(1/0)の二値のデータ GLMMで二要因ANOVA
  18. GLMMで二要因ANOVA(モデル式) glmer(correct ~ strategy*mean + (1|subject) + (1|item), data = dat2, family ="binomial") 2要因の交互作用を検討するため,主効果に加え て交互作用項を投入 その際,ダミー変数が0だと都合が悪いため中心 化 変量効果として参加者(subject)と項目(item)を投 入 従属変数は二値なので,分布は“binominal”
  19. GLMMで二要因ANOVA(出力) summary関数で結果を出力 交互作用が有意
  20. GLMMで二要因ANOVA(下位検定) 各条件での比較を行うためのダミー変数を作成 有意味語条件の出力 無意味語条件の出力 有意味語条件でのみ方略の効果が有意
  21. まとめ 従来のANOVAでは, (特に記憶研究においては) 従属変数が何らかの確率である場合が多かった GLMMであればカテゴリカルデータを扱えるので 情報も多いし,個人の特性や項目の特性のような 変量効果もモデルに組み込むことができる 従来も項目の効果を加味した分析は行われてきた が( F1×F2分析),変量効果として扱うことで検 定の多重性などの問題を回避できる
  22. 今後はGLMMで? そうは言っても,研究計画脳から脱するのは容易で ないかも... “線形モデル”の考え方が徐々に浸透していくのを期 待 ※glmer関数は推定結果が微妙という報告も この辺りはSASが強い(らしい)
  23. 参考文献 ・第2回日本社会心理学会春の方法論セミナー:GLMMが切り開く新たな統計 の世界 (http://www.socialpsychology.jp/sympo/seminar_150325.html) ・第7回DARM勉強会:混合モデルを使って反復測定分散分析をする (https://sites.google.com/site/studygroup13csrm/activity) ・Sunny side up!:GLMMをRで実行する方法 (http://norimune.net/2365) ・Bates Douglas, Maechler Martin, Bolker Ben, Walker Steven, Bojesen Christensen Rune, Singmann Henrik, B. D. (2015). Package “lme4.” ・久保拓弥(著) (2012). データ解析のための統計モデリング入門―一般化線形 モデ ル・階層ベイズモデル・MCMC 岩波書店 ・Murayama, K., Sakaki, M., Yan, V. ., & Smith, G. (n.d.). Type-1 error inflation in the traditional by-participant analysis to metamemory accuracy : A generalized mixed-effects model perspective, Journal of Experimental Psychology: Learning, Memory, & Cognition, 24 参考サイト

Editor's Notes

  1. ・声量確認
  2. ・声量確認
  3. ・声量確認
  4. ・声量確認
  5. ・声量確認
  6. ・声量確認
  7. ・声量確認
  8. ・声量確認
  9. ・声量確認
  10. ・声量確認
  11. ・声量確認
  12. ・声量確認
  13. ・声量確認
  14. ・声量確認
  15. ・声量確認
  16. ・声量確認
  17. ・声量確認
  18. ・声量確認
  19. ・声量確認
  20. ・声量確認
  21. ・声量確認
  22. ・声量確認
  23. ・声量確認
Advertisement