Successfully reported this slideshow.
Your SlideShare is downloading. ×

Hong&Page(2012): Some Microfoundations of Collective Wisdom

Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Upcoming SlideShare
To Do Green 3 au 9 sept 2012
To Do Green 3 au 9 sept 2012
Loading in …3
×

Check these out next

1 of 21 Ad

More Related Content

Advertisement

Hong&Page(2012): Some Microfoundations of Collective Wisdom

  1. 1. . ...... Some Microfoundations of Collective Wisdom Lu Hong & Scott E. Page Collective Wisdom: Principles and Mechanisms (2012), Chap. 3 小野 滋 (インサイト・ファクトリー) CWPM 読書会 : 2013/05/07 (誤字訂正版) 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 1 / 21
  2. 2. I. イントロダクション 本稿では、集合知を次のように狭く定義する: 「予測課題における群衆の パフォーマンスが、その中にいる人々のパフォーマンスよりも良いこと」。 集合知の論理的・統計的基盤については次のことがよく知られている: 群衆による平均的な予測は、群衆の平均的メンバーによる予測より も 常に 優れている。 群衆による予測は、その いかなる 単一メンバーによる予測よりも (ないし、そのほとんどの単一メンバーによる予測よりも)、優れて いる。 しかし、理論と現実とのあいだには大きなギャップがある。これは、従来 の理論があまりに簡素だった (starkness) せいである。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 2 / 21
  3. 3. I. イントロダクション 政治学・経済学における標準的モデル (統計 モデル) では、 個々人の予測は、個々人が受け取る統計的信号として捉えることがで きる。その信号は、真値と誤差からなる。誤差は互いに独立である。 従って、信号が集約されると、大数法則により誤差がキャンセルさ れる。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 3 / 21
  4. 4. I. イントロダクション 本稿で我々は、集合知の存在と欠如を説明するもっとリッチなモデルに ついて述べる (認知 モデル)。このモデルでは、 それぞれの個人は予測モデルを持っている。個々人の予測は、個々 人が受け取る統計的信号として捉えることができるが、その値は 人々の世界解釈に依存している。 群衆による予測は、人々の頭のなかの予測モデルのある種の平均で ある。 集合知が出現するためには、人々の予測モデルが洗練されているか、 多様であるか、のどちらかが必要である。 多様性が集合知をもたらすのは、多様なモデルにより予測の間に負の相 関が生じ、そのせいで平均した結果が良くなるからである。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 4 / 21
  5. 5. I. イントロダクション なお、 本稿では、戦略的投票のような strategic な問題には触れない。 本稿では、統計モデルと認知モデルについてのみ触れる (「多様なモ デルが集合知を生む」と主張しつつも...)。集合知が発生する条件に ついてさらに深く明確に理解するためには、歴史的、経験的、社会 学的、心理学的、実験的、計算的モデルが必要である。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 5 / 21
  6. 6. II. 集合知の統計モデル 個人の集合を N = {1, . . . , n} とする。予測する結果を θ ∈ Θ とする。 yes-no 判断 (分類課題 と呼ぶ) では Θ = {0, 1}、なにかの量についての判 断 (推定課題 と呼ぶ) では Θ = [0, inf] である。 統計モデルの観点からは、個人による予測や意見は、個人が受け取る信 号として捉えられる。これを 生成信号 と呼ぶことにする。 個人の信号 (予測や意見) はある分布から抽出された確率変数として捉え られる。個人 i の信号を si ∈ Θ, その分布を fi (·|θ) とする。 個人 i の信号の平方誤差を SqE(si ) = (si − θ)2 とする。 平均平方誤差 を SqE(⃗s) = (1/n) ∑n i=1(si − θ)2 とする。 集合的予測を、信号の平均 c = (1/n) ∑n i=1 si と仮定する。 予測多様性 を、予測の分散 PDiv(⃗s) = (1/n) ∑n i=1(si − c)2 で表す。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 6 / 21
  7. 7. II. 集合知の統計モデル . 定理 (多様性予測定理) .. ...... 集合的予測の平方誤差は、平均平方誤差から予測多様性を引いたもので ある∗。 SqE(c) = SqE(⃗s) − PDiv(⃗s) . 系 (群衆は平均に勝つ法則) .. ...... 集合的予測の平方誤差は、その群衆に属する個人の平方誤差の平均と同 じか、それを下回る。 ∗ 難しそうでびびりましたが、母平均 θ の確率変数 s について (¯s − θ)2 = (1/n) ∑ (s − θ)2 − Var(s) だ、ということだと思います 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 7 / 21
  8. 8. II. 集合知の統計モデル 個人 i における信号の平均を µi とする。そのバイアスを bi = (µi − θ), 分散を vi = E[(si − µi )2] とする。 個人 i の平方誤差の期待値は、バイアスと分散に分解できる: E(si − θ)2 = (µi − θ)2 + E(si − µi )2 同じ分解が集団においても成り立つ∗: E[SqE(c)] = [ 1 n n∑ i=1 (µi − θ) ]2 + E [ 1 n n∑ i=1 (si − µi ) ]2 第 2 項をさらに分解して... ∗ 原文 (p.62) に誤記があるような気がしたので、勝手に直しました 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 8 / 21
  9. 9. II. 集合知の統計モデル 平均バイアス を ¯b = (1/n) ∑n i=1(µi − θ) とする。 平均分散を ¯V = (1/n) ∑n i=1 E[si − µi ]2 とする。 平均共分散を ¯C = 1 n(n − 1) n∑ i=1 ∑ j̸=i E[si − µi ][sj − µj ] とする。 . 定理 (バイアス-分散-共分散分解 (BVC 分解)) .. ...... E[SqE(c)] = ¯b2 + 1 n ¯V + n − 1 n ¯C 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 9 / 21
  10. 10. II. 集合知の統計モデル BVC 分解定理によれば、個人内の分散の平均 ¯V が増せば、集合的予測の 平均誤差 SqE(c) も増す。これはいっけん多様性予測定理と矛盾するよう にみえるが (PDiv(⃗s) が増えると SqE(c) が減る)、矛盾していない。なぜ なら: 信号の分散が変われば共分散も変わるから。たとえばここに 2 人い て、信号の分散がそれぞれ v だったとしよう。かつ、2 人の信号のあ いだに完全な負相関があったとしよう。 ¯V = v, ¯C = −v であり、個 人差に由来する誤差は消失する。さて、信号の分散が増えたとしよ う。負の共分散も増えるので、個人差に由来する誤差はやはり消失 する。 多様性予測定理における PDiv(⃗s) は、個人における信号の実現値と、 集合的予測のあいだの差を測っているから。バイアスを無視して考 えれば、PDiv(⃗s) が大きいということは個人間で負の相関があると いうことだ。BVC 定理によれば、そのとき SqE(c) は減る。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 10 / 21
  11. 11. II. 集合知の統計モデル . 系 (大集団の正確性) .. ...... それぞれの個人において、平均バイアスが ¯b = 0、平均分散 ¯V に上限が あり、平均共分散 ¯C が 0 以下であるとき、個人の数が無限大に近づくほ ど、集団の平方誤差の期待値は 0 に近づく。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 11 / 21
  12. 12. III. 集合知の認知モデル 認知モデルの観点からは、個人はモデルに基づく予測を行う。これを 解釈信号 と呼ぶことにする。 世界の状態の集合を X とする。 個人 i は解釈 Φi = {ϕi1, ϕi2, . . . , ϕim} を持つ。解釈は世界の状態の集合 の一部であり、その個人にとっての X のカテゴリに等しい。(例: 「政治 家」を「保守」と「リベラル」に分けて捉える) 世界の状態 x が、個人 i の解釈において属しているカテゴリを Φi (x) とす る。任意の x について Φi (x) ⊆ Φj (x) であるとき、i は j よりも洗練され ているという∗。 ∗ 通常わたしたちが用いる意味での「洗練」「熟達」とは、ずいぶん異なる定義だとい う気がします 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 12 / 21
  13. 13. III. 集合知の認知モデル それぞれの可能な状態を結果に対応づける結果関数を F : X → Θ とする。 個人は予測モデル Mi : X → Θ を持つ。予測モデルはカテゴリを結果に マップする関数である。Φi (x) = Φi (y) のときそのときに限り、 Mi (x) = Mi (y) である。 予測モデルの出力、すなわち予測は、信号ではあるが、ある分布から抽 出された確率変数ではない。 集合的予測を、信号の平均 ¯M(x) = 1 n ∑ Mi (x) とする。∗ ∗ 原文の数式は平均ではなく合計になっていました。勝手に直しました 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 13 / 21
  14. 14. III. 集合知の認知モデル 例: X は 3 つの二値変数 x1, x2, x3 からなっている。実は F(x) = x1 + x2 + x3 である。個人 i は xi にだけ注目し、それが 0 のとき 1, 1 のとき 2 と予測する。 x1 x2 x3 F(x) M1(x) M2(x) M3(x) ¯M(x) SqE( ¯M) 0 0 0 0 1 1 1 1 1 0 0 1 1 1 1 2 4/3 1/9 0 1 0 1 1 2 1 4/3 1/9 1 0 0 1 2 1 1 4/3 1/9 0 1 1 2 1 2 2 5/3 1/9 1 0 1 2 2 1 2 5/3 1/9 1 1 0 2 2 2 1 5/3 1/9 1 1 1 3 2 2 2 2 1 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 14 / 21
  15. 15. III. 集合知の認知モデル この例を統計モデルの観点からみてみよう。ここでは、F(x) = 1 である 3 つの状態についてのみ考える。 x1 x2 x3 F(x) M1(x) Error(M1) SqE(M1) ¯M(x) Error( ¯M) SqE( ¯M) 0 0 1 1 1 0 0 4/3 1/3 1/9 0 1 0 1 1 0 0 4/3 1/3 1/9 1 0 0 1 2 1 1 4/3 1/3 1/9 期待値 1 4/3 1/3 1/3 4/3 1/3 1/9 それぞれの個人の解釈信号における平方誤差の期待値は 1/3 である。し かし集団における平方誤差の期待値は 1/9 である。 このような結果が得られたのは、この 3 つの状態において、解釈信号の 共分散が負だったからである (どの 2 人の間でも −1/9)。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 15 / 21
  16. 16. III. 集合知の認知モデル {1, 2, . . . m} におけるすべての i と j において以下が成り立つとき、個人 1 と 2 の解釈信号は独立な解釈に基づくという。 Prob(ϕ1j ∩ ϕ2i ) = Prob(ϕ1j ) × Prob(ϕ2i ) Hong & Page(2007, Working Paper) は、一定の制約のもとでの分類課題 において、解釈信号が独立な解釈に基づくとき、それらは負の相関を持 つことを示している。 . 定理 .. ...... F : X → {0, 1} のとき、それぞれの結果が予測される頻度が等しく、個人 の予測が 1/2 以上の確率で正しいならば、独立な解釈に基づく解釈信号 は負の相関を持つ。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 16 / 21
  17. 17. III. 集合知の認知モデル 統計モデルが誤差の期待値に注目し、それを生成信号のバイアス・誤差・ 相関の関数として捉えようとする。これに対して、認知モデルは予測モ デルにおける偶然性を仮定しない。 そのおかげで、次のように問うことができる: 集合知が生じるためには、 何が正しくないといけないか? 次の 2 つの条件が必要である。 個人の解釈が集まったときに結果関数 F(x) を近似できるくらいに、 解釈が細かくなければならない。 結果関数は個人の予測の線形結合でなければならない。 後者は非常に強い制約であり、そのため群衆が正しく予測できる結果は 制限される。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 17 / 21
  18. 18. IV. 認知モデルにおける洗練と多様性 統計モデルにおいては、 洗練はバイアスと誤差、多様性は相関であらわされる。 個人の数が無限に近づくほど、(バイアスがなければ) 集団の予測は 正確になる。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 18 / 21
  19. 19. IV. 認知モデルにおける洗練と多様性 認知モデルにおいては、 洗練はカテゴリの数とサイズであらわされる。個人が洗練されるほ ど群衆は知的になる。 「多様性についていえば、すでに分類課題の場合についてみたよう に、独立な解釈は負の相関を持つ解釈信号を生む。この数学的知見 を拡張して、次のより一般的な洞察が得られる: 解釈が多様であれ ばあるほど、予測は負の相関を持ちやすい。」∗ 個人の数が無限に近づいても集団の予測は正確にならない (個々人が 全く異なる予測モデルを持っていれば別だが)。 ∗ p.69 最後のパラグラフ前半の逐語訳です。すみません、このくだり全く理解できな いです。この資料の p.16 の定理のように、予測のパフォーマンスについて条件づけた場 合には、そういうことがいえるのかもしれないと思いますが... 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 19 / 21
  20. 20. V. 考察 本稿では、集合知のミクロな基盤として認知モデルを提案し、標準的な 統計モデルと比較した。 認知モデルは群衆の狂気を説明する際にも役に立つ。個人の予測モデル が類似しているとき、集団は誤った選択に陥りやすい。 多様性と洗練を引き起こす原因はたくさんある。 多様性の原因としては、アイデンティティのちがい、経験と情報の ちがいが考えられる。 洗練の原因としては、経験、注意、モチベーション、情報が考えら れる。 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 20 / 21
  21. 21. V. 考察 我々は集団内の説得がもたらす影響について論じてこなかった。 統計モデルの観点からは、説得はある個人によりウェイトをつける ことに相当する。理想的には、正確性に比例したウェイトが望まし いが、そのようなウェイトづけは保障されない。 認知モデルの観点からは、説得は個人がほかの人のモデルにより魅 力を感じて自分のモデルを捨てることに相当する。それは往々にし て集団の判断を悪くする。正しいモデルのコピーが追加されるより、 不正確だが他と異なるモデルが追加されるほうが、集団の判断はよ り正しくなる。 おわり 小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 21 / 21

×