Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
.......Some Microfoundations of Collective WisdomLu Hong & Scott E. PageCollective Wisdom: Principles and Mechanisms (2012...
I. イントロダクション本稿では、集合知を次のように狭く定義する: 「予測課題における群衆のパフォーマンスが、その中にいる人々のパフォーマンスよりも良いこと」。集合知の論理的・統計的基盤については次のことがよく知られている:群衆による平均的な予...
I. イントロダクション政治学・経済学における標準的モデル (統計 モデル) では、個々人の予測は、個々人が受け取る統計的信号として捉えることができる。その信号は、真値と誤差からなる。誤差は互いに独立である。従って、信号が集約されると、大数法則...
I. イントロダクション本稿で我々は、集合知の存在と欠如を説明するもっとリッチなモデルについて述べる (認知 モデル)。このモデルでは、それぞれの個人は予測モデルを持っている。個々人の予測は、個々人が受け取る統計的信号として捉えることができるが...
I. イントロダクションなお、本稿では、戦略的投票のような strategic な問題には触れない。本稿では、統計モデルと認知モデルについてのみ触れる (「多様なモデルが集合知を生む」と主張しつつも...)。集合知が発生する条件についてさらに深...
II. 集合知の統計モデル個人の集合を N = {1, . . . , n} とする。予測する結果を θ ∈ Θ とする。yes-no 判断 (分類課題 と呼ぶ) では Θ = {0, 1}、なにかの量についての判断 (推定課題 と呼ぶ) では...
II. 集合知の統計モデル.定理 (多様性予測定理)........集合的予測の平方誤差は、平均平方誤差から予測多様性を引いたものである∗。SqE(c) = SqE(⃗s) − PDiv(⃗s).系 (群衆は平均に勝つ法則)........集合...
II. 集合知の統計モデル個人 i における信号の平均を µi とする。そのバイアスを bi = (µi − θ),分散を vi = E[(si − µi )2] とする。個人 i の平方誤差の期待値は、バイアスと分散に分解できる:E(si −...
II. 集合知の統計モデル平均バイアス を ¯b = (1/n)∑ni=1(µi − θ) とする。平均分散を ¯V = (1/n)∑ni=1 E[si − µi ]2 とする。平均共分散を¯C =1n(n − 1)n∑i=1∑j̸=iE[si...
II. 集合知の統計モデルBVC 分解定理によれば、個人内の分散の平均 ¯V が増せば、集合的予測の平均誤差 SqE(c) も増す。これはいっけん多様性予測定理と矛盾するようにみえるが (PDiv(⃗s) が増えると SqE(c) が減る)、矛...
II. 集合知の統計モデル.系 (大集団の正確性)........それぞれの個人において、平均バイアスが ¯b = 0、平均分散 ¯V に上限があり、平均共分散 ¯C が 0 以下であるとき、個人の数が無限大に近づくほど、集団の平方誤差の期待値...
III. 集合知の認知モデル認知モデルの観点からは、個人はモデルに基づく予測を行う。これを解釈信号 と呼ぶことにする。世界の状態の集合を X とする。個人 i は解釈 Φi = {ϕi1, ϕi2, . . . , ϕim} を持つ。解釈は世界...
III. 集合知の認知モデルそれぞれの可能な状態を結果に対応づける結果関数を F : X → Θ とする。個人は予測モデル Mi : X → Θ を持つ。予測モデルはカテゴリを結果にマップする関数である。Φi (x) = Φi (y) のときそ...
III. 集合知の認知モデル例: X は 3 つの二値変数 x1, x2, x3 からなっている。実はF(x) = x1 + x2 + x3 である。個人 i は xi にだけ注目し、それが 0 のとき1, 1 のとき 2 と予測する。x1 x...
III. 集合知の認知モデルこの例を統計モデルの観点からみてみよう。ここでは、F(x) = 1 である3 つの状態についてのみ考える。x1 x2 x3 F(x) M1(x) Error(M1) SqE(M1) ¯M(x) Error( ¯M) ...
III. 集合知の認知モデル{1, 2, . . . m} におけるすべての i と j において以下が成り立つとき、個人1 と 2 の解釈信号は独立な解釈に基づくという。Prob(ϕ1j ∩ ϕ2i ) = Prob(ϕ1j ) × Prob...
III. 集合知の認知モデル統計モデルが誤差の期待値に注目し、それを生成信号のバイアス・誤差・相関の関数として捉えようとする。これに対して、認知モデルは予測モデルにおける偶然性を仮定しない。そのおかげで、次のように問うことができる: 集合知が生...
IV. 認知モデルにおける洗練と多様性統計モデルにおいては、洗練はバイアスと誤差、多様性は相関であらわされる。個人の数が無限に近づくほど、(バイアスがなければ) 集団の予測は正確になる。小野 滋 (インサイト・ファクトリー) Hong & Pa...
IV. 認知モデルにおける洗練と多様性認知モデルにおいては、洗練はカテゴリの数とサイズであらわされる。個人が洗練されるほど群衆は知的になる。「多様性についていえば、すでに分類課題の場合についてみたように、独立な解釈は負の相関を持つ解釈信号を生む...
V. 考察本稿では、集合知のミクロな基盤として認知モデルを提案し、標準的な統計モデルと比較した。認知モデルは群衆の狂気を説明する際にも役に立つ。個人の予測モデルが類似しているとき、集団は誤った選択に陥りやすい。多様性と洗練を引き起こす原因はたく...
V. 考察我々は集団内の説得がもたらす影響について論じてこなかった。統計モデルの観点からは、説得はある個人によりウェイトをつけることに相当する。理想的には、正確性に比例したウェイトが望ましいが、そのようなウェイトづけは保障されない。認知モデルの...
Upcoming SlideShare
Loading in …5
×

Hong&Page(2012): Some Microfoundations of Collective Wisdom

1,300 views

Published on

  • Be the first to comment

Hong&Page(2012): Some Microfoundations of Collective Wisdom

  1. 1. .......Some Microfoundations of Collective WisdomLu Hong & Scott E. PageCollective Wisdom: Principles and Mechanisms (2012), Chap. 3小野 滋 (インサイト・ファクトリー)CWPM 読書会 : 2013/05/07 (誤字訂正版)小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 1 / 21
  2. 2. I. イントロダクション本稿では、集合知を次のように狭く定義する: 「予測課題における群衆のパフォーマンスが、その中にいる人々のパフォーマンスよりも良いこと」。集合知の論理的・統計的基盤については次のことがよく知られている:群衆による平均的な予測は、群衆の平均的メンバーによる予測よりも 常に 優れている。群衆による予測は、その いかなる 単一メンバーによる予測よりも(ないし、そのほとんどの単一メンバーによる予測よりも)、優れている。しかし、理論と現実とのあいだには大きなギャップがある。これは、従来の理論があまりに簡素だった (starkness) せいである。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 2 / 21
  3. 3. I. イントロダクション政治学・経済学における標準的モデル (統計 モデル) では、個々人の予測は、個々人が受け取る統計的信号として捉えることができる。その信号は、真値と誤差からなる。誤差は互いに独立である。従って、信号が集約されると、大数法則により誤差がキャンセルされる。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 3 / 21
  4. 4. I. イントロダクション本稿で我々は、集合知の存在と欠如を説明するもっとリッチなモデルについて述べる (認知 モデル)。このモデルでは、それぞれの個人は予測モデルを持っている。個々人の予測は、個々人が受け取る統計的信号として捉えることができるが、その値は人々の世界解釈に依存している。群衆による予測は、人々の頭のなかの予測モデルのある種の平均である。集合知が出現するためには、人々の予測モデルが洗練されているか、多様であるか、のどちらかが必要である。多様性が集合知をもたらすのは、多様なモデルにより予測の間に負の相関が生じ、そのせいで平均した結果が良くなるからである。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 4 / 21
  5. 5. I. イントロダクションなお、本稿では、戦略的投票のような strategic な問題には触れない。本稿では、統計モデルと認知モデルについてのみ触れる (「多様なモデルが集合知を生む」と主張しつつも...)。集合知が発生する条件についてさらに深く明確に理解するためには、歴史的、経験的、社会学的、心理学的、実験的、計算的モデルが必要である。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 5 / 21
  6. 6. II. 集合知の統計モデル個人の集合を N = {1, . . . , n} とする。予測する結果を θ ∈ Θ とする。yes-no 判断 (分類課題 と呼ぶ) では Θ = {0, 1}、なにかの量についての判断 (推定課題 と呼ぶ) では Θ = [0, inf] である。統計モデルの観点からは、個人による予測や意見は、個人が受け取る信号として捉えられる。これを 生成信号 と呼ぶことにする。個人の信号 (予測や意見) はある分布から抽出された確率変数として捉えられる。個人 i の信号を si ∈ Θ, その分布を fi (·|θ) とする。個人 i の信号の平方誤差を SqE(si ) = (si − θ)2 とする。平均平方誤差 を SqE(⃗s) = (1/n)∑ni=1(si − θ)2 とする。集合的予測を、信号の平均 c = (1/n)∑ni=1 si と仮定する。予測多様性 を、予測の分散 PDiv(⃗s) = (1/n)∑ni=1(si − c)2 で表す。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 6 / 21
  7. 7. II. 集合知の統計モデル.定理 (多様性予測定理)........集合的予測の平方誤差は、平均平方誤差から予測多様性を引いたものである∗。SqE(c) = SqE(⃗s) − PDiv(⃗s).系 (群衆は平均に勝つ法則)........集合的予測の平方誤差は、その群衆に属する個人の平方誤差の平均と同じか、それを下回る。∗難しそうでびびりましたが、母平均 θ の確率変数 s について(¯s − θ)2= (1/n)∑(s − θ)2− Var(s) だ、ということだと思います小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 7 / 21
  8. 8. II. 集合知の統計モデル個人 i における信号の平均を µi とする。そのバイアスを bi = (µi − θ),分散を vi = E[(si − µi )2] とする。個人 i の平方誤差の期待値は、バイアスと分散に分解できる:E(si − θ)2= (µi − θ)2+ E(si − µi )2同じ分解が集団においても成り立つ∗:E[SqE(c)] =[1nn∑i=1(µi − θ)]2+ E[1nn∑i=1(si − µi )]2第 2 項をさらに分解して...∗原文 (p.62) に誤記があるような気がしたので、勝手に直しました小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 8 / 21
  9. 9. II. 集合知の統計モデル平均バイアス を ¯b = (1/n)∑ni=1(µi − θ) とする。平均分散を ¯V = (1/n)∑ni=1 E[si − µi ]2 とする。平均共分散を¯C =1n(n − 1)n∑i=1∑j̸=iE[si − µi ][sj − µj ]とする。.定理 (バイアス-分散-共分散分解 (BVC 分解))........E[SqE(c)] = ¯b2+1n¯V +n − 1n¯C小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 9 / 21
  10. 10. II. 集合知の統計モデルBVC 分解定理によれば、個人内の分散の平均 ¯V が増せば、集合的予測の平均誤差 SqE(c) も増す。これはいっけん多様性予測定理と矛盾するようにみえるが (PDiv(⃗s) が増えると SqE(c) が減る)、矛盾していない。なぜなら:信号の分散が変われば共分散も変わるから。たとえばここに 2 人いて、信号の分散がそれぞれ v だったとしよう。かつ、2 人の信号のあいだに完全な負相関があったとしよう。 ¯V = v, ¯C = −v であり、個人差に由来する誤差は消失する。さて、信号の分散が増えたとしよう。負の共分散も増えるので、個人差に由来する誤差はやはり消失する。多様性予測定理における PDiv(⃗s) は、個人における信号の実現値と、集合的予測のあいだの差を測っているから。バイアスを無視して考えれば、PDiv(⃗s) が大きいということは個人間で負の相関があるということだ。BVC 定理によれば、そのとき SqE(c) は減る。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 10 / 21
  11. 11. II. 集合知の統計モデル.系 (大集団の正確性)........それぞれの個人において、平均バイアスが ¯b = 0、平均分散 ¯V に上限があり、平均共分散 ¯C が 0 以下であるとき、個人の数が無限大に近づくほど、集団の平方誤差の期待値は 0 に近づく。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 11 / 21
  12. 12. III. 集合知の認知モデル認知モデルの観点からは、個人はモデルに基づく予測を行う。これを解釈信号 と呼ぶことにする。世界の状態の集合を X とする。個人 i は解釈 Φi = {ϕi1, ϕi2, . . . , ϕim} を持つ。解釈は世界の状態の集合の一部であり、その個人にとっての X のカテゴリに等しい。(例: 「政治家」を「保守」と「リベラル」に分けて捉える)世界の状態 x が、個人 i の解釈において属しているカテゴリを Φi (x) とする。任意の x について Φi (x) ⊆ Φj (x) であるとき、i は j よりも洗練されているという∗。∗通常わたしたちが用いる意味での「洗練」「熟達」とは、ずいぶん異なる定義だという気がします小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 12 / 21
  13. 13. III. 集合知の認知モデルそれぞれの可能な状態を結果に対応づける結果関数を F : X → Θ とする。個人は予測モデル Mi : X → Θ を持つ。予測モデルはカテゴリを結果にマップする関数である。Φi (x) = Φi (y) のときそのときに限り、Mi (x) = Mi (y) である。予測モデルの出力、すなわち予測は、信号ではあるが、ある分布から抽出された確率変数ではない。集合的予測を、信号の平均 ¯M(x) = 1n∑Mi (x) とする。∗∗原文の数式は平均ではなく合計になっていました。勝手に直しました小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 13 / 21
  14. 14. III. 集合知の認知モデル例: X は 3 つの二値変数 x1, x2, x3 からなっている。実はF(x) = x1 + x2 + x3 である。個人 i は xi にだけ注目し、それが 0 のとき1, 1 のとき 2 と予測する。x1 x2 x3 F(x) M1(x) M2(x) M3(x) ¯M(x) SqE( ¯M)0 0 0 0 1 1 1 1 10 0 1 1 1 1 2 4/3 1/90 1 0 1 1 2 1 4/3 1/91 0 0 1 2 1 1 4/3 1/90 1 1 2 1 2 2 5/3 1/91 0 1 2 2 1 2 5/3 1/91 1 0 2 2 2 1 5/3 1/91 1 1 3 2 2 2 2 1小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 14 / 21
  15. 15. III. 集合知の認知モデルこの例を統計モデルの観点からみてみよう。ここでは、F(x) = 1 である3 つの状態についてのみ考える。x1 x2 x3 F(x) M1(x) Error(M1) SqE(M1) ¯M(x) Error( ¯M) SqE( ¯M)0 0 1 1 1 0 0 4/3 1/3 1/90 1 0 1 1 0 0 4/3 1/3 1/91 0 0 1 2 1 1 4/3 1/3 1/9期待値 1 4/3 1/3 1/3 4/3 1/3 1/9それぞれの個人の解釈信号における平方誤差の期待値は 1/3 である。しかし集団における平方誤差の期待値は 1/9 である。このような結果が得られたのは、この 3 つの状態において、解釈信号の共分散が負だったからである (どの 2 人の間でも −1/9)。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 15 / 21
  16. 16. III. 集合知の認知モデル{1, 2, . . . m} におけるすべての i と j において以下が成り立つとき、個人1 と 2 の解釈信号は独立な解釈に基づくという。Prob(ϕ1j ∩ ϕ2i ) = Prob(ϕ1j ) × Prob(ϕ2i )Hong & Page(2007, Working Paper) は、一定の制約のもとでの分類課題において、解釈信号が独立な解釈に基づくとき、それらは負の相関を持つことを示している。.定理........F : X → {0, 1} のとき、それぞれの結果が予測される頻度が等しく、個人の予測が 1/2 以上の確率で正しいならば、独立な解釈に基づく解釈信号は負の相関を持つ。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 16 / 21
  17. 17. III. 集合知の認知モデル統計モデルが誤差の期待値に注目し、それを生成信号のバイアス・誤差・相関の関数として捉えようとする。これに対して、認知モデルは予測モデルにおける偶然性を仮定しない。そのおかげで、次のように問うことができる: 集合知が生じるためには、何が正しくないといけないか?次の 2 つの条件が必要である。個人の解釈が集まったときに結果関数 F(x) を近似できるくらいに、解釈が細かくなければならない。結果関数は個人の予測の線形結合でなければならない。後者は非常に強い制約であり、そのため群衆が正しく予測できる結果は制限される。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 17 / 21
  18. 18. IV. 認知モデルにおける洗練と多様性統計モデルにおいては、洗練はバイアスと誤差、多様性は相関であらわされる。個人の数が無限に近づくほど、(バイアスがなければ) 集団の予測は正確になる。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 18 / 21
  19. 19. IV. 認知モデルにおける洗練と多様性認知モデルにおいては、洗練はカテゴリの数とサイズであらわされる。個人が洗練されるほど群衆は知的になる。「多様性についていえば、すでに分類課題の場合についてみたように、独立な解釈は負の相関を持つ解釈信号を生む。この数学的知見を拡張して、次のより一般的な洞察が得られる: 解釈が多様であればあるほど、予測は負の相関を持ちやすい。」∗個人の数が無限に近づいても集団の予測は正確にならない (個々人が全く異なる予測モデルを持っていれば別だが)。∗p.69 最後のパラグラフ前半の逐語訳です。すみません、このくだり全く理解できないです。この資料の p.16 の定理のように、予測のパフォーマンスについて条件づけた場合には、そういうことがいえるのかもしれないと思いますが...小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 19 / 21
  20. 20. V. 考察本稿では、集合知のミクロな基盤として認知モデルを提案し、標準的な統計モデルと比較した。認知モデルは群衆の狂気を説明する際にも役に立つ。個人の予測モデルが類似しているとき、集団は誤った選択に陥りやすい。多様性と洗練を引き起こす原因はたくさんある。多様性の原因としては、アイデンティティのちがい、経験と情報のちがいが考えられる。洗練の原因としては、経験、注意、モチベーション、情報が考えられる。小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 20 / 21
  21. 21. V. 考察我々は集団内の説得がもたらす影響について論じてこなかった。統計モデルの観点からは、説得はある個人によりウェイトをつけることに相当する。理想的には、正確性に比例したウェイトが望ましいが、そのようなウェイトづけは保障されない。認知モデルの観点からは、説得は個人がほかの人のモデルにより魅力を感じて自分のモデルを捨てることに相当する。それは往々にして集団の判断を悪くする。正しいモデルのコピーが追加されるより、不正確だが他と異なるモデルが追加されるほうが、集団の判断はより正しくなる。おわり小野 滋 (インサイト・ファクトリー) Hong & Page (2012) CWPM 読書会 : 2013/05/07 21 / 21

×