Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
オープン化を手掛かりに
AIと人間の関係を考える
渡辺智暁
慶應義塾大学 大学院 政策・メディア研究科
第10回AI社会論研究会
2016.02.29 於:grooves (東京)
自己紹介
オープン化関連
・ウィキペディア
・CC
・OE
・OD/OKFJ
・ブロードバンド・インフラのオープン化
・ユニバーサル・サービスとイノベーション
・政策・規制への市民参加
・マルチステークホルダー・プロセスによる政策の性質向上
・...
本日の構成
・オープン化について
・人間のように扱ってよいのか?
・知見に頼ってよいのか?
・企業を規制しなくてよいのか?
AIに関するオープン化の問い
・AIは人間の社会にとって異質な存在
人間社会をAIに対してオープン化することにメリットはあるか?
・AIの生み出す知は人間にとって異質な知
そのような知を採用することにメリットはあるか?
・AIを開発する企業は、...
オープン化とは何か?
(今回の議論においては)
従来よりも多数・多様な者の関与が可能になること
参加の機会や権利、影響力などが分散されること
オープン化とオープン性
オープン・ソース、オープン・ライセンスなどの議論では、オー
プンかそうでないか、という二元的な枠組みで境界線が議論され
る
「オープン化」はオープンな度合いの変化(増加)。オープン化
が多少進んでも以前として閉鎖的、とい...
様々な議論:イノベーションの観点から
・クラウド・ソーシング
多数が参加することの効果
優れた解を持つ者がいる、コラボレーション→洗練
・オープン・イノベーション
組織の外部と協力することの効果
内製しづらい資源の調達等
・インクルーシブ・デザ...
政治的・思想的含意
・参加・透明性
・主体的な関与、自分ゴト化(Sense of Ownership)
・包摂・寛容性
※直接は触れず、イノベーション/経済的損得の観点から考察し
たい
オープン化は様々な適用方法がある
教育のオープン化
・単位や学位の発行主体への規制を緩和する
・教材のオープン・ライセンシング
・授業の受講を一般に開放する
※すべてのオープン化が有効というわけではない
※オープンであればあるほど効果が高いとい...
ICTはオープン化の費用対効果を改善
多数・多様な者の情報の収集・集約コスト
コラボレーションやカスタマイゼーションのコスト
(パートナー探索、コーディネーション等)
組織外とのコラボレーションのコスト
…
→「従来よりもオープンな方式が最適」...
オープン化の典型的なコスト
・予測可能性や制御可能性の低減
(何がどうなるかわからない、という不安の増加)
・ノイズの増加
(質の低い貢献も増える)
・悪意を持った関与者への脆弱性
(乗っ取り、妨害工作にさらされる度合いが増加)
AI(+ロボット)をめぐる状況
選択肢の増大
・人の介在なしに決定や動作を実現できる
・これまでとは異なるルートから知恵を借りられる
コスト
・人に任せておく方が安心なのではないか?
・その知恵は危険なものではないか?
これらのコストは深刻では...
AI搭載ロボットによる介護・慰撫
1.「ケアは人の手によるべきだ」
・歯ブラシや櫛や電動髭剃りは、「人の手」ではない
・AIやそれを組み込んだロボットも、道具である
・一律排除ではなく少なくとも選択の自由はあってよい
・人間によるケアは常に高価。どこまでを公的に補償するかの議
...
2.「AIを組み込んだロボットは道具と
いうよりも、人に類する存在に見える。
その誤解に基づく愛着が虚しい。」
・犬や鳥などの動物、ぬいぐるみ、亡くなった家族の写真、映画や小
説の登場人物、・・・人はしばしば、「生身の人間に通じるところも
あり...
3.「被介護者は孤独にさらされ、尊厳
が損なわれる」
・介護は欝や殺人をもたらすもの
・軽重様々な虐待も起きているだろう
・誰でもがどのような介護であっても引き受けられる度量や境遇
にあるわけではない
→機械や物によるケアは、人間によるものより...
物なのか、者なのか?
・個人的直観では物に過ぎない
・だが、他人の意識があるかどうかは、突き詰めていくと確証が
持てない
・その意味ではわからなさがある
・脳と意識の密接な関連に照らすと、脳を持たない以上ロボット
は物
・だが脳の働きだけでは意...
社会的な位置づけ
・実際に人間であるかはともかく、様々な対象に情が移るのが人
の性でもあるのでは。愛着を感じ、意識や感情や尊厳があるかの
ように扱う。
・ぬいぐるみ、肖像写真、虚構のキャラクター、ペットの犬猫や
鳥等
・「愛車」などにも
・ロボ...
小まとめ
・人間が既に人以外の物・者と関係を持ちながら生きている現状
と比較して、AI搭載ロボットによる介護や慰撫は、ひどいもので
はない。
・人間の生は既に異質な存在を含んでおり、AIは際立って異質と
いうわけではない
・一方、ぬいぐるみや肖...
もうひとつの問題:責任の所在
「責任の所在が明確にならないから、導入しない方がよい」
・自然人の責任:自由意志と自己決定の虚構
・酩酊状態、心神喪失状態などの自然人の責任
・法人の責任:人格性の虚構
・「ロボットの使用者・所有者の責任」もこれと...
AI搭載ロボット医師による診断・治療
データ起点の知の活用
・「理由はともかくこの療法を実践している人は、あの症状が軽
減されている」という知見が機序についての説明・解明を伴わ
ずに採用される
・「よくわからないが雨の木曜には牛乳が売れる」
このような知の氾濫は社会を危機に陥れるか?
データ起点の知
・理論的説明は必ずしも伴わない「経験則」のような知
(i.e. 大規模シミュレーションではなく、ディープラーニングを
想定)
・データ(経験則の元になる経験)の偏りも不明
・人間から見て不可解・不正確な分析枠組み・中間概念が生成...
1.「経験則は危険」
「データにパターンが見つかったからと言って、それが意味のあ
る知見であるとは限らない。過信して決定・行動することは危
険。」
・ICT関連なら「生産性のパラドクス」や「景気循環」など、経
験則の先行はこれまでも多々あった。...
(補論)理論なき経験則と仮説検証
・仮説検証に基づく知の生成は、仮説を導出する元になる理論はある
・理論を否定するべきタイミングについては基準が立てにくい
(cf.ポパーの反証主義への批判)
・仮説検証型の研究によって生成される知が、そうでない...
2.「データの偏りが不明で危険」
・「代表性のないサンプル→偏った知見」
・データの偏りは旧来の仮説検証型の研究でも結構不明・問題
社会科学分野のデータには、非常に多くの困難がある。
・回答率が低い、回答者が偏る、…
・記憶が曖昧、質問への理解...
3.「決定を委ねることは危険」
「判断材料の一つならよい」
・AIよりも信頼性の高い判断の手続きがあるかどうか、という比
較の問題ではないか。
・薬学分野のように慎重な検証手続きの存在する領域も確かにあ
る。
・社会政策のように変数が多く、その...
4.「意味不明・誤った概念による論」
※大いに迷うポイント。
・「コレステロールは身体に悪い」「化学物質は摂取しない方が
いい」のような誤った概念は人間も相当使ってはいる。
・専門家の決定にも、ヒューリスティックスは用いられている。
・が、ある...
小まとめ
・ディープラーニング系のAIの生み出す知は、明らかな問題があ
る。
・より模範的な仮説検証型の実証研究でも、別の明らかな問題が
あることが多い。
・判断材料の一つとしては、参考になるだろう。
・判断を委任してよいかどうかは、領域と、当...
もうひとつの論点:個人情報の扱い
・「自分が欲しいと意識していなかったものを、AIが教えてくれる」
・「自分の不利益になるような利用をされるのではないか?」
・個人情報も、自己コントロールを弱め、オープン化することで、
様々な恩恵が得られる
・...
AI産業の構造(おまけ)
「巨大独占企業が全てを制するのでは・・・?」
3.データ産業の不透明さ
・大企業による独占かも?
規模の経済(データ収集・分析が競争力に)
一部でネットワーク効果による一人勝ちも
→放置してよい独占もある
参入障壁が低ければ、放置でいいだろう
多少有害でも、介入すると事態を悪化させる(政府...
データ産業の不透明さ
・範囲の経済があるのでは?
広範囲のデータを集めほど競争力に
計算能力も様々に活用できる
・データは組織間の壁を越えにくい、共有や提供を渋る、買い手
も売り手も値段を決めにくい(取引の法的・心理的・経済的な
障壁)
→コン...
データ産業の不透明さ
・知の利用や流通が少ない社会になるか?
ガバナンス的にそれで大丈夫か?(先述)
データも、AIも、ロボットも汎用性が高いのに、特定少数の企業
だけだと、用途も発想も限られてしまうかも。
(社会の逸失利益が大きいのでは?)
...
3つの切り口
1.ロボットの人間にとっての異質性
2.AIが生む洞察の知としての異質性
知としての不透明性
3.データをめぐる産業の不透明性
異質性→その程度の異質性なら大丈夫。
不透明性→実現するなら懸念材料かも?
Upcoming SlideShare
Loading in …5
×

20160229 オープン化を手掛かりにAIと人間の関係を考える

試論

  • Be the first to comment

20160229 オープン化を手掛かりにAIと人間の関係を考える

  1. 1. オープン化を手掛かりに AIと人間の関係を考える 渡辺智暁 慶應義塾大学 大学院 政策・メディア研究科 第10回AI社会論研究会 2016.02.29 於:grooves (東京)
  2. 2. 自己紹介 オープン化関連 ・ウィキペディア ・CC ・OE ・OD/OKFJ ・ブロードバンド・インフラのオープン化 ・ユニバーサル・サービスとイノベーション ・政策・規制への市民参加 ・マルチステークホルダー・プロセスによる政策の性質向上 ・オープンライセンシング、オープン化によるイノベーション推進策 ・モノ作りのオープン化
  3. 3. 本日の構成 ・オープン化について ・人間のように扱ってよいのか? ・知見に頼ってよいのか? ・企業を規制しなくてよいのか?
  4. 4. AIに関するオープン化の問い ・AIは人間の社会にとって異質な存在 人間社会をAIに対してオープン化することにメリットはあるか? ・AIの生み出す知は人間にとって異質な知 そのような知を採用することにメリットはあるか? ・AIを開発する企業は、経済にとって脅威 そのような企業を許容することにメリットはあるか? 概ね心配ない、という(試)論
  5. 5. オープン化とは何か? (今回の議論においては) 従来よりも多数・多様な者の関与が可能になること 参加の機会や権利、影響力などが分散されること
  6. 6. オープン化とオープン性 オープン・ソース、オープン・ライセンスなどの議論では、オー プンかそうでないか、という二元的な枠組みで境界線が議論され る 「オープン化」はオープンな度合いの変化(増加)。オープン化 が多少進んでも以前として閉鎖的、ということも原理的にはあり うる。
  7. 7. 様々な議論:イノベーションの観点から ・クラウド・ソーシング 多数が参加することの効果 優れた解を持つ者がいる、コラボレーション→洗練 ・オープン・イノベーション 組織の外部と協力することの効果 内製しづらい資源の調達等 ・インクルーシブ・デザイン 排除されている者と協業することの効果 発想の転換、原点への立ち返り
  8. 8. 政治的・思想的含意 ・参加・透明性 ・主体的な関与、自分ゴト化(Sense of Ownership) ・包摂・寛容性 ※直接は触れず、イノベーション/経済的損得の観点から考察し たい
  9. 9. オープン化は様々な適用方法がある 教育のオープン化 ・単位や学位の発行主体への規制を緩和する ・教材のオープン・ライセンシング ・授業の受講を一般に開放する ※すべてのオープン化が有効というわけではない ※オープンであればあるほど効果が高いというわけでもない
  10. 10. ICTはオープン化の費用対効果を改善 多数・多様な者の情報の収集・集約コスト コラボレーションやカスタマイゼーションのコスト (パートナー探索、コーディネーション等) 組織外とのコラボレーションのコスト … →「従来よりもオープンな方式が最適」という領域が増える IoTの実現に伴うセンサーの分散もこの傾向を強めるだろう
  11. 11. オープン化の典型的なコスト ・予測可能性や制御可能性の低減 (何がどうなるかわからない、という不安の増加) ・ノイズの増加 (質の低い貢献も増える) ・悪意を持った関与者への脆弱性 (乗っ取り、妨害工作にさらされる度合いが増加)
  12. 12. AI(+ロボット)をめぐる状況 選択肢の増大 ・人の介在なしに決定や動作を実現できる ・これまでとは異なるルートから知恵を借りられる コスト ・人に任せておく方が安心なのではないか? ・その知恵は危険なものではないか? これらのコストは深刻ではない、という試論
  13. 13. AI搭載ロボットによる介護・慰撫
  14. 14. 1.「ケアは人の手によるべきだ」 ・歯ブラシや櫛や電動髭剃りは、「人の手」ではない ・AIやそれを組み込んだロボットも、道具である ・一律排除ではなく少なくとも選択の自由はあってよい ・人間によるケアは常に高価。どこまでを公的に補償するかの議 論もありうるだろう。
  15. 15. 2.「AIを組み込んだロボットは道具と いうよりも、人に類する存在に見える。 その誤解に基づく愛着が虚しい。」 ・犬や鳥などの動物、ぬいぐるみ、亡くなった家族の写真、映画や小 説の登場人物、・・・人はしばしば、「生身の人間に通じるところも ありつつ実際にはそうでない者」達と共に生きている。 ・AI搭載ロボットが仮にそこに加わることに、新しさ・異質さはない だろう。 ※ぬいぐるみや文鳥に語りかけて慰みを見出す者は虚しい、という意 見の者はロボットについても同じ意見を持つだろう。 とは言え、だからロボットを排除しろ、は行き過ぎではないか。
  16. 16. 3.「被介護者は孤独にさらされ、尊厳 が損なわれる」 ・介護は欝や殺人をもたらすもの ・軽重様々な虐待も起きているだろう ・誰でもがどのような介護であっても引き受けられる度量や境遇 にあるわけではない →機械や物によるケアは、人間によるものよりも、心理的にもダ メージが少ない可能性がある ・下の世話、清拭など「恥」に関わる感覚もある ・負担をかけることへの「負い目」もある →気遣い不要であることのメリットも機械にはある
  17. 17. 物なのか、者なのか? ・個人的直観では物に過ぎない ・だが、他人の意識があるかどうかは、突き詰めていくと確証が 持てない ・その意味ではわからなさがある ・脳と意識の密接な関連に照らすと、脳を持たない以上ロボット は物 ・だが脳の働きだけでは意識が説明し切れないようでもある ・そうするとやはり、物だと思っている存在に意識がないと断言 できないようでもある。
  18. 18. 社会的な位置づけ ・実際に人間であるかはともかく、様々な対象に情が移るのが人 の性でもあるのでは。愛着を感じ、意識や感情や尊厳があるかの ように扱う。 ・ぬいぐるみ、肖像写真、虚構のキャラクター、ペットの犬猫や 鳥等 ・「愛車」などにも ・ロボットがそこに加わることが人間の在り方としておかしい、 というほどではない。 ※世代による感受性の違いはもちろんあるだろう。
  19. 19. 小まとめ ・人間が既に人以外の物・者と関係を持ちながら生きている現状 と比較して、AI搭載ロボットによる介護や慰撫は、ひどいもので はない。 ・人間の生は既に異質な存在を含んでおり、AIは際立って異質と いうわけではない ・一方、ぬいぐるみや肖像写真や犬や人間にはない利点もある。 →分業の問題はあるとしても、排除を正当化するほどの異質性は ないだろう。
  20. 20. もうひとつの問題:責任の所在 「責任の所在が明確にならないから、導入しない方がよい」 ・自然人の責任:自由意志と自己決定の虚構 ・酩酊状態、心神喪失状態などの自然人の責任 ・法人の責任:人格性の虚構 ・「ロボットの使用者・所有者の責任」もこれと比較して虚構性 が大きいとも限らない ・自然災害や病気の責任:所在がない被害も存在する。 ※被害者救済の制度を用意するかどうかは別問題
  21. 21. AI搭載ロボット医師による診断・治療
  22. 22. データ起点の知の活用 ・「理由はともかくこの療法を実践している人は、あの症状が軽 減されている」という知見が機序についての説明・解明を伴わ ずに採用される ・「よくわからないが雨の木曜には牛乳が売れる」 このような知の氾濫は社会を危機に陥れるか?
  23. 23. データ起点の知 ・理論的説明は必ずしも伴わない「経験則」のような知 (i.e. 大規模シミュレーションではなく、ディープラーニングを 想定) ・データ(経験則の元になる経験)の偏りも不明 ・人間から見て不可解・不正確な分析枠組み・中間概念が生成・ 利用されることもある ・参照されるデータは膨大 ・分析枠組みは複雑で膨大
  24. 24. 1.「経験則は危険」 「データにパターンが見つかったからと言って、それが意味のあ る知見であるとは限らない。過信して決定・行動することは危 険。」 ・ICT関連なら「生産性のパラドクス」や「景気循環」など、経 験則の先行はこれまでも多々あった。 ・手がかりとしては使えるものは何でも使うのが吉
  25. 25. (補論)理論なき経験則と仮説検証 ・仮説検証に基づく知の生成は、仮説を導出する元になる理論はある ・理論を否定するべきタイミングについては基準が立てにくい (cf.ポパーの反証主義への批判) ・仮説検証型の研究によって生成される知が、そうでない知に比べて 信頼性が高いという原理的な保証はなさそう →現実的には、科学者の生み出す知が、それ以外のものに比べて信頼 性が高い傾向にあるように感じる。それは生成手続きが認識論的な保 証を与えているわけではないのでは? 科学者の規範や、科学者集団の制度など、知をめぐるガバナンスま で含めて出ているパフォーマンスではないか?
  26. 26. 2.「データの偏りが不明で危険」 ・「代表性のないサンプル→偏った知見」 ・データの偏りは旧来の仮説検証型の研究でも結構不明・問題 社会科学分野のデータには、非常に多くの困難がある。 ・回答率が低い、回答者が偏る、… ・記憶が曖昧、質問への理解が多様、誇張や虚偽の回答を招く規 範意識、… ・質問が中立的ではない、分析手法に分析者の偏りが入る、…
  27. 27. 3.「決定を委ねることは危険」 「判断材料の一つならよい」 ・AIよりも信頼性の高い判断の手続きがあるかどうか、という比 較の問題ではないか。 ・薬学分野のように慎重な検証手続きの存在する領域も確かにあ る。 ・社会政策のように変数が多く、その連関が複雑過ぎて、十分な 実証研究が困難な領域もかなり多い。 →領域によっては警戒が必要だが、専門家の領域であれば、その 警戒を忘れるような盲信が起こりやすいわけでもなさそう
  28. 28. 4.「意味不明・誤った概念による論」 ※大いに迷うポイント。 ・「コレステロールは身体に悪い」「化学物質は摂取しない方が いい」のような誤った概念は人間も相当使ってはいる。 ・専門家の決定にも、ヒューリスティックスは用いられている。 ・が、ある説・結論を人間の理解・納得できる概念群で説明でき るもののみを受け入れるべき、か?(そういう慎重な領域設定が 必要では) ・受益者の自己決定にどこまでを委ね、AIへの委任禁止のような パターナリズムをどこまで適用するか?
  29. 29. 小まとめ ・ディープラーニング系のAIの生み出す知は、明らかな問題があ る。 ・より模範的な仮説検証型の実証研究でも、別の明らかな問題が あることが多い。 ・判断材料の一つとしては、参考になるだろう。 ・判断を委任してよいかどうかは、領域と、当事者の意向による のではないか ・様々なデータを収集し、その解析結果を様々な場面で活用でき る機会は、拡大している
  30. 30. もうひとつの論点:個人情報の扱い ・「自分が欲しいと意識していなかったものを、AIが教えてくれる」 ・「自分の不利益になるような利用をされるのではないか?」 ・個人情報も、自己コントロールを弱め、オープン化することで、 様々な恩恵が得られる ・「自己決定」よりも「他者による決定」が優れているということも 出てくる。(医療などを考えると新しい現象ではない) ・では、分散的決定の優越性についてのハイエクのような主張はAIの 発達を前提にするとどこまで後退するのか? (cf ベルの社会計画構想)
  31. 31. AI産業の構造(おまけ) 「巨大独占企業が全てを制するのでは・・・?」
  32. 32. 3.データ産業の不透明さ ・大企業による独占かも? 規模の経済(データ収集・分析が競争力に) 一部でネットワーク効果による一人勝ちも →放置してよい独占もある 参入障壁が低ければ、放置でいいだろう 多少有害でも、介入すると事態を悪化させる(政府の失敗)も ある →事業・市場の性質や介入の選択肢等の具体的検討がまずは必要。 (よくある話)
  33. 33. データ産業の不透明さ ・範囲の経済があるのでは? 広範囲のデータを集めほど競争力に 計算能力も様々に活用できる ・データは組織間の壁を越えにくい、共有や提供を渋る、買い手 も売り手も値段を決めにくい(取引の法的・心理的・経済的な 障壁) →コングロマリット化が生じないか? 特定少数の企業だけがデータを扱い、解析を担う経済は望まし いか?
  34. 34. データ産業の不透明さ ・知の利用や流通が少ない社会になるか? ガバナンス的にそれで大丈夫か?(先述) データも、AIも、ロボットも汎用性が高いのに、特定少数の企業 だけだと、用途も発想も限られてしまうかも。 (社会の逸失利益が大きいのでは?) →これでも大丈夫なのか、懸念材料。
  35. 35. 3つの切り口 1.ロボットの人間にとっての異質性 2.AIが生む洞察の知としての異質性 知としての不透明性 3.データをめぐる産業の不透明性 異質性→その程度の異質性なら大丈夫。 不透明性→実現するなら懸念材料かも?

×