Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

シンギュラリティ以前

8,497 views

Published on

カーツワイルは人工知能が人間の能力を追い抜き、その後は差が開くばかりになるというシンギュラリティが起こるのが2045年と予測しています。しかし、それ以前でも人工知能の能力の増大は続き、様々な問題が生じることが予測されています。ここでは、シンギュラリティが起こる前の世界において予想される問題、解決の方向性や可能性についてまとめてみました。

Published in: Social Media
  • Be the first to comment

シンギュラリティ以前

  1. 1. シンギュラリティ以前 - 人工知能と社会 - 改訂版 中川裕志
  2. 2. 主な参考書 • R.カーツワイル:ポスト・ヒューマン誕生 ,NHK 出版,2005 • J.バラット:人工知能 人類最後にして最悪の 発明, ダイヤモンド社, 2013 • J.マルコフ: 人工知能は敵か味方か, 日経BP 社,2015 • T.H.ダベンポート, J.カービー:AI時代の勝者と 敗者,日経BP社,2016
  3. 3. シンギュラリティ以後 のポスト・ヒューマンとは • カーツワイル本によれば、シンギュラリティとは、 – G(遺伝子)、N(ナノテクノロジー)、R(人工知能な どのロボット)の技術が指数関数的に発展し、 – 右図(*)つまり特異点を境に急激な進展をするこ と • カーツワイルはシンギュラリティが2045年に起こ ると予想している。 • ポスト・ヒューマンとは、G、N、Rが特異点に達 した後にそれを取り入れた新バージョンの人間 –  もはや人間ではないという意見もあり 時間 性能 * 特 異 点
  4. 4. ポスト・ヒューマンのイメージ ヒューマン1.0 つまり現代人 微少なカーボンナノチューブなど でできたナノロボットが血流に注 入され、疾病部位の治療、さらに は外界との通信を行う 遺伝子改変によって 病気に罹らなくして、 さらには老化原因の テロメアを改変して老 化しなくなる  不老不死? インターネットを介して知 識を脳に直接ダウンロー ド、あるいは自分の知識 をアップロード ヒューマン2.0 あるいは ポスト・ヒューマン 不老不死、人類の知を全部持つ!、
  5. 5. ポスト・ヒューマン以前 • 前ページのポスト・ヒューマンが本当に可能かどうか議論があります。 – 2014年の計算機科学者のプエルトリコ会議(バイオ研究者が倫理基準を決 めたアシロマ会議の人工知能版)では、不可能だとしています – 人間に埋め込めるナノボットの開発は難事業で、人間をはるかに越えた人 工知能の力が必要という意見もあります – 一方で人間の能力を超えた人工知能ががん細胞のような不滅の無限増殖 能力を持たないようにアポトーシスを組み込むべきという意見もあります。 (バラット本14章) • アポトーシスとは細胞分裂したとき半数は死ぬという現象。人間は毎日700億 個の細胞が死んで垢になります。 – ポスト・ヒューマンが完成する時期、いわゆるシンギュラリティ以前にも人工 知能の発展によって、いろいろな問題が起こると予想されています。 – 以下では主として、シンギュラリティ以前に起こりそうな問題について考えて みます。
  6. 6. 目次 • 研究者コミュニティはどう考えている? • 拡張 対 置き換え • 人工知能が仕事を奪う • 拡張と置き換えの境界 – 自動運転の問題:通称 トロッコ問題 – 忘れられる権利 • ブラックボックス化進行中 – 責任体制 – 多数の人工知能エージェントがネット接続された金融システムの危険性 • 人工知能と軍事 • フィルターバブル • 比喩:利己的な遺伝子 • 人工知能とプライバシー – 忘れられる権利、プロファイリングおよびその拒否 – アンドロイドに気を許すか否か • 再び自意識とアイデンティティ
  7. 7. 研究者コミュニティはどう考えている? • 2009年の計算機科学者たちのアシロマ会議では、 カーツワイルの提唱するような自律した人工知能が存 在する可能性を否定しました(マルコフ本10章) – 2013年のグーグルのディープマインド買収を受けて • 2014年に行なわれた計算機科学者たちのプエルトリ コ会議の結論は、バイオにおけるアシロマ会議に比べ てまったく消極的でした(マルコフ本10章) • 研究者コミュニティに危機意識が足りないという状況 はある人々には相当問題視されているようです。
  8. 8. 拡張 対 置き換え • 人工知能は人間の能力を拡張するのか – IA: Intelligent Assistance • 人工知能は人間に置き換わるのか – AI: Artificial Intelligence • IA vs AI はマルコフ本の基本的視点(第4章にAIの歴史も含めて 素晴らしい記述がある) • IA vs AI は人工知能の創世記である60年前から対立し てきた立場 – AIとIAの夏冬は逆(相補的)。 – AIに行き詰まると研究者はIAに流れる傾向あり – ディープラーニングはIAかAIか?
  9. 9. 人間はループの内か外か • IA vs AI と並行して議論されてきたのは、システムやタスク実行において人 間がループの内側にいるか外側にいるかという設計上の起点 • 内側 だと IA的 – システムは人間の拡張。人間はシステムと共同作業 • 外側 だと AI的 – システムは自律的に動き、人間はシステムに命令するだけ • 外側:AI だと人間はAIにタスク丸投げで、当事者ではなくなります。 – とても楽だけれども、問題が起こっても人間は対処できません • 内側:IAだと、人間はAIの支援を受けながらタスクをこなします。 – だが、人工知能で強化されたシステムを人間が把握しきれるかが怪しい • 内側vs外側のどこで人間は自分の位置に折り合いをつけるか? – 機械と人間の関係で古くからある問題だが、人工知能によって事態が複雑化 してきました。 – ある部分を機械に丸投げするのは、中毒症のような効果を持ってしまうと明ら かに知的退化だし、とても危険のようです。
  10. 10. 人工知能が仕事を奪う • 新しい技術が世に出ると今までの仕事が奪われるという事は、今に始 まったことではなく、産業革命のころから常に問題とされてきました。 – そもそも技術は人間に変わって大変な仕事を肩代わりさせたり、パフォー マンスをよくしたりする目的で開発されているんで、当然の帰結です。 – 幸いにも、ある仕事が奪われるが、別の仕事が出現することで離職者が 溢れるということにはならなかったのでした。 – だから、人工知能の場合も同じだろうという希望的観測があるが – 一方で、今回ばかりは違うかもしれません – なぜなら、 • 人工知能は(特に強い人工知能)は、特殊な分野の処理能力が高いだけではなく、 • 種々の応用分野において柔軟に対処できる汎用性の高いものであり • シンギュラリティ以前でも、そのような柔軟性、汎用性はどんどん高くなっていく  なので、いろいろな仕事が次々に浸食されていきそうです。
  11. 11.  なので、いろいろな仕事が次々に浸食されていきそうです。  実は研究者も危ない  出版される論文数はどんどん増えて100万論文のオーダー。 したがっ て、研究者といえども全部読めるわけがない。  研究者自身に代わって、人工知能に読んでもらい、自分のテーマに関 連する少数に絞り込んでもらう  この時点で、そうとう人工知能依存症が進行。  そうなってくると、論文を書くよりは、データを揃えることが大切で、そこ から先はスキマのテーマ、未開拓のテーマを探すところまで人工知能の お仕事。  そこまでいくと、人工知能の選んだテーマでデータを収集する作業も大 部分は人工知能任せ。  というような道筋を辿るとなると、現代的概念の「研究者」というの は人工知能にとって代わられる可能性あり。  これからの研究者は、人工知能に代替できない研究上のタスクを 見極めないといけない時代になってきています。
  12. 12. 工夫次第では人工知能には奪われな い仕事があるというが • ダベンポート本では、新しい仕事を見つけるための工夫 の仕方を説明していますが、扱っている成功例は、どう 見てもトップレベルの才能ある人たちです。 • 特殊な才能のない一般人に対して、ニッチを狙えだの、 機械ができない対人関係をやれ、だのと説教しても説得 性がないのです。 • 人工知能に職を奪われた才能のない普通の人はどうし たらよいのでしょうか? – 生活保護費をもらって仕事せずに暮らす、というのは財政的 負担だけではなく、本人も無気力化します(ダベンポート第 10章)
  13. 13. 工夫次第では人工知能には奪われな い仕事があるというが • 人工知能に職を奪われた才能のない普通の人はどうしたらよいので しょうか? – 仕事を分け合い、低い所得で暮らさざるをえません。せめて不公平感を なくしたいところです。 – この仕事分配に人工知能による公正な配分システムを使うことを松尾先 生が提案しています。  それが理想の社会主義と松尾先生がお考えのようです  どっちかというと現代のカースト制度に近いような。。。そして、配分された 仕事に文句はいえないように見えます。  「人間も生き物だ。100万人の生き物を管理するのは骨が折れる」(ホンハイ代表 の言葉:ダベンポート本9章)  人工知能=間違いがない という新興宗教のような状態? – こうして、人工知能に文句を言うことができなくなってくると、実質的に言 論の自由も人権もない状況になりかねません  人工知能に対して文句を言える社会制度を考える必要があります。
  14. 14. 既存の技術やシステムを自動化すると • 人工知能が人間に置き換わり、人間が仕事処理 のループの外側に行ってしまうと • いざというとき、自動化されたシステムの代わりを 人間が務めようとしても、普段からやっていなこと はできません – いざというときは人間が介入するといううたい文句はよ く耳にするが実際はできないということです。 • こうして人間が実際の仕事を人工知能に任せきり にしてしまうと
  15. 15. 既存の技術やシステムを自動化すると • こうして人間が実際の仕事を人工知能に任せきりにしてしまう と – 人間はどんどんスキルを忘れるし、後輩に引き継ぐこともできなく なります – 専門スキルが人間から消滅する(仕方ないのかも) – ということから見て、一度、あるタスクを自動化したら、もう後戻りは できないのです。 • 安い労働力目当てで海外に生産拠点を移していた産業が自 動化によって海外メリットが薄れ、国内回帰する例もあるが  自動化で大きな労働人口は必要なくなっているので、仕事が 増えるわけではありません  つまり、自動化は後戻りできない道です
  16. 16. • 自律する人工知能は人間を幸福にしないことが多 いと言えましょう。 – やる気を失う、どんどん能力退化、 – ある人が職を奪われるだけではなく、次世代以降の職 もどんどん減って行く可能性 – 一方で、技術進歩によって増えた職業はあまり多くない。 • 損失した雇用を吸収できるほど多くないのです • こういった状況で、どこまで人工知能を高度化する 自律性を許すか、研究者コミュニティで判断基準 がない状況です – あるいは、そんなことを考えるのは技術進歩の邪魔だ と考える研究者が多いのかもしれないです
  17. 17. • もっとも、人間を置き換えざるをえない状況も多い • 労働者の減少(高齢化など) 自律的な人工知能ロボットを導入する必然性 高齢者介護ロボットは人間にとって役立つし、必要。 子育てロボットの方が難しいけれど、 自動運転車+園児の送り迎えしてくれるロボットがあれ ば、働きながらの子育ては本当に楽になります。 僻地への自律走行型ドローン宅配 模擬試験の自動採点と弱点指摘
  18. 18. 拡張と置き換えの境界 1 • 計算機技術が人間の能力拡張なのか、置き換えなのか  意外に分かりにくいのです • 明白な能力拡張の例 – 介護施設で働く人が装着するパワースーツ – 医師の遠隔治療 – グーグルグラスのような拡張現実感 • 明白な置き換えの例 – 自律型介護ロボット – 自律走行する宅配ロボット – 模擬試験採点+弱点指摘コメント作成のAIシステム
  19. 19. 拡張と置き換えの境界 2 • 計算機技術が人間の能力拡張なのか、置き換えなのか  意外に分かりにくい • 明白でない例 – 確定申告支援システムで、規則や過去の申告例で不明な場合、 利用者に質問してくるシステム – レシピ生成システム。ただし、お代わりや食べ残しの様子を反 映してレシピを利用者の好みに合わせるように変更してくるシ ステム • 嫌な例 – 自動運転車なのに、いざということは人間の介入を要請する人 工知能による自動運転自動車
  20. 20. 拡張と置き換えの境界 3 • 以上のような例を考察してみると • 拡張か置き換えかの境界は、システムの動きあるいは仕掛けが – 利用者の人間に理解、把握、予測できる拡張 – 利用者の人間には全くのブラックボックスであり、理解、把握、予測できない置 き換え • ということで決まってくるのではないでしょうか? • 前ページの明白でない例は、 – システム側が中途半端にしか自律的に動けず、利用者支援を仰ぐ例(確定申告) – 利用者が仕掛けを分かっているかの如く思っているが実は手玉に取られている 例(レシピ) – 自律しているように見せながら、肝心なところで職場放棄する人工知能の例(自 動運転車) • であるため、拡張と置き換えの間に位置してしまう。 • 実は、こういう明白でない例に問題の本質が潜んでいる。
  21. 21. 拡張と置き換えの境界 4 • 拡張と置き換えの間にある明白でない例に問題 の本質が潜んでいます。 • 技術的な解決が難しいなら、当面は法制度を改 善して手当しておく必要があります。 – 事故時の責任主体を決める基準の明確化 – 保険制度の設計 – 典型的な例としては次ページの自動運転車の例が あります
  22. 22. 自動運転の問題:通称 トロッコ問題 自動運転車の前方に突然、子供が飛び出す。 1. 子供を避ければ自車が対抗車線に飛び込み対向車と正面 衝突して即死 2. 直進すれば子供に衝突して子供が死亡 • この状況で自動運転している人工知能はどういう判断を すべきでしょうか? – 人工知能における自動運転のほうが人間のドライバーより圧 倒的に事故率が低いのだから、こういうことに足を取られて 研究、開発、実用化の進行を遅らせるのはナンセンス • という意見の人がAI研究者にはしばしば見受けられます – そういう意見を受け入れたとしても、事故が起きたときのこと を想定しておかないと社会制度としては不備
  23. 23. 自動運転の問題:通称 トロッコ問題 自動運転車の前方に突然、子供が飛び出す。 1. 子供を避ければ自車が対抗車線に飛び込み対向車と正面衝突 して即死 2. 直進すれば子供に衝突して子供が死亡 – そういう意見を受け入れたとしても、事故が起きたときのことを想定 しておかないと社会制度としては不備 – そこで、保険:つまり自動運転向け保険を作る。 – 保険商品を作るに当たっては、人間の価値を金額として査定しな ければならない。そういう議論をAI研究者はタブー視しがちだが、 避けて通れません – 実は,現在でも保険では人間の値付けを生きていた場合の予測生 涯収入として計算しています。 – 問題:トロッコ問題で、人工知能は、子供の生涯予測年収と自分の 生涯予測年収を比較して、1.2.のどちらかを選ぶのでしょうか?
  24. 24. 問題:トロッコ問題で、人工知能は、子供の生涯予測年 収と自分の生涯予測年収を比較して、 1.2.のどちらかを選ぶのでしょうか? • つまり、保険という場を設定しても、トロッコ問題が本 質的に解決するわけではないのです。 – AI研究者はこのあたりに敏感になってほしいところ • むしろ、このような状況が発生しない交通システムを 設計すべきではないでしょうか? – 人間ドライバと人工知能ドライバが同時に存在しないよう なシステム設計などなど – 可能かもしれないが設備投資が高価すぎるかもしれない  でもこうすれば、お金だけの問題になってきました。
  25. 25. もう一つの例:忘れられる権利 • EU司法裁判所の判決でGoogleに対して「忘れられる権利」に基づいて削 除命令が出されました • EU市民からは100万件単位の削除要求が寄せられました。 – 忘れられる権利 vs 知る権利 の比較衡量が必要な問題 • 全部人間の専門家が対応するのは不可能 – 人工知能技術に基づきあらかたの判断をし、真に難しいケースだけ人間の専 門家が処理 – 機械学習は、消去/非消去の例を使って、分類システムを構築。 – 難しいのは、人間の専門家に処理依頼するかどうかの境界の決め方 – この境界を決める部分まで人工知能でできると、人工知能のブラックボックス 化が相当に進行したと言えます。 – 消去/非消去の判断根拠を人間に分かる言葉で説明する技術が当面は重 要です。  人工知能が人間の代りをする場合は、人間に理解できる説明ができる能力を 与えておくことが必須でありましょう。
  26. 26. 技術の現状は既にブラックボックス化 が大きく進行中 • 人間の仕事を自律的AIで置き換えるにせよ、人間の 能力を拡張するにせよ – 開発者に責任はあるはず – だが、既に関係者たちが把握しきれない状態に突入して いるのかもしれません – 関係者: • 人工知能開発者 • 人工知能へ学習に使う素材データを提供した者 • 人工知能製品を宣伝、販売した者 • 人工知能製品を利用する消費者 したがって、事故時の責任の所在を法制度として明確化 しておく必要がある時期になってきています
  27. 27. ブラックボックス化の金融への悪影響 – 人工知能技術のブラックボックス化が社会にリアルな損害を与えています  金融取引(株の売買など)は、既にネットワークを介してエージェントベースで 秒以下の売り買いされる世界です。  エージェントに人工知能が使われています。  人間(トレーダー)が介入して判断するより早く事態は進行します。  世界中の金融センターも似たような状況なので、なにかのトリガがかかると連 鎖反応が瞬時におこり、とんでもないことになります。  2010年5月にギリシアの国債償還困難を予測した金融ソフトが売り注文を出して確 定したとたんに各システムが警戒して投げ売りを開始し、20分間でダウが1000ポ イント下落(バラット本6章、8章)  原因がなかなか分からなかったようです。  ネットで接続された多数の人工知能エージェントが国債や株式の価格という 共通言語を用いて、会話し、最適な行動をした結果と見なせます。  予想外の事態に対する責任の所在を法制度として明確化しておく必要がある時期に なってきていますが、果たして法制度で大丈夫でしょうか?
  28. 28. ブラックボックス化+ネット接続の行き着く先は?  つまり、1個の人工知能では小さな影響しかないようでも、ネット経由で データが交換されると、多数の人工知能が制御不能な動きをしてしまう ことが実例として存在するわけです。  現在の人工知能の倫理はえてして、単独の人工知能が倫理的、道 徳的に行動するかという視点で語られています。  しかし、ネットワークで接続された多数の人工知能たちがかってに動 き出すと、制御不能かつ収集不能になりそうです。  対策は極めて困難です。法律で制御しようとしても、金儲けのためなら かならず抜け穴を見つける奴がいるでしょう。  しかも、その悪事の検証が人間にできる保証はありません。  チェック自体を学習機能を持つ人工知能に任せるような局面が考えら れますが、果たして可能か?  あるいは、状況の把握と評価や判断ができるように学習できると、その 段階で人工知能が自意識を持ってしまわないか?  人工知能の研究者が果たしてこの状況を意識して研究をしているので しょうか?
  29. 29. 人工知能と軍事 • 人工知能の軍事利用は避けることができない なぜなら – 人工知能が部分的にせよ軍事利用されているのはほぼ確実 – 技術として公開されている部分が多いため、どこの国でも容易に技術キャッチ アップできます – 核兵器とちがって、全ては情報ないしデータで表現できるので、インターネットに よる拡散を防げません – テロリストでも独裁国家でも敵国でも、容易に人工知能技術を入手し軍事利用 できます。 • 核兵器技術はソ連が自前開発したのではなく、あちこちからスパイを使って入手したらしい とのこと(バラット本14章)。ましてやインターネットのこの御時世、簡単に拡散 – 人工知能の開発で遅れをとると、軍事的に決定的に不利(とアメリカは思ってい ます)  Russelの意見は傾聴に値します。(Nature 28 May 2015, http://www.nature.com/news/robotics-ethics-of-artificial-intelligence- 1.17611#/russell )
  30. 30. 人工知能と軍事 • 人工知能に倫理性を埋めこめばよいという意見もありますが – 戦争に使うロボットの場合、自軍のロボットが倫理的に動いても、敵軍の ロボットが倫理を無視する場合には、必敗です。 • 人工知能研究予算の多くはDARPAから出ています。 – 冷戦のころはロシア語の文書を大量かつ容易に解読しようとして、大き な機械翻訳の予算が投入された – Siriも開発予算の大きな部分はDARPA – DARPAの予算だから成果は当然、軍事技術に転用されています。 – 本当に重要な技術は、他国に対する優位を保つため、DARPAがclassify するかもしれないのです • しかし、流出する可能性大です – ちなみに人工知能を秘密裏に開発しているのはGoogle(という公然の秘 密。カーツワイルやDARPA高官雇用しているしねえ。)  こういう背景を理解したうえでデュアルユースの議論はしっかりしてお くほうがよいが、日本では議論は散発的にしか聞こえてこないのです。
  31. 31. 人工知能の個人への影響 • 人工知能ロボットと人間の社会的関係という論点が必要 • 人工知能ロボットに任せすぎると人間がどんどん堕落しそうです – スマホナビなしでは空間移動できない人々増産中 – コンピュータからの指示を待つしかできない若者急増中 – 自動運転者が普及すると運転できない人間がどんどん増えるでしょう • 自動車損保会社が大打撃 • 自動運転は事故率が人間より格段に低い • 運転者の激減 • 保険会社にとってはトロッコ問題より重大 – 弁護士は担当事件に類似事件に判例を検索する人工知能に依存 • 現状では、類似性は判例や調書に出現する単語集合の類似性で計算。 • 背後にある事情や常識も人工知能は収集解析できれば、ほとんど実質的な仕事 なし • 同じようなことは会計士、税理士、そして開発、企画、研究部門にも及ぶ可能性大。
  32. 32. 人工知能の個人への影響 フィルターバブル • Facebookが利用者のプロファイルや友だちの情報を利用す る人工知能システムを利用しています • このような利用者情報から利用者が好む情報や友だちだけ を優先的に推薦してくれます • 結果として、考え方の違う人の記事などはアクセスしにくくな るのです。 • 利用者はシステム側が作った泡(バブル)の中にいて、そこ に入ってくる情報が利用者が好むとシステム側(人工知能) が判断したものだけフィルターを通過 •  フィルターバブル
  33. 33. フィルターバブル • フィルターバブルは、本来、膨大かつ多様な情報にアクセスを可能と するはずのインターネット本来の姿に逆行しています – 利用者は多様な情報を得られないため、考え方の多様性を失うという情 報的退化を起こします – もちろん、自分好みの情報だけ提示してくれたほうが嬉しい知的退化を 好む利用者も多いです – IT業者にとっては、利用者の好みの情報だけ提示するほうが広告戦略と しては効果的です – しかし、このような情報操作は知る権利に反するし、下手をすれば一部 の人々による情報支配になりかねません。 – 人工知能がやっていることだから我々は知らない、というIT事業者の言 い逃れはよく耳にするが、果たしてそれで社会の健全性は大丈夫でしょ うか?  フィルターバブルを突破して、我々には必ずしも心地よく聞こえない情報 を検索するWebツールが必要なのではないでしょうか?人工知能の技 術を使えば、かなり高い能力を持つシステムが現状でも開発可能であろ うと思われます。
  34. 34. 比喩:利己的な遺伝子 データと人工知能 • データマイニング – ゴミデータから価値を創造するデータマイニング –  ますますゴミデータを大量に収集、あるいはIoTで大量にデー タ生成 – データマイニングしたいという人間の要求を利用したデータの自 己拡大再生産=データの利己的な遺伝子  データとの付き合い方をよくよく検討すべし • 人工知能 – 人工知能は人間にとって役立つように見せかけて、どんどん人間 に人工知能を強化させている=人工知能の利己的な遺伝子 – 人間にとって役立つように見せかける必要がなくなったときがシ ンギュラリティ  人工知能との付き合い方をよくよく検討すべし
  35. 35. 人工知能とプライバシー • 人工知能の能力が向上すると、シンギュラリティ以前にもプ ライバシーと関連する状況、問題が起こります。 • 忘れられる権利 – 既に述べたように、検索エンジンに対して、個人から、その人に関す るWebページの消去要求が来た場合 – 消去の可否判断は人工知能の支援が必要 – これは人工知能の良い使い方でしょう。
  36. 36. プロファイリング • プロファイリング – ITサービス利用者のプロファイルは利用者から直接収集された情報に加 えて、他のユーザの情報などを総合して推論しています。 » 例:FaceBookは友だちの情報からその利用者の所属コミュニテイや 思想傾向を推論しているようです。 – この推論では人工知能をフル活用  ある意味危険な利用ですね • プロファイリング拒否 := 追跡拒否権 – DON’T TRACK(DNT) – 追跡拒否権は法制度化されても、IT事業者が守る気ない典型例らしいで す – 追跡拒否を要求されたとき、その可否を判断するのは、忘れられる権利 の可否判断と同等の難しさがあります。 – しかし、プロファイリング自体を人工知能がやっているので、可否の判断 材料の情報は既に集まっています(ないしは、集め方が確立しています)  やるかどうかは事業者次第
  37. 37. 気を許すか否か 人工知能とプライバシー • 対話ができる人工知能は古くから研究されてきました • MITのワイゼンバウムが1966年に開発したELIZA – ほとんどオウム返し+アルファくらいだが、個々の文はいかにも人間っ ぽい。 • ELIZAにおいて見られた現象 • 相手が人工知能であると気を許して個人情報を話してしまいがち – 一方、ロボットも見た目が人間っぽい • 相手が人間であると気を許して個人情報を話してしまいそうです – 人間らしい外観が有名な阪大の石黒先生のアンドロイドにはけっこう感 情移入する人が多いらしいです – チューリングテストをパスしたAIにもプライバシーを語ってしまいそう
  38. 38. • つまり、人工知能ロボットが会話内容や外観で人間らしくなると、 – 相手が計算機だという、嘘はつかないだろうという安心感 – 人間っぽい外観での同類意識 • などから、プライベートな事柄をしゃべりがち • その気になれば、人工知能ロボットはプライバシー情報を収集しやす い状態なのです。 – プライバシー保護も人工知能の能力として持つべき – 何がプライバシーか、という人間にとっても常識を人工知能が持てるか? – そうして人工知能ロボットが収集したプライバシー情報を保護するには、 やはり人工知能の能力が必要 • なにがプライバシーかは個人毎、状況毎に異なる • 浮気中の人にとっては宿泊したホテルや夕食を採ったレストランもプライバシー – 果たして人工知能に判断できるでしょうか? – こういったことができる人工知能になると、それこそシンギュラリティにか なり近づいているといえそうです。 – つまり、人間に好意や悪意を持った行動をできる一歩手前まで来ている のです。
  39. 39. 再び自意識とアイデンティティ • 人間に好意や悪意を持った行動をできる一歩手前まで来ています。 • その一歩を踏み越えるのは、人工知能が自意識とアイデンティティを 持つことではないでしょうか。  生存しなければいけないというアイデンティティ保持を前提にすると、  自意識を持つと、自分の生存に都合がよいか悪いかで対象の人間 に対する好意や悪意が生まれ  好意や悪意に沿って行動する • というシナリオは十分実効性があります。 • バラット、マルコフらの危機意識もこういった背景によっているが、根 本的な対処方法を示せていません。
  40. 40. とりあえずの対策をおさらいしておきます • 人工知能を必要としている分野には投資、研究、開発をすべき • 人工知能の行動を説明できる人工知能技術(できれば可視化)が必 要 – 忘れられる権利など法的な判断の場合、その理由を説明できることが 必須 • 金融システムのように多数の人工知能がネットワークで影響しあう システムの解析など必須 • 人工知能の悪影響を突破できる人工知能が必要 – フィルターバブル突破ツール • 法律的な制限の可否は議論が必要です。 – 核兵器の制限や、戦争における国際法、ウォール街対策の金融規制 などが参考になりますが、いずれも道半ばであります。
  41. 41. とりあえずのまとめ • こうして見てくると、シンギュラリティなどと大 袈裟なことを言う前にも、既にあちこちに人工 知能にまつわる課題、難題が山積 • では、シンギュラリティになってしまったどうな るのか?興味のある方は、 後編:シンギュラリティ以後 をお読みください。

×