Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

東京法哲研2018年3月例会「ロボット・AIと法的人格」(工藤郁子)

2,226 views

Published on

2018年3月24日に東京法哲学研究会3月例会で報告した「ロボット・AIと法的人格」の資料(公開版)です。
http://www.houtetsugaku.org/Information.html#/detail/1810721875867709596

ロボット・人工知能(AI)と法的人格(legal person)について、ウゴ・パガロ著『ロボット法』勁草書房(2018)を素材として、話題提供することを目的としています。
http://www.keisoshobo.co.jp/book/b324580.html

技術的前提や諸外国の政策動向(ロボット・AIに法的人格を認めるべきとの議論を含む)を紹介した上で、法的人格に注目する問題意識を共有し、法(哲学)学上の諸論点を提示し、今後の方向性について議論することを目指すものです。

Published in: Law
  • Be the first to comment

東京法哲研2018年3月例会「ロボット・AIと法的人格」(工藤郁子)

  1. 1. ロボット・AIと法的人格 工藤郁子(マカイラ株式会社上席研究員) 東京法哲学研究会 3月例会 2018年3月24日 (於・明治大学駿河台キャンパス) 公開版
  2. 2. 自己紹介
  3. 3. 自己紹介
  4. 4. 自己紹介
  5. 5. 自己紹介
  6. 6. 自己紹介
  7. 7. 自己紹介 !!???
  8. 8. 吉良先生の事前コメントより → バブリみを示して煽ってみました
  9. 9. はじめに 本報告の目的 ▪ ロボット・人工知能(AI)と法的人格(legal person)について、 ウゴ・パガロ著『ロボット法』勁草書房(2018)を素材として、 話題提供すること アジェンダ • 技術的前提を概観した上で、法的人格に注目する問題意識を共有す る • 諸外国の政策動向を紹介し、実務においてロボット・AIと法的人格 がどのように扱われているかを分析する • ロボット・AIに法的人格を認めるべきとの議論を紹介しつつ、法 (哲学)学上の諸論点を提示し、今後の方向性について議論したい
  10. 10. 吉良先生の事前コメントより → 誰かを殺すとか剣呑すぎるのでは… → ただ「法的人格」の扱いについて態度を決めかねている部分はあり ます(民事法では導入の意義は薄いのではないかという見込み) → 積極的な主張は、将来的に統治機構方面でやっていきたいです
  11. 11. 問題の所在: なぜロボット・AIで法的人格か?
  12. 12. 技術的前提:自律性・説明可能性 • 機械学習(特にディープ・ラーニング)を用いたAIは、ときに人間 を上回る知的能力を示し、一定程度自律的に判断しているように見 える • しかし、予測モデルが複雑すぎると入出力の関係の解釈が困難であ り、なぜ/どのようにその解が導かれるのか、AIの研究開発者です ら説明ができないこともある(「ブラックボックス化」) • 複雑なモデルに説明可能性を与える試み(予測結果に効く特 徴の近似、単純なルールの組み合わせ、変数(因子)を減ら すなど)もあるが、正確性の低下とトレードオフ • 他の検討課題として:制御不可能性と不透明性 [平野 2017]
  13. 13. 問題の所在 • 一定程度の自律性があり、かつ、説明可能性が低いなら、「法的責 任を負うロボット・AI」について真剣に検討しても良いのではない か…という発想 [ロボット法 p.39] • その一つの手段として、法的人格を付与することへの注目 • cf. 無過失責任制度の導入、強制保険制度の導入など • しかし、ロボット・AIに法的人格を認めるとはどういうことで、認 める必要性/許容性はあるのか? • cf. 法人実在説 vs. 法人擬制説 [安藤・大屋 2017] • 「自然人も法人の一種として実在する」or「法的人格は政策 的考慮により措定される」
  14. 14. 吉良先生の事前コメントより → これはその通りです → この後話す予定ですが…AIの普及によって、 その擬制・ギャップが 露見し、正統性が低下するおそれがあるのではないかと思います
  15. 15. 吉良先生の事前コメントより → 問いを問いで返すようで恐縮ですが…動物の法的責任を認めること は可能なのですか?それはどんな法的責任? → 『ロボット法』で論じられている通り、中世の「動物裁判」は現代 では行われていないのでは? → そして今回議論したいのは、前述の通り「ロボット・AIに法的人格 を認めるとはどういうことで、認める必要性/許容性はあるのか?」と いう部分です
  16. 16. 定義 • 法的人格:法律上権利義務の主体となりうる(権利能力を有する) 地位・資格。自然人以外のものを含む。以下のような分類がありう る[ロボット法 p.176, 青木 2017] • 民事法上の行為能力を有する法的人格 • cf. 民法3条1項・3条2項・34条 • cf. 行為能力は、権利能力をもつ人間が法律行為を単独で 有効に行うことができる法律上の地位(民法4〜21条) • あらゆる種類の法的行為をする能力を有し、民事・刑事責任 を負いうる法的人格(≒道徳的人格) • cf. 憲法上の権利の享有主体
  17. 17. 定義 • 行為者性:以下の類型がある[ロボット法 p.44] • 権利(および義務)を有する適格な人格としての主体・行為 者 • (交渉・契約などの)ビジネス法分野における厳密な意味で の行為者 • (不法行為など)制度内の他の行為主体に対する責任の発生 源
  18. 18. 諸外国の動向: 公共政策実務での扱い
  19. 19. 「ソフィア」 • AIを備えた人型ロボット「ソフィア」 • 世界で初めて市民権を付与すると2017 年10月にサウジアラビアが発表 • 法的人格はなく、アザラシやアニメキ ャラクターに与えられる「特別住民 票」と同種とみるべき • cf. 2017年11月、東京都渋谷区は 会話型AI「渋谷みらい」に特別住 民票を交付
  20. 20. アルゴリズム取引のAIなど • 金融市場で多用される「アルゴリズム取引」 • 売買注文のタイミング・価格・数量などのパラメーターに基づいて、 人間の介入なくして、コンピューター・プログラム(アルゴリズム やAI)が自動的に決定・取引するもの • 何らかのトリガーによって、アルゴリズム同士の連鎖反応が生じて 「フラッシュ・クラッシュ(瞬間暴落)」が起きることがある
  21. 21. アルゴリズム取引のAIなど • 実は、契約の成否・効果帰属などは必ずしも明らかでない • 当該取引の性質上、事前の合意や当事者間の信頼関係を基礎にする ことは難しい • 意思表示の作出時に(人間の)表示意思が欠如するとしても、契約 は成立するか? • 先述の通り、機械学習などの進展に伴って開発者・利用者の予想を 超えるAIなども出現しているが、AIの利用者は、自身が予見できな い権限踰越の取引だった場合でも、契約責任を負うか? • 実態上はAIが契約の「締結行為者」であり、契約名義人・利益帰属 者として人間が背後にいるのであれば、AIを「代理人」として処理 した方がよいのではないか…?
  22. 22. 吉良先生の事前コメントより → 保険だけという方向性もあります → 旨味?としては、代理法理の適用が明確化したりすることです → 後は課税対象とするアイディアの影響もあるかも?
  23. 23. 立法による解決例(米国) • 統一電子取引法(UETA)、統一電子情報取引法(UCITA)、統一 商事法典(UCC)においてプログラムを「電子エージェント (Electronic Agent)」と定義し、電子エージェントによる自動的な取 引は有効であるしつつ、電子エージェントの利用者にその契約の効 果を帰属させると明確化 ▫ ここでいう「エージェント(Agent)」は、代理人という意味 でのエージェントではなく、「ソフトウェア・エージェント (software agent)」や「知的エージェント(Intelligent Agent)」など電子工学・情報処理上の用語を意識したもの • AIを代理人とみなす考えを基本的には否定することで、AIに契約責 任を負わせて人間が責任逃れをすることを防ぐ • ただし、UCITA 213 条(a)は、電子データの帰属は代理法理その他 の法理によるものと規定している
  24. 24. 「電子人」と民事責任 • 2017年1月、欧州議会の法務委員会は「ロボティクスに関する民事 法的規則に関する欧州委員会への提言」を報告書として取りまとめ た [工藤 2018] • 同報告書は、AI・ロボット関連ビジネスを展開するためには法的確 実性を担保することが重要であるとし、また、EU域内で統一した 民事法的規則を導入する必要があると結論づけている ▫ なお、具体的な提言は多岐にわたり、自動走行車に関する強 制加入保険制度の検討や、AI・ロボットの登記制度に関する 提言、ロボットの開発・利用に関するガイドライン(「ロボ ット憲章」)の提案などが含まれていた
  25. 25. 「電子人」と民事責任 • 自律型ロボットの一部に「電子人(electronic person)」など一定 の法的主体性を将来的に認める可能性にも言及 [工藤 2017] • たしかに、会社や船舶など、人ではない「物」を法的主体とするこ とで、一定の権利義務を認め、法的課題を解決する技法は従来から 存在する • AIを「電子人」と位置付ければ、AIによる取引によって不測の損害 を被ることを避けたいと考える利用者の要望と、AIと安全に取引を 行いたい相手方の保護との間で、バランスを図れる可能性がある • なお、一部の専門家は、利用者がAIに保険をかけることで、AIに賠 償能力を与えられると主張している
  26. 26. 吉良先生の事前コメントより → どちらかというと、登録制度・登記制度とセットとかなと見ていま す → いずれにせよ、将来的可能性である点にご注意ください
  27. 27. cf. 課税対象としてのロボット • 「ロボティクスに関する民事法的規則に関する欧州委員会への提 言」は、雇用の喪失、格差拡大、税収の減少、社会保障制度への打 撃などのリスクにも言及し、ロボットの普及に伴って人間の雇用が 減少すれば、社会保険料や税収が低減し、また失業者を対象とした 教育訓練への投資の必要性も高まるとした • そこで、同報告書は、持続可能な税制や社会保障制度のため、AI などを搭載したロボットの登録を企業に義務付け、ロボットを所有 する企業等に、ロボットの活用で得られた利益の一部を負担させる 「ロボット税」や、ベーシックインカム(basic income)の導入等を、 欧州委員会で検討するよう提言
  28. 28. cf. 課税対象としてのロボット • しかし、報告書が公表されると、世界各国のロボットメーカー等の 団体である国際ロボット連盟や、ドイツの機械・プラントメーカー の団体であるドイツ機械装置産業連盟などは、ロボット税の導入に 反対を表明し、自動車業界などの統計を示しつつ、各国の労働者 1 万人当たりのロボット台数である「ロボット密度(robot density)」 と雇用者数との間には、正の相関関係があると主張した • 欧州議会の本会議においても、ロボットを課税対象とすることは、 ロボットの普及を阻害し、EU 及び加盟国の競争力低下をもたらし、 ひいてはそれが人間の雇用喪失にもつながるという意見が出され、 修正の上、2017 年 2 月に本会議で採択された報告書では、ロボッ ト税に関する記述は全て削除されている
  29. 29. 吉良先生の事前コメントより → 「三重の邪悪」…そうですね……
  30. 30. 法(哲学)上の諸論点
  31. 31. <意思―行為―責任>? • <意思―行為―責任>の連関というフィクションを問い直す? [大 屋 2017a] • 意識・意思がない(とされている)AIやロボットを民事法上の権利 義務の主体としてよいか? • 近代民事法は、自由意思に基づく自律的判断を前提として、 その自己決定から生じた結果を引き受けることを基本原理と しており、<意思—行為—責任>という連関を前提としてい る • ところが、AI・ロボットは、機械学習などにより、ある程度 自律的な振る舞いができるにもかかわらず、意思が存在しな いと理解されている
  32. 32. <意思―行為―責任>? • もっとも、法(学)は、こうした擬制を自覚し一部修正で対応して きた • cf.「顕教」としての人格責任論 と、顕教・密教ギャップの露 見、そして正統性の低下 ? • 他者からは不可視の内心に存在する(とされる)故意・過失につい て、主観的要素(「不注意」)よりも客観的要素(「結果回避義務 の過怠」)が事実認定の中心になっていることを鑑みれば、注意義 務及び損害の配分という機序・制度こそが重視されているとも考え られる
  33. 33. <意思―行為―責任>? • そうであるなら、ジョン・サールがいう「中国語の部屋(Chinese Room)」問題は、少なくとも民事上の損害補填可能性の局面にお いては、あまり意味がないということに…? • 例えば、アルゴリズム取引の本当の意味をAIは理解していないかも しれないが、取引安全という観点からすれば、AIを「電子人」とし て扱うことの実益を考慮すればよく、ロボットの自意識の問題は、 ひとまず横に置いてよい? • 「電子人」という新しい類型を認めるプラグマティックな必要性の 有無のみ問題とすればよく、理論というよりは決断の問題?
  34. 34. 吉良先生の事前コメントより → 私的自治の原則、過失責任原則の話をしています
  35. 35. 吉良先生の事前コメントより → Solumの反論などを想定しています → 2段構えはありえます(後述)
  36. 36. 「血のバランスシート」問題 • 刑事法における「血のバランスシート」問題 [大屋 2017b] • 刑罰の基礎としての非難可能性 • cf. 刑法39条1項・2項 • 刑法における責任能力は、事物の是非・善悪を弁別し、かつそれに 従って行動する能力 • なお、刑罰リスクは、機械的な費用便益の計算に適しており、法令 遵守や倫理的行為に報いる強化学習などの利用により、刑罰概念を ロボット・AIに埋め込むことは可能とされる [Chopra & White 2011]
  37. 37. 「血のバランスシート」問題 • 道徳的答責性と責任の区別 [ロボット法 pp.43-44] • ダニエル・デネット(Daniel Dennett)による『ロボットのHALが 殺人を犯したとき、誰を非難すべきか?(When HAL Kills, Who’s to Blame?)』(1997)という問題に対しては「行為者適格性の定 義する条件を満たしているのであれば、HALは答責性を負う。しか し、責任は負わない」と答えられる • cf. 動物裁判 [ロボット法 pp.40-41]
  38. 38. 吉良先生の事前コメントより → 逆ってどういう意味ですか…?たぶん「動物裁判の時代に戻れます か?」という問いだと思いますが… → その「見せしめ」は、司法レベルで良いのでしょうか?
  39. 39. 「血のバランスシート」問題 • 機械を罰して「意味」はあるか? • cf. 法人処罰 [大屋 2017b] • 選択肢としては、(a)モニタリングと修正(メンテナンス)、 (b)サイバースペースからは切り離された構成要素とすべく取り 除く、(c)サイバースペースからの全消去(バックアップなしで の削除)がありうる [Floridi & Sanders 2004] • しかし、機械に、受苦性、可傷性(vulnerability)、死への恐怖は ない?
  40. 40. 吉良先生の事前コメントより → しのぐ意味ってあるんでしたっけ? → 「ロボット・AI愛護法」の可能性はあります
  41. 41. 吉良先生の事前コメントより → このあたりを議論したくて、東京法哲研に来ました!
  42. 42. 「人権」享有主体性? • ロボット・AIの「人権」享有主体性 [大屋 2017a] • 最近では「憲法上の権利」というのが一般的ですが、ロボッ ト・AIとの対比で「人権」と呼んでみてます • モノでありながらヒトと同等(あるいはそれ以上)の能力を持つ存 在をどのように位置付けるか? • ただし、AGI(Artificial General Intelligence: 汎用AI)自身が 自分より高い能力を持つAGIを設計構築できるようになり、SI (Super intelligence)になればもはや「神」の領域であって、 人間による法的な制御は不可能かもしれない [夏井 2017] • 自律的AIやそれを組み込んだロボットにも法人格や人権(ロボット 権)を認めるべきではないか [青木 2017] • cf. 動物の権利、動物福祉 • cf. フランス人権宣言(1789)における「人一般 (homme)」と「市民(citoyen)」の二重性に注意
  43. 43. 吉良先生の事前コメントより → ここも議論したいです(なので、憲民刑に分けました) → ただ逆に、知的財産権は、現状のままだと難しい気がします
  44. 44. 「人権」享有主体性? • 「種差別(speciesism)」の露呈と限界 [大屋 2017a] • 我ら人類よりも卓越した存在が現れること(いわゆる「異星 人設例」)が現実化しつつある • 実力による「開き直り」が通用しなくなる可能性 • 平等論が適用される対象の間では、ある同一の属性(property)が 共有されているという前提に立つはずだが… • 理性(reason)なり、道徳的推論能力(powers of moral reasoning)なり、痛みの感覚(capacity to feel pain)なりを 具備するようにみえる人工物が現れたときに、どのような取 扱いをすべきか? • 当該属性を具備しないようにみえるホモ・サピエンスとの比 較において、その取扱いは妥当か?
  45. 45. 吉良先生の事前コメントより → AGI開発者はこの辺りも気にされていて、対話は無理かもしれない という前提のもと、共生関係(コバンザメモデル。AIがサメで人類がコ バンザメ)の構築を目論んでいるらしいです…
  46. 46. おわりに
  47. 47. 概観 • 民事法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 刑事法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 行政法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 憲法(学/学者):前提からもう一度見直してみよう…
  48. 48. 概観 • 民事法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 刑事法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 行政法(学/学者):伝統的な法解釈学の範囲内で対処可能 • 憲法(学/学者):前提からもう一度見直してみよう… • 法哲学(学者):「たのしいネタきた!やったー!」…となって ほしい
  49. 49. おわりに • ロボット・AIが法(学)に与えるインパクトは、それぞれの法分野 と、当該分野の対象・特性によって異なる • ロボット・AIによる社会変化を受け止めるにあたり、どのような構 想が望ましいのかという見方の違いにも左右される • AIの進展・普及によって法(学)の基礎はおそらく揺るがないだろ う:伝統的な法解釈学の範囲内で対処することができない法的課題 は少なく、しかもそのような課題はそもそも法解釈学の領域を超え ている(夏井 2017) • 他方で、ロボット・AIが人間や社会のあり方に変化をもたらすので あれば、それはこれまでの法(学)に新たな光を当て、「法の全体 を照らし出す」契機になるように思われるため、今後の議論動向を 注視したい
  50. 50. 主要参考文献 ウゴ・パガロ著、新保史生監訳/訳、松尾剛行・工藤郁子・赤坂亮太訳『ロボット法』勁草書房(2018年)に加えて • 青木人志「『権利主体性』概念を考える―AIが権利をもつ日は来るのか」法学教室443号(2017)54頁以下 • 安藤馨 ・大屋雄裕『法哲学と法哲学の対話』有斐閣(2017)48頁以下 • Chopra, Samir, and Laurence F. White. A legal theory for autonomous artificial agents. University of Michigan Press, 2011. • Floridi, Luciano, and Jeff W. Sanders. "On the morality of artificial agents." Minds and machines 14.3 (2004): 349-379. • 平野晋『ロボット法―AIとヒトの共生にむけて』弘文堂(2017)173頁以下 • 工藤郁子「自然人、法人に次ぐ『電子人』概念の登場」ビジネス法務2018年5月号(2017)5頁 • 工藤郁子「ロボット・AIと法政策の国際動向」『ロボット・AIと法』有斐閣(2018近刊) • Koops, Bert-Jaap, Mireille Hildebrandt, and David-Olivier Jaquet-Chiffelle. "Bridging the accountability gap: Rights for new entities in the information society." Minn. JL Sci. & Tech. 11 (2010): 497. • 夏井高人「アシモフの原則の終焉―ロボット法の可能性―」法律論叢89巻4・5号(2017)175頁以下 • 大屋雄裕「外なる他者・内なる他者―動物とAIの権利」論究ジュリスト22号(2017a)48頁以下 • 大屋雄裕「人格と責任―ヒトならざる人の問うもの」福田雅樹ほか編著『AIがつなげる社会ーーAIネットワ ーク時代の法・政策』弘文堂(2017b)344頁以下 • Solum, Lawrence B. "Legal personhood for artificial intelligences." NCL Rev. 70 (1991): 1231.

×