Successfully reported this slideshow.

AIルールとガバナンス

0

Share

Upcoming SlideShare
Value of Broadband Coverage
Value of Broadband Coverage
Loading in …3
×
1 of 26
1 of 26

More Related Content

More from Toshiya Jitsuzumi

Related Books

Free with a 14 day trial from Scribd

See all

AIルールとガバナンス

  1. 1. AIルールとガバナンス 中央大学 実積寿也 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  2. 2. なぜAIに特別ルール(≒AI倫理)が必要なのか? • 中川裕志(2019)の見解 • 「深層学習で学習された分類規則は人間が理解することが専門家でも困難であり、かつ学習過程自体も理解でいないという ブラックボックス化が進んでしまった。利用者側としては学習プロセスと学習結果に関して、それらの説明が仮になされた としても理解が十分にできないAI、つまりブラックボックス化したAIは安心して使えないという心理が働く。そこで、ブ ラックボックス化したAIをトラスト(trust)してもらうにはどうしたらよいかという問題に直面せざるをえなくなった。」 • ブラックボックス化への対応策として • 透明性:「事故時、あるいは利用者からの開示要求があったときにAIの動作に関する十分な情報を提示できること」 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 透明性 説明可能性 理解可能性 Human in the loop アカウンタビリティ 目的:トラスト フェアネス 目的 特別ルールの カバー範囲 • 説明可能性:理解可能性を保証することは困難なので、人間を 介在させる対処法(human in the loop)が通常は採用される。 • アカウンタビリティ:説明義務+答責義務の適切な分配 • 「AIシステムの動作を非専門家に理解してもらえる技術がない状 態で、AIを一般人に安心して使ってもらうにはどうしたらよい か?もう信じてもらうしかない、という発想からトラストという 概念が重視されるようになってきた。」 • 「透明性やトラストはAIシステムのフェアネスを確保するための 仕組みになる。」 • 「公平性の定義は結局、目的依存なのだが、ひとたび目的を確定 すれば、その条件下で他のバイアスが入らないようにするアルゴ リズムないしデータはフェアネスがある」
  3. 3. Responsible AI: From principles to practice (Accenture, 2021) • Responsible AI (Accenture[2021]による定義) • 責任あるAIとは、従業員や企業に力を与え、顧客や社会に公正な影響を与えるために、善意を持ってAIを設計、開発、展開することであり、 企業が信頼を得て自信を持ってAIを拡張することを可能にします。 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 4つの柱 実務者が直面している問題点 Recommendation Organizational 適切な業績評価基準と自分たちの仕事に対する評価 の必要性を強調。 強力なリーダーシップは、従業員の能力を高め、レスポンシブルAI をビジネス上の重要な課題とする上で極めて重要。 明確な成功基準、インセンティブ、トレーニングを確立することで、こ れらの新しい役割やスキルを育て、責任感のあるAI文化を組織全 体に拡散し、AIシステムへの信頼を醸成することができる。 Operational ステークホルダーの不整合、官僚主義、相反する課題、 プロセスやオーナーシップが明確でないことが問題。 透明性のある、ドメインを超えた ガバナンス構造を確立。これらの 構造は、役割、期待、説明責任を明確にし、AI技術に対する社内の 信頼と信用を構築します。このような組織は、プロジェクトのライフ サイクルを通じて、倫理原則を明確なプロセス、手順、指揮系統に 変換し、各アプリケーションの状況に応じたニーズを尊重します。早 い段階で領域横断的な倫理委員会を設置することが非常に有効。 Technical 最大の障壁の一つは、データ、モデル、結果の倫理的 な使用とアルゴリズムの影響を定義し、測定するため の専門知識が不足していること。責任あるAIは、売上 高やクリックスルー率では測れないが、多くの企業は未 だにこれらの伝統的なパフォーマンス指標に依存。 潜在的なリスクを評価するために、実績のある定性・定量的な手法 を用いることで、緩和策について領域を超えた合意を獲得。 測定可能なパフォーマンス指標を明確に定義し、継続的なモニタリ ング、コントロール、再評価の手法を確立。 Reputational 組織的、運用的、技術的に適切な基盤がなければ、組 織はレスポンシブルAIへの場当たり的なアプローチを 余儀なくされ、大きな風評被害にさらされる。 ビジネスの使命の明確化。レスポンシブル・ビジネスの主要指標を 継続的に測定・監視することで、リスクを管理し、透明性のあるコ ミュニケーションを実現。
  4. 4. さまざまなAIルール T.Jitsuzumi@ 2022/1/25 社内講演会( )
  5. 5. Recommendation on the Ethics of Artificial Intelligence(UNESCO, 2021/11/24) • 価値 • 人権、基本的自由、および人間の尊厳の尊重・保護・向上 • 環境と生態系の繁栄 • 多様性と包括性の確保 • 平和的で、公正、かつ相互に結びついた社会での生活 • 原則 • 比例制と無害化 • 安全性とセキュリティ • 公平・無差別 • 持続可能性 • プライバシー権、データ保護 • 人間による監視・決定 • 透明性と説明可能性 • 責任とアカウンタビリティ • 認知とリテラシー • マルチステークホルダーと適応的ガバナンス・協調 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 目的 透明性 説明可能性 理解可能性 Human in the loop アカウンタビリティ フェアネス 透明性 説明可能性 理解可能性 Human in the loop アカウンタビリティ 目的:トラスト フェアネス 目的 特別ルールの カバー範囲
  6. 6. ただし、ルールを作るだけなら誰にでもできる。 何物言之易而行之難 (『鹽鐵論』利議篇) もしくは Easier said than done T.Jitsuzumi@ 2022/1/25 社内講演会( )
  7. 7. Recommendation on the Ethics of Artificial Intelligence(UNESCO, 2021/11/24) • UNESCOは、加盟国に対し、国際人権法を含む国際法に準拠した勧告の原則および規範を自国の 管轄内で有効にするために、各国家の憲法上の慣行および統治機構に準拠して、必要とされるあ らゆる立法上の措置またはその他の措置を含む適切な措置を講じることにより、自発的にこの勧 告の規定を適用することを勧告する。 • また、UNESCOは、加盟国に対し、企業を含むすべての利害関係者が本勧告の実施においてそれ ぞれの役割を果たすように関与し、AI技術に関わる公的、私的、市民社会の各分野の当局、団体、 研究・学術機関、機関、組織の注意を喚起し、AI技術の開発と使用が健全な科学的研究と倫理的 な分析・評価の両方によって導かれるようにすることを勧告する。 • 本勧告は、AIアクターとして、また、AIシステムのライフサイクル全体を通じた法規制の枠組 みを策定し、ビジネス上の責任を推進する責任を負う当局として、加盟国に宛てたものである。 また、AIシステムのライフサイクル全体における倫理的影響評価のための基礎を提供することに より、官民を含むすべてのAI関係者に倫理的指針を提供する。 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  8. 8. 人工知能学会倫理指針のケース • 名宛人は学会員&学会員が開発する人工知能。 • ゆえに「jurisdiction」の問題はない。 1. 人類への貢献 2. 法規制の遵守 3. 他者のプライバシーの尊重 4. 公正性 5. 安全性 6. 誠実な振る舞い 7. 社会に対する責任 8. 社会との対話と自己研鑽 9. 人工知能への倫理遵守の要請 T.Jitsuzumi@ 2022/1/25 社内講演会( ) • にも拘わらず、学会員に遵守を求める仕組みはない。 • 人工知能学会幹部へのインタビューより 人工知能学会のまとめた倫理原則って遵守を求める仕組みとか、違反したときの ペナルティとか、遵守状況のモニタリングとかの仕組みは持っているの? 学会幹部A - 端的に答えるとないです。そもそも倫理*指針*なので、方向を示すだけで 強制力をもった規則ではないです。もちろん、この指針に明らかに反する行為 をする会員は定款の定めるところの(除名)9条2"この法人の名誉を傷つけ, 又は目的に反する行為をしたとき." あたりを適用する可能性はあると思いま すが。 - まあ生命科学だと、特定の対象x特定の技術の規制とはありえるわけですど、 汎用技術であるAIではそうはいかないので、難しいと思います。そういう意味 でEU規制は意外ではあったけど、あれは外的要請であって内からではないし。 学会員B - 話題には上がったけど、そんなリソースはないって話になったはず。 - 違反してる論文はリジェクトする根拠にできるという意図はあったはず。 - あとは、毎年ELSIにふさわしい研究を表彰してるくらいかな
  9. 9. 人工知能学会が「AI ELSI賞」創設 倫理活動を表彰 • 人工知能学会倫理委員会は1日、人工知能(AI)倫理や「社会とAIの関係性」に関 わる活動を表彰する「AI ELSI賞」を創設し、募集を始めた。7月31日に募集を締 め切り、審査を経て11月に表彰する。ELSIは倫理的(Ethical)、法的・社会的諸 問題(Legal and Social Issues)の略。 • 応募者・推薦者は同学会員に限るが、表彰対象は会員に限らず、研究者・企業・個 人も問わない。研究活動からワークショップ、製品やサービス、文学・評論・メ ディア作品まで「AIに関して優れた倫理的視点を与えてくれたもの」「AIと社会の 関わり合いに関して深い洞察や影響力のある実践をおこなったもの」を対象とする。 「同賞を学会と社会をつなぐ位置付けにしたい」(倫理委員会の武田英明委員長)。 • 現在決まっている審査委員は武田氏を含む倫理委員会のメンバー3人のほか、メ ディアアーティストで産業技術総合研究所の江渡浩一郎氏、慶応義塾大学大学院政 策・メディア研究科のクロサカタツヤ特任准教授、経済学を専門とする東北大学の 原山優子名誉教授、SF作家の藤井太洋氏、慶応義塾大学大学院法務研究科の山本龍 彦教授である。 • ディスクロージャー:記者は人工知能学会倫理委員会の外部委員だが、同賞の運営に は関与していない。 (日経 xTECH/日経コンピュータ 浅川直輝)[日経 xTECH 2019年7月1日掲載] T.Jitsuzumi@ 2022/1/25 社内講演会( )
  10. 10. AIガイドラインの限界 • 自主規制であるが故の限界(生貝, 2021) • そもそも、ルールが作られない可能性 • ルール内容の不⼗分性、不公正性 • 実効性(エンフォースメント)の不⾜ • ルールを継続的に運⽤する安定的な業界団体等の形成維持困難 • 消費者をはじめとした利害関係者の参加不⾜(正統性の⽋如) ペナルティが存在しない。 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 「今後の検討事項としては、非拘束的なガイドラインや原則 としての位置づけを明確にしつつ、次のステップとして、 「法定公表事項」や「法定事項」として当該原則を組み込ん だルール作りを考える時期に来ているのではないだろうか。 つまり、実用・実装段階に向けた法規範としてAI 原則の活用 を考えるべきではないだろうか。」(新保, 2020, p.54) 例:公表手続と実際の取り扱い状況に乖離がある場合 の「不公正又は欺瞞的行為に基づく取引」(FTC 法第 5条)の適用 MEB 補助金τ導入後 の限界費用 MC=S-τ • AIがGPTであるが故の限界 • 外部性の存在。 • ガイドライン遵守が名宛人以外に発生するメリッ トを明示的に考慮する仕組みがなければ得られる 均衡は最適水準を外れる。
  11. 11. 法律による最低限の手当:外部性の内部化 • Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts(EC, 2021/4/21) • 提案はEUの2つの立法機関であるEU理事会と欧州議会で審議され、場合によっては2022年の後半にも発効し、移行期間が始まる可能性が ある。移行期間中にEUでは、AIの利用に関するさまざまな基準が策定され、ガバナンス体制が構築運用されるようになる。早ければ2024 年後半に、基準の整備と最初の適合性評価の実施に伴い、事業者への規則の適用が始まる見通し • 日本で同じことを試みるならば、Japan-passingを防止する仕組みが必要(実積, 2021) T.Jitsuzumi@ 2022/1/25 社内講演会( )
  12. 12. 最低水準を超えるのがAI倫理だとすれば… • 問題はルール自体に強制力がなく、かつ、実施主体が民 間事業者であるということ • 「空気」や「雰囲気」に押されたルール遵守はサス テナブルではない • 企業利潤を損ねると株主訴訟の対象、下手を すれば背任 • 長続きするのは誘因両立性をもったルール • 遵守することで利潤最大化が実現、もしくは、 遵守しないことで利潤が減少することがイン センティブの源泉 • 誘因両立性を確保する手段としての市場圧力 • 倫理的なAIが提供する財・サービスが欲しい • 倫理的なAIの利活用を行う企業に投資したい T.Jitsuzumi@ 2022/1/25 社内講演会( )  求められるのは消費者や投資家への情報提供・教育 参考例としてのESG投資 佐藤(2019) • 多くの企業が国以上の高い目標を打ち出して いる背景には、温暖化対策が、ESG投資にお いて重要な要素になっていることがある。機 関投資家の投資銘柄から化石燃料関係企業が 除外される(ダイペストメント)という動き が広がっている。温暖化対策に優れたプロ ジェクト向けのグリーンポンドの発行も年々 増えている。(p.39) • ソフトローは、一見穏やかに見えるが、違反 した場合、投資家及ぴ消費者から見放される ことにより、企業の存続が脅かされる。大企 業はソフトローの遵守状況について説明責任 を負担しており、その情報は瞬時に世界を駆 け巡ることとなる。(p.40) • ESG投資とは、従来の財務情報だけでなく、環境(Environment)・社会 (Social)・ガバナンス(Governance)要素も考慮した投資。 • 日本では、投資にESGの視点を組み入れることなどを原則として掲げる国 連責任投資原則(PRI)に、日本の年金積立金管理運用独立行政法人 (GPIF)が2015年に署名したことを受け、ESG投資が拡大。
  13. 13. ただし、外部からのインセンティブ付与には情報の非対称性による限界が存在 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 2022年1月9日
  14. 14. 機能しない外部インセンティブはむしろ害悪 環境の分野ではGREENWASH という言葉があります。 • Greenwashing is the process of conveying a false impression or providing misleading information about how a company‘s products are more environmentally sound. Greenwashing is considered an unsubstantiated claim to deceive consumers into believing that a company’s products are environmentally friendly.(グリーンウォッシュとは、ある企業 の製品がより環境に配慮したものであるという誤った印象を与え たり、誤解を招くような情報を提供することです。グリーン ウォッシュは、企業の製品が環境に配慮していると消費者を欺く 根拠のない主張と考えられます。) T.Jitsuzumi@ 2022/1/25 社内講演会( ) Source: https://www.pinterest.jp/pin/578008933421011829/
  15. 15. AIの文脈で”Ethics Washing”という言葉が誕生する前に… • ネット広告の分野ではすでに”Safety Washing”という言葉あるようです。 T.Jitsuzumi@ 2022/1/25 社内講演会( ) Source:https://www.reuters.com/technology/exclusive-google-aims-improve- spotty-enforcement-childrens-ads-policy-2022-01-19/?fbclid=IwAR1HbJefhVleD4f1- OvNyUvDdfAHm6WuuwFB03Rcn5qpP0ji4n9ju5ZWyu4
  16. 16. 企業内のインセンティブも必要 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  17. 17. AIガバナンスに関する取組事例(AIネットワーク社会推進会議 2021/9) T.Jitsuzumi@ 2022/1/25 社内講演会( ) AIガバナンスとは • AIを利活用したシステム・サービ スを企画、開発、導入、運用する に当たって、法制度や社会規範を 遵守するとともに、AIに関するリ スク等を適切にマネジメントする ための体制構築と仕組み作り、そ の実行 主要な各社の取り組み例 • 経営トップが責任者となって AIガ バナンスを実践 • 既存のガバナンス体制を拡充して AIガバナンスに対応 • 社内横断的なワーキング・グルー プや倫理委員会などを設置して AI ガバナンスに関する取組を推進
  18. 18. AIガバナンスの個別項目に関する主な取組(AIネットワーク社会推進会議 2021/9) • セキュリティ • 従来から産業規格等に基づくセキュリティ確保のための体制やルールをもとに、 AIに関するセキュリティ対策を実施 • AIに対する攻撃を検知する技術や攻撃を防御する技術に関する研究開発を実施 • 国内外の大学、研究機関等と共同研究を実施 • プライバシー • 従来から法令等に基づく個人情報保護のための体制やルールをもとに AI に関するプライバシー保護に対応 • GDPRの遵守に関する責任者をグローバル体制で各地域・各部門に配置 • 取得した個人情報を委託先等が利用する可能性がある場合、守秘義務契約に個人情報の管理に関する事項を明記 • 公平性 • AIモデルを構築する際に、学習データや AIの判断結果に含まれるバイアスを確認(バイアスがある場合は、必要時応じて、除去) • ワークショップを開催して、公平性の観点から重視すべき価値観を抽出・数値化し、 AIの開発に反映 • 最終的に人間が判断することにより、 AIの判断が顧客にダイレクトに不公平な結果を招かないように対応【Human in the loop】 • 透明性・アカウンタビリティ • 顧客の理解・納得を得るために、説明可能な AIに関する技術・ツールを開発 • 設計や PoCの段階において、 AIの判断のロジックを顧客に説明し、納得を得てから運用・納品 • 学習データやモデル構築のプロセスに関するファクトシートを作成するとともに、標準化に向けた取組を実施 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 遵守されない場 合のペナルティ の定めは未だ見 当たらない。
  19. 19. EBDMに基づく企業自身の努力が必要な局面 • 倫理的にAIを活用することで獲得できる限界利益を定量化し、各組織の行動と連関させることで、企業体としての誘因両立 性を満たすガバナンスメカニズムが構築できる。そのためには、実証データに基づく分析(Evidence Based Decision Making)が必須。 • なお、外部経済の部分については別途定量化する必要が残るが、その解決には公的介入が不可欠なので、次の段階 T.Jitsuzumi@ 2022/1/25 社内講演会( ) 倫理的なAIが達成する便益の定義 •倫理的なAIを用いることで消費 者にとってどのような便益がも たらされるのかを言語化 倫理的なAIが達成する限界便益の 経済価値の定量化 •倫理的なAIを一単位活用するこ とで消費者に実現する(=消費 者に課金可能な)経済価値を実 証的に推定 倫理的なAIを採用することで得ら れる限界純便益=インセンティブ の確定 •倫理的なAIの採用によって得ら れる限界便益から、そのための 限界費用を減じることで限界純 便益を算出し、インセンティブ として設定する。
  20. 20. 実証分析の限界 • 実証分析は現状のデータを分析することによってそのままでは見えにくい知見を明らかにする技術。 • そのため、明らかになるのは「現状の姿」 • 急速なAI技術進歩と社会環境の変化の下での実証研究は「将来予測」に限りなく近くなるので、得られる結果が正確な未来 予測になる可能性は大きくない。 • 得られるのは「漸進的進化」を仮定した場合の近似値がせいぜい • 必ずしも正しい結果がえられるとは限らなくても、この方法を繰り返して、正解に近づくしかない。 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  21. 21. AIの最先端を拓くためには、失敗してもやめないこと。 • AIは失敗から学ぶことができる。 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  22. 22. 失敗はむしろ美味しいと思うメンタル T.Jitsuzumi@ 2022/1/25 社内講演会( ) 出典:President Online (https://president.jp/articles/-/50728?page=1) • きっと… イーロン・マスクが革新的だったのは、ギャラン ティ型だった自動車業界に開発がスピーディでコ ストも減らせるベスト・エフォート型を持ち込ん だことだと言える。 ベスト・エフォート型だからこそ、テスラはわず か12年間でEVの年間販売台数を5000倍にも増や すことができたのだ。ただしその間、手ひどい失 敗も繰り返し、イーロンは批判の矢面に何度も立 ち続けた。精神力が桁外れに強靭でなければ耐え られない手法でもある。 ベスト・エフォート型で自動運転開発を進める イーロンは、これからも死亡事故が起きようとそ の歩みを止めることはないだろう。たとえテスラ の株価が下がろうとだ。
  23. 23. Niccolò Machiavelliの箴言 天国へ行くのにもっとも有効な方法は、 地獄へ行く道を熟知することである。 (君主論) T.Jitsuzumi@ 2022/1/25 社内講演会( )
  24. 24. そういえば2020年11月にも同じようなことを言ってた気がします。 T.Jitsuzumi@ 2022/1/25 社内講演会( )
  25. 25. 参考文献 • 生貝直人(2021)「ソフトローを活用したルール形成と自主・共同規制」知的財産戦略本部構想委員会(第6回、2021年4 月16日)報告資料、http://www.kantei.go.jp/jp/singi/titeki2/tyousakai/kousou/2021/dai6/siryou4.pdf • 中川裕志(2019)『裏側から視るAI 脅威・歴史・倫理』近代科学社 • AIネットワーク社会推進会議「AIガバナンスに関する取組事例」AIネットワーク社会推進会議メール回覧資料、 https://www.soumu.go.jp/main_content/000770820.pdf • 新保史生(2020)「AI原則は機能するか?―非拘束的原則から普遍的原則への道筋」『情報通信政策研究』3(2), 53-70. • 佐藤泉(2019)「企業活動におけるソフトロー」『法学セミナー』2019年9月号, 35-40. • 実積寿也(2021)「AIルールを巡る議論の変質」『日立総研』16(2), 18-21. T.Jitsuzumi@ 2022/1/25 社内講演会( )
  26. 26. AIルールとガバナンス 中央大学 実積寿也 T.Jitsuzumi@ 2022/1/25 社内講演会( )

×