More Related Content Similar to AIルールとガバナンス (20) More from Toshiya Jitsuzumi (20) AIルールとガバナンス3. Responsible AI: From principles to practice (Accenture, 2021)
• Responsible AI (Accenture[2021]による定義)
• 責任あるAIとは、従業員や企業に力を与え、顧客や社会に公正な影響を与えるために、善意を持ってAIを設計、開発、展開することであり、
企業が信頼を得て自信を持ってAIを拡張することを可能にします。
T.Jitsuzumi@ 2022/1/25
社内講演会( )
4つの柱 実務者が直面している問題点 Recommendation
Organizational 適切な業績評価基準と自分たちの仕事に対する評価
の必要性を強調。
強力なリーダーシップは、従業員の能力を高め、レスポンシブルAI
をビジネス上の重要な課題とする上で極めて重要。
明確な成功基準、インセンティブ、トレーニングを確立することで、こ
れらの新しい役割やスキルを育て、責任感のあるAI文化を組織全
体に拡散し、AIシステムへの信頼を醸成することができる。
Operational ステークホルダーの不整合、官僚主義、相反する課題、
プロセスやオーナーシップが明確でないことが問題。
透明性のある、ドメインを超えた ガバナンス構造を確立。これらの
構造は、役割、期待、説明責任を明確にし、AI技術に対する社内の
信頼と信用を構築します。このような組織は、プロジェクトのライフ
サイクルを通じて、倫理原則を明確なプロセス、手順、指揮系統に
変換し、各アプリケーションの状況に応じたニーズを尊重します。早
い段階で領域横断的な倫理委員会を設置することが非常に有効。
Technical 最大の障壁の一つは、データ、モデル、結果の倫理的
な使用とアルゴリズムの影響を定義し、測定するため
の専門知識が不足していること。責任あるAIは、売上
高やクリックスルー率では測れないが、多くの企業は未
だにこれらの伝統的なパフォーマンス指標に依存。
潜在的なリスクを評価するために、実績のある定性・定量的な手法
を用いることで、緩和策について領域を超えた合意を獲得。
測定可能なパフォーマンス指標を明確に定義し、継続的なモニタリ
ング、コントロール、再評価の手法を確立。
Reputational 組織的、運用的、技術的に適切な基盤がなければ、組
織はレスポンシブルAIへの場当たり的なアプローチを
余儀なくされ、大きな風評被害にさらされる。
ビジネスの使命の明確化。レスポンシブル・ビジネスの主要指標を
継続的に測定・監視することで、リスクを管理し、透明性のあるコ
ミュニケーションを実現。
5. Recommendation on the Ethics of Artificial Intelligence(UNESCO, 2021/11/24)
• 価値
• 人権、基本的自由、および人間の尊厳の尊重・保護・向上
• 環境と生態系の繁栄
• 多様性と包括性の確保
• 平和的で、公正、かつ相互に結びついた社会での生活
• 原則
• 比例制と無害化
• 安全性とセキュリティ
• 公平・無差別
• 持続可能性
• プライバシー権、データ保護
• 人間による監視・決定
• 透明性と説明可能性
• 責任とアカウンタビリティ
• 認知とリテラシー
• マルチステークホルダーと適応的ガバナンス・協調
T.Jitsuzumi@ 2022/1/25
社内講演会( )
目的
透明性 説明可能性
理解可能性
Human in the loop
アカウンタビリティ
フェアネス
透明性
説明可能性
理解可能性
Human in the loop
アカウンタビリティ
目的:トラスト フェアネス
目的
特別ルールの
カバー範囲
7. Recommendation on the Ethics of Artificial Intelligence(UNESCO, 2021/11/24)
• UNESCOは、加盟国に対し、国際人権法を含む国際法に準拠した勧告の原則および規範を自国の
管轄内で有効にするために、各国家の憲法上の慣行および統治機構に準拠して、必要とされるあ
らゆる立法上の措置またはその他の措置を含む適切な措置を講じることにより、自発的にこの勧
告の規定を適用することを勧告する。
• また、UNESCOは、加盟国に対し、企業を含むすべての利害関係者が本勧告の実施においてそれ
ぞれの役割を果たすように関与し、AI技術に関わる公的、私的、市民社会の各分野の当局、団体、
研究・学術機関、機関、組織の注意を喚起し、AI技術の開発と使用が健全な科学的研究と倫理的
な分析・評価の両方によって導かれるようにすることを勧告する。
• 本勧告は、AIアクターとして、また、AIシステムのライフサイクル全体を通じた法規制の枠組
みを策定し、ビジネス上の責任を推進する責任を負う当局として、加盟国に宛てたものである。
また、AIシステムのライフサイクル全体における倫理的影響評価のための基礎を提供することに
より、官民を含むすべてのAI関係者に倫理的指針を提供する。
T.Jitsuzumi@ 2022/1/25
社内講演会( )
8. 人工知能学会倫理指針のケース
• 名宛人は学会員&学会員が開発する人工知能。
• ゆえに「jurisdiction」の問題はない。
1. 人類への貢献
2. 法規制の遵守
3. 他者のプライバシーの尊重
4. 公正性
5. 安全性
6. 誠実な振る舞い
7. 社会に対する責任
8. 社会との対話と自己研鑽
9. 人工知能への倫理遵守の要請
T.Jitsuzumi@ 2022/1/25
社内講演会( )
• にも拘わらず、学会員に遵守を求める仕組みはない。
• 人工知能学会幹部へのインタビューより
人工知能学会のまとめた倫理原則って遵守を求める仕組みとか、違反したときの
ペナルティとか、遵守状況のモニタリングとかの仕組みは持っているの?
学会幹部A
- 端的に答えるとないです。そもそも倫理*指針*なので、方向を示すだけで
強制力をもった規則ではないです。もちろん、この指針に明らかに反する行為
をする会員は定款の定めるところの(除名)9条2"この法人の名誉を傷つけ,
又は目的に反する行為をしたとき." あたりを適用する可能性はあると思いま
すが。
- まあ生命科学だと、特定の対象x特定の技術の規制とはありえるわけですど、
汎用技術であるAIではそうはいかないので、難しいと思います。そういう意味
でEU規制は意外ではあったけど、あれは外的要請であって内からではないし。
学会員B
- 話題には上がったけど、そんなリソースはないって話になったはず。
- 違反してる論文はリジェクトする根拠にできるという意図はあったはず。
- あとは、毎年ELSIにふさわしい研究を表彰してるくらいかな
9. 人工知能学会が「AI ELSI賞」創設 倫理活動を表彰
• 人工知能学会倫理委員会は1日、人工知能(AI)倫理や「社会とAIの関係性」に関
わる活動を表彰する「AI ELSI賞」を創設し、募集を始めた。7月31日に募集を締
め切り、審査を経て11月に表彰する。ELSIは倫理的(Ethical)、法的・社会的諸
問題(Legal and Social Issues)の略。
• 応募者・推薦者は同学会員に限るが、表彰対象は会員に限らず、研究者・企業・個
人も問わない。研究活動からワークショップ、製品やサービス、文学・評論・メ
ディア作品まで「AIに関して優れた倫理的視点を与えてくれたもの」「AIと社会の
関わり合いに関して深い洞察や影響力のある実践をおこなったもの」を対象とする。
「同賞を学会と社会をつなぐ位置付けにしたい」(倫理委員会の武田英明委員長)。
• 現在決まっている審査委員は武田氏を含む倫理委員会のメンバー3人のほか、メ
ディアアーティストで産業技術総合研究所の江渡浩一郎氏、慶応義塾大学大学院政
策・メディア研究科のクロサカタツヤ特任准教授、経済学を専門とする東北大学の
原山優子名誉教授、SF作家の藤井太洋氏、慶応義塾大学大学院法務研究科の山本龍
彦教授である。
• ディスクロージャー:記者は人工知能学会倫理委員会の外部委員だが、同賞の運営に
は関与していない。
(日経 xTECH/日経コンピュータ 浅川直輝)[日経 xTECH 2019年7月1日掲載]
T.Jitsuzumi@ 2022/1/25
社内講演会( )
10. AIガイドラインの限界
• 自主規制であるが故の限界(生貝, 2021)
• そもそも、ルールが作られない可能性
• ルール内容の不⼗分性、不公正性
• 実効性(エンフォースメント)の不⾜
• ルールを継続的に運⽤する安定的な業界団体等の形成維持困難
• 消費者をはじめとした利害関係者の参加不⾜(正統性の⽋如)
ペナルティが存在しない。
T.Jitsuzumi@ 2022/1/25
社内講演会( )
「今後の検討事項としては、非拘束的なガイドラインや原則
としての位置づけを明確にしつつ、次のステップとして、
「法定公表事項」や「法定事項」として当該原則を組み込ん
だルール作りを考える時期に来ているのではないだろうか。
つまり、実用・実装段階に向けた法規範としてAI 原則の活用
を考えるべきではないだろうか。」(新保, 2020, p.54)
例:公表手続と実際の取り扱い状況に乖離がある場合
の「不公正又は欺瞞的行為に基づく取引」(FTC 法第
5条)の適用
MEB
補助金τ導入後
の限界費用
MC=S-τ
• AIがGPTであるが故の限界
• 外部性の存在。
• ガイドライン遵守が名宛人以外に発生するメリッ
トを明示的に考慮する仕組みがなければ得られる
均衡は最適水準を外れる。
11. 法律による最低限の手当:外部性の内部化
• Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on Artificial
Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts(EC, 2021/4/21)
• 提案はEUの2つの立法機関であるEU理事会と欧州議会で審議され、場合によっては2022年の後半にも発効し、移行期間が始まる可能性が
ある。移行期間中にEUでは、AIの利用に関するさまざまな基準が策定され、ガバナンス体制が構築運用されるようになる。早ければ2024
年後半に、基準の整備と最初の適合性評価の実施に伴い、事業者への規則の適用が始まる見通し
• 日本で同じことを試みるならば、Japan-passingを防止する仕組みが必要(実積, 2021)
T.Jitsuzumi@ 2022/1/25
社内講演会( )
12. 最低水準を超えるのがAI倫理だとすれば…
• 問題はルール自体に強制力がなく、かつ、実施主体が民
間事業者であるということ
• 「空気」や「雰囲気」に押されたルール遵守はサス
テナブルではない
• 企業利潤を損ねると株主訴訟の対象、下手を
すれば背任
• 長続きするのは誘因両立性をもったルール
• 遵守することで利潤最大化が実現、もしくは、
遵守しないことで利潤が減少することがイン
センティブの源泉
• 誘因両立性を確保する手段としての市場圧力
• 倫理的なAIが提供する財・サービスが欲しい
• 倫理的なAIの利活用を行う企業に投資したい
T.Jitsuzumi@ 2022/1/25
社内講演会( )
求められるのは消費者や投資家への情報提供・教育
参考例としてのESG投資
佐藤(2019)
• 多くの企業が国以上の高い目標を打ち出して
いる背景には、温暖化対策が、ESG投資にお
いて重要な要素になっていることがある。機
関投資家の投資銘柄から化石燃料関係企業が
除外される(ダイペストメント)という動き
が広がっている。温暖化対策に優れたプロ
ジェクト向けのグリーンポンドの発行も年々
増えている。(p.39)
• ソフトローは、一見穏やかに見えるが、違反
した場合、投資家及ぴ消費者から見放される
ことにより、企業の存続が脅かされる。大企
業はソフトローの遵守状況について説明責任
を負担しており、その情報は瞬時に世界を駆
け巡ることとなる。(p.40)
• ESG投資とは、従来の財務情報だけでなく、環境(Environment)・社会
(Social)・ガバナンス(Governance)要素も考慮した投資。
• 日本では、投資にESGの視点を組み入れることなどを原則として掲げる国
連責任投資原則(PRI)に、日本の年金積立金管理運用独立行政法人
(GPIF)が2015年に署名したことを受け、ESG投資が拡大。
14. 機能しない外部インセンティブはむしろ害悪
環境の分野ではGREENWASH
という言葉があります。
• Greenwashing is the process of conveying a false impression
or providing misleading information about how a company‘s
products are more environmentally sound. Greenwashing is
considered an unsubstantiated claim to deceive consumers
into believing that a company’s products are
environmentally friendly.(グリーンウォッシュとは、ある企業
の製品がより環境に配慮したものであるという誤った印象を与え
たり、誤解を招くような情報を提供することです。グリーン
ウォッシュは、企業の製品が環境に配慮していると消費者を欺く
根拠のない主張と考えられます。)
T.Jitsuzumi@ 2022/1/25
社内講演会( )
Source: https://www.pinterest.jp/pin/578008933421011829/
15. AIの文脈で”Ethics Washing”という言葉が誕生する前に…
• ネット広告の分野ではすでに”Safety Washing”という言葉あるようです。
T.Jitsuzumi@ 2022/1/25
社内講演会( )
Source:https://www.reuters.com/technology/exclusive-google-aims-improve-
spotty-enforcement-childrens-ads-policy-2022-01-19/?fbclid=IwAR1HbJefhVleD4f1-
OvNyUvDdfAHm6WuuwFB03Rcn5qpP0ji4n9ju5ZWyu4
18. AIガバナンスの個別項目に関する主な取組(AIネットワーク社会推進会議 2021/9)
• セキュリティ
• 従来から産業規格等に基づくセキュリティ確保のための体制やルールをもとに、 AIに関するセキュリティ対策を実施
• AIに対する攻撃を検知する技術や攻撃を防御する技術に関する研究開発を実施
• 国内外の大学、研究機関等と共同研究を実施
• プライバシー
• 従来から法令等に基づく個人情報保護のための体制やルールをもとに AI に関するプライバシー保護に対応
• GDPRの遵守に関する責任者をグローバル体制で各地域・各部門に配置
• 取得した個人情報を委託先等が利用する可能性がある場合、守秘義務契約に個人情報の管理に関する事項を明記
• 公平性
• AIモデルを構築する際に、学習データや AIの判断結果に含まれるバイアスを確認(バイアスがある場合は、必要時応じて、除去)
• ワークショップを開催して、公平性の観点から重視すべき価値観を抽出・数値化し、 AIの開発に反映
• 最終的に人間が判断することにより、 AIの判断が顧客にダイレクトに不公平な結果を招かないように対応【Human in the loop】
• 透明性・アカウンタビリティ
• 顧客の理解・納得を得るために、説明可能な AIに関する技術・ツールを開発
• 設計や PoCの段階において、 AIの判断のロジックを顧客に説明し、納得を得てから運用・納品
• 学習データやモデル構築のプロセスに関するファクトシートを作成するとともに、標準化に向けた取組を実施
T.Jitsuzumi@ 2022/1/25
社内講演会( )
遵守されない場
合のペナルティ
の定めは未だ見
当たらない。
22. 失敗はむしろ美味しいと思うメンタル
T.Jitsuzumi@ 2022/1/25
社内講演会( )
出典:President Online
(https://president.jp/articles/-/50728?page=1)
• きっと…
イーロン・マスクが革新的だったのは、ギャラン
ティ型だった自動車業界に開発がスピーディでコ
ストも減らせるベスト・エフォート型を持ち込ん
だことだと言える。
ベスト・エフォート型だからこそ、テスラはわず
か12年間でEVの年間販売台数を5000倍にも増や
すことができたのだ。ただしその間、手ひどい失
敗も繰り返し、イーロンは批判の矢面に何度も立
ち続けた。精神力が桁外れに強靭でなければ耐え
られない手法でもある。
ベスト・エフォート型で自動運転開発を進める
イーロンは、これからも死亡事故が起きようとそ
の歩みを止めることはないだろう。たとえテスラ
の株価が下がろうとだ。