行政による AI 利活用に
伴う行政法上の課題
2018年12月8日
情報ネットワーク法学会
第2分科会「行政におけるAI・ロボットの利活用」
千葉大学 大学院社会科学研究院 准教授
横田明美 Akemi YOKOTA
akemi@chiba-u.jp
本スライドも公開しています ↓
https://www.slideshare.net/akemiyokota83
自己紹介
• 専門:行政法
• 「義務付け訴訟の機能」(弘文堂、2017)
• 現在:情報法・環境法・消費者法の架橋
– 2016年研究大会:「ロボットと消費者保護」
– 総務省「AIネットワーク社会推進会議 影響
評価分科会」構成員
– 法解釈から法政策へ
• 横田明美『カフェパウゼで法学を 対話で見つけ
る〈学び方〉』(弘文堂、2018)
p.2
これまでの著作
行政法 (市民から行政に対する訴訟)
→環境法・情報法・消費者法
→『ロボット・AIと法』へ
p.3
p.4
これまでの私論
「ロボット・AI法総論」と「ロボット・AI法各論」
• 私論:「ロボット・AI法総論」と「ロボッ
ト・AI法各論」の必要性
– 総論の必要性と専門家集団の過少性
• 法と倫理と経済と技術すべてが分かる人は居ない
– 参考:AI研究開発原則(案)・利活用原則(案)
• 「専門性は相対的」を体現できるか
– 各論における漸進的対応と問題点の洗い出し
• 交通分野
• 介護分野・医療分野・・・境目が消失していくはず
• 教育分野
• 災害対応(平時と有事の区別可能性含む)
p.5
これまでの私論:
AI利活用により生じる社会問題
• 課題1:IoT化→ブラックボックス化
– 製造物責任(モノ)とベストエフォート(イ
ンターネット)の考え方が衝突する
– データで学習し続ける・・・出荷後責任?
– ヒトが理解可能か?という問題も
• 課題2:アクターの多層化 誰の責任?
• モノ/プログラム/ネットワークの3層構造
それぞれについての制作者・利用者関係
→業法規制(介護等)の交錯
p.6
これまでの私論:
AI利活用により生じる社会問題
• 課題3:「取り残される人々」への対応
• デジタル・ディバイド
• 「過少代表」・「過剰代表」
• 「デジタル・アーミッシュ」
• 課題4:個人の尊重との関係
• デジタルの世界に「正しく」「望むように」写し
取られるか
• 自己責任論の限界
• 隠しておきたいことも「推知」?
– 例)高校生の「妊娠」
• 健康診断の結果が悪くなると「信用」まで落ちる?
p.7
これまでの私論:
本当に怖いシナリオ:「取り残される行政」
– 外国や民間で先にどんどん進むのに
– 過少すぎる行政リソース
– すすまない「真のデジタル化」
– 複雑化し分断される市民
– 「下位互換性」の罠
p.8
ここから今日の本題
行政による AI 利活用に注目した
行政法学としての考察を試みる
p.9
自治体戦略2040総務省自治体戦略2040構想研究会
第2次報告書(2018年7月)
• 労働力人口低下に対応として「破壊的技術を
使いこなすスマート自治体への転換」
– 「全ての自治体で業務の自動化・省力化につなが
る破壊的技術(AIやロボティクス、ブロック
チェーンなど)を徹底的に使いこなす必要があ
る」
– 「AI・ロボティクスが処理できる事務作業は全て
AI・ロボティクスによって自動処理することによ
り、職員は企画立案業務や住民への直接的なサー
ビス提供など職員でなければできない業務に注力
するスマート自治体へと転換する必要がある」
p.10
参考:想定されている自動化・省力化
(詳細は狩野先生報告に譲ります)
• 情報提供型チャットボット、会議録作
成・要約サービス、定型業務の自動化、
災害情報集約、道路補修効率化、検索に
よる職員業務支援、保育所マッチング、
介護サービスケアプラン作成、過疎地域
での「御用聞き」等
– 詳細については、稲継裕昭『AIで変わる自治
体業務-残る仕事、求められる人材』(ぎょ
うせい、2018年)第2章(39-108頁)。
p.11
本報告の検討課題
(近刊・自治実務セミナー2019年1月号9頁以下)
• 「ロボット・AI総論」と「ロボット・AI
各論」の架橋としての行政による利活用
– これらの業務支援や自動化を進めていくにあ
たって、これまでの行政法学が取り扱ってき
た考え方とは、どのような関係にあるか
• 手法:そろそろ実現する「AI利活用」
ユースケースを素材に、既存の紛争状態
の何を変更しうるのかを検討
– 保育所AIマッチングを例にする
p.12
メタルールとしての「原則案」
• AIネットワーク社会推進会議
– 「AIソフト」(データ・情報・知識の学習等
により、利活用の過程を通じて自らの出力や
プログラムを変化させる機能を有するソフト
ウェア)を構成要素として含むシステム、と
して定義されている「AIシステム」を前提
– 研究開発(報告書2017)と利活用(報告書
2018)それぞれについて、原則(案)を提示
– 「ガイドライン」としての役割
p.13
参考:AI研究開発原則(案)(報告書2017)
• ①連携の原則:相互接続性・相互運用性
• ②透明性の原則:検証可能性・判断結果の説明可
能性
• ③制御可能性の原則
• ④安全の原則:生命・身体・財産への危害防止
• ⑤セキュリティの原則
• ⑥プライバシーの原則:利用者・第三者
• ⑦倫理の原則:人間の尊厳と個人の自律
• ⑧利用者支援の原則:選択の機会
• ⑨アカウンタビリティの原則
p.14
参考:AI利活用原則(案)(報告書2018)
• ① 適正利用の原則
• ② 適正学習の原則
• ③ 連携の原則
• ④ 安全の原則
• ⑤ セキュリティの原則
• ⑥ プライバシーの原則
• ⑦ 尊厳・自律の原則
• ⑧ 公平性の原則
• ⑨ 透明性の原則
• ⑩ アカウンタビリティの原則
p.15
行政法体系の3階層(行政作用法を念頭に)
【裁量審査の枠組みとの関係】
• ①憲法及び法の一般原則
– 平等原則、比例原則、透明性原則、効率性原
則等
• ②行政通則法
– 行政手続法・行政手続条例、情報取扱いに関
する法制度(情報公開・個人情報保護)等)
• ③分野ごとの個別法令(下位規範含む)
– 具体的な根拠規定において裁量が認められる
場合の審査は?
p.16
裁量処分の司法審査
• 実体的:判断過程統制
– ③個別法の趣旨解釈で判断要素の選択や判断
過程の合理性を審査
– 合理性審査のなかに、「社会観念」との関係
で①「法の一般原則」が取り込まれている
• 手続的:手続的瑕疵
– ②の行政手続法・行政手続条例は審査基準の
設定公表や理由付記を求めている
p.17
保育所AIマッチングとは
• 富士通が実証実験を経てリリース
• 「業界初!AIを搭載した「MICJET MISALIO 保育
所AI入所選考」ソフト提供開始 千人規模の児童
のきめ細かな保育所割り当てをわずか数秒で算
出」(2018年11月12日付)
(http://pr.fujitsu.com/jp/news/2018/11/12.
html)
• 日経 xTECH/日経コンピュータ 玄忠雄記者「保
育所の入所選考わずか数秒で 富士通、AIで自動
化」2018年11月12日掲載記事
(https://www.nikkei.com/article/DGXMZO37
685460T11C18A1000000/)
p.18
「保育所入所審査の問題点を解決」
• 現状の保育所入所選考業務の多大な負担
– は各自治体が定める申請者の優先順位やきょ
うだい同一入所希望などの複雑な条件
– 選考作業に10日以上
• AI入所選考ソフト
– 「ゲーム理論と呼ばれる利害が一致しない
人々の関係を合理的に解決する数理手法を応
用」して、「優先順位に沿って可能な限り全
員が高い希望をかなえられる千人規模の割り
当てを数秒で導き出」す
p.19
「保育所入所審査の問題点を解決」
• AI入所選考ソフト
– 「AIは画像認識などで広く使われている深層学習
(ディープラーニング)ではなく、ゲーム理論と
ルールベースの推論を組み合わせた独自の方法を
新たに開発した。このアルゴリズムだと判断の根
拠に影響した因子を提示できる。ソフトウエアで
は画面に示した因子を基に、自治体職員が保護者
になぜ希望通りに入所できなかったかを説明でき
る」
– 「原則案」が前提にしているAIシステムとは異な
る(?)ことに注意
p.20
現状の保育所入所不承諾決定を巡る紛争
• 行政不服審査答申例でも多い
– 児童福祉法24条における裁量行使について、
基準の合理性審査ではなく、個別事情考慮義
務違反(同一こども園内での幼稚園部→保育
園部への異動)を捉えて処分取消しを妥当と
判断した答申
– 審査基準の不公表(行政手続法5条3項)、理
由付記(行政手続法8条)が問題となり、取
消しを答申するもの
p.21
入所不承諾を巡る国家賠償訴訟
• 京都地判平成25年1月17日(平成24年(ワ)第
207号)、大阪高判平成25年7月11日(平成25年
(ネ)第516号)(保育情報453号(2014年8月
号)66-77頁)
• 争点
– 児童福祉法24条の裁量行使 (今回は略)
– 審査基準を設定したのに非公表(行政手続法5
条3項)
– 理由付記(行政手続法8条)が足りない
p.22
審査基準の設定と公表
• 「保育所入所選考方法」及び「選考基準
取扱要領」
– 行政側:前者は審査基準(行政手続法5条1
項)であるが後者は内部資料であると考えて
いた
– 裁判所:後者も公表すべき「審査基準」
p.23
理由付記(8条1項・2項)の程度
• 理由付記の趣旨(通説的説明):
– 「行政庁の判断を慎重ならしめ、処分の理由を申
請者に知らせて不服の申立てに便宜を与える意図
の下に置かれたもの」(後掲・京都地裁)
• 本件の理由付記:通知書には定型印字文に
「○」印を付す方法により、本件処分の理由
が「入所希望者が多数のため、選考した結果
により、入所できません」とのみ記載されて
いた
p.24
理由付記(8条1項・2項)の程度
第一審・京都地裁の要求する書面の記載レベル
– 「行政庁がどのような事実認識に基づき、そのよ
うな審査基準へのあてはめをしたのかが分かるよ
うな理由を記載しなければなら」ず、またその程
度においても「処分の理由は書面の記載自体から
相手方の知り得るように示さなければならない
(昭和60年1月22日最高裁判所第三小法廷判決・
民集39巻1号1頁参照)」
– 本件通知書外の事情を斟酌して理由付記が足りて
いるかどうかを判断すべきではない
– 通知書外での説明をしたことによって理由付記の
違法が治癒されるものではない
p.25
理由付記(8条1項・2項)の程度
控訴審・大阪地裁の指摘「他の児童のプライバシー」
– 「本件処分の理由をより具体的に記載すると
なると、その性質上、他の児童の具体的な養
育状況、各家庭における保護者の勤務状況等
のプライバシーに亘る具体的事情との比較が
問題とならざるを得ず、各希望者が相当に近
くに居住する者であると推測されることに照
らしても、更にその具体的事情まで踏み込ん
で本件通知書に記載することは、被控訴人の
福祉事務所としては困難を伴う」
p.26
保育所AIマッチングの可能性と課題
• 公開すべき「審査基準」の範囲
– 人間が判読可能な「審査基準」を適切に機械
可読可能性のあるかたちに写し取れるのか
– 公開されている審査基準が「適切に写し取ら
れたこと」の説明も「審査基準」か
• 2重の「ブラックボックス」
– 行政内部の意思決定過程における(最終利用
者)である行政職員にとっての透明性
– 行政外部関係での(間接利用者である)入所
希望申込者にとっての透明性
p.27
参考:報告書2018 51p以下「関係する主体の整理」
p.28
p.29
保育所AIマッチングの可能性と課題
• 十分な理由付記とは
– 「定型文に丸」よりはマシになる・・・?
– 因子は説明可能、ということの意味
– 最判昭和39年の枠組みを維持できるか
– 他者のプライバシーを侵さずに説明できる
か?
p.30
保育所AIマッチングの可能性と課題
• そもそも論として:法制度設計の無理
– 児童福祉法:本来「給付」・二者関係
– 実際:「競争・分配」多数者関係の状況に
なっている
• しかも:人間の能力では調整しきれない可能性
「人間でもできないことを、機械がやろうとし
ているだけで批判される」状況なのか?
p.31
既存の法体系が守ってきた価値とのすり合わせ
• 法的な正当性とは、何か
– 「AIは学習したデータから確率的に判断」するこ
とを前提とした裁量審査の枠組み
– では、人間の判断の「正当性」は本当に担保でき
るのか?
– 手続によって守られてきた価値とその具体的密度
の関係
• 「すべてクリアできなければ導入不可」か
– 「いままで、本当に人間もやってきていたの?」
• 自動運転と高齢者運転、「権限のある人」の最低ライ
ン問題
– リスク・トレードオフの問題
p.32
デジタルの世界に「正しく」「望むように」写
し取られるか、という問題
• 過少代表問題は、コミュニティ単位の代表性
だけでなく、考慮事項単位、あるいは観点の
見落としという形でも生じる
• 現実においてデータ化されていない価値や要
素の抜け落ちは、過渡的段階における危難
– 保育所:数値化・データ化された基準に従う「公
平性」が一応社会的にも承認されつつある
– 他の分野:それほどまでに緻密な審査基準設計、
包括的なデータ取得がなされているとは思えない
p.33
参考文献一覧
• 本報告を原稿化したもの:
– 横田明美「行政によるAIの利活用と行政法学
の課題」自治実務セミナー2019年1月号9-
13頁掲載予定
p.34
参考文献一覧
• 総務省自治体戦略2040構想研究会「総務省自治体戦略2040
構想研究会第二次報告~人口減少下において満足度の高い人
生と人間を尊重する社会をどう構築するか~」(平成30年7
月)
(http://www.soumu.go.jp/main_content/000562117.p
df)
• AIネットワーク社会推進会議「報告書 2017 -AIネット
ワーク化に関する国際的な議論の推進に向けて-」(平成29
年7月28日)
(http://www.soumu.go.jp/main_content/000499624.p
df)
• AIネットワーク社会推進会議「報告書 2018-AIの利活用
の促進及びAIネットワーク化の健全な進展に向けて-」(平
成30年7月17日)
(http://www.soumu.go.jp/main_content/000564147.p
df)
p.35
参考文献一覧
• 山本龍彦『おそろしいビッグデータ 超類型化AI社会のリスク』
(朝日新書、2017年)
• 山本龍彦「序章 AIと憲法問題」同(編著)『AIと憲法』(日本経
済新聞出版社、2018年)17-58頁。
• 稲継裕昭『AIで変わる自治体業務-残る仕事、求められる人材』
(ぎょうせい、2018年)
• 弥永真生・宍戸常寿(編)『ロボット・AIと法』(有斐閣、2018
年)
– 横田明美「第5章 ロボット・AIの行政規制」同書103-130頁
• クロサカタツヤ=横田明美「AIやモリカケ問題を通して行政法研究
者が語る日本の行方はどっちだ?」(連載・クロサカタツヤのネ
オ・ビジネス・マイニング第52回)サイゾー2018年5月94-96頁
• 「AI 社会における行政規制・行政によるAI の活用に向けて」ビジ
ネス法務2018年2月号80-81頁
• 「AI・ロボット社会の進展に伴うリスクに対する環境法政策の応用
可能性」環境法研究7号71-88頁
p.36

181208 inlaw ai utilization in the adminstrative process