O slideshow foi denunciado.
Seu SlideShare está sendo baixado. ×

181208 inlaw ai utilization in the adminstrative process

Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Anúncio
Carregando em…3
×

Confira estes a seguir

1 de 36 Anúncio
Anúncio

Mais Conteúdo rRelacionado

Semelhante a 181208 inlaw ai utilization in the adminstrative process (20)

Mais de Akemi Yokota (18)

Anúncio

181208 inlaw ai utilization in the adminstrative process

  1. 1. 行政による AI 利活用に 伴う行政法上の課題 2018年12月8日 情報ネットワーク法学会 第2分科会「行政におけるAI・ロボットの利活用」 千葉大学 大学院社会科学研究院 准教授 横田明美 Akemi YOKOTA akemi@chiba-u.jp 本スライドも公開しています ↓ https://www.slideshare.net/akemiyokota83
  2. 2. 自己紹介 • 専門:行政法 • 「義務付け訴訟の機能」(弘文堂、2017) • 現在:情報法・環境法・消費者法の架橋 – 2016年研究大会:「ロボットと消費者保護」 – 総務省「AIネットワーク社会推進会議 影響 評価分科会」構成員 – 法解釈から法政策へ • 横田明美『カフェパウゼで法学を 対話で見つけ る〈学び方〉』(弘文堂、2018) p.2
  3. 3. これまでの著作 行政法 (市民から行政に対する訴訟) →環境法・情報法・消費者法 →『ロボット・AIと法』へ p.3
  4. 4. p.4
  5. 5. これまでの私論 「ロボット・AI法総論」と「ロボット・AI法各論」 • 私論:「ロボット・AI法総論」と「ロボッ ト・AI法各論」の必要性 – 総論の必要性と専門家集団の過少性 • 法と倫理と経済と技術すべてが分かる人は居ない – 参考:AI研究開発原則(案)・利活用原則(案) • 「専門性は相対的」を体現できるか – 各論における漸進的対応と問題点の洗い出し • 交通分野 • 介護分野・医療分野・・・境目が消失していくはず • 教育分野 • 災害対応(平時と有事の区別可能性含む) p.5
  6. 6. これまでの私論: AI利活用により生じる社会問題 • 課題1:IoT化→ブラックボックス化 – 製造物責任(モノ)とベストエフォート(イ ンターネット)の考え方が衝突する – データで学習し続ける・・・出荷後責任? – ヒトが理解可能か?という問題も • 課題2:アクターの多層化 誰の責任? • モノ/プログラム/ネットワークの3層構造 それぞれについての制作者・利用者関係 →業法規制(介護等)の交錯 p.6
  7. 7. これまでの私論: AI利活用により生じる社会問題 • 課題3:「取り残される人々」への対応 • デジタル・ディバイド • 「過少代表」・「過剰代表」 • 「デジタル・アーミッシュ」 • 課題4:個人の尊重との関係 • デジタルの世界に「正しく」「望むように」写し 取られるか • 自己責任論の限界 • 隠しておきたいことも「推知」? – 例)高校生の「妊娠」 • 健康診断の結果が悪くなると「信用」まで落ちる? p.7
  8. 8. これまでの私論: 本当に怖いシナリオ:「取り残される行政」 – 外国や民間で先にどんどん進むのに – 過少すぎる行政リソース – すすまない「真のデジタル化」 – 複雑化し分断される市民 – 「下位互換性」の罠 p.8
  9. 9. ここから今日の本題 行政による AI 利活用に注目した 行政法学としての考察を試みる p.9
  10. 10. 自治体戦略2040総務省自治体戦略2040構想研究会 第2次報告書(2018年7月) • 労働力人口低下に対応として「破壊的技術を 使いこなすスマート自治体への転換」 – 「全ての自治体で業務の自動化・省力化につなが る破壊的技術(AIやロボティクス、ブロック チェーンなど)を徹底的に使いこなす必要があ る」 – 「AI・ロボティクスが処理できる事務作業は全て AI・ロボティクスによって自動処理することによ り、職員は企画立案業務や住民への直接的なサー ビス提供など職員でなければできない業務に注力 するスマート自治体へと転換する必要がある」 p.10
  11. 11. 参考:想定されている自動化・省力化 (詳細は狩野先生報告に譲ります) • 情報提供型チャットボット、会議録作 成・要約サービス、定型業務の自動化、 災害情報集約、道路補修効率化、検索に よる職員業務支援、保育所マッチング、 介護サービスケアプラン作成、過疎地域 での「御用聞き」等 – 詳細については、稲継裕昭『AIで変わる自治 体業務-残る仕事、求められる人材』(ぎょ うせい、2018年)第2章(39-108頁)。 p.11
  12. 12. 本報告の検討課題 (近刊・自治実務セミナー2019年1月号9頁以下) • 「ロボット・AI総論」と「ロボット・AI 各論」の架橋としての行政による利活用 – これらの業務支援や自動化を進めていくにあ たって、これまでの行政法学が取り扱ってき た考え方とは、どのような関係にあるか • 手法:そろそろ実現する「AI利活用」 ユースケースを素材に、既存の紛争状態 の何を変更しうるのかを検討 – 保育所AIマッチングを例にする p.12
  13. 13. メタルールとしての「原則案」 • AIネットワーク社会推進会議 – 「AIソフト」(データ・情報・知識の学習等 により、利活用の過程を通じて自らの出力や プログラムを変化させる機能を有するソフト ウェア)を構成要素として含むシステム、と して定義されている「AIシステム」を前提 – 研究開発(報告書2017)と利活用(報告書 2018)それぞれについて、原則(案)を提示 – 「ガイドライン」としての役割 p.13
  14. 14. 参考:AI研究開発原則(案)(報告書2017) • ①連携の原則:相互接続性・相互運用性 • ②透明性の原則:検証可能性・判断結果の説明可 能性 • ③制御可能性の原則 • ④安全の原則:生命・身体・財産への危害防止 • ⑤セキュリティの原則 • ⑥プライバシーの原則:利用者・第三者 • ⑦倫理の原則:人間の尊厳と個人の自律 • ⑧利用者支援の原則:選択の機会 • ⑨アカウンタビリティの原則 p.14
  15. 15. 参考:AI利活用原則(案)(報告書2018) • ① 適正利用の原則 • ② 適正学習の原則 • ③ 連携の原則 • ④ 安全の原則 • ⑤ セキュリティの原則 • ⑥ プライバシーの原則 • ⑦ 尊厳・自律の原則 • ⑧ 公平性の原則 • ⑨ 透明性の原則 • ⑩ アカウンタビリティの原則 p.15
  16. 16. 行政法体系の3階層(行政作用法を念頭に) 【裁量審査の枠組みとの関係】 • ①憲法及び法の一般原則 – 平等原則、比例原則、透明性原則、効率性原 則等 • ②行政通則法 – 行政手続法・行政手続条例、情報取扱いに関 する法制度(情報公開・個人情報保護)等) • ③分野ごとの個別法令(下位規範含む) – 具体的な根拠規定において裁量が認められる 場合の審査は? p.16
  17. 17. 裁量処分の司法審査 • 実体的:判断過程統制 – ③個別法の趣旨解釈で判断要素の選択や判断 過程の合理性を審査 – 合理性審査のなかに、「社会観念」との関係 で①「法の一般原則」が取り込まれている • 手続的:手続的瑕疵 – ②の行政手続法・行政手続条例は審査基準の 設定公表や理由付記を求めている p.17
  18. 18. 保育所AIマッチングとは • 富士通が実証実験を経てリリース • 「業界初!AIを搭載した「MICJET MISALIO 保育 所AI入所選考」ソフト提供開始 千人規模の児童 のきめ細かな保育所割り当てをわずか数秒で算 出」(2018年11月12日付) (http://pr.fujitsu.com/jp/news/2018/11/12. html) • 日経 xTECH/日経コンピュータ 玄忠雄記者「保 育所の入所選考わずか数秒で 富士通、AIで自動 化」2018年11月12日掲載記事 (https://www.nikkei.com/article/DGXMZO37 685460T11C18A1000000/) p.18
  19. 19. 「保育所入所審査の問題点を解決」 • 現状の保育所入所選考業務の多大な負担 – は各自治体が定める申請者の優先順位やきょ うだい同一入所希望などの複雑な条件 – 選考作業に10日以上 • AI入所選考ソフト – 「ゲーム理論と呼ばれる利害が一致しない 人々の関係を合理的に解決する数理手法を応 用」して、「優先順位に沿って可能な限り全 員が高い希望をかなえられる千人規模の割り 当てを数秒で導き出」す p.19
  20. 20. 「保育所入所審査の問題点を解決」 • AI入所選考ソフト – 「AIは画像認識などで広く使われている深層学習 (ディープラーニング)ではなく、ゲーム理論と ルールベースの推論を組み合わせた独自の方法を 新たに開発した。このアルゴリズムだと判断の根 拠に影響した因子を提示できる。ソフトウエアで は画面に示した因子を基に、自治体職員が保護者 になぜ希望通りに入所できなかったかを説明でき る」 – 「原則案」が前提にしているAIシステムとは異な る(?)ことに注意 p.20
  21. 21. 現状の保育所入所不承諾決定を巡る紛争 • 行政不服審査答申例でも多い – 児童福祉法24条における裁量行使について、 基準の合理性審査ではなく、個別事情考慮義 務違反(同一こども園内での幼稚園部→保育 園部への異動)を捉えて処分取消しを妥当と 判断した答申 – 審査基準の不公表(行政手続法5条3項)、理 由付記(行政手続法8条)が問題となり、取 消しを答申するもの p.21
  22. 22. 入所不承諾を巡る国家賠償訴訟 • 京都地判平成25年1月17日(平成24年(ワ)第 207号)、大阪高判平成25年7月11日(平成25年 (ネ)第516号)(保育情報453号(2014年8月 号)66-77頁) • 争点 – 児童福祉法24条の裁量行使 (今回は略) – 審査基準を設定したのに非公表(行政手続法5 条3項) – 理由付記(行政手続法8条)が足りない p.22
  23. 23. 審査基準の設定と公表 • 「保育所入所選考方法」及び「選考基準 取扱要領」 – 行政側:前者は審査基準(行政手続法5条1 項)であるが後者は内部資料であると考えて いた – 裁判所:後者も公表すべき「審査基準」 p.23
  24. 24. 理由付記(8条1項・2項)の程度 • 理由付記の趣旨(通説的説明): – 「行政庁の判断を慎重ならしめ、処分の理由を申 請者に知らせて不服の申立てに便宜を与える意図 の下に置かれたもの」(後掲・京都地裁) • 本件の理由付記:通知書には定型印字文に 「○」印を付す方法により、本件処分の理由 が「入所希望者が多数のため、選考した結果 により、入所できません」とのみ記載されて いた p.24
  25. 25. 理由付記(8条1項・2項)の程度 第一審・京都地裁の要求する書面の記載レベル – 「行政庁がどのような事実認識に基づき、そのよ うな審査基準へのあてはめをしたのかが分かるよ うな理由を記載しなければなら」ず、またその程 度においても「処分の理由は書面の記載自体から 相手方の知り得るように示さなければならない (昭和60年1月22日最高裁判所第三小法廷判決・ 民集39巻1号1頁参照)」 – 本件通知書外の事情を斟酌して理由付記が足りて いるかどうかを判断すべきではない – 通知書外での説明をしたことによって理由付記の 違法が治癒されるものではない p.25
  26. 26. 理由付記(8条1項・2項)の程度 控訴審・大阪地裁の指摘「他の児童のプライバシー」 – 「本件処分の理由をより具体的に記載すると なると、その性質上、他の児童の具体的な養 育状況、各家庭における保護者の勤務状況等 のプライバシーに亘る具体的事情との比較が 問題とならざるを得ず、各希望者が相当に近 くに居住する者であると推測されることに照 らしても、更にその具体的事情まで踏み込ん で本件通知書に記載することは、被控訴人の 福祉事務所としては困難を伴う」 p.26
  27. 27. 保育所AIマッチングの可能性と課題 • 公開すべき「審査基準」の範囲 – 人間が判読可能な「審査基準」を適切に機械 可読可能性のあるかたちに写し取れるのか – 公開されている審査基準が「適切に写し取ら れたこと」の説明も「審査基準」か • 2重の「ブラックボックス」 – 行政内部の意思決定過程における(最終利用 者)である行政職員にとっての透明性 – 行政外部関係での(間接利用者である)入所 希望申込者にとっての透明性 p.27
  28. 28. 参考:報告書2018 51p以下「関係する主体の整理」 p.28
  29. 29. p.29
  30. 30. 保育所AIマッチングの可能性と課題 • 十分な理由付記とは – 「定型文に丸」よりはマシになる・・・? – 因子は説明可能、ということの意味 – 最判昭和39年の枠組みを維持できるか – 他者のプライバシーを侵さずに説明できる か? p.30
  31. 31. 保育所AIマッチングの可能性と課題 • そもそも論として:法制度設計の無理 – 児童福祉法:本来「給付」・二者関係 – 実際:「競争・分配」多数者関係の状況に なっている • しかも:人間の能力では調整しきれない可能性 「人間でもできないことを、機械がやろうとし ているだけで批判される」状況なのか? p.31
  32. 32. 既存の法体系が守ってきた価値とのすり合わせ • 法的な正当性とは、何か – 「AIは学習したデータから確率的に判断」するこ とを前提とした裁量審査の枠組み – では、人間の判断の「正当性」は本当に担保でき るのか? – 手続によって守られてきた価値とその具体的密度 の関係 • 「すべてクリアできなければ導入不可」か – 「いままで、本当に人間もやってきていたの?」 • 自動運転と高齢者運転、「権限のある人」の最低ライ ン問題 – リスク・トレードオフの問題 p.32
  33. 33. デジタルの世界に「正しく」「望むように」写 し取られるか、という問題 • 過少代表問題は、コミュニティ単位の代表性 だけでなく、考慮事項単位、あるいは観点の 見落としという形でも生じる • 現実においてデータ化されていない価値や要 素の抜け落ちは、過渡的段階における危難 – 保育所:数値化・データ化された基準に従う「公 平性」が一応社会的にも承認されつつある – 他の分野:それほどまでに緻密な審査基準設計、 包括的なデータ取得がなされているとは思えない p.33
  34. 34. 参考文献一覧 • 本報告を原稿化したもの: – 横田明美「行政によるAIの利活用と行政法学 の課題」自治実務セミナー2019年1月号9- 13頁掲載予定 p.34
  35. 35. 参考文献一覧 • 総務省自治体戦略2040構想研究会「総務省自治体戦略2040 構想研究会第二次報告~人口減少下において満足度の高い人 生と人間を尊重する社会をどう構築するか~」(平成30年7 月) (http://www.soumu.go.jp/main_content/000562117.p df) • AIネットワーク社会推進会議「報告書 2017 -AIネット ワーク化に関する国際的な議論の推進に向けて-」(平成29 年7月28日) (http://www.soumu.go.jp/main_content/000499624.p df) • AIネットワーク社会推進会議「報告書 2018-AIの利活用 の促進及びAIネットワーク化の健全な進展に向けて-」(平 成30年7月17日) (http://www.soumu.go.jp/main_content/000564147.p df) p.35
  36. 36. 参考文献一覧 • 山本龍彦『おそろしいビッグデータ 超類型化AI社会のリスク』 (朝日新書、2017年) • 山本龍彦「序章 AIと憲法問題」同(編著)『AIと憲法』(日本経 済新聞出版社、2018年)17-58頁。 • 稲継裕昭『AIで変わる自治体業務-残る仕事、求められる人材』 (ぎょうせい、2018年) • 弥永真生・宍戸常寿(編)『ロボット・AIと法』(有斐閣、2018 年) – 横田明美「第5章 ロボット・AIの行政規制」同書103-130頁 • クロサカタツヤ=横田明美「AIやモリカケ問題を通して行政法研究 者が語る日本の行方はどっちだ?」(連載・クロサカタツヤのネ オ・ビジネス・マイニング第52回)サイゾー2018年5月94-96頁 • 「AI 社会における行政規制・行政によるAI の活用に向けて」ビジ ネス法務2018年2月号80-81頁 • 「AI・ロボット社会の進展に伴うリスクに対する環境法政策の応用 可能性」環境法研究7号71-88頁 p.36

×