SlideShare uma empresa Scribd logo
1 de 42
Baixar para ler offline
人工知能倫理指針における
プライバシーの扱い
中川裕志
東京大学 情報基盤センター/
理化学研究所 革新知能総合研究センター
社会における人工知能研究グループ長
情報ネットワーク法学会 大会
2017/11/12 第8分科会 発表資料
人工知能倫理指針における
プライバシーの扱い
中川裕志
東京大学 情報基盤センター/
理化学研究所 革新知能総合研究センター
社会における人工知能研究グループ長
法律の一歩手前でグダグダ
としている状況
以下のスライドの画像はPowerPoint2016で
検索した Creative Commonsである。
人工知能の倫理においてプライバ
シーを取り上げている組織
• 総務省 AIネットワーク社会推進委員会
• AI開発ガイドライン OECDに提案 9項目
• 人工知能学会 倫理委員会 9項目
• Future of Life Intsitute
• ASILOMAR AI PRINCIPLES 23項目
• IEEE
• Global Initiative for Ethical Considerations in Artificial Intelligence and
Autonomous Systems
• 第1版 8章、  第2版 13章
• EU
• GDPR22条
総務省
国際的な議論のためのAI開発ガイドライン
• ⑥プライバシーの原則
• 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ
れないよう配慮する。
• AIシステムのプライバシー侵害のリスクについて、あ
らかじめ影響評価を行うよう努めるとともに、
• 開発の過程を通じて、採用する技術の特性に照らし可能な
範囲で措置を講ずるよう努めることが望ましい(プライバ
シー・バイ・デザイン)。
AIには人間では対応できない。
AIにはAIで対応するしかない
AIAI
総務省
国際的な議論のためのAI開発ガイドライン
• ⑥プライバシーの原則
• 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ
れないよう配慮する。
• AIシステムのプライバシー侵害のリスクについて、あ
らかじめ影響評価を行うよう努めるとともに、
• 開発の過程を通じて、採用する技術の特性に照らし可能な
範囲で措置を講ずるよう努めることが望ましい(プライバ
シー・バイ・デザイン)。
人間にはできない。AIにAIを
評価させるような難しい話
総務省
国際的な議論のためのAI開発ガイドライン
• 関連記述
• データ・情報の流通と個人情報保護・プライバシーとのバラ
ンス
• 例えば、価値の高いデータ(カメラが撮影した画像等)の
取得や利活用に当たっての
• 本人同意の在り方等が問題となる可能性
• AIシステムが取り扱うデータ・情報の性質
• 例えば、プライバシー性や機密性が高いデータ・情報に
ついては、特に慎重な取扱いが必要
• 例えば、AI生成物や学習用データ等に関し、知財制度
上の取扱いが問題となる可能性
総務省
国際的な議論のためのAI開発ガイドライン
• 関連記述
• データ・情報の流通と個人情報保護・プライバシーとのバラ
ンス
• 例えば、価値の高いデータ(カメラが撮影した画像等)の
取得や利活用に当たっての
• 本人同意の在り方等が問題となる可能性
• AIシステムが取り扱うデータ・情報の性質
• 例えば、プライバシー性や機密性が高いデータ・情報に
ついては、特に慎重な取扱いが必要
• 例えば、AI生成物や学習用データ等に関し、知財制度
上の取扱いが問題となる可能性
将来課題を捉えている
将来課題を捉えている
人工知能学会 倫理指針
• (他者のプライバシーの尊重)
• 人工知能学会会員は、人工知能の利用および開
発において、他者のプライバシーを尊重し、関連
する法規に則って個人情報の適正な取扱いを行う
義務を負う
FLI: ASILOMAR AI PRINCIPLES
• 12) 個人のプライバシー: 人々は、人工知能システム
が個人のデータ分析し利用して生み出したデータに対
し、自らアクセスし、管理し、制御する権利を持つべき
である。
• 13) 自由とプライバシー:個人のデータに対する人工知
能の適用を通じて、個人が本来持つまたは持つはず
の自由を不合理に侵害してはならない。
日本の組織の基準に比べて具体的
GDPR22条の「プロファイリングに対抗する権利」の強
化版
FLI: ASILOMAR AI PRINCIPLES
• 12) 個人のプライバシー: 人々は、人工知能システム
が個人のデータ分析し利用して生み出したデータに対
し、自らアクセスし、管理し、制御する権利を持つべき
である。
• 13) 自由とプライバシー:個人のデータに対する人工知
能の適用を通じて、個人が本来持つまたは持つはず
の自由を不合理に侵害してはならない。
日本の組織の基準に比べて具体的
GDPR22条の「プロファイリングに対抗する権利」の強
化版
AIの恣意的な悪用を禁じてい
る。日本人のAI性善説じゃこ
の発想は出てこない!!!
AIの悪用
AIAIの判断に従わない
権利を持つ社会が必
要
 実際はどう実装?
AIがお前
にやれと
判断した
んだよ。こんな無理な
仕事、なんで私
がしなきゃいけ
ないの?
IEEE Global Initiative for Ethical
Considerations in Artificial Intelligence and
Autonomous Systems
• Personal Data and Individual Access Control
•
• Digital Personas
• Regional Jurisdiction
• Agency and Control
• Transparency and Access
• Symmetry
• Children’s Issues
• Appendices
特徴 : 具体的
• IEEEの人工知能倫理基準は、次ページ以降に述
べるように、さらに具体的。
• 開発目的も明確で、AIが実現する機能も見えやす
い。
• 別の項目でも抽象的概念ではなく、技術的な具体
性が高い。
• 以下のようなWGが基準つくり作業をしている
•
• IEEE P7002: Data Privacy Process
• IEEE P7004: Standard on Child and Student Data
Governance
• IEEE P7005: Standard on Employer Data
Governance
• IEEE P7006: Standard on Personal Data AI Agent
Working Group
•
Digital Persona:
妊娠から墓場までカバーするAI代理人
• 出産以前のヘルスケアレコード
• 誕生における市民権(ディジタル市民権) 政府データ
• 就学
• 移動
• 国境を超える場合 (immigration data)
• 消費行動
• IoT and wearables (telecommunications data)
• SNS、ディジタルメディア
• 職業訓練
• 社会参加
• 契約、事故対応、保険、金融
• 死亡(ディジタル遺産の処理)
Regional Jurisdiction
• 法律は国ごとに違うが
• 基本的人権(プライバシー権)を確実にするために
• 自分のデータに対するアクセスと制御が
国境を越えてできなくてはならない。
Agency and Control
• Agency(代理人)の仕事の範囲を決めるために、
personally identifiable information (PII)の定義の
明確化が必要。
• 個人データの収集と転移に対して、GDPRの精神に
則ったポリシーに依拠すべき
個人は信頼できるID認証にアク
セスできること
• 認証されたIDで金融、政府、通信などのサービス
を受けることを保証するAI
Transparency and Access
• データ主体は自分の個人データがどう収集され、
利用され、蓄積され、ないし廃棄されるかを知る権
利
• 訂正する権利と簡便なインタフェースが必要
• これをAI技術で実現すべき
•
PIAを分析、確認するツールを
AIで実現
• GDPR Privacy Impact assessmentsを参考にする
• AIによるPIAアセスメントツールは企業に供給され、製品
やサービスの安全性を確保
• 個人データの収集と利活用が法制度を守っていること
を保証する AI を開発
同意の取り方
• AIを理解しないデータ主体からデータ収集するにあ
たって、有効な同意をとるAIの開発
• 同意は1回取ればおしまいではなく、状況変化におい
て随時とれるようなAIシステム
• 被雇用者<<雇用者
という力関係をバランスさせるような同意とためのAIシ
ステムが必要
• 労使関係では、明確な同意のない場合を多数見られるので、
それを改善すべき
同意の取り方:情報弱者対応
• 高齢者や非健常者などの情報弱者がプライバ
シー保護で置いてけぼりを食わないような
同意ないし利用監視システムをAIを利用して構築
• 子供は親が代理するにしても、それ以外の情報弱
者対策は喫緊の課題  AIの出番
まとめ
• 以上は倫理指針なので、個人情報保護法のような
法制度とは趣が違う
• 個人情報とAIの関係には、法制度の側からも着目
しておく必要あり。
• 将来の立法措置、ガイドライン、政令などの中にど
う位置付けていくかが課題
付録:原文資料
Digital Persona: Birth to Death
• Pre-birth to post life digital records (health data)
• Birth and the right to claim citizenship (government data)
• Enrolment in school (education data)
• Travel and services (transport data)
• Cross border access and visas (immigration data)
• Consumption of goods and services (consumer and loyalty data)
• Connected devices, IoT and wearables (telecommunications data)
• Social and news networks (media and content data)
• Professional training, internship and work (tax and employment data)
• Societal participation (online forums, voting and party affiliation data)
• Contracts, assets and accidents (insurance and legal data)
• Financial participation (banking and finance data)
• Death (digital inheritance data).
• Issue:
• How can AI interact with government authorities to facilitate law enforcement and intelligence collection while respecting rule of law
and transparency for users?
•
Background:
• Government mass surveillance has been a major issue since allegations of collaboration between technology firms and signals intelligence
agencies such as the US National Security Agency and the UK Government Communications Headquarters were revealed. Further
attempts to acquire personal data by law enforcement agencies such as the US Federal Bureau of Investigation have complicated settled
legal methods of search and seizure. A major source of the problem concerns the current framework of data collection and storage, which
puts corporate organizations in custody of personal data and detached from the generators of that information. Further complicating this
concern is the legitimate interest that security services have in trying to deter and defeat criminal and national security threats.
•
Candidate Recommendations:
• Personal privacy AIs have the potential to change the data paradigm and put the generators of personal information at the centre of
collection. This would re-define the security services’ investigative methods to pre-Internet approaches wherein individuals would be able
to control their information while providing custody to corporate entities under defined and transparent policies. (Note – applications as
described below could also be performed by an AI agent or Guardian as described above, and will be assessed for efficacy by the IEEE P7006
working group.
•
Such a construct would mirror pre-Internet days in which individuals would deposit information in narrow circumstances such as banking,
healthcare, or in transactions.
•
The personal privacy AI agent would include root-level settings that would automatically provide data to authorities after they have
satisfied sufficiently specific warrants, subpoenas, or other court issued orders, unless authority has been vested in other agencies by local
or national law. Further, since corporately held information would be used under the negotiated terms that the AI agent facilitates,
authorities would not have access unless legal exceptions were satisfied. This would force authorities to avoid mass collection in favor of
particularized efforts:
•
Symmetry and Consequences
• Issue:
• Could a person have a personalized privacy AI or
algorithmic Agent or Guardian?
• Candidate Recommendations:
• Algorithmic guardian platforms should be
developed for individuals to curate and share their
personal data.
•
• Issue:
• Consent is vital to information exchange and innovation in the
digital age. How can we redefine consent regarding personal
data so it respects individual autonomy and dignity?
• Candidate Recommendations:
• The asymmetric power of institutions (including public interest)
over individuals should not force use of personal data when
alternatives such as personal guardians, personal agents, law-
enforcement-restricted registries, and other designs that are not
dependent on loss of agency. When loss of agency is required by
technical expedience, transparency needs to be stressed in order
to mitigate the asymmetric power relationship.
•
• Issue:
• Data that is shared easily or haphazardly can be used to make
inferences that an individual may not wish to share.
•
Candidate Recommendation:
• The same AI/AS that parses and analyzes data should also help
individuals understand how personal information can be used. AI can
prove granular-level consent in real-time. Specific information must be
provided at or near the point (or time) of initial data collection to
provide individuals with the knowledge to gauge potential privacy risks
in the long-term. When the user has direct contact with a system: data
controllers, platform operators, and system designers must monitor for
consequences. Positive, negative, and unpredictable impacts of
accessing and collecting data should be made explicitly known to an
individual to provide meaningful consent ahead of collection.
•
Agency and Control
• Agency(代理人)の仕事の範囲を決めるために、
personally identifiable information (PII)の定義の
明確化が必要。
• 個人データの収集と転移に対して、GDPRの精神に
則ったポリシーに依拠すべき
• Most of the Western Hemisphere is expected to
rely indirectly on GDPR compliance requirements to
correct corporate policy contrary to consent ethics
in collection and transfer process of personal data.
個人は信頼できるID認証にアク
セスできること
• 認証されたIDで金融、政府、通信などのサービス
を受けることを保証するAI
• Individuals should have access to trusted identity
verification services to validate, prove and support
the context specific use of their identity. Regulated
industries and sectors such as banking, government,
telecommunications should provide data
verification services to citizens and consumers to
provide greatest usage and control for individuals.
Transparency and Access
• Issue:
• It is often difficult for users to determine what information
a service provider collects about them and the time of
such aggregation/collection (at the time of installation,
during usage, even when not in use, after deletion) and for
them to correct, amend or manage the information.
•
Candidate Recommendation:
• Service providers should ensure that personal data
management tools are easy to find and use within their
service interface.
•
同意の取り方
• Issue:
• Many AI/AS systems will collect data from individuals that
do not have a direct relationship with, or are not
interacting directly towards said system. How can
meaningful consent be provided in these situations?
•
Candidate Recommendations:
• Where the subject does not have a direct relationship with
the system, consent should be dynamic and must not rely
entirely on initial Terms of Service or other instruction
provided by the data collector to someone other than the
subject. We recommend AI/AS systems be designed to
interpret the data preferences, verbal or otherwise, of all
users signalling limitations on collection and use, discussed
further below.
• Issue:
• How do we make better User Experience and consent education
available to consumers as standard to express meaningful
consent?
•
Candidate Recommendation:
• Tools, settings or consumer education are increasingly available to
be utilized now to develop, apply, and enforce consumer consent.
• Provide ‘Privacy Offsets’ as business alternative to the personal
data exchange –
• Apply ‘Consent’ to further certify Artificial Intelligence legal and
as ethics doctrine
• Issue:
• In most corporate settings, employees do not have clear consent
on how their personal information (including health and other
data) is used by employers. Given the power differential
between employees and employers, this is an area in need of
clear best-practice.
•
Candidate Recommendation:
In the same way that companies are doing Privacy Impact
Assessments for how individual data is used, companies need to
create Employee Data Impact Assessments to deal with the
specific nuances of corporate specific situations. It should be clear
that no data is collected without the consent of the employee.
•
• Issue:
• People who may be losing their ability to understand what kinds of processing
are done in server side computers of IT services on their private data are
unable to meaningfully consent to online terms. The elderly and mentally
impaired adults are vulnerable in terms of consent, presenting consequence to
data privacy.
•
Candidate Recommendations:
• Researchers or developers of AI/AS have to take into account this issue of
vulnerable people and try to work out an AI/AS which alleviates their helpless
situation to prevent possible damage caused by misuse of their personal data.
• Build an AI advisory commission, comprised of elder advocacy and mental
health self-advocacy groups, to help developers produce a level of tools and
comprehension metrics to manifest meaningful and pragmatic consent
applications.
総務省AIガイドライン 全体
• ①連携の原則
• 開発者は、AIシステムの相互接続性と相互運用性に留意する。 ・相互接続性と相互運用性を確保するため、①有効な関連情報の共有に向けた協力、②国際的な標準や規格への準拠、③データ形
式の標準化及びインターフェイスやプロトコルのオープン化への対応、④標準必須特許等のライセンス契約及びその条件についてのオープン・公平な取扱い、などに留意することが望ましい。
• ②透明性の原則-
• 開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。 ・採用する技術の特性や用途に照らし合理的な範囲で、AIシステムの入出力の検証可能性及び判断結果の
説明可能性に留意することが望ましい。
• (※アルゴリズム、ソースコード、学習データの開示を想定するものではない。)
• ③制御可能性の原則
• 開発者は、AIシステムの制御可能性に留意する。 ・AIシステムの制御可能性について、あらかじめ検証及び妥当性の確認をするよう努めるとともに、採用する技術の特性に照らし合理
的な可能な範囲において、人間や信頼できる他のAIによる監督・対処の実効性に留意することが望ましい。
• ④安全の原則
• 開発者は、AIシステムがアクチュエータ等を通じて利用者及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。 ・AIシステムの安全性について、あらかじめ検証及び妥当性
の確認をするよう努めるとともに、AIシステムの本質安全や機能安全に資するよう、開発の過程を通じて、採用する技術との特性に照らし可能な範囲で措置を講ずるよう努めることが望ましい。
• ・利用者及び第三者の生命・身体・財産の安全に関する判断を行うAIシステムについては、利用者等ステークホルダに対して設計の趣旨などを説明するよう努めることが望ましい。
• ⑤セキュリティの原則
• 開発者は、AIシステムのセキュリティに留意する。 ・AIシステムのセキュリティについて、あらかじめ検証及び妥当性の確認をするよう努めるとともに、開発の過程を通じて、採用する技
術の特性に照らし可能な範囲で対策を講ずるよう努めることが望ましい(セキュリティ・バイ・デザイン)。
• ⑥プライバシーの原則
• 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。 ・AIシステムのプライバシー侵害のリスクについて、あらかじめ影響評価を行うよう努
めるとともに、開発の過程を通じて、採用する技術の特性に照らし可能な範囲で措置を講ずるよう努めることが望ましい(プライバシー・バイ・デザイン)。
• ⑦倫理の原則
• 開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。 ・AIシステムの学習データに含まれる偏見などに起因して不当な差別が生じないよう、採用する技術の特性に
照らし可能な範囲で所要の措置を講ずるよう努めることが望ましい。
• ・国際人権法や国際人道法を踏まえ、AIシステムが人間性の価値を不当に毀損することがないよう留意することが望ましい。
• ⑧利用者支援の原則
• 開発者は、AIシステムが利用者を支援し、利用者に選択の機会を適切に提供することが可能となるよう配慮する。 ・AIシステムの利用者のために、①利用者の判断に資する情報を適時適切に提供し、
かつ利用者にとって操作しやすいインターフェースが利用可能となるよう配慮、②利用者に選択の機会を適時適切に提供する機能が利用可能となるよう配慮、③社会的弱者の利用を容易にするための
取組、に留意することが望ましい。
• ⑨アカウンタビリティの原則
• 開発者は、利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。 ・開発原則①~⑧の趣旨に鑑み、利用者等に対しAIシステムの技術的特性について情報提供や説明を行う
ほか、ステークホルダとの対話を通じた意見聴取や、ステークホルダの積極的な関与を得るよう努めることが望ましい。
• ・AIシステムによりサービスを提供するプロバイダなどとの情報共有・協力に努めることが望ましい。
FLI: ASILOMAR AI PRINCIPLES
• 1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきであ
る。
• 2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困
難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下の
ようなものがある。
• 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキング
されたりせずに、私たちの望むことを行えるようにする方法。
• 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるた
めの方法。
• 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に
更新する方法。
• 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位につい
ての研究。
• 3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなさ
れるべきである。
FLI: ASILOMAR AI PRINCIPLES
• 4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。
• 5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。
• 倫理と価値
• 6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべ
きである。
• 7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。
• 8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって
監査を可能としうる十分な説明を提供すべきである。
• 9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、
そうした影響の形成に関わるステークホルダーである。
• 10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべ
きである。
• 11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用される
べきである。
FLI: ASILOMAR AI PRINCIPLES
• 12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、
自らアクセスし、管理し、制御する権利を持つべきである。
• 13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはず
の自由を不合理に侵害してはならない。
• 14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。
• 15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべき
である。
• 16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方
法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。
• 17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的
および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはなら
ない。
• 18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。
FLI: ASILOMAR AI PRINCIPLES
• 長期的な課題
• 19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上
限について強い仮定をおくことは避けるべきである。
• 20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性がある
ため、相応の配慮や資源によって計画され、管理されるべきである。
• 21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々
の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。
• 22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能
システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。
• 23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のた
めに超知能は開発されるべきである。

Mais conteúdo relacionado

Mais procurados

自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラHiroshi Nakagawa
 
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)Fumiko Kudoh
 
人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学Takushi Otani
 
AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財Hirono Jumpei
 
AIルールとガバナンス
AIルールとガバナンスAIルールとガバナンス
AIルールとガバナンスToshiya Jitsuzumi
 
今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるにはNVIDIA Japan
 
incentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスincentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスToshiya Jitsuzumi
 
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~Deep Learning Lab(ディープラーニング・ラボ)
 
匿名化と自己情報コントロール
匿名化と自己情報コントロール匿名化と自己情報コントロール
匿名化と自己情報コントロールHiroshi Nakagawa
 
Professor Hiroshi ESAKI talks about Internet of Design
Professor Hiroshi ESAKI talks about Internet of DesignProfessor Hiroshi ESAKI talks about Internet of Design
Professor Hiroshi ESAKI talks about Internet of DesignBoston Global Forum
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹Preferred Networks
 
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話Tohru Yoshioka-Kobayashi
 
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜Preferred Networks
 

Mais procurados (15)

自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
 
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
立法・行政・司法におけるビックデータ・AI活用に関する可能性・ 課題(工藤郁子)
 
人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学人工知能が浸透した社会の情報倫理学
人工知能が浸透した社会の情報倫理学
 
Iot literacy no.5
Iot literacy no.5Iot literacy no.5
Iot literacy no.5
 
AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財AI開発を円滑に進めるための契約・法務・知財
AI開発を円滑に進めるための契約・法務・知財
 
AIルールとガバナンス
AIルールとガバナンスAIルールとガバナンス
AIルールとガバナンス
 
今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには今すぐ AI の知識を深めるには
今すぐ AI の知識を深めるには
 
incentive compatibleなAIガバナンス
incentive compatibleなAIガバナンスincentive compatibleなAIガバナンス
incentive compatibleなAIガバナンス
 
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
AI と個人情報 ~AI 学習用データとしての個人情報と AI 処理対象としての個人情報~
 
匿名化と自己情報コントロール
匿名化と自己情報コントロール匿名化と自己情報コントロール
匿名化と自己情報コントロール
 
AI社会論研究会
AI社会論研究会AI社会論研究会
AI社会論研究会
 
Professor Hiroshi ESAKI talks about Internet of Design
Professor Hiroshi ESAKI talks about Internet of DesignProfessor Hiroshi ESAKI talks about Internet of Design
Professor Hiroshi ESAKI talks about Internet of Design
 
基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹基調講演:「多様化する情報を支える技術」/西川徹
基調講演:「多様化する情報を支える技術」/西川徹
 
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
IT化と1億総クリエイター化:知的財産権制度についての近い未来の話
 
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
 

Destaque

Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方MITSUNARI Shigeo
 
『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会MITSUNARI Shigeo
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2MITSUNARI Shigeo
 
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシープライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシーHiroshi Nakagawa
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)Kentaro Minami
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」Hiroshi Nakagawa
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewHiroshi Nakagawa
 
数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術Hiroshi Nakagawa
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017Hiroshi Nakagawa
 
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方Hiroshi Nakagawa
 
居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おうHiroshi Nakagawa
 
クラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングクラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングHiroshi Nakagawa
 

Destaque (13)

Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方
 
『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会
 
『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2『データ解析におけるプライバシー保護』勉強会 #2
『データ解析におけるプライバシー保護』勉強会 #2
 
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシープライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
 
差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)差分プライバシーとは何か? (定義 & 解釈編)
差分プライバシーとは何か? (定義 & 解釈編)
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
 
Privacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory OverviewPrivacy Protection Technologies: Introductory Overview
Privacy Protection Technologies: Introductory Overview
 
仮名化の功罪
仮名化の功罪仮名化の功罪
仮名化の功罪
 
数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術数式を使わないプライバシー保護技術
数式を使わないプライバシー保護技術
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
 
差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方差分プライバシーによる時系列データの扱い方
差分プライバシーによる時系列データの扱い方
 
居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう
 
クラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリングクラシックな機械学習の入門  8. クラスタリング
クラシックな機械学習の入門  8. クラスタリング
 

Semelhante a 情報ネットワーク法学会2017大会第8分科会発表資料

ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについて
ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについてORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについて
ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについてSeina Sakaue
 
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)Fumiko Kudoh
 
201024 ai koeln (akemi yokota) auf japanisch
201024 ai koeln (akemi yokota)  auf japanisch201024 ai koeln (akemi yokota)  auf japanisch
201024 ai koeln (akemi yokota) auf japanischAkemi Yokota
 
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章US Consumer Privacy Bill of Rights 米国プライバシー権利憲章
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章OpenID Foundation Japan
 
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス日本マイクロソフト株式会社
 
プライバシー保護の法制と技術課題(2014年時点)
プライバシー保護の法制と技術課題(2014年時点)プライバシー保護の法制と技術課題(2014年時点)
プライバシー保護の法制と技術課題(2014年時点)Hiroshi Nakagawa
 
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹Insight Technology, Inc.
 
官民デー化活用推進基本法対応
官民デー化活用推進基本法対応官民デー化活用推進基本法対応
官民デー化活用推進基本法対応明平 吉本
 
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座SORACOM,INC
 
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆Hiroyuki Kurimoto
 
AIを取り巻く基準について
AIを取り巻く基準についてAIを取り巻く基準について
AIを取り巻く基準についてNoriyasu Higashino
 
The Privacy Policy Landscape After the GDPR from PETS2020
The Privacy Policy Landscape After the GDPR from PETS2020The Privacy Policy Landscape After the GDPR from PETS2020
The Privacy Policy Landscape After the GDPR from PETS2020Makoto Iguchi
 
データ流通市場から見た研究データへの期待
データ流通市場から見た研究データへの期待データ流通市場から見た研究データへの期待
データ流通市場から見た研究データへの期待Japan Data Exchange
 
米国消費者プライバシー憲章7章以降
米国消費者プライバシー憲章7章以降米国消費者プライバシー憲章7章以降
米国消費者プライバシー憲章7章以降UEHARA, Tetsutaro
 
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015OpenID Foundation Japan
 
141030オープンデータ 監査人
141030オープンデータ 監査人141030オープンデータ 監査人
141030オープンデータ 監査人Kenji Hiramoto
 

Semelhante a 情報ネットワーク法学会2017大会第8分科会発表資料 (20)

ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについて
ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについてORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについて
ORF湘南藤沢学会スライド:ソーシャルメディアにおける個人情報の取り扱いについて
 
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)
信頼・情報・ルール形成(Trust in Digital Life Japan - Working Group #1)
 
201024 ai koeln (akemi yokota) auf japanisch
201024 ai koeln (akemi yokota)  auf japanisch201024 ai koeln (akemi yokota)  auf japanisch
201024 ai koeln (akemi yokota) auf japanisch
 
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章US Consumer Privacy Bill of Rights 米国プライバシー権利憲章
US Consumer Privacy Bill of Rights 米国プライバシー権利憲章
 
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス
【de:code 2020】 AI・機械学習で新たに創出されるデータとアノテーションビジネス
 
プライバシー保護の法制と技術課題(2014年時点)
プライバシー保護の法制と技術課題(2014年時点)プライバシー保護の法制と技術課題(2014年時点)
プライバシー保護の法制と技術課題(2014年時点)
 
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹
20161213_DEMOで見せます!コンプライアンス遵守におけるデータマスキングの必要性と実現方法徹底解説! by 株式会社インサイトテクノロジー 益秀樹
 
官民デー化活用推進基本法対応
官民デー化活用推進基本法対応官民デー化活用推進基本法対応
官民デー化活用推進基本法対応
 
ユーザとベンダ双方にとって幸せなAI開発のための3つのポイント
ユーザとベンダ双方にとって幸せなAI開発のための3つのポイントユーザとベンダ双方にとって幸せなAI開発のための3つのポイント
ユーザとベンダ双方にとって幸せなAI開発のための3つのポイント
 
サンプルテキスト
サンプルテキストサンプルテキスト
サンプルテキスト
 
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座
20181019日経xTECH EXPO講演 | 今からでも遅くない!事例に学ぶIoT導入のための技術ポイント実践講座
 
Sangyo2010 03
Sangyo2010 03Sangyo2010 03
Sangyo2010 03
 
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
2020年11月27日_エストニアにおける電子政府施策の概観と日本への示唆
 
AIを取り巻く基準について
AIを取り巻く基準についてAIを取り巻く基準について
AIを取り巻く基準について
 
The Privacy Policy Landscape After the GDPR from PETS2020
The Privacy Policy Landscape After the GDPR from PETS2020The Privacy Policy Landscape After the GDPR from PETS2020
The Privacy Policy Landscape After the GDPR from PETS2020
 
Okumura
OkumuraOkumura
Okumura
 
データ流通市場から見た研究データへの期待
データ流通市場から見た研究データへの期待データ流通市場から見た研究データへの期待
データ流通市場から見た研究データへの期待
 
米国消費者プライバシー憲章7章以降
米国消費者プライバシー憲章7章以降米国消費者プライバシー憲章7章以降
米国消費者プライバシー憲章7章以降
 
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015
もうひとつのマイナンバー「医療等ID」に関する議論 - OpenID Summit 2015
 
141030オープンデータ 監査人
141030オープンデータ 監査人141030オープンデータ 監査人
141030オープンデータ 監査人
 

Mais de Hiroshi Nakagawa

信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例Hiroshi Nakagawa
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護Hiroshi Nakagawa
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by AnonymizationHiroshi Nakagawa
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演Hiroshi Nakagawa
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-Hiroshi Nakagawa
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシーHiroshi Nakagawa
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後Hiroshi Nakagawa
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前Hiroshi Nakagawa
 
差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定Hiroshi Nakagawa
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityHiroshi Nakagawa
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityHiroshi Nakagawa
 
情報検索における質問者の プライバシー保護 :Private Information Retrieval
情報検索における質問者のプライバシー保護 :Private Information Retrieval情報検索における質問者のプライバシー保護 :Private Information Retrieval
情報検索における質問者の プライバシー保護 :Private Information RetrievalHiroshi Nakagawa
 

Mais de Hiroshi Nakagawa (17)

信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
 
AI and Accountability
AI and AccountabilityAI and Accountability
AI and Accountability
 
AI Forum-2019_Nakagawa
AI Forum-2019_NakagawaAI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
 
Ai e-accountability
Ai e-accountabilityAi e-accountability
Ai e-accountability
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by Anonymization
 
人工知能と社会
人工知能と社会人工知能と社会
人工知能と社会
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシー
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前
 
差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定差分プライベート最小二乗密度比推定
差分プライベート最小二乗密度比推定
 
Privacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymityPrivacy Protectin Models and Defamation caused by k-anonymity
Privacy Protectin Models and Defamation caused by k-anonymity
 
Boundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and AnonymityBoundary Between Pseudonymity and Anonymity
Boundary Between Pseudonymity and Anonymity
 
情報検索における質問者の プライバシー保護 :Private Information Retrieval
情報検索における質問者のプライバシー保護 :Private Information Retrieval情報検索における質問者のプライバシー保護 :Private Information Retrieval
情報検索における質問者の プライバシー保護 :Private Information Retrieval
 
A Happy New Year 2016
A Happy New Year 2016A Happy New Year 2016
A Happy New Year 2016
 

情報ネットワーク法学会2017大会第8分科会発表資料

  • 3. 人工知能の倫理においてプライバ シーを取り上げている組織 • 総務省 AIネットワーク社会推進委員会 • AI開発ガイドライン OECDに提案 9項目 • 人工知能学会 倫理委員会 9項目 • Future of Life Intsitute • ASILOMAR AI PRINCIPLES 23項目 • IEEE • Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems • 第1版 8章、  第2版 13章 • EU • GDPR22条
  • 4. 総務省 国際的な議論のためのAI開発ガイドライン • ⑥プライバシーの原則 • 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ れないよう配慮する。 • AIシステムのプライバシー侵害のリスクについて、あ らかじめ影響評価を行うよう努めるとともに、 • 開発の過程を通じて、採用する技術の特性に照らし可能な 範囲で措置を講ずるよう努めることが望ましい(プライバ シー・バイ・デザイン)。
  • 6. 総務省 国際的な議論のためのAI開発ガイドライン • ⑥プライバシーの原則 • 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ れないよう配慮する。 • AIシステムのプライバシー侵害のリスクについて、あ らかじめ影響評価を行うよう努めるとともに、 • 開発の過程を通じて、採用する技術の特性に照らし可能な 範囲で措置を講ずるよう努めることが望ましい(プライバ シー・バイ・デザイン)。 人間にはできない。AIにAIを 評価させるような難しい話
  • 7. 総務省 国際的な議論のためのAI開発ガイドライン • 関連記述 • データ・情報の流通と個人情報保護・プライバシーとのバラ ンス • 例えば、価値の高いデータ(カメラが撮影した画像等)の 取得や利活用に当たっての • 本人同意の在り方等が問題となる可能性 • AIシステムが取り扱うデータ・情報の性質 • 例えば、プライバシー性や機密性が高いデータ・情報に ついては、特に慎重な取扱いが必要 • 例えば、AI生成物や学習用データ等に関し、知財制度 上の取扱いが問題となる可能性
  • 8. 総務省 国際的な議論のためのAI開発ガイドライン • 関連記述 • データ・情報の流通と個人情報保護・プライバシーとのバラ ンス • 例えば、価値の高いデータ(カメラが撮影した画像等)の 取得や利活用に当たっての • 本人同意の在り方等が問題となる可能性 • AIシステムが取り扱うデータ・情報の性質 • 例えば、プライバシー性や機密性が高いデータ・情報に ついては、特に慎重な取扱いが必要 • 例えば、AI生成物や学習用データ等に関し、知財制度 上の取扱いが問題となる可能性 将来課題を捉えている 将来課題を捉えている
  • 9. 人工知能学会 倫理指針 • (他者のプライバシーの尊重) • 人工知能学会会員は、人工知能の利用および開 発において、他者のプライバシーを尊重し、関連 する法規に則って個人情報の適正な取扱いを行う 義務を負う
  • 10. FLI: ASILOMAR AI PRINCIPLES • 12) 個人のプライバシー: 人々は、人工知能システム が個人のデータ分析し利用して生み出したデータに対 し、自らアクセスし、管理し、制御する権利を持つべき である。 • 13) 自由とプライバシー:個人のデータに対する人工知 能の適用を通じて、個人が本来持つまたは持つはず の自由を不合理に侵害してはならない。 日本の組織の基準に比べて具体的 GDPR22条の「プロファイリングに対抗する権利」の強 化版
  • 11. FLI: ASILOMAR AI PRINCIPLES • 12) 個人のプライバシー: 人々は、人工知能システム が個人のデータ分析し利用して生み出したデータに対 し、自らアクセスし、管理し、制御する権利を持つべき である。 • 13) 自由とプライバシー:個人のデータに対する人工知 能の適用を通じて、個人が本来持つまたは持つはず の自由を不合理に侵害してはならない。 日本の組織の基準に比べて具体的 GDPR22条の「プロファイリングに対抗する権利」の強 化版 AIの恣意的な悪用を禁じてい る。日本人のAI性善説じゃこ の発想は出てこない!!!
  • 13. IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems • Personal Data and Individual Access Control • • Digital Personas • Regional Jurisdiction • Agency and Control • Transparency and Access • Symmetry • Children’s Issues • Appendices
  • 14. 特徴 : 具体的 • IEEEの人工知能倫理基準は、次ページ以降に述 べるように、さらに具体的。 • 開発目的も明確で、AIが実現する機能も見えやす い。 • 別の項目でも抽象的概念ではなく、技術的な具体 性が高い。
  • 15. • 以下のようなWGが基準つくり作業をしている • • IEEE P7002: Data Privacy Process • IEEE P7004: Standard on Child and Student Data Governance • IEEE P7005: Standard on Employer Data Governance • IEEE P7006: Standard on Personal Data AI Agent Working Group •
  • 16. Digital Persona: 妊娠から墓場までカバーするAI代理人 • 出産以前のヘルスケアレコード • 誕生における市民権(ディジタル市民権) 政府データ • 就学 • 移動 • 国境を超える場合 (immigration data) • 消費行動 • IoT and wearables (telecommunications data) • SNS、ディジタルメディア • 職業訓練 • 社会参加 • 契約、事故対応、保険、金融 • 死亡(ディジタル遺産の処理)
  • 17. Regional Jurisdiction • 法律は国ごとに違うが • 基本的人権(プライバシー権)を確実にするために • 自分のデータに対するアクセスと制御が 国境を越えてできなくてはならない。
  • 18. Agency and Control • Agency(代理人)の仕事の範囲を決めるために、 personally identifiable information (PII)の定義の 明確化が必要。 • 個人データの収集と転移に対して、GDPRの精神に 則ったポリシーに依拠すべき
  • 20. Transparency and Access • データ主体は自分の個人データがどう収集され、 利用され、蓄積され、ないし廃棄されるかを知る権 利 • 訂正する権利と簡便なインタフェースが必要 • これをAI技術で実現すべき •
  • 21. PIAを分析、確認するツールを AIで実現 • GDPR Privacy Impact assessmentsを参考にする • AIによるPIAアセスメントツールは企業に供給され、製品 やサービスの安全性を確保 • 個人データの収集と利活用が法制度を守っていること を保証する AI を開発
  • 22. 同意の取り方 • AIを理解しないデータ主体からデータ収集するにあ たって、有効な同意をとるAIの開発 • 同意は1回取ればおしまいではなく、状況変化におい て随時とれるようなAIシステム • 被雇用者<<雇用者 という力関係をバランスさせるような同意とためのAIシ ステムが必要 • 労使関係では、明確な同意のない場合を多数見られるので、 それを改善すべき
  • 26. Digital Persona: Birth to Death • Pre-birth to post life digital records (health data) • Birth and the right to claim citizenship (government data) • Enrolment in school (education data) • Travel and services (transport data) • Cross border access and visas (immigration data) • Consumption of goods and services (consumer and loyalty data) • Connected devices, IoT and wearables (telecommunications data) • Social and news networks (media and content data) • Professional training, internship and work (tax and employment data) • Societal participation (online forums, voting and party affiliation data) • Contracts, assets and accidents (insurance and legal data) • Financial participation (banking and finance data) • Death (digital inheritance data).
  • 27. • Issue: • How can AI interact with government authorities to facilitate law enforcement and intelligence collection while respecting rule of law and transparency for users? • Background: • Government mass surveillance has been a major issue since allegations of collaboration between technology firms and signals intelligence agencies such as the US National Security Agency and the UK Government Communications Headquarters were revealed. Further attempts to acquire personal data by law enforcement agencies such as the US Federal Bureau of Investigation have complicated settled legal methods of search and seizure. A major source of the problem concerns the current framework of data collection and storage, which puts corporate organizations in custody of personal data and detached from the generators of that information. Further complicating this concern is the legitimate interest that security services have in trying to deter and defeat criminal and national security threats. • Candidate Recommendations: • Personal privacy AIs have the potential to change the data paradigm and put the generators of personal information at the centre of collection. This would re-define the security services’ investigative methods to pre-Internet approaches wherein individuals would be able to control their information while providing custody to corporate entities under defined and transparent policies. (Note – applications as described below could also be performed by an AI agent or Guardian as described above, and will be assessed for efficacy by the IEEE P7006 working group. • Such a construct would mirror pre-Internet days in which individuals would deposit information in narrow circumstances such as banking, healthcare, or in transactions. • The personal privacy AI agent would include root-level settings that would automatically provide data to authorities after they have satisfied sufficiently specific warrants, subpoenas, or other court issued orders, unless authority has been vested in other agencies by local or national law. Further, since corporately held information would be used under the negotiated terms that the AI agent facilitates, authorities would not have access unless legal exceptions were satisfied. This would force authorities to avoid mass collection in favor of particularized efforts: •
  • 28. Symmetry and Consequences • Issue: • Could a person have a personalized privacy AI or algorithmic Agent or Guardian? • Candidate Recommendations: • Algorithmic guardian platforms should be developed for individuals to curate and share their personal data. •
  • 29. • Issue: • Consent is vital to information exchange and innovation in the digital age. How can we redefine consent regarding personal data so it respects individual autonomy and dignity? • Candidate Recommendations: • The asymmetric power of institutions (including public interest) over individuals should not force use of personal data when alternatives such as personal guardians, personal agents, law- enforcement-restricted registries, and other designs that are not dependent on loss of agency. When loss of agency is required by technical expedience, transparency needs to be stressed in order to mitigate the asymmetric power relationship. •
  • 30. • Issue: • Data that is shared easily or haphazardly can be used to make inferences that an individual may not wish to share. • Candidate Recommendation: • The same AI/AS that parses and analyzes data should also help individuals understand how personal information can be used. AI can prove granular-level consent in real-time. Specific information must be provided at or near the point (or time) of initial data collection to provide individuals with the knowledge to gauge potential privacy risks in the long-term. When the user has direct contact with a system: data controllers, platform operators, and system designers must monitor for consequences. Positive, negative, and unpredictable impacts of accessing and collecting data should be made explicitly known to an individual to provide meaningful consent ahead of collection. •
  • 31. Agency and Control • Agency(代理人)の仕事の範囲を決めるために、 personally identifiable information (PII)の定義の 明確化が必要。 • 個人データの収集と転移に対して、GDPRの精神に 則ったポリシーに依拠すべき • Most of the Western Hemisphere is expected to rely indirectly on GDPR compliance requirements to correct corporate policy contrary to consent ethics in collection and transfer process of personal data.
  • 32. 個人は信頼できるID認証にアク セスできること • 認証されたIDで金融、政府、通信などのサービス を受けることを保証するAI • Individuals should have access to trusted identity verification services to validate, prove and support the context specific use of their identity. Regulated industries and sectors such as banking, government, telecommunications should provide data verification services to citizens and consumers to provide greatest usage and control for individuals.
  • 33. Transparency and Access • Issue: • It is often difficult for users to determine what information a service provider collects about them and the time of such aggregation/collection (at the time of installation, during usage, even when not in use, after deletion) and for them to correct, amend or manage the information. • Candidate Recommendation: • Service providers should ensure that personal data management tools are easy to find and use within their service interface. •
  • 34. 同意の取り方 • Issue: • Many AI/AS systems will collect data from individuals that do not have a direct relationship with, or are not interacting directly towards said system. How can meaningful consent be provided in these situations? • Candidate Recommendations: • Where the subject does not have a direct relationship with the system, consent should be dynamic and must not rely entirely on initial Terms of Service or other instruction provided by the data collector to someone other than the subject. We recommend AI/AS systems be designed to interpret the data preferences, verbal or otherwise, of all users signalling limitations on collection and use, discussed further below.
  • 35. • Issue: • How do we make better User Experience and consent education available to consumers as standard to express meaningful consent? • Candidate Recommendation: • Tools, settings or consumer education are increasingly available to be utilized now to develop, apply, and enforce consumer consent. • Provide ‘Privacy Offsets’ as business alternative to the personal data exchange – • Apply ‘Consent’ to further certify Artificial Intelligence legal and as ethics doctrine
  • 36. • Issue: • In most corporate settings, employees do not have clear consent on how their personal information (including health and other data) is used by employers. Given the power differential between employees and employers, this is an area in need of clear best-practice. • Candidate Recommendation: In the same way that companies are doing Privacy Impact Assessments for how individual data is used, companies need to create Employee Data Impact Assessments to deal with the specific nuances of corporate specific situations. It should be clear that no data is collected without the consent of the employee. •
  • 37. • Issue: • People who may be losing their ability to understand what kinds of processing are done in server side computers of IT services on their private data are unable to meaningfully consent to online terms. The elderly and mentally impaired adults are vulnerable in terms of consent, presenting consequence to data privacy. • Candidate Recommendations: • Researchers or developers of AI/AS have to take into account this issue of vulnerable people and try to work out an AI/AS which alleviates their helpless situation to prevent possible damage caused by misuse of their personal data. • Build an AI advisory commission, comprised of elder advocacy and mental health self-advocacy groups, to help developers produce a level of tools and comprehension metrics to manifest meaningful and pragmatic consent applications.
  • 38. 総務省AIガイドライン 全体 • ①連携の原則 • 開発者は、AIシステムの相互接続性と相互運用性に留意する。 ・相互接続性と相互運用性を確保するため、①有効な関連情報の共有に向けた協力、②国際的な標準や規格への準拠、③データ形 式の標準化及びインターフェイスやプロトコルのオープン化への対応、④標準必須特許等のライセンス契約及びその条件についてのオープン・公平な取扱い、などに留意することが望ましい。 • ②透明性の原則- • 開発者は、AIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する。 ・採用する技術の特性や用途に照らし合理的な範囲で、AIシステムの入出力の検証可能性及び判断結果の 説明可能性に留意することが望ましい。 • (※アルゴリズム、ソースコード、学習データの開示を想定するものではない。) • ③制御可能性の原則 • 開発者は、AIシステムの制御可能性に留意する。 ・AIシステムの制御可能性について、あらかじめ検証及び妥当性の確認をするよう努めるとともに、採用する技術の特性に照らし合理 的な可能な範囲において、人間や信頼できる他のAIによる監督・対処の実効性に留意することが望ましい。 • ④安全の原則 • 開発者は、AIシステムがアクチュエータ等を通じて利用者及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。 ・AIシステムの安全性について、あらかじめ検証及び妥当性 の確認をするよう努めるとともに、AIシステムの本質安全や機能安全に資するよう、開発の過程を通じて、採用する技術との特性に照らし可能な範囲で措置を講ずるよう努めることが望ましい。 • ・利用者及び第三者の生命・身体・財産の安全に関する判断を行うAIシステムについては、利用者等ステークホルダに対して設計の趣旨などを説明するよう努めることが望ましい。 • ⑤セキュリティの原則 • 開発者は、AIシステムのセキュリティに留意する。 ・AIシステムのセキュリティについて、あらかじめ検証及び妥当性の確認をするよう努めるとともに、開発の過程を通じて、採用する技 術の特性に照らし可能な範囲で対策を講ずるよう努めることが望ましい(セキュリティ・バイ・デザイン)。 • ⑥プライバシーの原則 • 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。 ・AIシステムのプライバシー侵害のリスクについて、あらかじめ影響評価を行うよう努 めるとともに、開発の過程を通じて、採用する技術の特性に照らし可能な範囲で措置を講ずるよう努めることが望ましい(プライバシー・バイ・デザイン)。 • ⑦倫理の原則 • 開発者は、AIシステムの開発において、人間の尊厳と個人の自律を尊重する。 ・AIシステムの学習データに含まれる偏見などに起因して不当な差別が生じないよう、採用する技術の特性に 照らし可能な範囲で所要の措置を講ずるよう努めることが望ましい。 • ・国際人権法や国際人道法を踏まえ、AIシステムが人間性の価値を不当に毀損することがないよう留意することが望ましい。 • ⑧利用者支援の原則 • 開発者は、AIシステムが利用者を支援し、利用者に選択の機会を適切に提供することが可能となるよう配慮する。 ・AIシステムの利用者のために、①利用者の判断に資する情報を適時適切に提供し、 かつ利用者にとって操作しやすいインターフェースが利用可能となるよう配慮、②利用者に選択の機会を適時適切に提供する機能が利用可能となるよう配慮、③社会的弱者の利用を容易にするための 取組、に留意することが望ましい。 • ⑨アカウンタビリティの原則 • 開発者は、利用者を含むステークホルダに対しアカウンタビリティを果たすよう努める。 ・開発原則①~⑧の趣旨に鑑み、利用者等に対しAIシステムの技術的特性について情報提供や説明を行う ほか、ステークホルダとの対話を通じた意見聴取や、ステークホルダの積極的な関与を得るよう努めることが望ましい。 • ・AIシステムによりサービスを提供するプロバイダなどとの情報共有・協力に努めることが望ましい。
  • 39. FLI: ASILOMAR AI PRINCIPLES • 1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきであ る。 • 2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困 難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下の ようなものがある。 • 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキング されたりせずに、私たちの望むことを行えるようにする方法。 • 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるた めの方法。 • 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に 更新する方法。 • 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位につい ての研究。 • 3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなさ れるべきである。
  • 40. FLI: ASILOMAR AI PRINCIPLES • 4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。 • 5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。 • 倫理と価値 • 6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべ きである。 • 7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。 • 8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって 監査を可能としうる十分な説明を提供すべきである。 • 9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、 そうした影響の形成に関わるステークホルダーである。 • 10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべ きである。 • 11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用される べきである。
  • 41. FLI: ASILOMAR AI PRINCIPLES • 12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、 自らアクセスし、管理し、制御する権利を持つべきである。 • 13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはず の自由を不合理に侵害してはならない。 • 14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。 • 15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべき である。 • 16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方 法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。 • 17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的 および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはなら ない。 • 18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。
  • 42. FLI: ASILOMAR AI PRINCIPLES • 長期的な課題 • 19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上 限について強い仮定をおくことは避けるべきである。 • 20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性がある ため、相応の配慮や資源によって計画され、管理されるべきである。 • 21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々 の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。 • 22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能 システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。 • 23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のた めに超知能は開発されるべきである。