SlideShare uma empresa Scribd logo
1 de 235
Baixar para ler offline
CÉDRIC VILLANI
MathĂ©maticien et dĂ©putĂ© de l’Essonne
Composition de la mission
Marc Schoenauer Directeur de recherche INRIA ‱ Yann Bonnet
SecrĂ©taire gĂ©nĂ©ral du Conseil national du numĂ©rique ‱ Charly
Berthet Responsable juridique et institutionnel du Conseil
national du numĂ©rique ‱ Anne-Charlotte Cornut Rapporteur au
Conseil national du numĂ©rique ‱ François Levin Responsable
des affaires Ă©conomiques et sociales du Conseil national du
numĂ©rique ‱ Bertrand Rondepierre IngĂ©nieur de l’armement,
Direction gĂ©nĂ©rale de l’armement.
Mission confiée
par le Premier Ministre
Édouard Philippe
Mission parlementaire
du 8 septembre 2017
au 8 mars 2018
Avec l’appui de Anne-Lise Meurier, Zineb Ghafoor, Candice Foehrenbach,
Stella Biabiany-Rosier, Camille Hartmann, Judith Herzog, Marylou
Le Roy, Jan Krewer, Lofred Madzou et Ruben Narzul.
2
CĂ©dric Villani
Comme bien d’autres adolescents fĂ©rus de sciences dans les annĂ©es 80, j’ai
fait la connaissance de l’intelligence artificielle dans les superbes ouvrages
de vulgarisation de Douglas Hofstadter, qui mettait en scĂšne Alan Turing
avec une passion contagieuse.
Mais comme bien des mathématiciens débutant la carriÚre dans les années 90,
j’ai profondĂ©ment sous-estimĂ© l’impact de l’intelligence artificielle, qui ne
donnait finalement, à cette époque, que peu de résultats. Quelle surprise
ce fut d’assister, dans les annĂ©es 2010, Ă  l’incroyable amĂ©lioration de ses
performances... Devenu moi-mĂȘme vulgarisateur, je me suis mis Ă  dĂ©velopper
le sujet réguliÚrement, dans mes conférences publiques comme dans mes
Ă©changes avec le monde de l’entreprise. Et ce fut une surprise non moins
grande de voir mes ouvrages de recherche sur le transport optimal cités dans
des articles rĂ©cents sur l’intelligence artificielle : comme un signe qu’il m’était
impossible d’échapper Ă  ce sujet polymorphe ! Du reste, depuis quelques
années plus personne ne peut y échapper, tant il est devenu omniprésent
dans les discussions Ă©conomiques et sociales.
Aussi ai-je été à peine surpris quand le Premier ministre me confia une mission
d’information sur la stratĂ©gie française et europĂ©enne en intelligence artifi-
cielle. Le défi était grand, mais mon enthousiasme considérable. Pour les
orientations de dĂ©part, j’ai bĂ©nĂ©ficiĂ© du plein soutien du secrĂ©taire d’État au
numĂ©rique, Mounir Mahjoubi, et de l’expertise de mes collĂšgues spĂ©cialistes
dans le domaine, Ă  commencer par mon ancien collaborateur Yann Ollivier.
3
Avant-Propos
Avec leur aide, et avec le soutien des institutions d’État, j’ai pu mettre en
place une Ă©quipe comme on en rĂȘve : sept personnes extrĂȘmement compĂ©-
tentes, investies à temps plein, aux profils variés. Cette étape était cruciale,
tant on sait combien les ressources humaines sont la premiĂšre condition de
succĂšs de tout projet.
Pour dĂ©marrer notre rĂ©flexion, nous pouvions nous appuyer sur d’excellentes
sources ; en particulier le rapport France IA, initié par Axelle Lemaire, le
rapport de l’Office parlementaire d’évaluation des choix scientifiques et
technologiques (OPECST), rendu par mes collĂšgues parlementaires Claude
de Ganay et Dominique Gillot, ainsi que les remarquables travaux de la CNIL,
sur l’éthique des algorithmes, et du Conseil d’orientation pour l’emploi.
France Stratégie a également apporté son concours. Les contributions
se sont multipliées, et rapidement la quantité de matériaux à digérer est
apparue considérable ! Mais ensemble, nous avons pu collecter et synthétiser
les quantitĂ©s d’information fournies par les centaines d’experts, et par les
milliers de citoyens qui ont apportĂ© leur contribution Ă  la rĂ©flexion – Ă  ce
sujet je remercie chaleureusement l’association Parlement  Citoyens qui a
pu monter une plateforme de consultation en ligne dans des délais records !
L’intelligence artificielle ne peut se penser dans un cadre seulement national ;
et cette mission a aussi Ă©tĂ© l’occasion de visites, aussi brĂšves qu’intenses,
dans des lieux inspirants Ă  l’étranger : Palo Alto, Beijing, Berlin, Ratisbonne,
Londres, ZĂŒrich, Bologne, Lisbonne, Tel-Aviv et HaĂŻfa. La logistique de ces
visites a fait intervenir de nombreux acteurs institutionnels efficaces, que je
remercie avec gratitude. Inutile de dire que les lieux inspirants français ont
aussi été au rendez-vous, avec une mention spéciale pour The Camp, prÚs
d’Aix-en-Provence, qui a hĂ©bergĂ© notre mission durant quelques jours.
Passionnante par la variĂ©tĂ© de sujets qu’elle nous a menĂ©s Ă  Ă©tudier, cette
mission a aussi Ă©tĂ© l’occasion de travailler, six mois durant, en collaboration
avec tous les acteurs de la société, depuis les sciences exactes et humaines
jusqu’aux administrations, en passant par les entrepreneurs, les journalistes
et des auteurs de science-fiction talentueux – merci à Anne-Caroline Paucot
et Olivier Paquet, qui ont gentiment accepté que nous intégrions quelques-
unes de leurs nouvelles au rapport. À travers ces confrontations multiples,
l’intelligence artificielle s’est affirmĂ©e Ă  nos yeux comme un sujet universel, se
dĂ©clinant dans d’infinies variations, qui doit s’aborder de façon systĂ©mique.
Nous avons d’ailleurs l’intention de complĂ©ter ce rapport – rĂ©digĂ© pour
conseiller le gouvernement avec l’action et l’efficacitĂ© en ligne de mire – par
une version plus pĂ©dagogique, susceptible d’intĂ©resser un public aussi large
que possible, insistant davantage sur l’histoire, les attentes et les mystùres
de ce domaine.
C’est dans la synergie, nous en sommes convaincus, que notre nation, et
notre continent, pourront se lancer avec confiance et détermination dans
cette révolution naissante.
4
Sommaire
Introduction page 8
SynthĂšse page 14
Partie 1 –
Une politique économique articulée
autour de la donnĂ©e page 24
Renforcer l’écosystĂšme europĂ©en
de la donnĂ©e page 26
Inciter les acteurs Ă©conomiques Ă  la
mutualisation de donnĂ©es page 29
Organiser l’ouverture au cas par cas
de certaines données détenues par
des entitĂ©s privĂ©es page 33
Favoriser sans attendre les pratiques
de fouille de texte et de données
(TDM) page 35
Mettre en Ɠuvre la portabilitĂ© dans
une visĂ©e citoyenne page 36
RĂ©former le cadre international appli-
cable aux transferts de donnĂ©espage 38
Consolider et rendre visible l’éco-
systùme français de l’IA page 38
CrĂ©er un guichet unique d’information
sur l’IA page 39
Créer des labels pour augmenter la
visibilitĂ© de l’offre domestique en IA
page 39
Consolider les filiùres d’acheteurs
page 40
Faire levier sur la commande publi-
que page 43
Ajuster les seuils d’application de la
réglementation aux niveaux euro-
pĂ©ens page 43
Mettre l’achat public au service du
soutien Ă  la base industrielle euro-
pĂ©enne page 44
Dynamiser l’achat public innovant
page 44
Mettre en place une protection de
l’acheteur public pour l’inciter à l’in-
gĂ©nierie contractuelle page 45
GĂ©nĂ©raliser l’emploi des exceptions Ă 
l’ordonnance sur les marchĂ©s publics
page 45
Un choix clair : mettre l’accent sur
quatre secteurs stratĂ©giques page 46
Mener une politique sectorielle autour
de grands enjeux page 48
Expérimenter des plateformes sec-
torielles page 53
Mettre en place des bacs Ă  sable
d’innovation page 55
Mettre en Ɠuvre une politique de la
donnée adaptée à chaque secteur
page 56
Initier une dynamique industrielle
europĂ©enne de l’IA page 57
Développer la robotique européenne
page 57
Faire du dĂ©veloppement de l’IA pour
le transport une priorité de la future
agence d’innovation de rupturepage 58
Innover dans l’industrie du composant
adaptĂ© Ă  l’IA page 58
AccĂ©lĂ©rer la mise en place d’infras-
tructures europĂ©ennes en IA page 60
Transformation de l’État, État exem-
plaire page 62
Installer un coordinateur interminis-
tĂ©riel pour la mise en Ɠuvre de la
stratĂ©gie page 62
Créer un pÎle de compétences
mutualisĂ©es en IA dans l’État page 63
IntĂ©grer l’IA dans la stratĂ©gie numĂ©-
rique de l’État page 64
Partie 2 –
Pour une recherche agile et diffu-
sante page 72
CrĂ©er un rĂ©seau d’Instituts Interdisci-
plinaires d’Intelligence Artificielle
page 75
Mailler le territoire et les domaines
de recherche page 76
RĂ©unir chercheurs, Ă©tudiants et entre-
prises page 79
Installer une coordination nationale
page 85
Amorcer le processus par un appel Ă 
projets page 86
5
Sommaire
IntĂ©grer ce rĂ©seau dans l’espace
europĂ©en de la recherche en IApage 87
Des moyens de calcul pour la
recherche page 88
DĂ©velopper un supercalculateur pour
les besoins de la recherche page 89
Négocier un pass dans un cloud privé
pour la recherche page 89
Rendre plus attractives les carriĂšres
dans la recherche publique page 90
Revaloriser les carriùres d’enseignants
chercheurs et de chercheurs, en par-
ticulier en dĂ©but de carriĂšre page 90
Augmenter l’attractivitĂ© de la France
pour les talents expatriés ou étran-
gers page 90
Former plus de spécialistes de haut
niveau en IA page 90
Fluidifier et amplifier les Ă©changes
acadĂ©mie-industrie page 91
Encourager le travail partagé acadé-
mie-industrie page 91
Prendre en compte les périodes de
travail dans l’industrie dans la recons-
titution de carriùre page 91
Nommer des chercheurs en IA dans
les conseils d’administration page 91
RĂ©soudre le problĂšme du partage
de la propriĂ©tĂ© intellectuelle page 92
Encourager la création de startups
par les chercheurs page 92
Encourager par le co-financement la
crĂ©ation de chaires industriellespage 92
Partie 3 –
Anticiper et maĂźtriser les impacts
sur le travail et l’emploi page 100
Anticiper les impacts sur l’emploi
et expĂ©rimenter page 107
Créer un lab public de la transforma-
tion du travail page 107
Cibler certains dispositifs sur les
emplois à plus haut risque d’auto-
matisation page 109
Financer des expĂ©rimentationspage 112
Développer la complémentarité au
sein des organisations et encadrer
les conditions de travail page 112
DĂ©velopper un indice de bonne
complémentarité à destination des
entreprises page 112
Intégrer pleinement la transformation
numérique dans le dialogue social
page 113
Lancer un chantier législatif sur les
conditions de travail à l’heure de
l’automatisation page 114
Amorcer une transformation de la
formation initiale et continue pour
favoriser l’apprentissage de la crĂ©a-
tivitĂ© page 114
Favoriser la créativité et les pédago-
gies innovantes page 116
Créer une plateforme de mise en
valeur des porteurs de pédagogies
innovantes page 116
Donner du temps et des moyens aux
porteurs d’innovations pĂ©dagogiques
page 117
Expérimenter de nouveaux modes
de financement de la formation
professionnelle pour tenir compte
des transferts de valeur page 117
Former des talents en IA, Ă  tous
niveaux page 119
Multiplier par trois le nombre de per-
sonnes formĂ©es en IA page 119
Renforcer l’éducation en mathĂ©ma-
tiques et en informatique page 121
Partie 4 –
L’intelligence artificielle au service
d’une Ă©conomie plus Ă©cologique
page 122
Inscrire le sujet à l’agenda interna-
tional page 125
Favoriser la convergence de la tran-
sition écologique et du développe-
ment de l’IA page 125
Mettre en place un lieu dédié à la
rencontre de la transition Ă©cologique
et de l’IA page 125
6
Sommaire
Mettre en place une plateforme au
service de la mesure de l’impact
environnemental des solutions numé-
riques intelligentes page 127
Penser une IA moins consommatrice
d’énergie page 127
Agir pour le verdissement de la chaĂźne
de valeur des centres de données
page 128
Soutenir les démarches écologiques
chez les fournisseurs de cloud euro-
pĂ©ens page 128
LibĂ©rer la donnĂ©e Ă©cologiquepage 130
LibĂ©rer la donnĂ©e publique page 131
LibĂ©rer la donnĂ©e privĂ©e page 131
Partie 5 –
Quelle Ă©thique de l’IA ? page 138
Ouvrir la boüte noire page 140
DĂ©velopper l’audit des IA page 143
DĂ©velopper l’évaluation citoyenne
des IA page 144
Soutenir la recherche sur l’explica-
bilitĂ© page 145
Penser l’éthique dĂšs la conception
page 146
IntĂ©grer l’éthique dans la formation
des ingénieurs et chercheurs en IA
page 146
Instaurer une Ă©tude d’impact sur les
discriminations (discrimination impact
assessment) page 147
Penser les droits collectifs sur les
donnĂ©es page 148
Rendre l’action de groupe effective
page 149
Comment garder la main ? page 149
Police prĂ©dictive page 150
Les systĂšmes d’armes lĂ©tales auto-
nomes page 152
Une gouvernance spécifique de
l’éthique en intelligence artificielle
page 155
Partie 6 –
Pour une intelligence artificielle
inclusive et diverse page 162
MixitĂ© et diversité : agir pour l’éga-
litĂ© page 163
Une action forte : un objectif de 40 %
d’étudiantes dans les filiĂšres du numĂ©-
rique page 166
Une action nationale en faveur de
la mixitĂ© dans la technologie page 168
Mettre en place une base de données
nationale sur les inégalités entre les
femmes et les hommes au travail
page 170
Promouvoir la transparence des pro-
cessusderecrutementetdepromotion
page 171
RĂ©server des fonds en faveur de la
diversitĂ© page 172
Développer la médiation numérique
et l’innovation sociale pour que l’IA
bĂ©nĂ©ficie Ă  tous page 172
Activer l’accùs aux droits fondamen-
taux et aux services publics page 173
Soutenir les innovations sociales
basĂ©es sur l’IA page 177
Focus sectoriels page 183
Focus 1 –
Transformer l’éducation page 184
Enseigner à l’heure à l’IA page 185
Développer une complémentarité
capacitante avec l’IA en renforçant
la place de la crĂ©ativitĂ© dans l’ensei-
gnement page 186
DĂ©velopper la maĂźtrise de l’apprenant
sur ses donnĂ©es d’apprentissage en
lien avec son équipe pédagogique
page 187
Accompagner la transformation des
relations sociales d’apprentissage et
des mĂ©tiers de l’enseignementpage 188
Transformer les politiques Ă©duca-
tives grñce à l’intelligence artificielle
page 189
7
Sommaire
Mobiliser le potentiel de l’IA pour
lutter contre les décrochages et faci-
liter l’orientation page 189
Soutenir le dĂ©veloppement d’un Ă©co-
systĂšme Edtech en phase avec les
valeurs de notre systÚme éducatif
page 190
Accompagner la transformation des
mĂ©tiers au sein du MinistĂšre page 192
Focus 2 –
La santĂ© Ă  l’heure de l’IA page 194
L’IA au service de la mĂ©decinepage 195
Une réorganisation des pratiques
mĂ©dicales autour du patient page 197
Fluidifier les expérimentations en
temps réel avec les patients et pro-
fessionnels de santĂ© page 199
L’IA au service des politiques de
santĂ© page 199
Mieux anticiper et cibler les politiques
de santĂ© page 199
Assurer une veille de la donnée de
santĂ© page 200
Mettre en place une plateforme
pour le systÚme de santé adaptée
aux usages liĂ©s Ă  l’IA page 200
RĂ©guler l’innovation en santĂ© Ă  l’heure
de l’IA page 203
Focus 3 –
Faire de la France un leader de
l’agriculture augmentĂ©e page 204
À court terme : prĂ©server nos capa-
citĂ©s stratĂ©giques et soutenir l’inno-
vation agricole page 205
Favoriser le dialogue entre les agri-
culteurs et l’industrie agroalimentaire
pour faire Ă©merger de nouveaux
modùles de valeur page 205
DĂ©velopper les soutiens Ă  la recherche
pour le développement de la robo-
tique et des capteurs agricolespage 206
Garantir la couverture réseau néces-
saire à une agriculture connectée
page 206
Intensifier les efforts sur la standar-
disation et l’interopĂ©rabilitĂ© page 207
Outiller les démarches collectives
de négociations sur les données des
exploitations page 207
À moyen terme : distribuer plus lar-
gement les capacitĂ©s d’exploitation
des donnĂ©es page 208
Faire passer Ă  l’échelle les initiatives
de mutualisation et les services inno-
vants aux exploitations page 208
Développer les capacités numériques
des agriculteurs, au service de la sou-
veraineté technologique française
page 209
Focus 4 –
Une politique d’innovation de
rupture dans le secteur du transport
au niveau europĂ©en page 210
Une coopération franco-allemande
sur l’innovation de rupture page 212
Des plateformes de mutualisation
européennes autour des mobilités
page 212
Des échéances ambitieuses pour
l’autorisation des vĂ©hicules auto-
nomes en Europe page 214
Une politique de la donnée offen-
sive page 214
Focus 5 –
L’IA au service de la dĂ©fense et de
la sĂ©curitĂ© page 218
La nĂ©cessitĂ© d’une IA rĂ©galienne et
ses spĂ©cificitĂ©s page 220
La mise en place d’un environne-
ment propice Ă  l’expĂ©rimentation
et au dĂ©veloppement de l’IApage 222
Une gouvernance et un cadre Ă 
consolider page 224
Personnes auditionnées page 226
Contributions reçues page 230
La mission page 232
Introduction
9
Introduction
DĂ©finir l’intelligence artificielle n’est pas chose facile. Depuis ses origines
comme domaine de recherche spécifique, au milieu du XXe siÚcle, elle a
toujours constituĂ© une frontiĂšre, incessamment repoussĂ©e. L’intelligence
artificielle dĂ©signe en effet moins un champ de recherches bien dĂ©fini qu’un
programme, fondĂ© autour d’un objectif ambitieux : comprendre comment
fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs
comparables Ă  ceux de l’ĂȘtre humain.
Le champ est donc naturellement extrĂȘmement vaste, tant en ce qui concerne
les procédures techniques utilisées que les disciplines convoquées : mathé-
matiques, informatiques, sciences cognitives
 Les mĂ©thodes d’IA sont trĂšs
nombreuses et diverses (ontologique, apprentissage par renforcement,
apprentissage adversarial, rĂ©seaux de neurones
) et ne sont pas nouvelles :
beaucoup d’algorithmes utilisĂ©s aujourd’hui ont Ă©tĂ© dĂ©veloppĂ©s il y a plusieurs
dizaines d’annĂ©es.
Depuis la confĂ©rence de Dartmouth de 1956, l’intelligence artificielle s’est
dĂ©veloppĂ©e, au grĂ© des pĂ©riodes d’enthousiasme et de dĂ©sillusion qui se sont
succĂ©dĂ©es, repoussant toujours un peu plus les limites de ce qu’on croyait
pouvoir n’ĂȘtre fait que par des humains. En poursuivant son projet initial,
la recherche en IA a donnĂ© lieu Ă  des vrais succĂšs (victoire au jeu d’échecs,
au jeu de go, compréhension du langage naturel
) et a nourri largement
l’histoire des mathĂ©matiques et de l’informatique : combien de dispositifs
que nous considĂ©rons aujourd’hui comme banals Ă©taient Ă  l’origine une
avancĂ©e majeure en IA – une application de jeux d’échecs, un programme
de traduction en ligne
 ?
Du fait de ses ambitions, qui en font un des programmes scientifiques les plus
fascinants de notre Ă©poque, la discipline de l’IA s’est toujours dĂ©veloppĂ©e de
concert avec les imaginaires les plus délirants, les plus angoissants et les plus
fantastiques, qui ont façonnĂ© les rapports qu’entretient le grand public avec l’IA
mais Ă©galement ceux des chercheurs eux-mĂȘmes avec leur propre discipline.
La (science) fiction, les fantasmes et les projections collectives ont accom-
pagnĂ© l’essor de l’intelli-
gence artificielle et guident
parfois ses objectifs de long
terme : en témoignent les
productions fictionnelles
abondantes sur le sujet,
de 2001 l’OdyssĂ©e de l’espace, Ă  Her en passant Blade Runner et une grande
partie de la littĂ©rature de science-fiction. Finalement, c’est probablement
cette alliance entre des projections fictionnelles et la recherche scientifique
qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent
ethno-centrĂ©s et organisĂ©s autour d’idĂ©ologies politiques sous-jacentes,
jouent donc un rÎle majeur, bien que souvent négligé, dans la direction que
prend le développement de cette discipline.
L’intelligence artificielle est entrĂ©e, depuis quelques annĂ©es, dans une nouvelle
Ăšre, qui donne lieu Ă  de nombreux espoirs. C’est en particulier dĂ» Ă  l’essor de
l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux,
par la multiplication des jeux de données et le décuplement des puissances
L’intelligence artificielle est entrĂ©e,
depuis quelques années, dans une nouvelle
Ăšre, qui donne lieu Ă  de nombreux espoirs
10
Introduction
de calcul, les applications se multiplient : traduction, voiture autonome,
dĂ©tection de cancer,
 Le dĂ©veloppement de l’IA se fait dans un contexte
technologique marqué par la « mise en données » du monde (datafication), qui
touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1,
le supercalcul et le stockage massif. Au contact de ces différentes réalités
technologiques se jouera sĂ»rement le devenir de l’intelligence artificielle.
Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles
peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle,
du mythe de la Singularité et du transhumanisme. Depuis quelques années,
ces représentations sont largement investies par ceux qui la développent et
participent Ă  en forger les contours. Le cƓur politique et Ă©conomique de
l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office
de modùle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu,
davantage qu’un Ă©cosystĂšme particulier, elle est, pour beaucoup d’acteurs
publics et privĂ©s, un Ă©tat d’esprit qu’il conviendrait de rĂ©pliquer. La domination
californienne, qui subsiste dans les discours et dans les tĂȘtes, nourrit l’idĂ©e
d’une voie unique, d’un dĂ©terminisme technologique. Si le dĂ©veloppement
de l’intelligence artificielle est pensĂ© par des acteurs privĂ©s hors de nos
frontiùres, la France et l’Europe n’auraient d’autre choix que de prendre le
train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord
signĂ© entre Microsoft et l’éducation nationale sous le prĂ©cĂ©dent quinquennat
ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liĂ©e Ă 
la CIA, ne disent finalement pas autre chose. On observe la mĂȘme tentation
chez les entreprises europĂ©ennes qui, persuadĂ©es d’avoir dĂ©jĂ  perdu la
course, cÚdent bien souvent aux sirÚnes des géants de la discipline, parfois
au détriment de nos pépites numériques.
Contrairement aux derniĂšres grandes pĂ©riodes d’emballement de la recherche
en intelligence artificielle, le sujet a trÚs largement dépassé la seule sphÚre
scientifique et est sur toutes les lĂšvres. Les investissements dans la recherche
et dans l’industrie atteignent des sommes extraordinaires, notamment en
Chine. Les responsables politiques du monde entier l’évoquent dans les
discours de politique gĂ©nĂ©rale comme un levier de pouvoir majeur : l’emblĂ©-
matique interview à Wired de Barack Obama en octobre 2016 montrait que
ce dernier avait bien compris l’intĂ©rĂȘt de faire de l’avance amĂ©ricaine en
intelligence artificielle un outil redoutable de soft power. Le Président russe
Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans
ce domaine sera le maĂźtre du monde », comparant l’intelligence artificielle
aux technologies nuclĂ©aires. S’il s’agissait vraisemblablement pour lui de
compenser le retard de la Russie en matiùre d’intelligence artificielle par un
discours musclĂ© sur le sujet, cette affirmation est rĂ©vĂ©latrice de l’importance
gĂ©ostratĂ©gique prise par ces technologies. Dans la mesure oĂč les chaĂźnes
de valeur, surtout dans le secteur numérique, sont désormais mondiales,
les pays qui seront les leaders dans le domaine de l’intelligence artificielle
seront amenĂ©s Ă  capter une grande partie de la valeur des systĂšmes qu’ils
transforment, mais Ă©galement Ă  contrĂŽler ces mĂȘmes systĂšmes, mettant en
cause l’indĂ©pendance des autres pays.
C’est que l’intelligence artificielle va dĂ©sormais jouer un rĂŽle bien plus important
que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme
1. La blockchain
correspond Ă  un
registre distribué qui
permet d’éviter
de recourir
Ă  un tiers
de confiance lors
de transactions
et qui est notamment
au fondement
du bitcoin.
11
Introduction
Donner un sens, c’est-à-dire donner un cap,
une signification et des explications.
Voilà l’objectif de ce rapport
de recherche confiné aux laboratoires ou à une application précise. Elle va
devenir une des clés du monde à venir. En effet nous sommes dans un monde
numérique, de plus en plus, de part en part. Un monde de données. Ces
donnĂ©es qui sont au cƓur du fonctionnement des intelligences artificielles
actuelles. Dans ce monde-là, qui est désormais le nÎtre, ces technologies
reprĂ©sentent beaucoup plus qu’un programme de recherche : elles dĂ©ter-
minent notre capacité à organiser les connaissances, à leur donner un sens,
à augmenter nos facultés de prise de décision et de contrÎle des systÚmes.
Et notamment Ă  tirer de la valeur des donnĂ©es. L’intelligence artificielle est
donc une des clés du pouvoir de demain dans un monde numérique.
VoilĂ  pourquoi il est d’intĂ©rĂȘt gĂ©nĂ©ral que nous nous saisissions collectivement
de cette question. Et que la France et l’Europe puissent faire entendre leur
voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence
est rude : les États-Unis et la Chine sont à la pointe de ces technologies et
leurs investissements dépassent largement ceux consentis en Europe. Le
Canada, le Royaume-Uni et, tout particuliÚrement, Israël, tiennent également
une place essentielle dans cet Ă©cosystĂšme naissant. Parce qu’à bien des
Ă©gards, la France et l’Europe peuvent dĂ©jĂ  faire figure de « colonies
numériques »2, il est nécessaire de ne céder à aucune forme de déterminisme,
en proposant une réponse coordonnée au niveau européen.
C’est pourquoi le rĂŽle de l’État doit ĂȘtre rĂ©affirmé : le jeu du marchĂ© seul
montre ses limites pour assurer une vĂ©ritable politique d’indĂ©pendance. De
plus les rĂšgles qui rĂ©gissent les Ă©changes internationaux et l’ouverture des
marchĂ©s intĂ©rieurs ne servent pas toujours les intĂ©rĂȘts Ă©conomiques des États
europĂ©ens – qui l’appliquent trop souvent Ă  sens unique. Plus que jamais, l’État
doit donner un sens au dĂ©veloppement de l’intelligence artificielle. Donner
un sens, c’est-à-dire donner un cap, une signification et des explications.
Voilà l’objectif de ce rapport.
Donner un sens, c’est tout d’abord donner un cap. C’est l’objectif de la structu-
ration proposée pour la politique industrielle : quatre secteurs prioritaires sont
dĂ©finis, la santĂ©, l’écologie, les transports-mobilitĂ©s et la dĂ©fense-sĂ©curitĂ©. Ces
secteurs prĂ©sentent plusieurs caractĂ©ristiques : ils sont au service de l’intĂ©rĂȘt
général et des grands
défis de notre époque,
ils peuvent constituer un
avantage comparatif de la
France et de l’Europe et ils
ont besoin d’une interven-
tion de l’État pour se structurer. Le dĂ©veloppement de ces secteurs se fera
via des concours d’innovation spĂ©cifiques et prĂ©cis, qui fixeront les objectifs
prioritaires, mais également grùce une politique offensive de la donnée. Les
donnĂ©es, au cƓur du dĂ©veloppement de l’IA, bĂ©nĂ©ficient aujourd’hui souvent
à une poignée de trÚs grands acteurs, qui tendent à enfermer les capacités
d’innovation dans les limites de leurs entreprises toujours plus puissantes. Ce
n’est qu’au prix d’une plus grande circulation de ces donnĂ©es, pour en faire
bénéficier les pouvoirs publics, mais aussi les acteurs économiques les plus
petits, qu’il sera possible de rĂ©Ă©quilibrer les rapports de forces.
2. Cette expression,
traduite de l’anglais
« cybercolonization »,
est issue
d’un rapport
d’information de
Catherine MORIN-
DESAILLY fait au nom
de la commission des
affaires européennes
en 2013 (« L’Union
européenne,
colonie du monde
numérique ? »).
12
Introduction
La France tient une place décisive dans la recherche en IA : des chercheurs
français ont participĂ© Ă  fonder l’IA moderne et l’école mathĂ©matique et infor-
matique française rayonne dans le monde entier. NĂ©anmoins l’hĂ©morragie est
toujours plus importante : chaque semaine des chercheurs sont recrutés par les
entreprises privées et souvent étrangÚres et quittent les laboratoires publics.
Il faut donc redonner Ă  la recherche publique les moyens de ses ambitions,
au cƓur d’un dispositif allant de la formation au transfert et à l’innovation.
Enfin le dĂ©veloppement Ă©conomique du secteur de l’intelligence artificielle
doit mettre en son cƓur la prĂ©occupation Ă©cologique. En tant que secteur,
comme Ă©voquĂ© plus haut, c’est essentiel : les innovations en IA pourront
servir Ă  optimiser les consommations d’énergie et le recyclage et Ă  mieux
comprendre les effets de l’activitĂ© humaine sur l’environnement. Mais il s’agit
Ă©galement de veiller Ă  ce que l’intelligence artificielle que nous dĂ©veloppons
soit la plus Ă©conome en Ă©nergie et en ressources.
Donner un sens, c’est Ă©galement donner une signification. L’intelligence
artificielle est loin d’ĂȘtre une fin en soi et son dĂ©veloppement doit prendre en
compte plusieurs aspects. Tout d’abord la nĂ©cessitĂ© de penser les modes de
complĂ©mentaritĂ© entre l’humain et les systĂšmes intelligents. Que ce soit au
niveau individuel ou collectif, cette complémentarité peut prendre plusieurs
formes et peut ĂȘtre aliĂ©nante comme libĂ©ratrice. Au cƓur du dĂ©veloppement
de l’IA doit rĂ©sider la nĂ©cessitĂ© de mettre en Ɠuvre une complĂ©mentaritĂ©
qui soit capacitante, en ce qu’elle permet de dĂ©sautomatiser les tĂąches
humaines. Pour favoriser la transition des tùches et des métiers dans ce
sens, des expĂ©rimentations devront ĂȘtre mises en place sur l’ensemble des
territoires, notamment à destination des populations les plus touchées par
l’automatisation.
Dans un monde marquĂ© par les inĂ©galitĂ©s, l’intelligence artificielle ne doit
pas conduire Ă  renforcer les phĂ©nomĂšnes d’exclusion et la concentration de
la valeur. En matiĂšre d’IA, la politique d’inclusion doit ainsi revĂȘtir un double
objectif : s’assurer que le dĂ©veloppement de ces technologies ne contribue
pas Ă  accroĂźtre les inĂ©galitĂ©s sociales et Ă©conomiques ; et s’appuyer sur l’IA
pour effectivement les réduire. PlutÎt que de fragiliser nos trajectoires indivi-
duelles et nos systĂšmes de solidaritĂ©s, l’IA doit prioritairement nous aider
Ă  activer nos droits fondamentaux, augmenter le lien social et renforcer les
solidaritĂ©s. La mixitĂ© doit ĂȘtre Ă©galement au cƓur des prioritĂ©s : la situation
est alarmante dans les filiÚres numériques, tant les femmes sont peu repré-
sentées. Les algorithmes peuvent en outre reproduire des biais sexistes.
Enfin une sociĂ©tĂ© algorithmique ne doit pas ĂȘtre une sociĂ©tĂ© de boĂźtes noires :
l’intelligence artificielle va ĂȘtre amenĂ©e Ă  jouer un rĂŽle essentiel dans des
domaines aussi variés que cruciaux (santé, banque, logement,
) et le risque
de reproduire des discriminations existantes ou d’en produire de nouvelles
est important. À ce risque s’en ajoute un autre : la normalisation diffuse
des comportements que pourrait introduire le développement généralisé
d’algorithmes d’intelligence artificielle. Il doit ĂȘtre possible d’ouvrir les boĂźtes
noires, mais également de réfléchir en amont aux enjeux éthiques que les
algorithmes d’intelligence artificielle peuvent soulever.
13
Introduction
Donner un sens c’est enfin expliquer : expliquer ces technologies à l’opinion
pour la dĂ©mystifier – le rĂŽle des mĂ©dias est de ce point de vue primordial –,
mais aussi expliquer l’intelligence artificielle en elle-mĂȘme en dĂ©veloppant
les recherches sur l’explicabilitĂ©. Les spĂ©cialistes de l’IA eux-mĂȘmes affirment
souvent que des progrĂšs importants peuvent ĂȘtre faits sur ce sujet.
C’est de maniĂšre plus gĂ©nĂ©rale une rĂ©flexion collective qui doit ĂȘtre menĂ©e
sur ces technologies : la constante accélération des rythmes de déploiement
ne doit pas empĂȘcher une discussion politique sur les objectifs que nous
poursuivons et leur bien-fondé.
Le cƓur du document aborde successivement diffĂ©rentes facettes de l’IA :
politique Ă©conomique, recherche, emploi, Ă©thique, cohĂ©sion sociale. L’ensemble
forme un tout et passe en revue des actions qui ne font sens que quand elles
sont prises ensemble. On trouvera d’ailleurs de nombreuses passerelles
entre ces parties.
L’IA touche tous les secteurs (y compris ceux oĂč on ne l’attend pas forcĂ©ment,
comme le sport ou la culture) mais il ne nous a pas semblé souhaitable, sauf
à produire un document indigeste, de les passer tous en revue ; cependant
nous avons ressenti le besoin de rédiger cinq annexes insistant sur des
domaines d’intĂ©rĂȘt particulier : Ă©ducation, santĂ©, agriculture, transport,
défense et sécurité.
14
SynthĂšse
Partie 1 –
Une politique
économique articulée
autour de la donnée
Les mastodontes actuels de l’intel-
ligence artificielle (États-Unis et
Chine) et les pays Ă©mergents de la
discipline (Israël, Canada et Royaume-
Uni notamment) se développent ou
se sont développés sur des modÚles
parfois radicalement différents. Ce
n’est pas forcĂ©ment grĂące Ă  un
« Google européen » que la France
et l’Europe pourront se faire une place
sur la scùne mondiale de l’IA. Elles
doivent pour cela inventer un modĂšle
spécifique.
Un écosystÚme européen
de la donnée
Les données sont généralement le
point de départ de toute straté-
gie en IA, car de leur disponibilité
dépendent de nombreux usages et
applications. Or les données bénéfi-
cient aujourd’hui majoritairement à
une poignée de trÚs grands acteurs.
Ce n’est qu’au prix d’un plus grand
accùs et d’une meilleure circulation
de ces données, pour en faire béné-
ficier les pouvoirs publics, mais aussi
les acteurs Ă©conomiques plus petits
et la recherche publique, qu’il sera
possible de rééquilibrer les rapports
de forces.
La puissance publique doit pour
cela amorcer de nouveaux modes
de production, de collaboration et
de gouvernance sur les données, par
la constitution de « communs de la
donnée »1. Cela devra passer par une
incitation des acteurs Ă©conomiques
au partage et Ă  la mutualisation de
leurs donnĂ©es, l’État pouvant ici jouer
un rĂŽle de tiers de confiance. Dans
certains cas, la puissance publique
pourrait imposer l’ouverture s’agis-
sant de certaines donnĂ©es d’intĂ©rĂȘt
général. Au niveau européen, plu-
sieurs réformes en cours doivent
permettre un meilleur accĂšs et une
plus grande circulation des données.
La révision prochaine de la directive
sur la réutilisation des informations
du secteur public doit ĂȘtre l’occasion
d’accĂ©lĂ©rer le mouvement d’ouver-
ture des données publiques et de
prĂ©ciser les modalitĂ©s d’un accĂšs Ă 
des données privées pour des motifs
d’intĂ©rĂȘt gĂ©nĂ©ral. La rĂ©forme actuelle
du droit d’auteur devrait – enfin ! –
permettre d’autoriser les pratiques de
fouille de texte et de données (text
and data mining) dans un objectif
de compétitivité de notre recherche
publique.
Cette politique de la donnée doit
s’articuler avec un objectif de souve-
raineté : la France et l’Europe doivent
conserver une position ferme s’agis-
sant du transfert de données hors de
l’Union europĂ©enne. La stratĂ©gie en
IA devra en outre capitaliser sur les
hauts standards de protection issus
de la nouvelle législation européenne
sur les données. Le nouveau droit à
la portabilité2 des individus sur leurs
données personnelles pourrait ainsi
s’inscrire dans une logique citoyenne,
pour permettre à l’État et aux collec-
tivités territoriales de récupérer ces
données pour développer des appli-
cations en IA Ă  des fins de politique
publique.
Renforcer la visibilité
de ceux qui font l’IA
La France dispose de tous les atouts
pour exister pleinement sur la scĂšne
internationale. NĂ©anmoins nos entre-
prises et nos réseaux académiques
souffrent d’un vĂ©ritable manque de
visibilitĂ©. C’est Ă  la fois vrai Ă  l’étran-
ger et sur le marché domestique :
les grandes entreprises préfÚrent
parfois céder aux sirÚnes des géants
mondiaux de la discipline plutĂŽt que
1.  Les communs,
ou biens communs,
désignent une
ressource dont
l’usage et la
gouvernance sont
définis par une
communauté.
2.  La capacitĂ© pour
les utilisateurs de
récupérer leurs
données, pour leurs
propres usages ou
pour les transférer
vers un autre service.
15
 Le rapport en 10 pages
de faire confiance à nos pépites
nationales, soit parce qu’elles en
ignorent l’existence, soit par excùs
de prudence. Notre mission propose
ainsi de fédérer les acteurs français
de l’intelligence artificielle autour
d’une marque forte, qui pourrait
prendre la forme de labels et de prix
« d’innovation de terrain » visant Ă 
rĂ©compenser les solutions d’IA les
plus innovantes et à sécuriser de
potentiels acheteurs.
Cet effort doit s’accompagner d’une
structuration de la demande en IA.
Cela pourrait passer par la création
d’un guichet unique d’information
visant Ă  aider les potentiels acheteurs
d’IA à mieux formaliser leurs besoins
et Ă  identifier les acteurs permettant
d’y rĂ©pondre.
Un choix clair :
mettre l’accent sur quatre
secteurs stratégiques
Pour renforcer l’écosystĂšme fran-
çais et europĂ©en de l’intelligence
artificielle, il nous faut tirer parti des
avantages comparatifs et des niches
d’excellence de notre Ă©conomie.
De ce point de vue, notre mission
recommande d’éviter les logiques
de saupoudrage et de concentrer
l’effort sur quatre secteurs priori-
taires : santé, environnement, trans-
ports-mobilités et défense-sécurité.
Tous représentent un défi majeur du
point de vue de l’intĂ©rĂȘt gĂ©nĂ©ral,
tous requiĂšrent une impulsion
importante de l’État et tous sont
susceptibles de cristalliser l’intĂ©rĂȘt
et l’implication continue des acteurs
publics et privés.
Pour chacun de ces secteurs, la stra-
tégie industrielle doit permettre de
mobiliser et de structurer les Ă©cosys-
tĂšmes autour de grands enjeux et
dĂ©fis sectoriels. Il n’est pas question
ici de dĂ©velopper de l’IA pour elle-
mĂȘme, comme une fin en soi, mais
justement de canaliser cette Ă©nergie
pour le dĂ©veloppement d’applica-
tions, d’usages qui contribuent Ă  amĂ©-
liorer notre performance Ă©conomique
ainsi que le bien commun : détection
précoce des pathologies, médecine
des 4P3, disparition des déserts médi-
caux, mobilité urbaine à zéro émis-
sion... Ces enjeux et défis affichés
de politique industrielle, propres Ă 
chaque secteur, dépassent le sujet
de l’IA, mais pourraient contribuer
Ă  donner un terrain favorable Ă  son
développement.
Le deuxiÚme pilier de cette stratégie
consiste Ă  mettre en place des pla-
teformes sectorielles de mutualisa-
tion. Celles-ci devront offrir un accĂšs
différencié et sécurisé aux acteurs
de ces différents écosystÚmes
(chercheurs, entreprises, puissance
publique) à des données pertinentes
pour le dĂ©veloppement d’IA, Ă  des
ressources logicielles ainsi qu’à des
infrastructures de calcul d’ampleur
significative. Dans un continuum
public-privé, ces plateformes devront
permettre à ces différents acteurs de
développer de nouvelles fonction-
nalités adaptées aux spécificités de
chaque secteur.
Enfin, il est essentiel de fluidifier les
parcours d’innovation en IA avec la
mise en place de « bacs Ă  sable d’in-
novation », qui se déclinent sur trois
aspects : un allÚgement, temporaire,
de certaines contraintes réglemen-
taires pour laisser le champ libre Ă 
l’innovation ; un accompagnement
des acteurs dans la prise en compte
de leurs obligations ; des moyens
d’expĂ©rimentation en situation rĂ©elle.
Transformation de l’État,
État exemplaire
L’État doit ĂȘtre un puissant moteur
de ces transformations. La puissance
publique doit se donner les moyens
3. MĂ©decine
personnalisée,
préventive, prédictive,
participative.
16
SynthĂšse
matĂ©riels et humains d’intĂ©grer
l’IA à la conduite de ses politiques
publiques, Ă  la fois dans une pers-
pective de modernisation et par souci
d’exemplaritĂ©.
Cette transformation va inévitable-
ment prendre du temps et la maturité
des différents ministÚres et adminis-
trations sur l’IA est trĂšs inĂ©gale. C’est
pourquoi il est nĂ©cessaire d’installer un
coordinateur interministériel dédié à
la mise en Ɠuvre de cette stratĂ©gie.
Celui-ci pourra s’appuyer sur un pîle
mutualisé de compétences, constitué
d’une trentaine d’agents et chargĂ©
de conduire des missions de conseil
auprĂšs des administrations.
La commande publique doit ĂȘtre
repensĂ©e. ÉvaluĂ©e Ă  prĂšs de 70 mil-
liards d’euros annuels pour l’État,
les Ă©tablissements publics et les col-
lectivités, elle reste insuffisamment
orientĂ©e vers l’innovation, pour des
raisons à la fois opérationnelles, juri-
diques et culturelles. Notre mission
recommande plusieurs mesures qui
visent à mettre l’achat public au
service du soutien aux industries
europĂ©ennes et Ă  dynamiser l’achat
public innovant.
Partie 2 –
Pour une recherche agile
et diffusante
La recherche française est au premier
plan mondial pour ce qui concerne
ses chercheurs en mathématiques
et en intelligence artificielle, mais
elle a du mal Ă  transformer ses avan-
cées scientifiques en applications
industrielles et Ă©conomiques. Elle
pĂątit d’une « fuite des cerveaux »
vers les gĂ©ants amĂ©ricains. L’offre de
formation se situe par ailleurs bien
en deçà des besoins en matiùre d’IA
et science des données.
Fédérer les acteurs
de la recherche autour
d’Instituts Interdisciplinaires
d’Intelligence Artificielle
Il faut renforcer la place mondiale
de notre recherche en IA en créant,
Ă  l’intĂ©rieur d’une sĂ©lection d’éta-
blissements publics d’enseigne-
ment et recherche, des Instituts
Interdisciplinaires d’Intelligence
Artificielle (3IA) autonomes et coor-
donnés, réunissant chercheurs, ingé-
nieurs et Ă©tudiants. Ils ont vocation
Ă  ĂȘtre rĂ©partis gĂ©ographiquement
sur l’ensemble du territoire national,
diversifiés thématiquement sur les
domaines de l’IA et mettant un accent
fort sur l’interdisciplinaritĂ©, notam-
ment, mais pas uniquement, vis-Ă -vis
des sciences humaines et sociales.
Il faudra tout d’abord rĂ©ussir Ă  attirer
des scientifiques français et étrangers.
Ces instituts devront procurer un envi-
ronnement de travail suffisamment
attractif pour résister à la pression
compétitive des géants du numé-
rique, c’est pourquoi ils devront ĂȘtre
conçus comme des « zones franches
de l’IA » : allĂšgement drastique des
formalités administratives du quoti-
dien, compléments de salaire consé-
quents, aides pour l’amĂ©lioration de la
qualité de vie. Ces instituts pourront
offrir des postes Ă  temps plein et des
statuts intermĂ©diaires d’affiliĂ©s, pour
les chercheurs qui restent dans les
Ă©tablissements fondateurs.
Il faudra Ă©galement attirer des parte-
naires privés (grands groupes, PME,
startups) porteurs de solutions en IA
fondamentalement nouvelles, en leur
permettant de former leurs ingénieurs,
de recruter des ingénieurs de haut
niveau, de réaliser ou consolider des
avancées technologiques. Plusieurs
modes de participation pourront ĂȘtre
définis, selon des contrats-cadres
adaptés permettant de démarrer
17
 Le rapport en 10 pages
d’éventuelles collaborations spĂ©ci-
fiques de maniĂšre simple et rapide.
Ces instituts devront effectivement
contribuer à l’augmentation subs-
tantielle d’offres de formations en
IA attractives et diversifiées. La
prĂ©sence d’enseignants de rĂ©puta-
tion internationale, entourĂ©s d’une
Ă©quipe du mĂȘme niveau ; la possibi-
lité de cÎtoyer, via des stages ou des
concours d’innovation, des industriels
et des acteurs Ă©conomiques de tout
premier plan ; des offres de forma-
tions pluridisciplinaires avec doubles
diplÎmes, et des facilités financiÚres
comme des bourses de master et de
doctorat devraient permettre d’aug-
menter significativement le nombre
d’étudiants venant se former Ă  l’IA
autour de ces instituts.
Il est enfin nécessaire de penser une
coordination nationale du réseau
des 3IA, sur les plans scientifique et
administratif, qui soit efficace et trans-
parente. Au niveau scientifique, cela
passe notamment par la coordination
des séminaires, le partage des res-
sources de formation, la coordination
des stages et la consolidation de leurs
résultats. Au niveau administratif, il
s’agira de dĂ©terminer les allĂšgements
consentis Ă  tous les 3IA, garantissant
que chacun d’entre eux puisse en
bénéficier, sans pour autant alourdir
les procédures et sans empiéter sur
l’autonomie de chacun.
Des moyens de calcul
pour la recherche
Les instituts de recherche en IA
doivent pouvoir disposer d’outils de
calcul qui leur permettent de rivaliser
avec les moyens quasi-illimités des
grands acteurs privĂ©s. C’est pour-
quoi notre mission propose la mise
en place d’un supercalculateur conçu
spécifiquement pour les applications
d’IA, dĂ©diĂ© aux chercheurs et Ă  leurs
partenaires Ă©conomiques dans le
cadre de projets communs.
Ce supercalculateur, s’il est essentiel,
devrait ĂȘtre complĂ©tĂ© par un forfait
d’accĂšs Ă  un cloud privĂ©, dĂ©veloppĂ©
à un niveau européen et adapté aux
spĂ©cificitĂ©s de l’IA (en temps de calcul
et en espace de stockage).
Rendre plus attractives
les carriĂšres dans la recherche
publique
MĂȘme s’il est illusoire de penser rivali-
ser financiĂšrement avec les offres des
GAFAM, l’écart est actuellement si
important qu’il tend Ă  dĂ©courager les
jeunes diplÎmés, y compris ceux qui
sont le plus attachés à la recherche
publique et au bien commun. Un
doublement des salaires en début
de carriÚre est un point de départ
minimal indispensable, sous peine de
voir se tarir définitivement le flux de
jeunes prĂȘts Ă  s’investir dans l’ensei-
gnement supérieur et la recherche
académique. Il est par ailleurs néces-
saire de renforcer l’attractivitĂ© de la
France pour les talents expatriés ou
Ă©trangers, notamment avec des inci-
tations financiĂšres.
Partie 3 –
Anticiper les impacts
sur le travail, l’emploi
et expérimenter
Le monde du travail est à l’aube de
grandes transformations et n’y est
encore que peu préparé. Les incerti-
tudes sur les conséquences du déve-
loppement combinĂ© de l’intelligence
artificielle, de l’automatisation et de
la robotique sont trĂšs importantes,
notamment concernant les emplois
détruits et créés. Néanmoins, il
18
SynthĂšse
apparaĂźt de plus en plus certaine-
ment que la majorité des métiers et
des organisations vont ĂȘtre trĂšs lar-
gement transformés. Nous entrons
donc dans une période de transition
technologique importante : l’histoire
nous enseigne que les précédentes
transitions ne se sont pas faites sans
encombre et que les processus de
réajustement politiques ont parfois
été violents, souvent au détriment
des populations déjà les plus fragiles.
Il est donc nécessaire de prendre le
problùme à bras le corps et d’agir
résolument, sans céder à la panique
ni au fatalisme.
Cela passe d’abord par une rĂ©flexion
sur les modes de complémentarité
entre l’humain et l’intelligence arti-
ficielle : si l’on part du principe que,
pour la plupart des métiers, les indi-
vidus seront amenés à travailler en
collaboration avec une machine, il est
nécessaire de définir une complémen-
tarité qui ne soit pas aliénante, mais
au contraire permette de développer
les capacités proprement humaines
(créativité, dextérité manuelle, capa-
cité de résolution de problÚmes
).
Cela pourra s’articuler de plusieurs
maniùres. Tout d’abord au travers
d’une transformation du dialogue
social afin d’intĂ©grer pleinement les
enjeux numériques et développer un
indice de bonne complémentarité.
De maniĂšre plus globale, un chan-
tier législatif relatif aux conditions de
travail à l’heure de l’automatisation
pourrait ĂȘtre lancĂ© afin de prendre en
compte les nouveaux risques. Enfin,
une transformation de la formation ini-
tiale et continue devra ĂȘtre amorcĂ©e
afin de favoriser les pédagogies
expĂ©rimentales, Ă  mĂȘme de dĂ©ve-
lopper les compétences créatives qui
deviennent de plus en plus cruciales.
Créer un lab public
de la transformation du travail
C’est la premiĂšre nĂ©cessité : s’assurer
que la capacitĂ© d’anticipation soit
pérenne, continue et surtout articu-
lée avec des politiques publiques. La
parution des Ă©tudes sur l’avenir du
travail occasionne des débats col-
lectifs passionnants, mais souvent
sans véritable incidence, tandis que
les politiques publiques ne sont
modifiĂ©es qu’à la marge et peinent
à prendre véritablement en compte
les résultats de ces exercices pros-
pectifs. Les transformations peuvent
ĂȘtre extrĂȘmement rapides et les cir-
cuits des politiques publiques sont
tout aussi complexes et difficiles Ă 
manƓuvrer. La formation profession-
nelle, Ă  elle toute seule par exemple,
reprĂ©sente 32 milliards d’euros par
an, avec une multitude de canaux de
financement et une myriade d’acteurs
différents.
Il est donc nécessaire de constituer
un espace ou les capacités prospec-
tives, de prévisions macro-écono-
miques et d’analyse des mutations
des usages puissent ĂȘtre mises en
lien avec des capacitĂ©s d’expĂ©ri-
mentation concrÚtes et articulées
avec des actions Ă  destination de
certaines catégories de travailleurs.
Une structure pérenne pourrait donc
ĂȘtre installĂ©e, qui aurait un rĂŽle de
« tĂȘte chercheuse » Ă  l’intĂ©rieur des
politiques publiques de l’emploi et
de la formation professionnelle. Elle
aura un double rÎle : anticiper et
expérimenter.
La démarche expérimentale pourra
servir à amorcer des logiques diffé-
rentes de celles qui sont actuellement
en vigueur dans la formation profes-
sionnelle. Les dispositifs actuels sont
largement « à la main » des salariés,
dans une logique de responsabilisa-
tion individuelle. Au vu du caractĂšre
potentiellement trĂšs rapide, voire
exponentiel de ces transformations,
il semble difficile, pour les dispositifs
généraux existants, de répondre à
l’ensemble des situations et de per-
mettre Ă  la fois la prise en compte
des besoins de l’ensemble de la
19
 Le rapport en 10 pages
population et la nĂ©cessitĂ© d’agir de
maniÚre ciblée et urgente. De plus,
face Ă  la transformation de leur
emploi, les individus ne sont pas
Ă©gaux dans la capacitĂ© de s’adap-
ter et de construire des parcours
professionnels.
À cet Ă©gard, des expĂ©rimentations
pourraient ĂȘtre menĂ©es afin de
construire des dispositifs qui ciblent
certaines populations d’individus,
dont les emplois sont considérés
comme Ă©tant le plus Ă  risque d’auto-
matisation et pour lesquelles il sera
complexe d’amorcer seules leur
transition professionnelle. Il s’agit
donc de rompre, en partie, avec la
seule logique de responsabilisation
de l’individu concernant sa propre
transition professionnelle.
Expérimenter de nouveaux
modes de financement
de la formation professionnelle
pour tenir compte
des transferts de valeur
Le financement de la formation pro-
fessionnelle est fondé sur la masse
salariale. Or, le développement de
l’IA renforce la mutation des chaünes
de valeur et entraßne une décorréla-
tion entre les acteurs qui financent la
formation professionnelle et ceux qui
captent la valeur ajoutée. Ainsi des
acteurs ayant une trĂšs faible masse
salariale peuvent ĂȘtre Ă  l’origine d’une
grande partie de la valeur ajoutée
d’une chaüne de valeur globale qu’ils
contribuent Ă  trĂšs largement modi-
fier par exemple en développant un
logiciel pour les voitures autonomes.
Pour autant, à l’heure actuelle, ils ne
participent pas au financement de la
transition professionnelle des indivi-
dus employĂ©s par d’autres acteurs
de la chaĂźne de valeur.
Il est donc proposĂ© d’instaurer un
dialogue social autour du partage
de la valeur ajoutée au niveau de la
chaĂźne de valeur entiĂšre. Ce type de
négociation ne correspond pas aux
structurations habituelles du dialogue
social qui fonctionne trĂšs largement
Ă  un niveau national et surtout
suivant une structuration verticale,
par branche. Des expérimentations
pourraient ĂȘtre organisĂ©es par l’Orga-
nisation internationale du travail, ou
encore les comités de dialogue social
sectoriel, autour de produits et de
chaĂźnes de valeur particuliĂšrement
symptomatiques des phénomÚnes
de captation de valeur.
Former des talents en IA,
à tous niveaux
Un objectif clair doit ĂȘtre fixé : Ă 
horizon trois ans, multiplier par trois
le nombre de personnes formées en
intelligence artificielle en France, Ă 
la fois en faisant en sorte que l’offre
de formation existante s’oriente vers
l’IA, mais Ă©galement en crĂ©ant de
nouveaux cursus et de nouvelles for-
mations à l’IA (doubles cursus droit-IA
par exemple, modules généraux
).
L’ensemble des niveaux (bac +2,
bac +3, master, doctorat) doit faire
l’objet d’attention.
Partie 4 –
L’intelligence artificielle
au service d’une
Ă©conomie plus
Ă©cologique
Donner un sens à l’intelligence arti-
ficielle, c’est Ă©galement penser sa
soutenabilité, notamment écologique.
Cela ne se résume pas à lister les
usages de l’IA qui pourront aider à
la transition Ă©cologique. Il s’agit de
penser une IA nativement Ă©cologique
et de l’utiliser pour mieux penser
l’impact de l’humain sur son envi-
ronnement. Il y a urgence : d’ici 2040,
les besoins en espace de stockage au
niveau mondial, fondamentalement
corrélés au développement du numé-
rique et de l’IA, risquent d’excĂ©der
la production disponible globale de
silicium.
20
SynthĂšse
La France et l’Europe peuvent devenir
le fer-de-lance de cette transition
Ă©cologique intelligente, d’abord en
inscrivant le sujet à l’agenda inter-
national. Premier chantier : penser
les impacts de l’IA sur la rĂ©alisa-
tion des objectifs de l’ONU sur le
dĂ©veloppement durable (ODD) – en
quoi celle-ci en met certains sous
contrainte, comment elle peut Ă 
l’inverse permettre d’en accĂ©lĂ©rer
d’autres. L’IA doit s’intĂ©grer aux ini-
tiatives Ă©mergentes dans le cadre de
l’Accord climat et du Pacte mondial
pour l’environnement.
Les acteurs des transitions numé-
rique et Ă©cologique doivent se
fédérer. Pour cela, il est nécessaire
de créer un lieu dédié à cette ren-
contre entre la recherche en IA et
la recherche portant sur l’optimisa-
tion des ressources énergétiques.
Il s’agira de porter des projets à la
croisée des sciences du vivant et de
l’écologie, la recherche sur le climat
et la météo.
Le consommateur doit ĂȘtre acteur
dans le verdissement de ces tech-
nologies. Notre mission propose
ainsi la mise en place d’une plate-
forme dĂ©diĂ©e Ă  la mesure de l’im-
pact environnemental des solutions
numériques intelligentes. Cette pla-
teforme devra s’accompagner d’un
outil simple permettant Ă  tout citoyen
de prendre conscience de ces enjeux
et de comparer l’impact environne-
mental de ces différents produits et
services, logiciels et matériels.
Penser une IA plus verte
Nous devons penser l’innovation
de rupture dans le domaine du
semi-conducteur, l’une des briques
matĂ©rielles de l’IA. À ce titre les tech-
nologies neuromorphiques4 peuvent
permettre des Ă©conomies d’énergie
considĂ©rables – et la France est dĂ©jĂ 
trÚs avancée dans le domaine.
Par ailleurs, les pouvoirs publics
doivent agir pour le verdissement
de la chaĂźne de valeur et accompa-
gner l’industrie du cloud europĂ©en
dans le sens de sa transition Ă©co-
logique. Certains acteurs sont déjà
exemplaires en matiùre d’optimisa-
tion de l’utilisation de l’énergie. Il
est important de diffuser ces bonnes
pratiques à l’ensemble du secteur.
Un label pourrait ĂȘtre mis en place
afin de valoriser les solutions les plus
exemplaires.
Enfin, le verdissement de la chaĂźne de
valeur de l’IA passera nĂ©cessairement
par des architectures matérielles et
logicielles ouvertes (open hardware
et open software) qui, en plus d’ĂȘtre
un facteur de confiance, peuvent
permettre des Ă©conomies d’énergie
significatives et qui peuvent inspi-
rer les initiatives en cours au niveau
européen.
Libérer la donnée écologique
Le dĂ©veloppement d’une IA verte
n’est possible qu’à condition de
libérer la donnée écologique. Pour
dĂ©velopper des solutions d’IA au
service de la transition Ă©cologique,
il est ainsi primordial de mettre Ă  la
disposition de tous, chercheurs et
entreprises européennes, et rapide-
ment, à horizon 2019, les données
publiques disponibles : météoro-
logiques, agricoles, de transports,
d’énergie, de biodiversitĂ©, de climat,
de déchets, cadastrales, de diagnostic
de performance énergétique
 Pour
les jeux de données les plus sensibles,
l’ouverture pourrait se faire dans un
périmÚtre précis, par exemple dans
le cadre de défis sectoriels. Il est éga-
lement essentiel de libérer la donnée
privée, lorsque cela est nécessaire.
4.  On appelle puces
neuromorphiques
les puces dont le
fonctionnement
s’inspire du cerveau
humain.
21
 Le rapport en 10 pages
Partie 5 –
Quelle Ă©thique de l’IA ?
Les progrĂšs rĂ©cents de l’IA dans de
nombreux domaines (voitures auto-
nomes, reconnaissance d’images,
assistants virtuels) et son influence
croissante sur nos vies renforcent sa
place dans le débat public. Ce débat
a notamment pris la forme d’une large
réflexion sur les enjeux éthiques liés
au développement des technologies
d’intelligence artificielle et plus lar-
gement des algorithmes. Loin des
considérations spéculatives sur les
menaces existentielles de l’IA pour
l’humanitĂ©, les rĂ©flexions tendent Ă  se
cristalliser autour des algorithmes du
« quotidien », qui peuvent d’ores et
déjà avoir des conséquences impor-
tantes sur nos vies.
Si nous souhaitons faire Ă©merger
des technologies d’IA conformes
Ă  nos valeurs et normes sociales, il
faut agir dÚs à présent en mobili-
sant la communauté scientifique, les
pouvoirs publics, les industriels, les
entrepreneurs et les organisations
de la société civile. Notre mission a
cherché, humblement, à proposer
quelques pistes permettant de poser
les bases d’un cadre Ă©thique pour le
dĂ©veloppement de l’IA et Ă  faire vivre
ce débat dans la société.
Ouvrir les boĂźtes noires
Une grande partie des considéra-
tions éthiques soulevées tiennent
Ă  l’opacitĂ© de ces technologies :
l’IA donne aujourd’hui des rĂ©sultats
spectaculaires, pour des raisons que
les chercheurs ont parfois du mal Ă 
expliquer. C’est le fameux problùme
de la boßte noire : des systÚmes algo-
rithmiques dont il est possible d’ob-
server les donnĂ©es d’entrĂ©e (input),
les données de sortie (output), mais
dont on comprend mal le fonction-
nement interne. Dans un contexte
oĂč l’IA est susceptible de reproduire
des biais et des discriminations, et
Ă  mesure de son irruption dans nos
vies sociales et Ă©conomiques, ĂȘtre en
mesure « d’ouvrir les boĂźtes noires »
tient de l’enjeu dĂ©mocratique.
L’explicabilitĂ© des algorithmes d’ap-
prentissage automatique est un sujet
si pressant qu’il constitue aujourd’hui
un champ de recherche spécifique,
qui doit ĂȘtre soutenu par la puissance
publique. Trois axes en particulier
semblent mériter une attention par-
ticuliÚre : la production de modÚles
plus explicables bien sûr, mais aussi
la production d’interfaces utilisateurs
plus intelligibles et la compréhen-
sion des mécanismes cognitifs à
l’Ɠuvre pour produire une explication
satisfaisante.
Au-delĂ  de la transparence, il est
nĂ©cessaire d’accroĂźtre l’auditabilitĂ©
des systùmes d’IA. Cela pourrait
passer par la constitution d’un corps
d’experts publics assermentĂ©s, en
mesure de procéder à des audits
d’algorithmes, des bases de donnĂ©es
et de procéder à des tests par tout
moyen requis. Ces experts pourraient
ĂȘtre saisis Ă  l’occasion d’un conten-
tieux judiciaire, dans le cadre d’une
enquĂȘte diligentĂ©e par une autoritĂ©
administrative indépendante ou suite
Ă  une demande du DĂ©fenseur des
droits.
Penser l’éthique
dĂšs la conception
Les chercheurs, ingénieurs et entrepre-
neurs qui contribuent Ă  la conception,
au développement et à la commer-
cialisation de systùmes d’IA sont
amenés à jouer un rÎle décisif dans
la société numérique de demain. Il est
essentiel qu’ils agissent de maniùre
responsable, en prenant en considé-
ration les impacts socio-Ă©conomiques
de leurs activitĂ©s. Pour s’en assurer,
22
SynthĂšse
il est nécessaire de les sensibiliser,
dÚs le début de leur formation, aux
enjeux éthiques liés au développe-
ment des technologies numériques.
Aujourd’hui cet enseignement est
quasiment absent des cursus des
Ă©coles d’ingĂ©nieurs ou des parcours
informatiques des universités, alors
mĂȘme que le volume et la complexitĂ©
des problématiques éthiques auxquels
ces futurs diplÎmés seront confrontés
ne cessent de croĂźtre.
Au-delà de la formation des ingé-
nieurs, les considérations éthiques
doivent irriguer le développement
mĂȘme des algorithmes d’intelligence
artificielle. Sur le modĂšle de l’étude
d’impact sur les risques en matiùre
de vie privée (privacy impact assess-
ment), rendu obligatoire pour cer-
tains traitements de données par le
rÚglement général sur la protection
des donnĂ©es (RGPD), il pourrait ĂȘtre
instituĂ© une Ă©tude d’impact sur les
risques de discrimination (discrimi-
nation impact assessment). L’objectif
est simple : obliger les développeurs
d’IA à se poser les bonnes questions,
au bon moment.
Plus gĂ©nĂ©ralement, l’utilisation crois-
sante de l’IA dans certains domaines
sensibles comme la police, la banque,
l’assurance, la justice ou l’armĂ©e (avec
la question des armes autonomes)
appelle un véritable débat de société
et une réflexion sur la question de la
responsabilité humaine. Nous devons
Ă©galement nous interroger sur la
place de l’automatisation dans les
décisions humaines : existent-ils des
domaines oĂč le jugement humain,
aussi faillible soit-il, ne devrait pas
Ă  ĂȘtre remplacĂ© par une machine ?
CrĂ©er un comitĂ© d’éthique
de l’IA
Notre mission recommande la créa-
tion d’un comitĂ© d’éthique des
technologies numĂ©riques et de l’IA
ouvert sur la société. Cet organe serait
chargĂ© d’organiser le dĂ©bat public, de
façon lisible, construite et encadrée
par la loi. Il devra parvenir Ă  articuler
des logiques de temps court, celui des
enjeux Ă©conomiques et industriels, en
bonne interaction avec les comités
sectoriels, tout en parvenant à s’en
extraire pour penser le temps long.
Les avis de ce comité, élaborés en
toute indépendance, pourraient
Ă©clairer les choix technologiques des
chercheurs, des acteurs Ă©conomiques,
industriels et de l’État. Ses recom-
mandations pourront servir de réfé-
rence pour la résolution de dilemmes
éthiques (par exemple sur le véhicule
autonome) et donc servir de standard
pour les développements en IA.
Partie 6 –
Pour une IA inclusive
et diverse
L’intelligence artificielle ne peut pas
ĂȘtre une nouvelle machine Ă  exclure.
C’est une exigence dĂ©mocratique
dans un contexte oĂč ces technologies
sont en passe de devenir une des clés
du monde Ă  venir. Elle ouvre de for-
midables opportunités de création de
valeur et de développement de nos
sociétés et des individus. Ces oppor-
tunités doivent bénéficier à tous.
Mixité et diversité :
agir pour l’égalitĂ©
En dĂ©pit d’une fĂ©minisation lente,
mais progressive des filiĂšres scien-
tifiques et techniques, le numérique
fait figure d’exception : la paritĂ© entre
les hommes et les femmes est loin d’y
ĂȘtre acquise. À mesure que le numĂ©-
rique et, demain, l’intelligence artifi-
cielle deviennent omniprésents dans
nos vies, ce manque de diversité peut
conduire les algorithmes Ă  reproduire
23
 Le rapport en 10 pages
des biais cognitifs – souvent incons-
cients – dans la conception des pro-
grammes, l’analyse des donnĂ©es et
l’interprĂ©tation des rĂ©sultats. L’un des
grands dĂ©fis de l’IA consiste donc Ă 
parvenir à une meilleure représenta-
tivité de nos sociétés.
Si l’éducation Ă  l’égalitĂ© et au numĂ©-
rique est une condition préalable et
essentielle, la mixitĂ© pourrait ĂȘtre
atteinte avec une politique incita-
tive visant Ă  atteindre un seuil de
40 % d’étudiantes dans les filiĂšres
du numérique (classes préparatoires
et filiĂšres des grandes Ă©coles et des
universitĂ©s) d’ici 2020.
L’ensemble des actions en faveur de
la diversité dans les entreprises du
numérique pourraient par ailleurs
ĂȘtre portĂ©es par une action natio-
nale en faveur de la mixité et de la
diversité dans la technologie avec
l’alimentation, notamment, d’une
base de données nationale permet-
tant d’objectiver les inĂ©galitĂ©s entre
les femmes et les hommes au travail
et de fonds dédiés à soutenir la diver-
sitĂ© dans l’IA.
Développer la médiation
numĂ©rique et l’innovation
sociale pour que l’IA
bénéficie à tous
Face à l’ampleur des transformations
à venir par l’IA, il est de notre res-
ponsabilitĂ© collective de s’assurer
que personne ne soit mis de cÎté.
Pour que chacun puisse véritablement
bĂ©nĂ©ficier des avancĂ©es de l’IA, nos
procĂ©dures d’accĂšs aux droits doivent
évoluer, et nos capacités de médiation
considérablement se renforcer. Notre
mission propose donc de mettre en
place un systĂšme automatisĂ© d’aide Ă 
la gestion des démarches administra-
tives qui vise à améliorer la connais-
sance pour le grand public des rĂšgles
administratives et de leur application
Ă  une situation personnelle. En com-
plément, de nouvelles capacités de
mĂ©diation doivent ĂȘtre dĂ©ployĂ©es
pour accompagner les des personnes
qui en ont besoin, en lien avec les
réseaux du prendre soin présents sur
le territoire.
Enfin, il est important que la puissance
publique soutienne le développement
d’initiatives basĂ©es sur l’IA dans les
champs sociaux. À l’heure actuelle,
les capacitĂ©s d’innovation par l’IA
restent trĂšs concentrĂ©es au sein d’un
petit nombre d’entreprises. À l’excep-
tion de la santé, les champs sociaux
reçoivent une part minoritaire des
investissements privés. Cette struc-
turation de l’écosystĂšme d’innova-
tion en IA a des conséquences sur
la vitesse des progrÚs réalisés dans
les champs sociaux. Afin de redistri-
buer ces capacitĂ©s d’innovation, la
puissance publique pourrait lancer
des programmes spécifiques pour
accompagner l’innovation d’IA en
matiĂšre sociale, et outiller les acteurs
sociaux afin qu’ils puissent bĂ©nĂ©ficier
des avancĂ©es liĂ©es Ă  l’IA.
Partie 1 –
	 Une politique
	Ă©conomique
	articulée
	autour
	 de la donnée
25
 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
La course Ă  l’intelligence artificielle s’est intensifiĂ©e sur la scĂšne mondiale au
cours des derniÚres années. En juillet 2017, la Chine a dévoilé sa feuille de
route1 pour crĂ©er une industrie d’une valeur de 150 milliards de dollars pour
son Ă©conomie d’ici 2030. Une façon de rĂ©pondre Ă  son principal rival, les
États-Unis, qui investissent massivement dans l’IA depuis plusieurs annĂ©es2.
Face à ce duopole, quel espace pour la France et l’Europe ?
Celles-ci disposent d’atouts considĂ©rables pour peser sur la scĂšne mondiale.
S’agissant de la France, elle peut notamment s’appuyer sur l’excellence de
sa recherche et de sa formation, un vivier de startups spécialisées, des bases
de donnĂ©es trĂšs importantes et un tissu industriel d’envergure mondiale.
L’Europe peut quant Ă  elle mettre en avant un marchĂ© de prĂšs de 500 millions
de consommateurs, une recherche de pointe, des leaders Ă©conomiques
mondiaux et une puissance financiĂšre, qui mĂȘme si elle est naturellement
fragmentĂ©e, n’a rien Ă  envier aux gĂ©ants de la discipline. Elle est Ă©galement
organisĂ©e autour d’un systĂšme de
valeurs communes et d’un cadre
juridique en voie d’harmonisation.
De ce point de vue, c’est l’échelle
pertinente pour espérer rivaliser
avec les champions actuels.
Il est important de rappeler que
les mastodontes actuels de l’intel-
ligence artificielle – États-Unis et
Chine – et les pays Ă©mergents
de la discipline – IsraĂ«l, Canada
et Royaume-Uni notamment – se
développent ou se sont développés
sur des modĂšles parfois radicalement diffĂ©rents. Ce n’est pas forcĂ©ment grĂące
Ă  un « Google europĂ©en » que la France et l’Europe pourront se faire une
place sur la scĂšne mondiale.
Dans cette optique, notre mission propose une stratégie qui repose sur
trois piliers.
D’abord, une politique offensive visant Ă  favoriser l’accĂšs aux donnĂ©es, la
circulation de celles-ci et leur partage. Les données sont la matiÚre premiÚre
de l’IA contemporaine et d’elles dĂ©pend l’émergence de nombreux usages
et applications. Il est tout d’abord urgent d’accĂ©lĂ©rer et d’étoffer la politique
d’ouverture des donnĂ©es publiques (open data), en particulier s’agissant des
donnĂ©es critiques pour les applications en IA. La dĂ©marche d’open data fait
l’objet d’une politique volontariste depuis plusieurs annĂ©es, notamment sous
l’impulsion de la loi pour une RĂ©publique numĂ©rique3 : cet effort, important,
doit ĂȘtre soutenu. La puissance publique doit par ailleurs amorcer de nouveaux
modes de production, de collaboration et de gouvernance sur les données,
par la constitution de « communs de la donnĂ©e »4. Il lui revient ainsi d’inciter
les acteurs économiques au partage et à la mutualisation de données voire,
dans certains cas, d’en imposer l’ouverture. La politique de la donnĂ©e doit
enfin s’articuler avec un objectif de souverainetĂ© et capitaliser sur les standards
de protection europĂ©ens pour faire de la France et l’Europe les championnes
d’une IA Ă©thique et soutenable. L’Union europĂ©enne s’est engagĂ©e depuis
1. Document
disponible à l’adresse
suivante : http://www.
miit.gov.cn/n1146295/
n1652858/n1652930/
n3757016/c5960820/
content.html
2.  Pour donner un
ordre de grandeur,
les géants américains
du numérique
représentent
2 200 milliards de
dollars de valorisation
quand l’ensemble
du CAC40 ne pĂšse
que 1 500 milliards
dollars

3.  Loi 2016-1321
du 7 octobre 2016
pour une RĂ©publique
numérique.
4.  Les communs,
ou biens communs,
désignent une
ressource dont
l’usage et la
gouvernance sont
communs Ă  tous.
D’abord, une politique offensive
visant à favoriser l’accùs
aux données, la circulation de celles-ci
et leur partage. Les données sont
la matiùre premiùre de l’IA
contemporaine et d’elles dĂ©pend
l’émergence de nombreux usages
et applications
26
Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
quelques années dans une politique ambitieuse de consolidation du marché
européen (Digital Single Market, dans laquelle les propositions suivantes ont
vocation à s’inscrire.
Il s’agit ensuite de concentrer les efforts de la politique industrielle dans
quatre domaines prioritaires pour le dĂ©veloppement de l’IA : santĂ©, transports-
mobilités, environnement, défense-sécurité. Les mesures proposées visent
notamment à articuler le soutien à l’innovation autour de grands enjeux de
notre époque, à fédérer les différents écosystÚmes autour de plateformes de
mutualisation sectorielles et Ă  mettre en place
des espaces d’expĂ©rimentations. Le rĂŽle de
l’État consiste ici Ă  poser les briques Ă©lĂ©men-
taires de l’innovation, à donner les moyens,
les ressources aux acteurs pour innover, sans
pour autant piloter ce mouvement.
Enfin, il est question d’amorcer une mutation
profonde de l’État, qui doit ĂȘtre un moteur
de ces transformations. La puissance publique
doit se donner les moyens matĂ©riels et humains d’intĂ©grer l’IA Ă  la conduite
de ses politiques publiques, autant dans une perspective de modernisation
que d’exemplaritĂ©. Cela suppose d’avancer sur plusieurs plans, qui vont de la
commande publique à la politique de l’État en matiùre de ressources humaines
et de compĂ©tences ; mais aussi de son approche mĂȘme de l’innovation.
Cette partie est la plus longue. Non pas qu’elle soit plus importante que les
autres – tous les axes doivent ĂȘtre traitĂ©s avec la mĂȘme attention ! – mais
parce que les recommandations qu’elle contient, notamment sur la donnĂ©e,
ont vocation Ă  irriguer les autres.
Renforcer l’écosystĂšme europĂ©en de la donnĂ©e
Les techniques d’apprentissage automatique (machine learning) marquent une
rupture avec l’algorithmie classique. Notamment en ce qu’elles marquent le
passage progressif d’une logique de programmation à une logique d’appren-
tissage. C’est ce qui a conduit le magazine Wired Ă  prophĂ©tiser en juin 2016
« la fin du code » : Ă  l’avenir, nous ne programmerons plus les ordinateurs, nous
les entraünerons. On peut comparer le fonctionnement d’un algorithme de
machine learning au dĂ©veloppement cognitif de l’enfant : celui-ci apprend en
observant le monde, en analysant la maniĂšre dont les individus interagissent,
en reproduisant les rùgles sans pour autant qu’on lui expose explicitement.
SchĂ©matiquement, la mĂȘme chose se produit en matiĂšre d’apprentissage
automatique : les algorithmes sont désormais entraßnés à apprendre seuls
sans programmation explicite. PlutĂŽt que de programmer une voiture pour
qu’elle se conduise toute seule, les constructeurs vont par exemple lui proposer
une quantité innombrable de scénarios de conduite pour lui permettre de
rĂ©agir Ă  n’importe quelle situation, parmi les plus improbables5. Cette base
d’apprentissage, c’est prĂ©cisĂ©ment la donnĂ©e. Soyons clairs : l’apprentissage
par donnĂ©es n’est pas la seule mĂ©thode menant Ă  l’intelligence artificielle
(loin s’en faut) mais c’est aujourd’hui la mĂ©thode la plus utilisĂ©e, celle qui se
dĂ©veloppe le plus vite et celle qui fait l’objet de la compĂ©tition internationale
la plus vive.
5.  « Sur notre terrain
de test en Californie,
des personnes
se jettent Ă  plat
ventre quand
la voiture arrive
et font l’escargot »
Chris Urmson,
directeur de la
division Google Car
(https://www.
lesechos.fr/
14/03/2016/lesechos.
fr/021765692246_
comment-la-google-
car-utilise-le---deep-
learning--.htm)
Le point de départ de toute
stratégie en intelligence
artificielle tient ainsi en
la constitution de larges
corpus de données
27
 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e
Le point de départ de nombreuses de stratégies en intelligence artificielle tient
ainsi en la constitution de larges corpus de données. De nombreux usages et
applications dĂ©pendent directement de la disponibilitĂ© des donnĂ©es : c’est
par exemple la raison pour laquelle le traitement automatique de la langue
française est moins développé que le traitement de la langue anglaise.
C’est Ă©galement pour cette raison que les traductions du français Ă  l’anglais
fonctionnent beaucoup mieux que les traductions du français vers le thaï, les
corpus de textes franco-thaĂŻlandais Ă©tant beaucoup plus rares.
Si la donnĂ©e brute est nĂ©cessaire, elle dĂ©cuple sa valeur lorsqu’elle est struc-
turĂ©e et annotĂ©e6 de sorte qu’elle vĂ©hicule des informations valorisables par
les techniques d’IA. L’enrichissement et l’annotation des jeux de donnĂ©es
sont particuliĂšrement importants pour le machine learning (apprentissage
automatique), mais il s’agit lĂ  d’une opĂ©ration pĂ©nible, trĂšs consommatrice
en temps, en ressources humaines et financiùres. C’est pourquoi dans de
nombreux domaines, les moyens du crowdsourcing (externalisation distribuée
Ă  grande Ă©chelle) sont mis en Ɠuvre pour collecter et surtout annoter ces
informations (notamment au travers de plateformes de microtĂąches, comme
Amazon Mechanical Turk). Les applications gĂ©nĂ©riques de l’IA s’appuient
généralement sur des corpus de domaine public (par exemple, les textes
multilingues issus des organisations internationales sont utilisés pour améliorer
les outils de traduction automatique), mais pour ce qui est des domaines
industriels, le travail de collecte et d’annotation, pour fastidieux qu’il soit,
est un enjeu stratégique.
La donnée constitue un avantage compétitif majeur dans la concurrence
mondiale pour l’IA et de ce point de vue, il est indĂ©niable que les gĂ©ants du
numérique partent avec un avantage considérable. Pour autant le volume
des données ne fait pas tout : des jeux de données moins importants (small
data) peuvent permettre d’obtenir des performances importantes s’ils sont
couplés à des modÚles pertinents.
L’accĂšs Ă  la donnĂ©e reste nĂ©anmoins une condition essentielle de l’émergence
d’une industrie française et europĂ©enne de l’IA. Dans un monde de plus en
plus automatisĂ©, c’est de cet accĂšs que dĂ©pendent la vitalitĂ© et la perfor-
mance de notre recherche et de l’action publique, mais aussi notre capacitĂ©
collective Ă  dĂ©terminer la trajectoire de l’intelligence artificielle, Ă  dessiner
les contours de notre société automatisée.
Or sur l’IA, la situation actuelle est caractĂ©risĂ©e par une asymĂ©trie critique
entre les acteurs de premier plan – les GAFAM7 (Google, Amazon, Facebook,
Apple et Microsoft, auxquels il faut rajouter IBM pour l’IA) d’un cĂŽtĂ©, les
BATX (Baidu, Alibaba, Tencent et Xiaomi) – qui ont fait de la collecte et de
la valorisation des donnĂ©es la raison de leur prĂ©Ă©minence ; et les autres –
entreprises et administrations – dont la survie Ă  terme est menacĂ©e. Cette
premiĂšre asymĂ©trie en emporte une seconde, critique, entre l’Europe et
les États-Unis. Pour s’en convaincre, il suffit de s’intĂ©resser aux flux de
donnĂ©es entre ces grands espaces gĂ©ographiques : rien qu’en France,
prÚs de 80 % des visites vers les 25 sites les plus populaires sur un mois
sont captés par les grandes plateformes américaines8. De ce point de vue,
l’Europe fait figure d’exception : tant la Russie que la Chine, pour ne citer
qu’elles, parviennent Ă  capter l’essentiel des donnĂ©es de leurs utilisateurs.
6. L’annotation
fait référence à
l’adjonction d’une
mention Ă  une
donnée qui en
qualifie le contenu.
7.  L’acronyme varie
selon qu’on y inclut
Microsoft et IBM,
mais il continue
de désigner
un nombre
trĂšs restreint
d’entreprises.
8.  Étude de la Chaire
Castex
de Cyberstratégie :
http://www.
cyberstrategie.
org/?q=fr/
flux-donnees
28
Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
Cela résulte en grande partie de la politique volontariste de ces gouverne-
ments de favoriser l’émergence de leurs propres champions du numĂ©rique9.
Une politique de la donnĂ©e adaptĂ©e aux besoins de l’intelligence artifi-
cielle doit donc s’articuler avec un objectif de souverainetĂ©, d’autonomie
stratĂ©gique pour la France et l’Union europĂ©enne. Disons-le d’emblĂ©e : les
Ă©quilibres sont fragiles et cet objectif demande de l’ambition. C’est pourtant
la condition d’un dĂ©veloppement de l’intelligence artificielle qui ne conduise
pas Ă  faire de la France et de l’Europe une « colonie numĂ©rique » des gĂ©ants
chinois ou amĂ©ricains. De la mĂȘme façon, le dĂ©veloppement de l’intelligence
artificielle peut s’opĂ©rer sans renier nos traditions juridiques et politiques de
protection forte des individus. C’est d’ailleurs l’une des positions fortes de
notre mission que de considérer ces standards élevés comme des opportu-
nités stratégiques, voire comme des éléments différenciants, dans la course
mondiale à l’intelligence artificielle.
Le dĂ©bat actuel sur l’intelligence artificielle coĂŻncide avec l’entrĂ©e en vigueur
prochaine du rÚglement général sur la protection des données (RGPD).
SaluĂ© des uns, honni des autres – dans les deux cas pour une multitude de
raisons –, le RGPD n’en reste pas moins l’une des lĂ©gislations europĂ©ennes les
plus ambitieuses de ces derniĂšres dĂ©cennies. C’est Ă©galement l’un des rares
exemples oĂč le Parlement europĂ©en a pu jouer un rĂŽle de premier plan, en
particulier grĂące Ă  l’impulsion de Jan Philipp Albrecht, eurodĂ©putĂ© allemand.
À bien des Ă©gards, ce texte constitue une petite rĂ©volution juridique. Non
pas tant en raison de son contenu (en France et ailleurs, les algorithmes
et traitements de donnĂ©es sont rĂ©gulĂ©s depuis une quarantaine d’annĂ©es)
que pour le signal adressĂ© aux acteurs publics et privĂ©s, ainsi qu’au reste
du monde : l’Europe a fait le choix d’un standard Ă©levĂ© de protection des
données, auquel devront se plier toutes les entreprises souhaitant traiter les
donnĂ©es des EuropĂ©ens (principe d’extraterritorialitĂ© du RGPD) au risque
de s’exposer à des amendes records (2 à 4 % du chiffre d’affaires mondial).
Le RGPD est en outre un instrument puissant de consolidation de l’écosys-
tÚme numérique européen. Si ces dispositions avaient existé il y a 20 ans, il
est probable que Facebook, Amazon ou Google n’auraient pas pĂ©nĂ©trĂ© le
marché européen aussi facilement et que la concurrence aurait pu démarrer
sur des bases plus saines. Le dĂ©lai nĂ©cessaire pour qu’ils s’adaptent Ă  la rĂ©gle-
mentation aurait pu permettre aux entreprises européennes de développer
des services compétitifs.
L’intelligence artificielle dans le contexte du RGPD
Le RGPD vient rĂ©guler l’utilisation des donnĂ©es Ă  caractĂšre personnel, c’est-
à-dire toute information relative à une personne physique identifiée ou qui
peut ĂȘtre identifiĂ©e, directement ou indirectement. Naturellement, le RGPD
intĂ©resse l’IA Ă  plusieurs titres :
D’abord, car il vient encadrer les conditions de collecte et de conservation
des données à caractÚre personnel (et uniquement celles-ci), qui peuvent
ĂȘtre utilisĂ©es par l’intelligence artificielle ; ainsi que l’exercice de leurs droits
par les personnes (droit à l’information, droit d’opposition, droit d’accùs,
droit de rectification) ;
9.  Mise en Ɠuvre
d’une politique
commerciale
agressive, utilisation
systématique
du levier de la
commande publique,
investissements
et soutien direct
continus

29
 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e
Le RGPD vient par ailleurs affirmer un droit à la portabilité des individus sur
leurs données : son article 20 prévoit que « les personnes concernées ont le
droit de recevoir les donnĂ©es Ă  caractĂšre personnel les concernant qu’elles
ont fournies à un responsable du traitement ».
Le RGPD prĂ©voit Ă©galement le droit pour les personnes d’obtenir, auprĂšs
de celui qui en est responsable, des informations sur la logique de fonction-
nement de l’algorithme (article 15.1 du RGPD). ;
Ensuite, car il interdit qu’une machine puisse prendre seule, c’est-à-dire sans
supervision humaine, des décisions emportant des conséquences graves
pour les personnes, en matiĂšre d’octroi de crĂ©dit, par exemple (article 22 du
RGPD). Cette disposition, historiquement inspirée du droit français, insiste
sur la nécessité de garder une responsabilité humaine ;
Enfin, le RGPD est d’application extraterritoriale, ce qui signifie qu’il peut
s’appliquer Ă  toute entreprise dĂšs lors qu’un rĂ©sident europĂ©en est direc-
tement visé par un traitement de données.
Inciter les acteurs économiques à la mutualisation de données
En matiĂšre numĂ©rique, l’innovation repose bien souvent sur des logiques
d’ouverture et l’IA ne fait pas exception. Par nature, la donnĂ©e elle-mĂȘme
est propice à l’ouverture, au partage du fait de son caractùre non rival et son
faible coût de production. Les données en tant que telles ont souvent peu
de valeur, mais en gagnent quand elles sont contextualisées, croisées avec
d’autres. Il est frĂ©quent que celui qui collecte la donnĂ©e ne soit pas le seul Ă 
pouvoir en tirer un bĂ©nĂ©fice, ou le mieux placĂ© pour l’exploiter. D’oĂč l’intĂ©rĂȘt
de favoriser leur circulation pour maximiser l’utilitĂ© Ă©conomique et sociale
des donnĂ©es. Les gĂ©ants du Net l’ont bien compris : outre leurs remarquables
sens et instinct pour la communication, qu’est-ce qui constitue la force de ces
grandes plateformes, sinon leur capacitĂ© Ă  capitaliser sur l’ouverture pour
constituer autour d’elles de vĂ©ritables Ă©cosystĂšmes dont elles occupent le
centre (voir encadré) ?
L’APIsation de l’économie
Si les donnĂ©es sont le carburant de l’économie numĂ©rique, les API (appli-
cation programming interface) en sont le moteur. Les API correspondent
Ă  des interfaces mises Ă  disposition par les plateformes pour permettre
à des acteurs tiers d’innover à partir de leurs ressources. C’est une API
de Facebook qui lui a permis de répandre le bouton like sur le web et de
dominer le marchĂ© de la recommandation. De la mĂȘme façon, les milliers de
dĂ©veloppeurs qui utilisent les API de Netflix sont Ă  l’origine de son succĂšs.
Selon son dirigeant, avoir ces développeurs en interne lui aurait coûté prÚs
d’un milliard de dollars par an. La domination des plateformes s’explique
largement par cette capacitĂ© Ă  agrĂ©ger des Ă©cosystĂšmes autour d’elles et Ă  en
occuper le centre. Le cƓur de ces Ă©cosystĂšmes, ce sont prĂ©cisĂ©ment les API. 
C’est en partant de ce constat qu’un nombre croissant de rĂ©flexions tendent
Ă  qualifier les donnĂ©es de nouvelles infrastructures. C’est le cas, par exemple,
d’un rapport de l’OCDE de 2015 portant sur l’innovation et le big data10. Cette
10.  OCDE,
Data-Driven
Innovation : big
data for Growth and
Well-Being (2015).
30
Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
idĂ©e justifie selon l’organisation de mener des politiques d’ouverture des
données publiques plus ambitieuses, de promouvoir le partage de données
entre acteurs, mais aussi de réviser le cadre des interventions législatives
dans les situations de monopoles. Pour beaucoup d’acteurs Ă©conomiques
nĂ©anmoins, trop souvent la fermeture reste la rĂšgle et l’ouverture, l’exception
(voir encadré).
Pour beaucoup d’acteurs privĂ©s, les chiffres montrent que l’ouverture
reste l’exception
Une Ă©tude de 2017 financĂ©e par l’Union europĂ©enne Ă©tablissait qu’environ
90 % des entreprises interrogées affirmaient ne pas partager leurs données
avec d’autres entreprises (Hofheinz  Osimo, 2017). MĂȘme Ă  l’intĂ©rieur des
organisations, les silos de données constituent des barriÚres à la réutilisation
des donnĂ©es d’un service Ă  l’autre. DĂšs 2012, un sondage menĂ© par l’Eco-
nomist Intelligence Unit était parvenu à une conclusion similaire : 60 % des
entreprises affirmaient que les silos organisationnels constituaient le frein
principal Ă  l’utilisation des donnĂ©es pour le big data.
Il n’en demeure pas moins que ce mouvement d’ouverture constitue une lame
de fond de l’économie numĂ©rique. Dans le secteur privĂ©, de nombreuses
initiatives spontanées de mise en circulation des données voient le jour, à
des degrĂ©s divers d’ouverture. Cela peut ĂȘtre des Ă©changes entre entreprises
dans le cadre de partenariats bilatĂ©raux, par exemple entre donneurs d’ordres
et sous-traitants au sein d’une mĂȘme verticale. Il peut s’agir d’ouvertures
ponctuelles de jeux de données par une entreprise, souvent dans le cadre
d’une dĂ©marche visant Ă  stimuler la crĂ©ativitĂ© autour des usages possibles sur
ses donnĂ©es (par exemple des hackathons). Comme on l’a vu, une entreprise
peut encore choisir d’ouvrir certains jeux de donnĂ©es au travers d’une API,
de maniÚre gratuite ou payante, afin de générer de nouveaux usages et,
in fine, de la valeur pour cette entreprise. L’ouverture peut Ă©galement servir
à des projets d’enseignement ou de formation (cela se fait notamment au
Canada, trùs peu en France). Enfin, certaines plateformes mettent en Ɠuvre
un principe d’ouverture maximale de leurs donnĂ©es, dans une logique de
crowdsourcing (ex. : OpenStreetMap).
La sociĂ©tĂ© Uber s’est rĂ©cemment lancĂ©e dans une vaste entreprise d’ouver-
ture et de valorisation de ses données auprÚs des municipalités. Comme
Waze avant lui, le géant améri-
cain, dont les chauffeurs VTC
parcourent prùs d’un milliard de
kilomĂštres dans le monde chaque
mois, est assis sur l’une des bases
de données les plus importantes
et précise sur le trafic urbain
mondial. Bien davantage que
nombre d’agences spĂ©cialisĂ©es ou
de services municipaux. Si Uber conservait jusqu’ici la main sur ses donnĂ©es
pour optimiser son service, aujourd’hui, elle en livre une partie en open data
à travers Uber Movement, une initiative qui concerne depuis octobre 2017
la ville de Paris : ces données permettent de dresser un état des lieux trÚs fin
et dynamique de la fluiditĂ© de la circulation en Île-de-France. De nouvelles
La puissance publique doit donc porter
un autre modĂšle de production et de
gouvernance des données, qui met
l’accent sur la rĂ©ciprocitĂ©,
la collaboration et le partage
31
 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e
donnĂ©es pourraient Ă©galement faire l’objet d’une ouverture volontaire :
par exemple la vitesse enregistrée sur les grands axes de circulation ou
encore la localisation de croisements oĂč les chauffeurs sont amenĂ©s Ă  freiner
brusquement. Dans le mĂȘme souci de sĂ©duire les collectivitĂ©s territoriales, la
plateforme de location de logements entre particuliers Airbnb a Ă©galement
lancé un portail DataVille pour donner accÚs à certaines statistiques sur
l’utilisation de son service. Si ces initiatives sont Ă©videmment stratĂ©giques
pour les entreprises considĂ©rĂ©es – en termes d’image, bien sĂ»r, mais aussi
car elles conservent la main sur les donnĂ©es mises Ă  disposition –, elles n’en
sont pas moins rĂ©vĂ©latrices du mouvement Ă  l’Ɠuvre.
L’ouverture et le partage de donnĂ©es provenant du secteur privĂ© peuvent ainsi
contribuer à alimenter la masse de données disponibles et ainsi contribuer au
dĂ©veloppement de l’intelligence artificielle. Le premier acte de la « bataille
de l’IA » portait sur les donnĂ©es Ă  caractĂšre personnel. Cette bataille a Ă©tĂ©
remportée par les grandes plateformes. Le second acte va porter sur les
donnĂ©es sectorielles : c’est sur celles-ci que la France et l’Europe peuvent
se diffĂ©rencier. L’objectif est d’abord stratĂ©gique pour les acteurs français et
europĂ©ens, car c’est un moyen pour les entreprises d’un mĂȘme secteur de
rivaliser avec les géants mondiaux de la discipline.
Le partage de donnĂ©es doit Ă©galement ĂȘtre encouragĂ© dans un souci, pour
certains cas, de sĂ©curitĂ© des solutions d’intelligence artificielle. Dans l’exemple
de la voiture autonome, chaque constructeur dĂ©veloppe aujourd’hui de son
cĂŽtĂ© ses propres modĂšles d’apprentissage. Pour assurer la fiabilitĂ© de leurs
prototypes et atteindre un niveau de risque acceptable, ces derniers sont
tenus d’envisager un maximum de possibilitĂ©s : il faut par exemple collecter
des donnĂ©es de roulage toute l’annĂ©e pour se confronter aux variations
des conditions climatiques. Par ailleurs, les référentiels de scénarios ne sont
valables que pour une région donnée : les routes et les comportements de
conduite diffùrent selon que l’on se trouve à Paris, à Mumbai, à New York
ou à Hong Kong. L’ensemble de ces variables rend impossible l’anticipation
de tous les scénarios par un seul constructeur, fut-il le plus avancé. Ainsi si
les géants américains ont pu prendre une avance relative en la matiÚre, ils
sont encore loin d’un niveau de fiabilitĂ© acceptable11. Partager ses donnĂ©es,
ses référentiels de scénarios de conduite autonome (au moins pour partie)
revient donc Ă  s’assurer qu’en cas de litige, le plan de validation du vĂ©hicule
concernĂ© Ă©tait Ă  l’état de l’art et non propre Ă  un constructeur.
La puissance publique doit donc porter un autre modĂšle de production et
de gouvernance des donnĂ©es, qui met l’accent sur la rĂ©ciprocitĂ©, la collabo-
ration et le partage pour favoriser le partage de données entre les acteurs
d’un mĂȘme secteur. Plusieurs pays conduisent ainsi des politiques incitatives
au partage de donnĂ©es privĂ©es. C’est le cas au Royaume-Uni, oĂč l’Open
Data Institute12 promeut depuis plusieurs années cette ouverture volontaire
des données privées afin de favoriser le développement économique :
l’ODI met par exemple en avant le cas de l’entreprise Thomson Reuters,
qui développe une plateforme collaborative pour mettre à disposition
ses données, accessibles et réutilisables par tous. Cette approche vise à
améliorer sa relation client, mais aussi la qualité de ses données, de ses
produits et services13. Aux États-Unis, le Bureau of Transportation Statistics
(BTS) opĂšre un programme sur la mise en commun de certains jeux de
11.  Le consensus
de fiabilité pour
la voiture autonome
est fixé à 10-8/heure,
c’est-à-dire que
la probabilité
d’occurrence
d’une dĂ©faillance grave
doit ĂȘtre infĂ©rieure
Ă  0,00000001 pour
une heure donnée.
Ce taux est 10 fois
inférieur à la moyenne
européenne
de régulation des
produits défectueux.
12.  CrĂ©Ă© en 2012
avec le soutien
du Conseil
de la stratégie
technologique
du gouvernement
(Technology Strategy
Board) qui le
finance Ă  hauteur de
10 millions de livres
sur cinq ans.
13.  https://theodi.
org/open-data-
means-business
32
Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
données des compagnies aériennes sur la fréquentation des lignes de vol
domestiques. Les données ainsi récupérées sont agrégées puis traitées
statistiquement, avant d’ĂȘtre mises Ă  disposition par le BTS, contribuant
à la propre stratégie des transporteurs.
L’incitation de la puissance publique au partage et à la mise en commun peut
s’appuyer sur des initiatives privĂ©es ou Ă  dĂ©faut, favoriser leur Ă©mergence.
Dans de nombreux secteurs, ces initiatives existent : elles mĂ©riteraient d’ĂȘtre
soutenues et valorisées (voir encadré).
S’agissant des secteurs que la mission estime prioritaires pour le dĂ©veloppe-
ment de l’IA (voir les propositions plus loin), ces dispositifs de mutualisation
de donnĂ©es pourraient ĂȘtre intĂ©grĂ©s aux plateformes sectorielles dont la
création est recommandée.
En matiÚre de partage de données, de nombreuses initiatives mériteraient
d’ĂȘtre valorisĂ©es
Fondée en 2015, la startup française Dawex ambitionne de lancer une bourse
de la donnée en centralisant les échanges entre acteurs économiques.
Contrairement aux courtiers en données (data brokers) qui achÚtent, mettent
en forme et revendent les données, Dawex accompagne les entreprises
dans la contractualisation de leurs échanges en données (contrat de licence,
durĂ©e, territoire, usages, capacitĂ© Ă  sous-licencier, etc.) et s’assure qu’ils
respectent les réglementations en vigueur (notamment le RGPD) en fonction
du territoire de production et d’exploitation des donnĂ©es. La startup permet
également aux acteurs économiques de partager des données avec des
entreprises partenaires, de façon privĂ©e. L’entreprise est laurĂ©ate du Concours
d’innovation numĂ©rique et a intĂ©grĂ© le Hub Bpifrance, aprĂšs notamment un
financement par la Caisse des DĂ©pĂŽts.
Il faut Ă©galement mentionner l’apparition de nouveaux services se proposant
d’agrĂ©ger les donnĂ©es publiques et privĂ©es : en matiĂšre de transports et de
mobilitĂ©, par exemple, l’entreprise française Transdev a rĂ©cemment annoncĂ©
le lancement d’une plateforme qui ambitionne de devenir le « WikipĂ©dia »
mondial de la donnĂ©e ouverte : Catalogue (www.catalogue.global). L’entreprise
s’emploie ainsi Ă  collecter et rassembler ces donnĂ©es, Ă  les nettoyer et
les mettre dans un format ouvert. L’objectif est d’abaisser les barriùres à
la crĂ©ation de services innovants – notamment pour l’IA – en matiĂšre de
transports et de mobilité.
En matiĂšre de transports toujours, La Fabrique des MobilitĂ©s semble ĂȘtre l’une
des initiatives les plus abouties. Il s’agit du premier accĂ©lĂ©rateur europĂ©en
dĂ©diĂ© Ă  l’écosystĂšme de la mobilitĂ©. La Fabrique met en relation tous les
acteurs, les projets, capitalise les retours d’expĂ©riences et les erreurs, pour
faire Ă©merger une culture commune de l’innovation. Elle s’adresse Ă  des
startups, des projets industriels et des territoires qui développent de nouvelles
solutions de mobilités. La Fabrique leur donne un accÚs privilégié à des
ressources en données tout en veillant à garantir un principe de réciprocité :
pour rĂ©cupĂ©rer les donnĂ©es mises en commun, il faut contribuer Ă  l’augmen-
tation de ce commun. Cette logique vertueuse conduit au développement
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA
Rapport: Cedric Villani IA

Mais conteĂșdo relacionado

Semelhante a Rapport: Cedric Villani IA

Feuille de route 2015 iekm pdf
Feuille de route 2015 iekm pdfFeuille de route 2015 iekm pdf
Feuille de route 2015 iekm pdfSKEMA Business School
 
Isoc rapport francophonie-numerique2014_web
Isoc rapport francophonie-numerique2014_webIsoc rapport francophonie-numerique2014_web
Isoc rapport francophonie-numerique2014_webFlorent YOUZAN
 
20100211 Partage De DonnéEs Publiques V2
20100211    Partage De DonnéEs Publiques V220100211    Partage De DonnéEs Publiques V2
20100211 Partage De DonnéEs Publiques V2Fing
 
MIS/Documation 2014 Dossier de Presse Présalon
MIS/Documation 2014 Dossier de Presse PrésalonMIS/Documation 2014 Dossier de Presse Présalon
MIS/Documation 2014 Dossier de Presse PrésalonCrossing Skills
 
Presentation généraliste sur les réutilisation des données publiques
Presentation généraliste sur les réutilisation des données publiquesPresentation généraliste sur les réutilisation des données publiques
Presentation généraliste sur les réutilisation des données publiquesFing
 
Internet des objets - cahier innovation - Cigref - octobre 2014
Internet des objets - cahier innovation - Cigref - octobre 2014Internet des objets - cahier innovation - Cigref - octobre 2014
Internet des objets - cahier innovation - Cigref - octobre 2014polenumerique33
 
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014Isam shahrour lors des rencontres parlementaires smart city, octobre 2014
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014Isam Shahrour
 
Web 2.0 ! Histoire 2.0 ?!
Web 2.0 !  Histoire 2.0 ?!Web 2.0 !  Histoire 2.0 ?!
Web 2.0 ! Histoire 2.0 ?!Nicolas MARIE
 
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovationFrenchTechCentral
 
Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Hortense Billot
 
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015yann le gigan
 
Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Monimmeuble.com
 
Innovation week National Review 2015
Innovation week National Review 2015Innovation week National Review 2015
Innovation week National Review 2015HUB INSTITUTE
 
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014)
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014) Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014)
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014) HackYourPhD
 
Guide des écosystÚmes numériques mondiaux - Décembre 2017
Guide des écosystÚmes numériques mondiaux - Décembre 2017Guide des écosystÚmes numériques mondiaux - Décembre 2017
Guide des écosystÚmes numériques mondiaux - Décembre 2017Adm Medef
 
Rapport d'activité 2015-2016 - Agence du Numérique-
Rapport d'activité 2015-2016 - Agence du Numérique-Rapport d'activité 2015-2016 - Agence du Numérique-
Rapport d'activité 2015-2016 - Agence du Numérique-CoRAIA
 
OLPC, on n'a pas fini d'en parler...
OLPC, on n'a pas fini d'en parler...OLPC, on n'a pas fini d'en parler...
OLPC, on n'a pas fini d'en parler...Destiny TCHEHOUALI
 
Eric HANSEN - Capitalisme cognitif
Eric HANSEN - Capitalisme cognitifEric HANSEN - Capitalisme cognitif
Eric HANSEN - Capitalisme cognitifEric HANSEN
 
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030Yannick Quentel
 

Semelhante a Rapport: Cedric Villani IA (20)

Feuille de route 2015 iekm pdf
Feuille de route 2015 iekm pdfFeuille de route 2015 iekm pdf
Feuille de route 2015 iekm pdf
 
Isoc rapport francophonie-numerique2014_web
Isoc rapport francophonie-numerique2014_webIsoc rapport francophonie-numerique2014_web
Isoc rapport francophonie-numerique2014_web
 
20100211 Partage De DonnéEs Publiques V2
20100211    Partage De DonnéEs Publiques V220100211    Partage De DonnéEs Publiques V2
20100211 Partage De DonnéEs Publiques V2
 
MIS/Documation 2014 Dossier de Presse Présalon
MIS/Documation 2014 Dossier de Presse PrésalonMIS/Documation 2014 Dossier de Presse Présalon
MIS/Documation 2014 Dossier de Presse Présalon
 
Presentation généraliste sur les réutilisation des données publiques
Presentation généraliste sur les réutilisation des données publiquesPresentation généraliste sur les réutilisation des données publiques
Presentation généraliste sur les réutilisation des données publiques
 
Internet des objets - cahier innovation - Cigref - octobre 2014
Internet des objets - cahier innovation - Cigref - octobre 2014Internet des objets - cahier innovation - Cigref - octobre 2014
Internet des objets - cahier innovation - Cigref - octobre 2014
 
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014Isam shahrour lors des rencontres parlementaires smart city, octobre 2014
Isam shahrour lors des rencontres parlementaires smart city, octobre 2014
 
Web 2.0 ! Histoire 2.0 ?!
Web 2.0 !  Histoire 2.0 ?!Web 2.0 !  Histoire 2.0 ?!
Web 2.0 ! Histoire 2.0 ?!
 
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation
[Webinar] Deeptech : financement & accompagnement @Bpifrance @CNRSinnovation
 
Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...
 
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015
"Big Data et objets connectés" Rapport Institut Montaigne - Avril 2015
 
Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...Big Data et objets connectés. Faire de la France un champion de la révolution...
Big Data et objets connectés. Faire de la France un champion de la révolution...
 
Innovation week National Review 2015
Innovation week National Review 2015Innovation week National Review 2015
Innovation week National Review 2015
 
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014)
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014) Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014)
Atelier #1 à la Cité des Sciences-Introduction à l'Open Science ( mars 2014)
 
Guide des écosystÚmes numériques mondiaux - Décembre 2017
Guide des écosystÚmes numériques mondiaux - Décembre 2017Guide des écosystÚmes numériques mondiaux - Décembre 2017
Guide des écosystÚmes numériques mondiaux - Décembre 2017
 
Rapport d'activité 2015-2016 - Agence du Numérique-
Rapport d'activité 2015-2016 - Agence du Numérique-Rapport d'activité 2015-2016 - Agence du Numérique-
Rapport d'activité 2015-2016 - Agence du Numérique-
 
Trajectoire, le magazine n°15 - juin 2018
Trajectoire, le magazine n°15 - juin 2018Trajectoire, le magazine n°15 - juin 2018
Trajectoire, le magazine n°15 - juin 2018
 
OLPC, on n'a pas fini d'en parler...
OLPC, on n'a pas fini d'en parler...OLPC, on n'a pas fini d'en parler...
OLPC, on n'a pas fini d'en parler...
 
Eric HANSEN - Capitalisme cognitif
Eric HANSEN - Capitalisme cognitifEric HANSEN - Capitalisme cognitif
Eric HANSEN - Capitalisme cognitif
 
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030
Dossier de presse conférence Nicolas TENZER Le Monde à l'Horizon 2030
 

Mais de wiShape! by Galaxys

W! 3D Agency complette-min_compressed (1).pdf
W! 3D Agency complette-min_compressed (1).pdfW! 3D Agency complette-min_compressed (1).pdf
W! 3D Agency complette-min_compressed (1).pdfwiShape! by Galaxys
 
BROCHURE Qbiq Provisoire.pdf
BROCHURE Qbiq Provisoire.pdfBROCHURE Qbiq Provisoire.pdf
BROCHURE Qbiq Provisoire.pdfwiShape! by Galaxys
 
#Espace game #biglego #qbiq
#Espace game #biglego #qbiq#Espace game #biglego #qbiq
#Espace game #biglego #qbiqwiShape! by Galaxys
 
Loup garrou dental make up
Loup garrou dental make upLoup garrou dental make up
Loup garrou dental make upwiShape! by Galaxys
 
Afpr conférence DR OLLE snitem
Afpr conférence DR OLLE snitemAfpr conférence DR OLLE snitem
Afpr conférence DR OLLE snitemwiShape! by Galaxys
 
Dématérialisation des votes et travaux parlementaires
Dématérialisation des votes et travaux parlementairesDématérialisation des votes et travaux parlementaires
Dématérialisation des votes et travaux parlementaireswiShape! by Galaxys
 
Microsoft power point matrice impression 3d-restitution_15_05_2018
Microsoft power point   matrice impression 3d-restitution_15_05_2018Microsoft power point   matrice impression 3d-restitution_15_05_2018
Microsoft power point matrice impression 3d-restitution_15_05_2018wiShape! by Galaxys
 
7 procédés en impression 3D
7 procédés en impression 3D7 procédés en impression 3D
7 procédés en impression 3DwiShape! by Galaxys
 

Mais de wiShape! by Galaxys (20)

W! 3D Agency complette-min_compressed (1).pdf
W! 3D Agency complette-min_compressed (1).pdfW! 3D Agency complette-min_compressed (1).pdf
W! 3D Agency complette-min_compressed (1).pdf
 
#satis #wishape3D.pdf
#satis #wishape3D.pdf#satis #wishape3D.pdf
#satis #wishape3D.pdf
 
BROCHURE Qbiq Provisoire.pdf
BROCHURE Qbiq Provisoire.pdfBROCHURE Qbiq Provisoire.pdf
BROCHURE Qbiq Provisoire.pdf
 
#Espace game #biglego #qbiq
#Espace game #biglego #qbiq#Espace game #biglego #qbiq
#Espace game #biglego #qbiq
 
WiBlock brique Qbiq
WiBlock   brique QbiqWiBlock   brique Qbiq
WiBlock brique Qbiq
 
#Qbiq#bric#game#big lego
#Qbiq#bric#game#big lego#Qbiq#bric#game#big lego
#Qbiq#bric#game#big lego
 
#Qbiq#game
#Qbiq#game#Qbiq#game
#Qbiq#game
 
Loup garrou dental make up
Loup garrou dental make upLoup garrou dental make up
Loup garrou dental make up
 
Dental make up
Dental make upDental make up
Dental make up
 
#Mdr #busson b
#Mdr #busson b#Mdr #busson b
#Mdr #busson b
 
Afpr conférence DR OLLE snitem
Afpr conférence DR OLLE snitemAfpr conférence DR OLLE snitem
Afpr conférence DR OLLE snitem
 
Dental make up 2
Dental make up 2Dental make up 2
Dental make up 2
 
Dental make up
Dental make up Dental make up
Dental make up
 
Dématérialisation des votes et travaux parlementaires
Dématérialisation des votes et travaux parlementairesDématérialisation des votes et travaux parlementaires
Dématérialisation des votes et travaux parlementaires
 
Microsoft power point matrice impression 3d-restitution_15_05_2018
Microsoft power point   matrice impression 3d-restitution_15_05_2018Microsoft power point   matrice impression 3d-restitution_15_05_2018
Microsoft power point matrice impression 3d-restitution_15_05_2018
 
7 procédés en impression 3D
7 procédés en impression 3D7 procédés en impression 3D
7 procédés en impression 3D
 
citation sur la 3D
citation sur la 3Dcitation sur la 3D
citation sur la 3D
 
citation sur la 3D
citation sur la 3Dcitation sur la 3D
citation sur la 3D
 
citation sur la 3D
citation sur la 3Dcitation sur la 3D
citation sur la 3D
 
citation sur la 3D
citation sur la 3Dcitation sur la 3D
citation sur la 3D
 

Rapport: Cedric Villani IA

  • 1. CÉDRIC VILLANI MathĂ©maticien et dĂ©putĂ© de l’Essonne Composition de la mission Marc Schoenauer Directeur de recherche INRIA ‱ Yann Bonnet SecrĂ©taire gĂ©nĂ©ral du Conseil national du numĂ©rique ‱ Charly Berthet Responsable juridique et institutionnel du Conseil national du numĂ©rique ‱ Anne-Charlotte Cornut Rapporteur au Conseil national du numĂ©rique ‱ François Levin Responsable des affaires Ă©conomiques et sociales du Conseil national du numĂ©rique ‱ Bertrand Rondepierre IngĂ©nieur de l’armement, Direction gĂ©nĂ©rale de l’armement.
  • 2. Mission confiĂ©e par le Premier Ministre Édouard Philippe Mission parlementaire du 8 septembre 2017 au 8 mars 2018 Avec l’appui de Anne-Lise Meurier, Zineb Ghafoor, Candice Foehrenbach, Stella Biabiany-Rosier, Camille Hartmann, Judith Herzog, Marylou Le Roy, Jan Krewer, Lofred Madzou et Ruben Narzul.
  • 3. 2 CĂ©dric Villani Comme bien d’autres adolescents fĂ©rus de sciences dans les annĂ©es 80, j’ai fait la connaissance de l’intelligence artificielle dans les superbes ouvrages de vulgarisation de Douglas Hofstadter, qui mettait en scĂšne Alan Turing avec une passion contagieuse. Mais comme bien des mathĂ©maticiens dĂ©butant la carriĂšre dans les annĂ©es 90, j’ai profondĂ©ment sous-estimĂ© l’impact de l’intelligence artificielle, qui ne donnait finalement, Ă  cette Ă©poque, que peu de rĂ©sultats. Quelle surprise ce fut d’assister, dans les annĂ©es 2010, Ă  l’incroyable amĂ©lioration de ses performances... Devenu moi-mĂȘme vulgarisateur, je me suis mis Ă  dĂ©velopper le sujet rĂ©guliĂšrement, dans mes confĂ©rences publiques comme dans mes Ă©changes avec le monde de l’entreprise. Et ce fut une surprise non moins grande de voir mes ouvrages de recherche sur le transport optimal citĂ©s dans des articles rĂ©cents sur l’intelligence artificielle : comme un signe qu’il m’était impossible d’échapper Ă  ce sujet polymorphe ! Du reste, depuis quelques annĂ©es plus personne ne peut y Ă©chapper, tant il est devenu omniprĂ©sent dans les discussions Ă©conomiques et sociales. Aussi ai-je Ă©tĂ© Ă  peine surpris quand le Premier ministre me confia une mission d’information sur la stratĂ©gie française et europĂ©enne en intelligence artifi- cielle. Le dĂ©fi Ă©tait grand, mais mon enthousiasme considĂ©rable. Pour les orientations de dĂ©part, j’ai bĂ©nĂ©ficiĂ© du plein soutien du secrĂ©taire d’État au numĂ©rique, Mounir Mahjoubi, et de l’expertise de mes collĂšgues spĂ©cialistes dans le domaine, Ă  commencer par mon ancien collaborateur Yann Ollivier.
  • 4. 3 Avant-Propos Avec leur aide, et avec le soutien des institutions d’État, j’ai pu mettre en place une Ă©quipe comme on en rĂȘve : sept personnes extrĂȘmement compĂ©- tentes, investies Ă  temps plein, aux profils variĂ©s. Cette Ă©tape Ă©tait cruciale, tant on sait combien les ressources humaines sont la premiĂšre condition de succĂšs de tout projet. Pour dĂ©marrer notre rĂ©flexion, nous pouvions nous appuyer sur d’excellentes sources ; en particulier le rapport France IA, initiĂ© par Axelle Lemaire, le rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), rendu par mes collĂšgues parlementaires Claude de Ganay et Dominique Gillot, ainsi que les remarquables travaux de la CNIL, sur l’éthique des algorithmes, et du Conseil d’orientation pour l’emploi. France StratĂ©gie a Ă©galement apportĂ© son concours. Les contributions se sont multipliĂ©es, et rapidement la quantitĂ© de matĂ©riaux Ă  digĂ©rer est apparue considĂ©rable ! Mais ensemble, nous avons pu collecter et synthĂ©tiser les quantitĂ©s d’information fournies par les centaines d’experts, et par les milliers de citoyens qui ont apportĂ© leur contribution Ă  la rĂ©flexion – Ă  ce sujet je remercie chaleureusement l’association Parlement  Citoyens qui a pu monter une plateforme de consultation en ligne dans des dĂ©lais records ! L’intelligence artificielle ne peut se penser dans un cadre seulement national ; et cette mission a aussi Ă©tĂ© l’occasion de visites, aussi brĂšves qu’intenses, dans des lieux inspirants Ă  l’étranger : Palo Alto, Beijing, Berlin, Ratisbonne, Londres, ZĂŒrich, Bologne, Lisbonne, Tel-Aviv et HaĂŻfa. La logistique de ces visites a fait intervenir de nombreux acteurs institutionnels efficaces, que je remercie avec gratitude. Inutile de dire que les lieux inspirants français ont aussi Ă©tĂ© au rendez-vous, avec une mention spĂ©ciale pour The Camp, prĂšs d’Aix-en-Provence, qui a hĂ©bergĂ© notre mission durant quelques jours. Passionnante par la variĂ©tĂ© de sujets qu’elle nous a menĂ©s Ă  Ă©tudier, cette mission a aussi Ă©tĂ© l’occasion de travailler, six mois durant, en collaboration avec tous les acteurs de la sociĂ©tĂ©, depuis les sciences exactes et humaines jusqu’aux administrations, en passant par les entrepreneurs, les journalistes et des auteurs de science-fiction talentueux – merci Ă  Anne-Caroline Paucot et Olivier Paquet, qui ont gentiment acceptĂ© que nous intĂ©grions quelques- unes de leurs nouvelles au rapport. À travers ces confrontations multiples, l’intelligence artificielle s’est affirmĂ©e Ă  nos yeux comme un sujet universel, se dĂ©clinant dans d’infinies variations, qui doit s’aborder de façon systĂ©mique. Nous avons d’ailleurs l’intention de complĂ©ter ce rapport – rĂ©digĂ© pour conseiller le gouvernement avec l’action et l’efficacitĂ© en ligne de mire – par une version plus pĂ©dagogique, susceptible d’intĂ©resser un public aussi large que possible, insistant davantage sur l’histoire, les attentes et les mystĂšres de ce domaine. C’est dans la synergie, nous en sommes convaincus, que notre nation, et notre continent, pourront se lancer avec confiance et dĂ©termination dans cette rĂ©volution naissante.
  • 5. 4 Sommaire Introduction page 8 SynthĂšse page 14 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e page 24 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e page 26 Inciter les acteurs Ă©conomiques Ă  la mutualisation de donnĂ©es page 29 Organiser l’ouverture au cas par cas de certaines donnĂ©es dĂ©tenues par des entitĂ©s privĂ©es page 33 Favoriser sans attendre les pratiques de fouille de texte et de donnĂ©es (TDM) page 35 Mettre en Ɠuvre la portabilitĂ© dans une visĂ©e citoyenne page 36 RĂ©former le cadre international appli- cable aux transferts de donnĂ©espage 38 Consolider et rendre visible l’éco- systĂšme français de l’IA page 38 CrĂ©er un guichet unique d’information sur l’IA page 39 CrĂ©er des labels pour augmenter la visibilitĂ© de l’offre domestique en IA page 39 Consolider les filiĂšres d’acheteurs page 40 Faire levier sur la commande publi- que page 43 Ajuster les seuils d’application de la rĂ©glementation aux niveaux euro- pĂ©ens page 43 Mettre l’achat public au service du soutien Ă  la base industrielle euro- pĂ©enne page 44 Dynamiser l’achat public innovant page 44 Mettre en place une protection de l’acheteur public pour l’inciter Ă  l’in- gĂ©nierie contractuelle page 45 GĂ©nĂ©raliser l’emploi des exceptions Ă  l’ordonnance sur les marchĂ©s publics page 45 Un choix clair : mettre l’accent sur quatre secteurs stratĂ©giques page 46 Mener une politique sectorielle autour de grands enjeux page 48 ExpĂ©rimenter des plateformes sec- torielles page 53 Mettre en place des bacs Ă  sable d’innovation page 55 Mettre en Ɠuvre une politique de la donnĂ©e adaptĂ©e Ă  chaque secteur page 56 Initier une dynamique industrielle europĂ©enne de l’IA page 57 DĂ©velopper la robotique europĂ©enne page 57 Faire du dĂ©veloppement de l’IA pour le transport une prioritĂ© de la future agence d’innovation de rupturepage 58 Innover dans l’industrie du composant adaptĂ© Ă  l’IA page 58 AccĂ©lĂ©rer la mise en place d’infras- tructures europĂ©ennes en IA page 60 Transformation de l’État, État exem- plaire page 62 Installer un coordinateur interminis- tĂ©riel pour la mise en Ɠuvre de la stratĂ©gie page 62 CrĂ©er un pĂŽle de compĂ©tences mutualisĂ©es en IA dans l’État page 63 IntĂ©grer l’IA dans la stratĂ©gie numĂ©- rique de l’État page 64 Partie 2 – Pour une recherche agile et diffu- sante page 72 CrĂ©er un rĂ©seau d’Instituts Interdisci- plinaires d’Intelligence Artificielle page 75 Mailler le territoire et les domaines de recherche page 76 RĂ©unir chercheurs, Ă©tudiants et entre- prises page 79 Installer une coordination nationale page 85 Amorcer le processus par un appel Ă  projets page 86
  • 6. 5 Sommaire IntĂ©grer ce rĂ©seau dans l’espace europĂ©en de la recherche en IApage 87 Des moyens de calcul pour la recherche page 88 DĂ©velopper un supercalculateur pour les besoins de la recherche page 89 NĂ©gocier un pass dans un cloud privĂ© pour la recherche page 89 Rendre plus attractives les carriĂšres dans la recherche publique page 90 Revaloriser les carriĂšres d’enseignants chercheurs et de chercheurs, en par- ticulier en dĂ©but de carriĂšre page 90 Augmenter l’attractivitĂ© de la France pour les talents expatriĂ©s ou Ă©tran- gers page 90 Former plus de spĂ©cialistes de haut niveau en IA page 90 Fluidifier et amplifier les Ă©changes acadĂ©mie-industrie page 91 Encourager le travail partagĂ© acadĂ©- mie-industrie page 91 Prendre en compte les pĂ©riodes de travail dans l’industrie dans la recons- titution de carriĂšre page 91 Nommer des chercheurs en IA dans les conseils d’administration page 91 RĂ©soudre le problĂšme du partage de la propriĂ©tĂ© intellectuelle page 92 Encourager la crĂ©ation de startups par les chercheurs page 92 Encourager par le co-financement la crĂ©ation de chaires industriellespage 92 Partie 3 – Anticiper et maĂźtriser les impacts sur le travail et l’emploi page 100 Anticiper les impacts sur l’emploi et expĂ©rimenter page 107 CrĂ©er un lab public de la transforma- tion du travail page 107 Cibler certains dispositifs sur les emplois Ă  plus haut risque d’auto- matisation page 109 Financer des expĂ©rimentationspage 112 DĂ©velopper la complĂ©mentaritĂ© au sein des organisations et encadrer les conditions de travail page 112 DĂ©velopper un indice de bonne complĂ©mentaritĂ© Ă  destination des entreprises page 112 IntĂ©grer pleinement la transformation numĂ©rique dans le dialogue social page 113 Lancer un chantier lĂ©gislatif sur les conditions de travail Ă  l’heure de l’automatisation page 114 Amorcer une transformation de la formation initiale et continue pour favoriser l’apprentissage de la crĂ©a- tivitĂ© page 114 Favoriser la crĂ©ativitĂ© et les pĂ©dago- gies innovantes page 116 CrĂ©er une plateforme de mise en valeur des porteurs de pĂ©dagogies innovantes page 116 Donner du temps et des moyens aux porteurs d’innovations pĂ©dagogiques page 117 ExpĂ©rimenter de nouveaux modes de financement de la formation professionnelle pour tenir compte des transferts de valeur page 117 Former des talents en IA, Ă  tous niveaux page 119 Multiplier par trois le nombre de per- sonnes formĂ©es en IA page 119 Renforcer l’éducation en mathĂ©ma- tiques et en informatique page 121 Partie 4 – L’intelligence artificielle au service d’une Ă©conomie plus Ă©cologique page 122 Inscrire le sujet Ă  l’agenda interna- tional page 125 Favoriser la convergence de la tran- sition Ă©cologique et du dĂ©veloppe- ment de l’IA page 125 Mettre en place un lieu dĂ©diĂ© Ă  la rencontre de la transition Ă©cologique et de l’IA page 125
  • 7. 6 Sommaire Mettre en place une plateforme au service de la mesure de l’impact environnemental des solutions numĂ©- riques intelligentes page 127 Penser une IA moins consommatrice d’énergie page 127 Agir pour le verdissement de la chaĂźne de valeur des centres de donnĂ©es page 128 Soutenir les dĂ©marches Ă©cologiques chez les fournisseurs de cloud euro- pĂ©ens page 128 LibĂ©rer la donnĂ©e Ă©cologiquepage 130 LibĂ©rer la donnĂ©e publique page 131 LibĂ©rer la donnĂ©e privĂ©e page 131 Partie 5 – Quelle Ă©thique de l’IA ? page 138 Ouvrir la boĂźte noire page 140 DĂ©velopper l’audit des IA page 143 DĂ©velopper l’évaluation citoyenne des IA page 144 Soutenir la recherche sur l’explica- bilitĂ© page 145 Penser l’éthique dĂšs la conception page 146 IntĂ©grer l’éthique dans la formation des ingĂ©nieurs et chercheurs en IA page 146 Instaurer une Ă©tude d’impact sur les discriminations (discrimination impact assessment) page 147 Penser les droits collectifs sur les donnĂ©es page 148 Rendre l’action de groupe effective page 149 Comment garder la main ? page 149 Police prĂ©dictive page 150 Les systĂšmes d’armes lĂ©tales auto- nomes page 152 Une gouvernance spĂ©cifique de l’éthique en intelligence artificielle page 155 Partie 6 – Pour une intelligence artificielle inclusive et diverse page 162 MixitĂ© et diversité : agir pour l’éga- litĂ© page 163 Une action forte : un objectif de 40 % d’étudiantes dans les filiĂšres du numĂ©- rique page 166 Une action nationale en faveur de la mixitĂ© dans la technologie page 168 Mettre en place une base de donnĂ©es nationale sur les inĂ©galitĂ©s entre les femmes et les hommes au travail page 170 Promouvoir la transparence des pro- cessusderecrutementetdepromotion page 171 RĂ©server des fonds en faveur de la diversitĂ© page 172 DĂ©velopper la mĂ©diation numĂ©rique et l’innovation sociale pour que l’IA bĂ©nĂ©ficie Ă  tous page 172 Activer l’accĂšs aux droits fondamen- taux et aux services publics page 173 Soutenir les innovations sociales basĂ©es sur l’IA page 177 Focus sectoriels page 183 Focus 1 – Transformer l’éducation page 184 Enseigner Ă  l’heure Ă  l’IA page 185 DĂ©velopper une complĂ©mentaritĂ© capacitante avec l’IA en renforçant la place de la crĂ©ativitĂ© dans l’ensei- gnement page 186 DĂ©velopper la maĂźtrise de l’apprenant sur ses donnĂ©es d’apprentissage en lien avec son Ă©quipe pĂ©dagogique page 187 Accompagner la transformation des relations sociales d’apprentissage et des mĂ©tiers de l’enseignementpage 188 Transformer les politiques Ă©duca- tives grĂące Ă  l’intelligence artificielle page 189
  • 8. 7 Sommaire Mobiliser le potentiel de l’IA pour lutter contre les dĂ©crochages et faci- liter l’orientation page 189 Soutenir le dĂ©veloppement d’un Ă©co- systĂšme Edtech en phase avec les valeurs de notre systĂšme Ă©ducatif page 190 Accompagner la transformation des mĂ©tiers au sein du MinistĂšre page 192 Focus 2 – La santĂ© Ă  l’heure de l’IA page 194 L’IA au service de la mĂ©decinepage 195 Une rĂ©organisation des pratiques mĂ©dicales autour du patient page 197 Fluidifier les expĂ©rimentations en temps rĂ©el avec les patients et pro- fessionnels de santĂ© page 199 L’IA au service des politiques de santĂ© page 199 Mieux anticiper et cibler les politiques de santĂ© page 199 Assurer une veille de la donnĂ©e de santĂ© page 200 Mettre en place une plateforme pour le systĂšme de santĂ© adaptĂ©e aux usages liĂ©s Ă  l’IA page 200 RĂ©guler l’innovation en santĂ© Ă  l’heure de l’IA page 203 Focus 3 – Faire de la France un leader de l’agriculture augmentĂ©e page 204 À court terme : prĂ©server nos capa- citĂ©s stratĂ©giques et soutenir l’inno- vation agricole page 205 Favoriser le dialogue entre les agri- culteurs et l’industrie agroalimentaire pour faire Ă©merger de nouveaux modĂšles de valeur page 205 DĂ©velopper les soutiens Ă  la recherche pour le dĂ©veloppement de la robo- tique et des capteurs agricolespage 206 Garantir la couverture rĂ©seau nĂ©ces- saire Ă  une agriculture connectĂ©e page 206 Intensifier les efforts sur la standar- disation et l’interopĂ©rabilitĂ© page 207 Outiller les dĂ©marches collectives de nĂ©gociations sur les donnĂ©es des exploitations page 207 À moyen terme : distribuer plus lar- gement les capacitĂ©s d’exploitation des donnĂ©es page 208 Faire passer Ă  l’échelle les initiatives de mutualisation et les services inno- vants aux exploitations page 208 DĂ©velopper les capacitĂ©s numĂ©riques des agriculteurs, au service de la sou- verainetĂ© technologique française page 209 Focus 4 – Une politique d’innovation de rupture dans le secteur du transport au niveau europĂ©en page 210 Une coopĂ©ration franco-allemande sur l’innovation de rupture page 212 Des plateformes de mutualisation europĂ©ennes autour des mobilitĂ©s page 212 Des Ă©chĂ©ances ambitieuses pour l’autorisation des vĂ©hicules auto- nomes en Europe page 214 Une politique de la donnĂ©e offen- sive page 214 Focus 5 – L’IA au service de la dĂ©fense et de la sĂ©curitĂ© page 218 La nĂ©cessitĂ© d’une IA rĂ©galienne et ses spĂ©cificitĂ©s page 220 La mise en place d’un environne- ment propice Ă  l’expĂ©rimentation et au dĂ©veloppement de l’IApage 222 Une gouvernance et un cadre Ă  consolider page 224 Personnes auditionnĂ©es page 226 Contributions reçues page 230 La mission page 232
  • 10. 9 Introduction DĂ©finir l’intelligence artificielle n’est pas chose facile. Depuis ses origines comme domaine de recherche spĂ©cifique, au milieu du XXe siĂšcle, elle a toujours constituĂ© une frontiĂšre, incessamment repoussĂ©e. L’intelligence artificielle dĂ©signe en effet moins un champ de recherches bien dĂ©fini qu’un programme, fondĂ© autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; crĂ©er des processus cognitifs comparables Ă  ceux de l’ĂȘtre humain. Le champ est donc naturellement extrĂȘmement vaste, tant en ce qui concerne les procĂ©dures techniques utilisĂ©es que les disciplines convoquĂ©es : mathĂ©- matiques, informatiques, sciences cognitives
 Les mĂ©thodes d’IA sont trĂšs nombreuses et diverses (ontologique, apprentissage par renforcement, apprentissage adversarial, rĂ©seaux de neurones
) et ne sont pas nouvelles : beaucoup d’algorithmes utilisĂ©s aujourd’hui ont Ă©tĂ© dĂ©veloppĂ©s il y a plusieurs dizaines d’annĂ©es. Depuis la confĂ©rence de Dartmouth de 1956, l’intelligence artificielle s’est dĂ©veloppĂ©e, au grĂ© des pĂ©riodes d’enthousiasme et de dĂ©sillusion qui se sont succĂ©dĂ©es, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’ĂȘtre fait que par des humains. En poursuivant son projet initial, la recherche en IA a donnĂ© lieu Ă  des vrais succĂšs (victoire au jeu d’échecs, au jeu de go, comprĂ©hension du langage naturel
) et a nourri largement l’histoire des mathĂ©matiques et de l’informatique : combien de dispositifs que nous considĂ©rons aujourd’hui comme banals Ă©taient Ă  l’origine une avancĂ©e majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne
 ? Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre Ă©poque, la discipline de l’IA s’est toujours dĂ©veloppĂ©e de concert avec les imaginaires les plus dĂ©lirants, les plus angoissants et les plus fantastiques, qui ont façonnĂ© les rapports qu’entretient le grand public avec l’IA mais Ă©galement ceux des chercheurs eux-mĂȘmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accom- pagnĂ© l’essor de l’intelli- gence artificielle et guident parfois ses objectifs de long terme : en tĂ©moignent les productions fictionnelles abondantes sur le sujet, de 2001 l’OdyssĂ©e de l’espace, Ă  Her en passant Blade Runner et une grande partie de la littĂ©rature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrĂ©s et organisĂ©s autour d’idĂ©ologies politiques sous-jacentes, jouent donc un rĂŽle majeur, bien que souvent nĂ©gligĂ©, dans la direction que prend le dĂ©veloppement de cette discipline. L’intelligence artificielle est entrĂ©e, depuis quelques annĂ©es, dans une nouvelle Ăšre, qui donne lieu Ă  de nombreux espoirs. C’est en particulier dĂ» Ă  l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de donnĂ©es et le dĂ©cuplement des puissances L’intelligence artificielle est entrĂ©e, depuis quelques annĂ©es, dans une nouvelle Ăšre, qui donne lieu Ă  de nombreux espoirs
  • 11. 10 Introduction de calcul, les applications se multiplient : traduction, voiture autonome, dĂ©tection de cancer,
 Le dĂ©veloppement de l’IA se fait dans un contexte technologique marquĂ© par la « mise en donnĂ©es » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1, le supercalcul et le stockage massif. Au contact de ces diffĂ©rentes rĂ©alitĂ©s technologiques se jouera sĂ»rement le devenir de l’intelligence artificielle. Ces applications nouvelles nourrissent de nouveaux rĂ©cits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la SingularitĂ© et du transhumanisme. Depuis quelques annĂ©es, ces reprĂ©sentations sont largement investies par ceux qui la dĂ©veloppent et participent Ă  en forger les contours. Le cƓur politique et Ă©conomique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modĂšle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un Ă©cosystĂšme particulier, elle est, pour beaucoup d’acteurs publics et privĂ©s, un Ă©tat d’esprit qu’il conviendrait de rĂ©pliquer. La domination californienne, qui subsiste dans les discours et dans les tĂȘtes, nourrit l’idĂ©e d’une voie unique, d’un dĂ©terminisme technologique. Si le dĂ©veloppement de l’intelligence artificielle est pensĂ© par des acteurs privĂ©s hors de nos frontiĂšres, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signĂ© entre Microsoft et l’éducation nationale sous le prĂ©cĂ©dent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liĂ©e Ă  la CIA, ne disent finalement pas autre chose. On observe la mĂȘme tentation chez les entreprises europĂ©ennes qui, persuadĂ©es d’avoir dĂ©jĂ  perdu la course, cĂšdent bien souvent aux sirĂšnes des gĂ©ants de la discipline, parfois au dĂ©triment de nos pĂ©pites numĂ©riques. Contrairement aux derniĂšres grandes pĂ©riodes d’emballement de la recherche en intelligence artificielle, le sujet a trĂšs largement dĂ©passĂ© la seule sphĂšre scientifique et est sur toutes les lĂšvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique gĂ©nĂ©rale comme un levier de pouvoir majeur : l’emblĂ©- matique interview Ă  Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intĂ©rĂȘt de faire de l’avance amĂ©ricaine en intelligence artificielle un outil redoutable de soft power. Le PrĂ©sident russe Vladimir Poutine a quant Ă  lui affirmĂ© que « celui qui deviendra le leader dans ce domaine sera le maĂźtre du monde », comparant l’intelligence artificielle aux technologies nuclĂ©aires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matiĂšre d’intelligence artificielle par un discours musclĂ© sur le sujet, cette affirmation est rĂ©vĂ©latrice de l’importance gĂ©ostratĂ©gique prise par ces technologies. Dans la mesure oĂč les chaĂźnes de valeur, surtout dans le secteur numĂ©rique, sont dĂ©sormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenĂ©s Ă  capter une grande partie de la valeur des systĂšmes qu’ils transforment, mais Ă©galement Ă  contrĂŽler ces mĂȘmes systĂšmes, mettant en cause l’indĂ©pendance des autres pays. C’est que l’intelligence artificielle va dĂ©sormais jouer un rĂŽle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme 1. La blockchain correspond Ă  un registre distribuĂ© qui permet d’éviter de recourir Ă  un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin.
  • 12. 11 Introduction Donner un sens, c’est-Ă -dire donner un cap, une signification et des explications. VoilĂ  l’objectif de ce rapport de recherche confinĂ© aux laboratoires ou Ă  une application prĂ©cise. Elle va devenir une des clĂ©s du monde Ă  venir. En effet nous sommes dans un monde numĂ©rique, de plus en plus, de part en part. Un monde de donnĂ©es. Ces donnĂ©es qui sont au cƓur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-lĂ , qui est dĂ©sormais le nĂŽtre, ces technologies reprĂ©sentent beaucoup plus qu’un programme de recherche : elles dĂ©ter- minent notre capacitĂ© Ă  organiser les connaissances, Ă  leur donner un sens, Ă  augmenter nos facultĂ©s de prise de dĂ©cision et de contrĂŽle des systĂšmes. Et notamment Ă  tirer de la valeur des donnĂ©es. L’intelligence artificielle est donc une des clĂ©s du pouvoir de demain dans un monde numĂ©rique. VoilĂ  pourquoi il est d’intĂ©rĂȘt gĂ©nĂ©ral que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nĂ©cessaire de tout faire pour rester indĂ©pendants. Or la concurrence est rude : les États-Unis et la Chine sont Ă  la pointe de ces technologies et leurs investissements dĂ©passent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particuliĂšrement, IsraĂ«l, tiennent Ă©galement une place essentielle dans cet Ă©cosystĂšme naissant. Parce qu’à bien des Ă©gards, la France et l’Europe peuvent dĂ©jĂ  faire figure de « colonies numĂ©riques »2, il est nĂ©cessaire de ne cĂ©der Ă  aucune forme de dĂ©terminisme, en proposant une rĂ©ponse coordonnĂ©e au niveau europĂ©en. C’est pourquoi le rĂŽle de l’État doit ĂȘtre rĂ©affirmé : le jeu du marchĂ© seul montre ses limites pour assurer une vĂ©ritable politique d’indĂ©pendance. De plus les rĂšgles qui rĂ©gissent les Ă©changes internationaux et l’ouverture des marchĂ©s intĂ©rieurs ne servent pas toujours les intĂ©rĂȘts Ă©conomiques des États europĂ©ens – qui l’appliquent trop souvent Ă  sens unique. Plus que jamais, l’État doit donner un sens au dĂ©veloppement de l’intelligence artificielle. Donner un sens, c’est-Ă -dire donner un cap, une signification et des explications. VoilĂ  l’objectif de ce rapport. Donner un sens, c’est tout d’abord donner un cap. C’est l’objectif de la structu- ration proposĂ©e pour la politique industrielle : quatre secteurs prioritaires sont dĂ©finis, la santĂ©, l’écologie, les transports-mobilitĂ©s et la dĂ©fense-sĂ©curitĂ©. Ces secteurs prĂ©sentent plusieurs caractĂ©ristiques : ils sont au service de l’intĂ©rĂȘt gĂ©nĂ©ral et des grands dĂ©fis de notre Ă©poque, ils peuvent constituer un avantage comparatif de la France et de l’Europe et ils ont besoin d’une interven- tion de l’État pour se structurer. Le dĂ©veloppement de ces secteurs se fera via des concours d’innovation spĂ©cifiques et prĂ©cis, qui fixeront les objectifs prioritaires, mais Ă©galement grĂące une politique offensive de la donnĂ©e. Les donnĂ©es, au cƓur du dĂ©veloppement de l’IA, bĂ©nĂ©ficient aujourd’hui souvent Ă  une poignĂ©e de trĂšs grands acteurs, qui tendent Ă  enfermer les capacitĂ©s d’innovation dans les limites de leurs entreprises toujours plus puissantes. Ce n’est qu’au prix d’une plus grande circulation de ces donnĂ©es, pour en faire bĂ©nĂ©ficier les pouvoirs publics, mais aussi les acteurs Ă©conomiques les plus petits, qu’il sera possible de rĂ©Ă©quilibrer les rapports de forces. 2. Cette expression, traduite de l’anglais « cybercolonization », est issue d’un rapport d’information de Catherine MORIN- DESAILLY fait au nom de la commission des affaires europĂ©ennes en 2013 (« L’Union europĂ©enne, colonie du monde numĂ©rique ? »).
  • 13. 12 Introduction La France tient une place dĂ©cisive dans la recherche en IA : des chercheurs français ont participĂ© Ă  fonder l’IA moderne et l’école mathĂ©matique et infor- matique française rayonne dans le monde entier. NĂ©anmoins l’hĂ©morragie est toujours plus importante : chaque semaine des chercheurs sont recrutĂ©s par les entreprises privĂ©es et souvent Ă©trangĂšres et quittent les laboratoires publics. Il faut donc redonner Ă  la recherche publique les moyens de ses ambitions, au cƓur d’un dispositif allant de la formation au transfert et Ă  l’innovation. Enfin le dĂ©veloppement Ă©conomique du secteur de l’intelligence artificielle doit mettre en son cƓur la prĂ©occupation Ă©cologique. En tant que secteur, comme Ă©voquĂ© plus haut, c’est essentiel : les innovations en IA pourront servir Ă  optimiser les consommations d’énergie et le recyclage et Ă  mieux comprendre les effets de l’activitĂ© humaine sur l’environnement. Mais il s’agit Ă©galement de veiller Ă  ce que l’intelligence artificielle que nous dĂ©veloppons soit la plus Ă©conome en Ă©nergie et en ressources. Donner un sens, c’est Ă©galement donner une signification. L’intelligence artificielle est loin d’ĂȘtre une fin en soi et son dĂ©veloppement doit prendre en compte plusieurs aspects. Tout d’abord la nĂ©cessitĂ© de penser les modes de complĂ©mentaritĂ© entre l’humain et les systĂšmes intelligents. Que ce soit au niveau individuel ou collectif, cette complĂ©mentaritĂ© peut prendre plusieurs formes et peut ĂȘtre aliĂ©nante comme libĂ©ratrice. Au cƓur du dĂ©veloppement de l’IA doit rĂ©sider la nĂ©cessitĂ© de mettre en Ɠuvre une complĂ©mentaritĂ© qui soit capacitante, en ce qu’elle permet de dĂ©sautomatiser les tĂąches humaines. Pour favoriser la transition des tĂąches et des mĂ©tiers dans ce sens, des expĂ©rimentations devront ĂȘtre mises en place sur l’ensemble des territoires, notamment Ă  destination des populations les plus touchĂ©es par l’automatisation. Dans un monde marquĂ© par les inĂ©galitĂ©s, l’intelligence artificielle ne doit pas conduire Ă  renforcer les phĂ©nomĂšnes d’exclusion et la concentration de la valeur. En matiĂšre d’IA, la politique d’inclusion doit ainsi revĂȘtir un double objectif : s’assurer que le dĂ©veloppement de ces technologies ne contribue pas Ă  accroĂźtre les inĂ©galitĂ©s sociales et Ă©conomiques ; et s’appuyer sur l’IA pour effectivement les rĂ©duire. PlutĂŽt que de fragiliser nos trajectoires indivi- duelles et nos systĂšmes de solidaritĂ©s, l’IA doit prioritairement nous aider Ă  activer nos droits fondamentaux, augmenter le lien social et renforcer les solidaritĂ©s. La mixitĂ© doit ĂȘtre Ă©galement au cƓur des prioritĂ©s : la situation est alarmante dans les filiĂšres numĂ©riques, tant les femmes sont peu reprĂ©- sentĂ©es. Les algorithmes peuvent en outre reproduire des biais sexistes. Enfin une sociĂ©tĂ© algorithmique ne doit pas ĂȘtre une sociĂ©tĂ© de boĂźtes noires : l’intelligence artificielle va ĂȘtre amenĂ©e Ă  jouer un rĂŽle essentiel dans des domaines aussi variĂ©s que cruciaux (santĂ©, banque, logement,
) et le risque de reproduire des discriminations existantes ou d’en produire de nouvelles est important. À ce risque s’en ajoute un autre : la normalisation diffuse des comportements que pourrait introduire le dĂ©veloppement gĂ©nĂ©ralisĂ© d’algorithmes d’intelligence artificielle. Il doit ĂȘtre possible d’ouvrir les boĂźtes noires, mais Ă©galement de rĂ©flĂ©chir en amont aux enjeux Ă©thiques que les algorithmes d’intelligence artificielle peuvent soulever.
  • 14. 13 Introduction Donner un sens c’est enfin expliquer : expliquer ces technologies Ă  l’opinion pour la dĂ©mystifier – le rĂŽle des mĂ©dias est de ce point de vue primordial –, mais aussi expliquer l’intelligence artificielle en elle-mĂȘme en dĂ©veloppant les recherches sur l’explicabilitĂ©. Les spĂ©cialistes de l’IA eux-mĂȘmes affirment souvent que des progrĂšs importants peuvent ĂȘtre faits sur ce sujet. C’est de maniĂšre plus gĂ©nĂ©rale une rĂ©flexion collective qui doit ĂȘtre menĂ©e sur ces technologies : la constante accĂ©lĂ©ration des rythmes de dĂ©ploiement ne doit pas empĂȘcher une discussion politique sur les objectifs que nous poursuivons et leur bien-fondĂ©. Le cƓur du document aborde successivement diffĂ©rentes facettes de l’IA : politique Ă©conomique, recherche, emploi, Ă©thique, cohĂ©sion sociale. L’ensemble forme un tout et passe en revue des actions qui ne font sens que quand elles sont prises ensemble. On trouvera d’ailleurs de nombreuses passerelles entre ces parties. L’IA touche tous les secteurs (y compris ceux oĂč on ne l’attend pas forcĂ©ment, comme le sport ou la culture) mais il ne nous a pas semblĂ© souhaitable, sauf Ă  produire un document indigeste, de les passer tous en revue ; cependant nous avons ressenti le besoin de rĂ©diger cinq annexes insistant sur des domaines d’intĂ©rĂȘt particulier : Ă©ducation, santĂ©, agriculture, transport, dĂ©fense et sĂ©curitĂ©.
  • 15. 14 SynthĂšse Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e Les mastodontes actuels de l’intel- ligence artificielle (États-Unis et Chine) et les pays Ă©mergents de la discipline (IsraĂ«l, Canada et Royaume- Uni notamment) se dĂ©veloppent ou se sont dĂ©veloppĂ©s sur des modĂšles parfois radicalement diffĂ©rents. Ce n’est pas forcĂ©ment grĂące Ă  un « Google europĂ©en » que la France et l’Europe pourront se faire une place sur la scĂšne mondiale de l’IA. Elles doivent pour cela inventer un modĂšle spĂ©cifique. Un Ă©cosystĂšme europĂ©en de la donnĂ©e Les donnĂ©es sont gĂ©nĂ©ralement le point de dĂ©part de toute stratĂ©- gie en IA, car de leur disponibilitĂ© dĂ©pendent de nombreux usages et applications. Or les donnĂ©es bĂ©nĂ©fi- cient aujourd’hui majoritairement Ă  une poignĂ©e de trĂšs grands acteurs. Ce n’est qu’au prix d’un plus grand accĂšs et d’une meilleure circulation de ces donnĂ©es, pour en faire bĂ©nĂ©- ficier les pouvoirs publics, mais aussi les acteurs Ă©conomiques plus petits et la recherche publique, qu’il sera possible de rĂ©Ă©quilibrer les rapports de forces. La puissance publique doit pour cela amorcer de nouveaux modes de production, de collaboration et de gouvernance sur les donnĂ©es, par la constitution de « communs de la donnĂ©e »1. Cela devra passer par une incitation des acteurs Ă©conomiques au partage et Ă  la mutualisation de leurs donnĂ©es, l’État pouvant ici jouer un rĂŽle de tiers de confiance. Dans certains cas, la puissance publique pourrait imposer l’ouverture s’agis- sant de certaines donnĂ©es d’intĂ©rĂȘt gĂ©nĂ©ral. Au niveau europĂ©en, plu- sieurs rĂ©formes en cours doivent permettre un meilleur accĂšs et une plus grande circulation des donnĂ©es. La rĂ©vision prochaine de la directive sur la rĂ©utilisation des informations du secteur public doit ĂȘtre l’occasion d’accĂ©lĂ©rer le mouvement d’ouver- ture des donnĂ©es publiques et de prĂ©ciser les modalitĂ©s d’un accĂšs Ă  des donnĂ©es privĂ©es pour des motifs d’intĂ©rĂȘt gĂ©nĂ©ral. La rĂ©forme actuelle du droit d’auteur devrait – enfin ! – permettre d’autoriser les pratiques de fouille de texte et de donnĂ©es (text and data mining) dans un objectif de compĂ©titivitĂ© de notre recherche publique. Cette politique de la donnĂ©e doit s’articuler avec un objectif de souve- raineté : la France et l’Europe doivent conserver une position ferme s’agis- sant du transfert de donnĂ©es hors de l’Union europĂ©enne. La stratĂ©gie en IA devra en outre capitaliser sur les hauts standards de protection issus de la nouvelle lĂ©gislation europĂ©enne sur les donnĂ©es. Le nouveau droit Ă  la portabilitĂ©2 des individus sur leurs donnĂ©es personnelles pourrait ainsi s’inscrire dans une logique citoyenne, pour permettre Ă  l’État et aux collec- tivitĂ©s territoriales de rĂ©cupĂ©rer ces donnĂ©es pour dĂ©velopper des appli- cations en IA Ă  des fins de politique publique. Renforcer la visibilitĂ© de ceux qui font l’IA La France dispose de tous les atouts pour exister pleinement sur la scĂšne internationale. NĂ©anmoins nos entre- prises et nos rĂ©seaux acadĂ©miques souffrent d’un vĂ©ritable manque de visibilitĂ©. C’est Ă  la fois vrai Ă  l’étran- ger et sur le marchĂ© domestique : les grandes entreprises prĂ©fĂšrent parfois cĂ©der aux sirĂšnes des gĂ©ants mondiaux de la discipline plutĂŽt que 1.  Les communs, ou biens communs, dĂ©signent une ressource dont l’usage et la gouvernance sont dĂ©finis par une communautĂ©. 2.  La capacitĂ© pour les utilisateurs de rĂ©cupĂ©rer leurs donnĂ©es, pour leurs propres usages ou pour les transfĂ©rer vers un autre service.
  • 16. 15 Le rapport en 10 pages de faire confiance Ă  nos pĂ©pites nationales, soit parce qu’elles en ignorent l’existence, soit par excĂšs de prudence. Notre mission propose ainsi de fĂ©dĂ©rer les acteurs français de l’intelligence artificielle autour d’une marque forte, qui pourrait prendre la forme de labels et de prix « d’innovation de terrain » visant Ă  rĂ©compenser les solutions d’IA les plus innovantes et Ă  sĂ©curiser de potentiels acheteurs. Cet effort doit s’accompagner d’une structuration de la demande en IA. Cela pourrait passer par la crĂ©ation d’un guichet unique d’information visant Ă  aider les potentiels acheteurs d’IA Ă  mieux formaliser leurs besoins et Ă  identifier les acteurs permettant d’y rĂ©pondre. Un choix clair : mettre l’accent sur quatre secteurs stratĂ©giques Pour renforcer l’écosystĂšme fran- çais et europĂ©en de l’intelligence artificielle, il nous faut tirer parti des avantages comparatifs et des niches d’excellence de notre Ă©conomie. De ce point de vue, notre mission recommande d’éviter les logiques de saupoudrage et de concentrer l’effort sur quatre secteurs priori- taires : santĂ©, environnement, trans- ports-mobilitĂ©s et dĂ©fense-sĂ©curitĂ©. Tous reprĂ©sentent un dĂ©fi majeur du point de vue de l’intĂ©rĂȘt gĂ©nĂ©ral, tous requiĂšrent une impulsion importante de l’État et tous sont susceptibles de cristalliser l’intĂ©rĂȘt et l’implication continue des acteurs publics et privĂ©s. Pour chacun de ces secteurs, la stra- tĂ©gie industrielle doit permettre de mobiliser et de structurer les Ă©cosys- tĂšmes autour de grands enjeux et dĂ©fis sectoriels. Il n’est pas question ici de dĂ©velopper de l’IA pour elle- mĂȘme, comme une fin en soi, mais justement de canaliser cette Ă©nergie pour le dĂ©veloppement d’applica- tions, d’usages qui contribuent Ă  amĂ©- liorer notre performance Ă©conomique ainsi que le bien commun : dĂ©tection prĂ©coce des pathologies, mĂ©decine des 4P3, disparition des dĂ©serts mĂ©di- caux, mobilitĂ© urbaine Ă  zĂ©ro Ă©mis- sion... Ces enjeux et dĂ©fis affichĂ©s de politique industrielle, propres Ă  chaque secteur, dĂ©passent le sujet de l’IA, mais pourraient contribuer Ă  donner un terrain favorable Ă  son dĂ©veloppement. Le deuxiĂšme pilier de cette stratĂ©gie consiste Ă  mettre en place des pla- teformes sectorielles de mutualisa- tion. Celles-ci devront offrir un accĂšs diffĂ©renciĂ© et sĂ©curisĂ© aux acteurs de ces diffĂ©rents Ă©cosystĂšmes (chercheurs, entreprises, puissance publique) Ă  des donnĂ©es pertinentes pour le dĂ©veloppement d’IA, Ă  des ressources logicielles ainsi qu’à des infrastructures de calcul d’ampleur significative. Dans un continuum public-privĂ©, ces plateformes devront permettre Ă  ces diffĂ©rents acteurs de dĂ©velopper de nouvelles fonction- nalitĂ©s adaptĂ©es aux spĂ©cificitĂ©s de chaque secteur. Enfin, il est essentiel de fluidifier les parcours d’innovation en IA avec la mise en place de « bacs Ă  sable d’in- novation », qui se dĂ©clinent sur trois aspects : un allĂšgement, temporaire, de certaines contraintes rĂ©glemen- taires pour laisser le champ libre Ă  l’innovation ; un accompagnement des acteurs dans la prise en compte de leurs obligations ; des moyens d’expĂ©rimentation en situation rĂ©elle. Transformation de l’État, État exemplaire L’État doit ĂȘtre un puissant moteur de ces transformations. La puissance publique doit se donner les moyens 3. MĂ©decine personnalisĂ©e, prĂ©ventive, prĂ©dictive, participative.
  • 17. 16 SynthĂšse matĂ©riels et humains d’intĂ©grer l’IA Ă  la conduite de ses politiques publiques, Ă  la fois dans une pers- pective de modernisation et par souci d’exemplaritĂ©. Cette transformation va inĂ©vitable- ment prendre du temps et la maturitĂ© des diffĂ©rents ministĂšres et adminis- trations sur l’IA est trĂšs inĂ©gale. C’est pourquoi il est nĂ©cessaire d’installer un coordinateur interministĂ©riel dĂ©diĂ© Ă  la mise en Ɠuvre de cette stratĂ©gie. Celui-ci pourra s’appuyer sur un pĂŽle mutualisĂ© de compĂ©tences, constituĂ© d’une trentaine d’agents et chargĂ© de conduire des missions de conseil auprĂšs des administrations. La commande publique doit ĂȘtre repensĂ©e. ÉvaluĂ©e Ă  prĂšs de 70 mil- liards d’euros annuels pour l’État, les Ă©tablissements publics et les col- lectivitĂ©s, elle reste insuffisamment orientĂ©e vers l’innovation, pour des raisons Ă  la fois opĂ©rationnelles, juri- diques et culturelles. Notre mission recommande plusieurs mesures qui visent Ă  mettre l’achat public au service du soutien aux industries europĂ©ennes et Ă  dynamiser l’achat public innovant. Partie 2 – Pour une recherche agile et diffusante La recherche française est au premier plan mondial pour ce qui concerne ses chercheurs en mathĂ©matiques et en intelligence artificielle, mais elle a du mal Ă  transformer ses avan- cĂ©es scientifiques en applications industrielles et Ă©conomiques. Elle pĂątit d’une « fuite des cerveaux » vers les gĂ©ants amĂ©ricains. L’offre de formation se situe par ailleurs bien en deçà des besoins en matiĂšre d’IA et science des donnĂ©es. FĂ©dĂ©rer les acteurs de la recherche autour d’Instituts Interdisciplinaires d’Intelligence Artificielle Il faut renforcer la place mondiale de notre recherche en IA en crĂ©ant, Ă  l’intĂ©rieur d’une sĂ©lection d’éta- blissements publics d’enseigne- ment et recherche, des Instituts Interdisciplinaires d’Intelligence Artificielle (3IA) autonomes et coor- donnĂ©s, rĂ©unissant chercheurs, ingĂ©- nieurs et Ă©tudiants. Ils ont vocation Ă  ĂȘtre rĂ©partis gĂ©ographiquement sur l’ensemble du territoire national, diversifiĂ©s thĂ©matiquement sur les domaines de l’IA et mettant un accent fort sur l’interdisciplinaritĂ©, notam- ment, mais pas uniquement, vis-Ă -vis des sciences humaines et sociales. Il faudra tout d’abord rĂ©ussir Ă  attirer des scientifiques français et Ă©trangers. Ces instituts devront procurer un envi- ronnement de travail suffisamment attractif pour rĂ©sister Ă  la pression compĂ©titive des gĂ©ants du numĂ©- rique, c’est pourquoi ils devront ĂȘtre conçus comme des « zones franches de l’IA » : allĂšgement drastique des formalitĂ©s administratives du quoti- dien, complĂ©ments de salaire consĂ©- quents, aides pour l’amĂ©lioration de la qualitĂ© de vie. Ces instituts pourront offrir des postes Ă  temps plein et des statuts intermĂ©diaires d’affiliĂ©s, pour les chercheurs qui restent dans les Ă©tablissements fondateurs. Il faudra Ă©galement attirer des parte- naires privĂ©s (grands groupes, PME, startups) porteurs de solutions en IA fondamentalement nouvelles, en leur permettant de former leurs ingĂ©nieurs, de recruter des ingĂ©nieurs de haut niveau, de rĂ©aliser ou consolider des avancĂ©es technologiques. Plusieurs modes de participation pourront ĂȘtre dĂ©finis, selon des contrats-cadres adaptĂ©s permettant de dĂ©marrer
  • 18. 17 Le rapport en 10 pages d’éventuelles collaborations spĂ©ci- fiques de maniĂšre simple et rapide. Ces instituts devront effectivement contribuer Ă  l’augmentation subs- tantielle d’offres de formations en IA attractives et diversifiĂ©es. La prĂ©sence d’enseignants de rĂ©puta- tion internationale, entourĂ©s d’une Ă©quipe du mĂȘme niveau ; la possibi- litĂ© de cĂŽtoyer, via des stages ou des concours d’innovation, des industriels et des acteurs Ă©conomiques de tout premier plan ; des offres de forma- tions pluridisciplinaires avec doubles diplĂŽmes, et des facilitĂ©s financiĂšres comme des bourses de master et de doctorat devraient permettre d’aug- menter significativement le nombre d’étudiants venant se former Ă  l’IA autour de ces instituts. Il est enfin nĂ©cessaire de penser une coordination nationale du rĂ©seau des 3IA, sur les plans scientifique et administratif, qui soit efficace et trans- parente. Au niveau scientifique, cela passe notamment par la coordination des sĂ©minaires, le partage des res- sources de formation, la coordination des stages et la consolidation de leurs rĂ©sultats. Au niveau administratif, il s’agira de dĂ©terminer les allĂšgements consentis Ă  tous les 3IA, garantissant que chacun d’entre eux puisse en bĂ©nĂ©ficier, sans pour autant alourdir les procĂ©dures et sans empiĂ©ter sur l’autonomie de chacun. Des moyens de calcul pour la recherche Les instituts de recherche en IA doivent pouvoir disposer d’outils de calcul qui leur permettent de rivaliser avec les moyens quasi-illimitĂ©s des grands acteurs privĂ©s. C’est pour- quoi notre mission propose la mise en place d’un supercalculateur conçu spĂ©cifiquement pour les applications d’IA, dĂ©diĂ© aux chercheurs et Ă  leurs partenaires Ă©conomiques dans le cadre de projets communs. Ce supercalculateur, s’il est essentiel, devrait ĂȘtre complĂ©tĂ© par un forfait d’accĂšs Ă  un cloud privĂ©, dĂ©veloppĂ© Ă  un niveau europĂ©en et adaptĂ© aux spĂ©cificitĂ©s de l’IA (en temps de calcul et en espace de stockage). Rendre plus attractives les carriĂšres dans la recherche publique MĂȘme s’il est illusoire de penser rivali- ser financiĂšrement avec les offres des GAFAM, l’écart est actuellement si important qu’il tend Ă  dĂ©courager les jeunes diplĂŽmĂ©s, y compris ceux qui sont le plus attachĂ©s Ă  la recherche publique et au bien commun. Un doublement des salaires en dĂ©but de carriĂšre est un point de dĂ©part minimal indispensable, sous peine de voir se tarir dĂ©finitivement le flux de jeunes prĂȘts Ă  s’investir dans l’ensei- gnement supĂ©rieur et la recherche acadĂ©mique. Il est par ailleurs nĂ©ces- saire de renforcer l’attractivitĂ© de la France pour les talents expatriĂ©s ou Ă©trangers, notamment avec des inci- tations financiĂšres. Partie 3 – Anticiper les impacts sur le travail, l’emploi et expĂ©rimenter Le monde du travail est Ă  l’aube de grandes transformations et n’y est encore que peu prĂ©parĂ©. Les incerti- tudes sur les consĂ©quences du dĂ©ve- loppement combinĂ© de l’intelligence artificielle, de l’automatisation et de la robotique sont trĂšs importantes, notamment concernant les emplois dĂ©truits et crĂ©Ă©s. NĂ©anmoins, il
  • 19. 18 SynthĂšse apparaĂźt de plus en plus certaine- ment que la majoritĂ© des mĂ©tiers et des organisations vont ĂȘtre trĂšs lar- gement transformĂ©s. Nous entrons donc dans une pĂ©riode de transition technologique importante : l’histoire nous enseigne que les prĂ©cĂ©dentes transitions ne se sont pas faites sans encombre et que les processus de rĂ©ajustement politiques ont parfois Ă©tĂ© violents, souvent au dĂ©triment des populations dĂ©jĂ  les plus fragiles. Il est donc nĂ©cessaire de prendre le problĂšme Ă  bras le corps et d’agir rĂ©solument, sans cĂ©der Ă  la panique ni au fatalisme. Cela passe d’abord par une rĂ©flexion sur les modes de complĂ©mentaritĂ© entre l’humain et l’intelligence arti- ficielle : si l’on part du principe que, pour la plupart des mĂ©tiers, les indi- vidus seront amenĂ©s Ă  travailler en collaboration avec une machine, il est nĂ©cessaire de dĂ©finir une complĂ©men- taritĂ© qui ne soit pas aliĂ©nante, mais au contraire permette de dĂ©velopper les capacitĂ©s proprement humaines (crĂ©ativitĂ©, dextĂ©ritĂ© manuelle, capa- citĂ© de rĂ©solution de problĂšmes
). Cela pourra s’articuler de plusieurs maniĂšres. Tout d’abord au travers d’une transformation du dialogue social afin d’intĂ©grer pleinement les enjeux numĂ©riques et dĂ©velopper un indice de bonne complĂ©mentaritĂ©. De maniĂšre plus globale, un chan- tier lĂ©gislatif relatif aux conditions de travail Ă  l’heure de l’automatisation pourrait ĂȘtre lancĂ© afin de prendre en compte les nouveaux risques. Enfin, une transformation de la formation ini- tiale et continue devra ĂȘtre amorcĂ©e afin de favoriser les pĂ©dagogies expĂ©rimentales, Ă  mĂȘme de dĂ©ve- lopper les compĂ©tences crĂ©atives qui deviennent de plus en plus cruciales. CrĂ©er un lab public de la transformation du travail C’est la premiĂšre nĂ©cessité : s’assurer que la capacitĂ© d’anticipation soit pĂ©renne, continue et surtout articu- lĂ©e avec des politiques publiques. La parution des Ă©tudes sur l’avenir du travail occasionne des dĂ©bats col- lectifs passionnants, mais souvent sans vĂ©ritable incidence, tandis que les politiques publiques ne sont modifiĂ©es qu’à la marge et peinent Ă  prendre vĂ©ritablement en compte les rĂ©sultats de ces exercices pros- pectifs. Les transformations peuvent ĂȘtre extrĂȘmement rapides et les cir- cuits des politiques publiques sont tout aussi complexes et difficiles Ă  manƓuvrer. La formation profession- nelle, Ă  elle toute seule par exemple, reprĂ©sente 32 milliards d’euros par an, avec une multitude de canaux de financement et une myriade d’acteurs diffĂ©rents. Il est donc nĂ©cessaire de constituer un espace ou les capacitĂ©s prospec- tives, de prĂ©visions macro-Ă©cono- miques et d’analyse des mutations des usages puissent ĂȘtre mises en lien avec des capacitĂ©s d’expĂ©ri- mentation concrĂštes et articulĂ©es avec des actions Ă  destination de certaines catĂ©gories de travailleurs. Une structure pĂ©renne pourrait donc ĂȘtre installĂ©e, qui aurait un rĂŽle de « tĂȘte chercheuse » Ă  l’intĂ©rieur des politiques publiques de l’emploi et de la formation professionnelle. Elle aura un double rĂŽle : anticiper et expĂ©rimenter. La dĂ©marche expĂ©rimentale pourra servir Ă  amorcer des logiques diffĂ©- rentes de celles qui sont actuellement en vigueur dans la formation profes- sionnelle. Les dispositifs actuels sont largement « à la main » des salariĂ©s, dans une logique de responsabilisa- tion individuelle. Au vu du caractĂšre potentiellement trĂšs rapide, voire exponentiel de ces transformations, il semble difficile, pour les dispositifs gĂ©nĂ©raux existants, de rĂ©pondre Ă  l’ensemble des situations et de per- mettre Ă  la fois la prise en compte des besoins de l’ensemble de la
  • 20. 19 Le rapport en 10 pages population et la nĂ©cessitĂ© d’agir de maniĂšre ciblĂ©e et urgente. De plus, face Ă  la transformation de leur emploi, les individus ne sont pas Ă©gaux dans la capacitĂ© de s’adap- ter et de construire des parcours professionnels. À cet Ă©gard, des expĂ©rimentations pourraient ĂȘtre menĂ©es afin de construire des dispositifs qui ciblent certaines populations d’individus, dont les emplois sont considĂ©rĂ©s comme Ă©tant le plus Ă  risque d’auto- matisation et pour lesquelles il sera complexe d’amorcer seules leur transition professionnelle. Il s’agit donc de rompre, en partie, avec la seule logique de responsabilisation de l’individu concernant sa propre transition professionnelle. ExpĂ©rimenter de nouveaux modes de financement de la formation professionnelle pour tenir compte des transferts de valeur Le financement de la formation pro- fessionnelle est fondĂ© sur la masse salariale. Or, le dĂ©veloppement de l’IA renforce la mutation des chaĂźnes de valeur et entraĂźne une dĂ©corrĂ©la- tion entre les acteurs qui financent la formation professionnelle et ceux qui captent la valeur ajoutĂ©e. Ainsi des acteurs ayant une trĂšs faible masse salariale peuvent ĂȘtre Ă  l’origine d’une grande partie de la valeur ajoutĂ©e d’une chaĂźne de valeur globale qu’ils contribuent Ă  trĂšs largement modi- fier par exemple en dĂ©veloppant un logiciel pour les voitures autonomes. Pour autant, Ă  l’heure actuelle, ils ne participent pas au financement de la transition professionnelle des indivi- dus employĂ©s par d’autres acteurs de la chaĂźne de valeur. Il est donc proposĂ© d’instaurer un dialogue social autour du partage de la valeur ajoutĂ©e au niveau de la chaĂźne de valeur entiĂšre. Ce type de nĂ©gociation ne correspond pas aux structurations habituelles du dialogue social qui fonctionne trĂšs largement Ă  un niveau national et surtout suivant une structuration verticale, par branche. Des expĂ©rimentations pourraient ĂȘtre organisĂ©es par l’Orga- nisation internationale du travail, ou encore les comitĂ©s de dialogue social sectoriel, autour de produits et de chaĂźnes de valeur particuliĂšrement symptomatiques des phĂ©nomĂšnes de captation de valeur. Former des talents en IA, à tous niveaux Un objectif clair doit ĂȘtre fixé : Ă  horizon trois ans, multiplier par trois le nombre de personnes formĂ©es en intelligence artificielle en France, Ă  la fois en faisant en sorte que l’offre de formation existante s’oriente vers l’IA, mais Ă©galement en crĂ©ant de nouveaux cursus et de nouvelles for- mations Ă  l’IA (doubles cursus droit-IA par exemple, modules gĂ©nĂ©raux
). L’ensemble des niveaux (bac +2, bac +3, master, doctorat) doit faire l’objet d’attention. Partie 4 – L’intelligence artificielle au service d’une Ă©conomie plus Ă©cologique Donner un sens Ă  l’intelligence arti- ficielle, c’est Ă©galement penser sa soutenabilitĂ©, notamment Ă©cologique. Cela ne se rĂ©sume pas Ă  lister les usages de l’IA qui pourront aider Ă  la transition Ă©cologique. Il s’agit de penser une IA nativement Ă©cologique et de l’utiliser pour mieux penser l’impact de l’humain sur son envi- ronnement. Il y a urgence : d’ici 2040, les besoins en espace de stockage au niveau mondial, fondamentalement corrĂ©lĂ©s au dĂ©veloppement du numĂ©- rique et de l’IA, risquent d’excĂ©der la production disponible globale de silicium.
  • 21. 20 SynthĂšse La France et l’Europe peuvent devenir le fer-de-lance de cette transition Ă©cologique intelligente, d’abord en inscrivant le sujet Ă  l’agenda inter- national. Premier chantier : penser les impacts de l’IA sur la rĂ©alisa- tion des objectifs de l’ONU sur le dĂ©veloppement durable (ODD) – en quoi celle-ci en met certains sous contrainte, comment elle peut Ă  l’inverse permettre d’en accĂ©lĂ©rer d’autres. L’IA doit s’intĂ©grer aux ini- tiatives Ă©mergentes dans le cadre de l’Accord climat et du Pacte mondial pour l’environnement. Les acteurs des transitions numĂ©- rique et Ă©cologique doivent se fĂ©dĂ©rer. Pour cela, il est nĂ©cessaire de crĂ©er un lieu dĂ©diĂ© Ă  cette ren- contre entre la recherche en IA et la recherche portant sur l’optimisa- tion des ressources Ă©nergĂ©tiques. Il s’agira de porter des projets Ă  la croisĂ©e des sciences du vivant et de l’écologie, la recherche sur le climat et la mĂ©tĂ©o. Le consommateur doit ĂȘtre acteur dans le verdissement de ces tech- nologies. Notre mission propose ainsi la mise en place d’une plate- forme dĂ©diĂ©e Ă  la mesure de l’im- pact environnemental des solutions numĂ©riques intelligentes. Cette pla- teforme devra s’accompagner d’un outil simple permettant Ă  tout citoyen de prendre conscience de ces enjeux et de comparer l’impact environne- mental de ces diffĂ©rents produits et services, logiciels et matĂ©riels. Penser une IA plus verte Nous devons penser l’innovation de rupture dans le domaine du semi-conducteur, l’une des briques matĂ©rielles de l’IA. À ce titre les tech- nologies neuromorphiques4 peuvent permettre des Ă©conomies d’énergie considĂ©rables – et la France est dĂ©jĂ  trĂšs avancĂ©e dans le domaine. Par ailleurs, les pouvoirs publics doivent agir pour le verdissement de la chaĂźne de valeur et accompa- gner l’industrie du cloud europĂ©en dans le sens de sa transition Ă©co- logique. Certains acteurs sont dĂ©jĂ  exemplaires en matiĂšre d’optimisa- tion de l’utilisation de l’énergie. Il est important de diffuser ces bonnes pratiques Ă  l’ensemble du secteur. Un label pourrait ĂȘtre mis en place afin de valoriser les solutions les plus exemplaires. Enfin, le verdissement de la chaĂźne de valeur de l’IA passera nĂ©cessairement par des architectures matĂ©rielles et logicielles ouvertes (open hardware et open software) qui, en plus d’ĂȘtre un facteur de confiance, peuvent permettre des Ă©conomies d’énergie significatives et qui peuvent inspi- rer les initiatives en cours au niveau europĂ©en. LibĂ©rer la donnĂ©e Ă©cologique Le dĂ©veloppement d’une IA verte n’est possible qu’à condition de libĂ©rer la donnĂ©e Ă©cologique. Pour dĂ©velopper des solutions d’IA au service de la transition Ă©cologique, il est ainsi primordial de mettre Ă  la disposition de tous, chercheurs et entreprises europĂ©ennes, et rapide- ment, Ă  horizon 2019, les donnĂ©es publiques disponibles : mĂ©tĂ©oro- logiques, agricoles, de transports, d’énergie, de biodiversitĂ©, de climat, de dĂ©chets, cadastrales, de diagnostic de performance Ă©nergĂ©tique
 Pour les jeux de donnĂ©es les plus sensibles, l’ouverture pourrait se faire dans un pĂ©rimĂštre prĂ©cis, par exemple dans le cadre de dĂ©fis sectoriels. Il est Ă©ga- lement essentiel de libĂ©rer la donnĂ©e privĂ©e, lorsque cela est nĂ©cessaire. 4.  On appelle puces neuromorphiques les puces dont le fonctionnement s’inspire du cerveau humain.
  • 22. 21 Le rapport en 10 pages Partie 5 – Quelle Ă©thique de l’IA ? Les progrĂšs rĂ©cents de l’IA dans de nombreux domaines (voitures auto- nomes, reconnaissance d’images, assistants virtuels) et son influence croissante sur nos vies renforcent sa place dans le dĂ©bat public. Ce dĂ©bat a notamment pris la forme d’une large rĂ©flexion sur les enjeux Ă©thiques liĂ©s au dĂ©veloppement des technologies d’intelligence artificielle et plus lar- gement des algorithmes. Loin des considĂ©rations spĂ©culatives sur les menaces existentielles de l’IA pour l’humanitĂ©, les rĂ©flexions tendent Ă  se cristalliser autour des algorithmes du « quotidien », qui peuvent d’ores et dĂ©jĂ  avoir des consĂ©quences impor- tantes sur nos vies. Si nous souhaitons faire Ă©merger des technologies d’IA conformes Ă  nos valeurs et normes sociales, il faut agir dĂšs Ă  prĂ©sent en mobili- sant la communautĂ© scientifique, les pouvoirs publics, les industriels, les entrepreneurs et les organisations de la sociĂ©tĂ© civile. Notre mission a cherchĂ©, humblement, Ă  proposer quelques pistes permettant de poser les bases d’un cadre Ă©thique pour le dĂ©veloppement de l’IA et Ă  faire vivre ce dĂ©bat dans la sociĂ©tĂ©. Ouvrir les boĂźtes noires Une grande partie des considĂ©ra- tions Ă©thiques soulevĂ©es tiennent Ă  l’opacitĂ© de ces technologies : l’IA donne aujourd’hui des rĂ©sultats spectaculaires, pour des raisons que les chercheurs ont parfois du mal Ă  expliquer. C’est le fameux problĂšme de la boĂźte noire : des systĂšmes algo- rithmiques dont il est possible d’ob- server les donnĂ©es d’entrĂ©e (input), les donnĂ©es de sortie (output), mais dont on comprend mal le fonction- nement interne. Dans un contexte oĂč l’IA est susceptible de reproduire des biais et des discriminations, et Ă  mesure de son irruption dans nos vies sociales et Ă©conomiques, ĂȘtre en mesure « d’ouvrir les boĂźtes noires » tient de l’enjeu dĂ©mocratique. L’explicabilitĂ© des algorithmes d’ap- prentissage automatique est un sujet si pressant qu’il constitue aujourd’hui un champ de recherche spĂ©cifique, qui doit ĂȘtre soutenu par la puissance publique. Trois axes en particulier semblent mĂ©riter une attention par- ticuliĂšre : la production de modĂšles plus explicables bien sĂ»r, mais aussi la production d’interfaces utilisateurs plus intelligibles et la comprĂ©hen- sion des mĂ©canismes cognitifs Ă  l’Ɠuvre pour produire une explication satisfaisante. Au-delĂ  de la transparence, il est nĂ©cessaire d’accroĂźtre l’auditabilitĂ© des systĂšmes d’IA. Cela pourrait passer par la constitution d’un corps d’experts publics assermentĂ©s, en mesure de procĂ©der Ă  des audits d’algorithmes, des bases de donnĂ©es et de procĂ©der Ă  des tests par tout moyen requis. Ces experts pourraient ĂȘtre saisis Ă  l’occasion d’un conten- tieux judiciaire, dans le cadre d’une enquĂȘte diligentĂ©e par une autoritĂ© administrative indĂ©pendante ou suite Ă  une demande du DĂ©fenseur des droits. Penser l’éthique dĂšs la conception Les chercheurs, ingĂ©nieurs et entrepre- neurs qui contribuent Ă  la conception, au dĂ©veloppement et Ă  la commer- cialisation de systĂšmes d’IA sont amenĂ©s Ă  jouer un rĂŽle dĂ©cisif dans la sociĂ©tĂ© numĂ©rique de demain. Il est essentiel qu’ils agissent de maniĂšre responsable, en prenant en considĂ©- ration les impacts socio-Ă©conomiques de leurs activitĂ©s. Pour s’en assurer,
  • 23. 22 SynthĂšse il est nĂ©cessaire de les sensibiliser, dĂšs le dĂ©but de leur formation, aux enjeux Ă©thiques liĂ©s au dĂ©veloppe- ment des technologies numĂ©riques. Aujourd’hui cet enseignement est quasiment absent des cursus des Ă©coles d’ingĂ©nieurs ou des parcours informatiques des universitĂ©s, alors mĂȘme que le volume et la complexitĂ© des problĂ©matiques Ă©thiques auxquels ces futurs diplĂŽmĂ©s seront confrontĂ©s ne cessent de croĂźtre. Au-delĂ  de la formation des ingĂ©- nieurs, les considĂ©rations Ă©thiques doivent irriguer le dĂ©veloppement mĂȘme des algorithmes d’intelligence artificielle. Sur le modĂšle de l’étude d’impact sur les risques en matiĂšre de vie privĂ©e (privacy impact assess- ment), rendu obligatoire pour cer- tains traitements de donnĂ©es par le rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD), il pourrait ĂȘtre instituĂ© une Ă©tude d’impact sur les risques de discrimination (discrimi- nation impact assessment). L’objectif est simple : obliger les dĂ©veloppeurs d’IA Ă  se poser les bonnes questions, au bon moment. Plus gĂ©nĂ©ralement, l’utilisation crois- sante de l’IA dans certains domaines sensibles comme la police, la banque, l’assurance, la justice ou l’armĂ©e (avec la question des armes autonomes) appelle un vĂ©ritable dĂ©bat de sociĂ©tĂ© et une rĂ©flexion sur la question de la responsabilitĂ© humaine. Nous devons Ă©galement nous interroger sur la place de l’automatisation dans les dĂ©cisions humaines : existent-ils des domaines oĂč le jugement humain, aussi faillible soit-il, ne devrait pas Ă  ĂȘtre remplacĂ© par une machine ? CrĂ©er un comitĂ© d’éthique de l’IA Notre mission recommande la crĂ©a- tion d’un comitĂ© d’éthique des technologies numĂ©riques et de l’IA ouvert sur la sociĂ©tĂ©. Cet organe serait chargĂ© d’organiser le dĂ©bat public, de façon lisible, construite et encadrĂ©e par la loi. Il devra parvenir Ă  articuler des logiques de temps court, celui des enjeux Ă©conomiques et industriels, en bonne interaction avec les comitĂ©s sectoriels, tout en parvenant Ă  s’en extraire pour penser le temps long. Les avis de ce comitĂ©, Ă©laborĂ©s en toute indĂ©pendance, pourraient Ă©clairer les choix technologiques des chercheurs, des acteurs Ă©conomiques, industriels et de l’État. Ses recom- mandations pourront servir de rĂ©fĂ©- rence pour la rĂ©solution de dilemmes Ă©thiques (par exemple sur le vĂ©hicule autonome) et donc servir de standard pour les dĂ©veloppements en IA. Partie 6 – Pour une IA inclusive et diverse L’intelligence artificielle ne peut pas ĂȘtre une nouvelle machine Ă  exclure. C’est une exigence dĂ©mocratique dans un contexte oĂč ces technologies sont en passe de devenir une des clĂ©s du monde Ă  venir. Elle ouvre de for- midables opportunitĂ©s de crĂ©ation de valeur et de dĂ©veloppement de nos sociĂ©tĂ©s et des individus. Ces oppor- tunitĂ©s doivent bĂ©nĂ©ficier Ă  tous. MixitĂ© et diversité : agir pour l’égalitĂ© En dĂ©pit d’une fĂ©minisation lente, mais progressive des filiĂšres scien- tifiques et techniques, le numĂ©rique fait figure d’exception : la paritĂ© entre les hommes et les femmes est loin d’y ĂȘtre acquise. À mesure que le numĂ©- rique et, demain, l’intelligence artifi- cielle deviennent omniprĂ©sents dans nos vies, ce manque de diversitĂ© peut conduire les algorithmes Ă  reproduire
  • 24. 23 Le rapport en 10 pages des biais cognitifs – souvent incons- cients – dans la conception des pro- grammes, l’analyse des donnĂ©es et l’interprĂ©tation des rĂ©sultats. L’un des grands dĂ©fis de l’IA consiste donc Ă  parvenir Ă  une meilleure reprĂ©senta- tivitĂ© de nos sociĂ©tĂ©s. Si l’éducation Ă  l’égalitĂ© et au numĂ©- rique est une condition prĂ©alable et essentielle, la mixitĂ© pourrait ĂȘtre atteinte avec une politique incita- tive visant Ă  atteindre un seuil de 40 % d’étudiantes dans les filiĂšres du numĂ©rique (classes prĂ©paratoires et filiĂšres des grandes Ă©coles et des universitĂ©s) d’ici 2020. L’ensemble des actions en faveur de la diversitĂ© dans les entreprises du numĂ©rique pourraient par ailleurs ĂȘtre portĂ©es par une action natio- nale en faveur de la mixitĂ© et de la diversitĂ© dans la technologie avec l’alimentation, notamment, d’une base de donnĂ©es nationale permet- tant d’objectiver les inĂ©galitĂ©s entre les femmes et les hommes au travail et de fonds dĂ©diĂ©s Ă  soutenir la diver- sitĂ© dans l’IA. DĂ©velopper la mĂ©diation numĂ©rique et l’innovation sociale pour que l’IA bĂ©nĂ©ficie Ă  tous Face Ă  l’ampleur des transformations Ă  venir par l’IA, il est de notre res- ponsabilitĂ© collective de s’assurer que personne ne soit mis de cĂŽtĂ©. Pour que chacun puisse vĂ©ritablement bĂ©nĂ©ficier des avancĂ©es de l’IA, nos procĂ©dures d’accĂšs aux droits doivent Ă©voluer, et nos capacitĂ©s de mĂ©diation considĂ©rablement se renforcer. Notre mission propose donc de mettre en place un systĂšme automatisĂ© d’aide Ă  la gestion des dĂ©marches administra- tives qui vise Ă  amĂ©liorer la connais- sance pour le grand public des rĂšgles administratives et de leur application Ă  une situation personnelle. En com- plĂ©ment, de nouvelles capacitĂ©s de mĂ©diation doivent ĂȘtre dĂ©ployĂ©es pour accompagner les des personnes qui en ont besoin, en lien avec les rĂ©seaux du prendre soin prĂ©sents sur le territoire. Enfin, il est important que la puissance publique soutienne le dĂ©veloppement d’initiatives basĂ©es sur l’IA dans les champs sociaux. À l’heure actuelle, les capacitĂ©s d’innovation par l’IA restent trĂšs concentrĂ©es au sein d’un petit nombre d’entreprises. À l’excep- tion de la santĂ©, les champs sociaux reçoivent une part minoritaire des investissements privĂ©s. Cette struc- turation de l’écosystĂšme d’innova- tion en IA a des consĂ©quences sur la vitesse des progrĂšs rĂ©alisĂ©s dans les champs sociaux. Afin de redistri- buer ces capacitĂ©s d’innovation, la puissance publique pourrait lancer des programmes spĂ©cifiques pour accompagner l’innovation d’IA en matiĂšre sociale, et outiller les acteurs sociaux afin qu’ils puissent bĂ©nĂ©ficier des avancĂ©es liĂ©es Ă  l’IA.
  • 25. Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e
  • 26. 25 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e La course Ă  l’intelligence artificielle s’est intensifiĂ©e sur la scĂšne mondiale au cours des derniĂšres annĂ©es. En juillet 2017, la Chine a dĂ©voilĂ© sa feuille de route1 pour crĂ©er une industrie d’une valeur de 150 milliards de dollars pour son Ă©conomie d’ici 2030. Une façon de rĂ©pondre Ă  son principal rival, les États-Unis, qui investissent massivement dans l’IA depuis plusieurs annĂ©es2. Face Ă  ce duopole, quel espace pour la France et l’Europe ? Celles-ci disposent d’atouts considĂ©rables pour peser sur la scĂšne mondiale. S’agissant de la France, elle peut notamment s’appuyer sur l’excellence de sa recherche et de sa formation, un vivier de startups spĂ©cialisĂ©es, des bases de donnĂ©es trĂšs importantes et un tissu industriel d’envergure mondiale. L’Europe peut quant Ă  elle mettre en avant un marchĂ© de prĂšs de 500 millions de consommateurs, une recherche de pointe, des leaders Ă©conomiques mondiaux et une puissance financiĂšre, qui mĂȘme si elle est naturellement fragmentĂ©e, n’a rien Ă  envier aux gĂ©ants de la discipline. Elle est Ă©galement organisĂ©e autour d’un systĂšme de valeurs communes et d’un cadre juridique en voie d’harmonisation. De ce point de vue, c’est l’échelle pertinente pour espĂ©rer rivaliser avec les champions actuels. Il est important de rappeler que les mastodontes actuels de l’intel- ligence artificielle – États-Unis et Chine – et les pays Ă©mergents de la discipline – IsraĂ«l, Canada et Royaume-Uni notamment – se dĂ©veloppent ou se sont dĂ©veloppĂ©s sur des modĂšles parfois radicalement diffĂ©rents. Ce n’est pas forcĂ©ment grĂące Ă  un « Google europĂ©en » que la France et l’Europe pourront se faire une place sur la scĂšne mondiale. Dans cette optique, notre mission propose une stratĂ©gie qui repose sur trois piliers. D’abord, une politique offensive visant Ă  favoriser l’accĂšs aux donnĂ©es, la circulation de celles-ci et leur partage. Les donnĂ©es sont la matiĂšre premiĂšre de l’IA contemporaine et d’elles dĂ©pend l’émergence de nombreux usages et applications. Il est tout d’abord urgent d’accĂ©lĂ©rer et d’étoffer la politique d’ouverture des donnĂ©es publiques (open data), en particulier s’agissant des donnĂ©es critiques pour les applications en IA. La dĂ©marche d’open data fait l’objet d’une politique volontariste depuis plusieurs annĂ©es, notamment sous l’impulsion de la loi pour une RĂ©publique numĂ©rique3 : cet effort, important, doit ĂȘtre soutenu. La puissance publique doit par ailleurs amorcer de nouveaux modes de production, de collaboration et de gouvernance sur les donnĂ©es, par la constitution de « communs de la donnĂ©e »4. Il lui revient ainsi d’inciter les acteurs Ă©conomiques au partage et Ă  la mutualisation de donnĂ©es voire, dans certains cas, d’en imposer l’ouverture. La politique de la donnĂ©e doit enfin s’articuler avec un objectif de souverainetĂ© et capitaliser sur les standards de protection europĂ©ens pour faire de la France et l’Europe les championnes d’une IA Ă©thique et soutenable. L’Union europĂ©enne s’est engagĂ©e depuis 1. Document disponible Ă  l’adresse suivante : http://www. miit.gov.cn/n1146295/ n1652858/n1652930/ n3757016/c5960820/ content.html 2.  Pour donner un ordre de grandeur, les gĂ©ants amĂ©ricains du numĂ©rique reprĂ©sentent 2 200 milliards de dollars de valorisation quand l’ensemble du CAC40 ne pĂšse que 1 500 milliards dollars
 3.  Loi 2016-1321 du 7 octobre 2016 pour une RĂ©publique numĂ©rique. 4.  Les communs, ou biens communs, dĂ©signent une ressource dont l’usage et la gouvernance sont communs Ă  tous. D’abord, une politique offensive visant Ă  favoriser l’accĂšs aux donnĂ©es, la circulation de celles-ci et leur partage. Les donnĂ©es sont la matiĂšre premiĂšre de l’IA contemporaine et d’elles dĂ©pend l’émergence de nombreux usages et applications
  • 27. 26 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e quelques annĂ©es dans une politique ambitieuse de consolidation du marchĂ© europĂ©en (Digital Single Market, dans laquelle les propositions suivantes ont vocation Ă  s’inscrire. Il s’agit ensuite de concentrer les efforts de la politique industrielle dans quatre domaines prioritaires pour le dĂ©veloppement de l’IA : santĂ©, transports- mobilitĂ©s, environnement, dĂ©fense-sĂ©curitĂ©. Les mesures proposĂ©es visent notamment Ă  articuler le soutien Ă  l’innovation autour de grands enjeux de notre Ă©poque, Ă  fĂ©dĂ©rer les diffĂ©rents Ă©cosystĂšmes autour de plateformes de mutualisation sectorielles et Ă  mettre en place des espaces d’expĂ©rimentations. Le rĂŽle de l’État consiste ici Ă  poser les briques Ă©lĂ©men- taires de l’innovation, Ă  donner les moyens, les ressources aux acteurs pour innover, sans pour autant piloter ce mouvement. Enfin, il est question d’amorcer une mutation profonde de l’État, qui doit ĂȘtre un moteur de ces transformations. La puissance publique doit se donner les moyens matĂ©riels et humains d’intĂ©grer l’IA Ă  la conduite de ses politiques publiques, autant dans une perspective de modernisation que d’exemplaritĂ©. Cela suppose d’avancer sur plusieurs plans, qui vont de la commande publique Ă  la politique de l’État en matiĂšre de ressources humaines et de compĂ©tences ; mais aussi de son approche mĂȘme de l’innovation. Cette partie est la plus longue. Non pas qu’elle soit plus importante que les autres – tous les axes doivent ĂȘtre traitĂ©s avec la mĂȘme attention ! – mais parce que les recommandations qu’elle contient, notamment sur la donnĂ©e, ont vocation Ă  irriguer les autres. Renforcer l’écosystĂšme europĂ©en de la donnĂ©e Les techniques d’apprentissage automatique (machine learning) marquent une rupture avec l’algorithmie classique. Notamment en ce qu’elles marquent le passage progressif d’une logique de programmation Ă  une logique d’appren- tissage. C’est ce qui a conduit le magazine Wired Ă  prophĂ©tiser en juin 2016 « la fin du code » : Ă  l’avenir, nous ne programmerons plus les ordinateurs, nous les entraĂźnerons. On peut comparer le fonctionnement d’un algorithme de machine learning au dĂ©veloppement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la maniĂšre dont les individus interagissent, en reproduisant les rĂšgles sans pour autant qu’on lui expose explicitement. SchĂ©matiquement, la mĂȘme chose se produit en matiĂšre d’apprentissage automatique : les algorithmes sont dĂ©sormais entraĂźnĂ©s Ă  apprendre seuls sans programmation explicite. PlutĂŽt que de programmer une voiture pour qu’elle se conduise toute seule, les constructeurs vont par exemple lui proposer une quantitĂ© innombrable de scĂ©narios de conduite pour lui permettre de rĂ©agir Ă  n’importe quelle situation, parmi les plus improbables5. Cette base d’apprentissage, c’est prĂ©cisĂ©ment la donnĂ©e. Soyons clairs : l’apprentissage par donnĂ©es n’est pas la seule mĂ©thode menant Ă  l’intelligence artificielle (loin s’en faut) mais c’est aujourd’hui la mĂ©thode la plus utilisĂ©e, celle qui se dĂ©veloppe le plus vite et celle qui fait l’objet de la compĂ©tition internationale la plus vive. 5.  « Sur notre terrain de test en Californie, des personnes se jettent Ă  plat ventre quand la voiture arrive et font l’escargot » Chris Urmson, directeur de la division Google Car (https://www. lesechos.fr/ 14/03/2016/lesechos. fr/021765692246_ comment-la-google- car-utilise-le---deep- learning--.htm) Le point de dĂ©part de toute stratĂ©gie en intelligence artificielle tient ainsi en la constitution de larges corpus de donnĂ©es
  • 28. 27 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e Le point de dĂ©part de nombreuses de stratĂ©gies en intelligence artificielle tient ainsi en la constitution de larges corpus de donnĂ©es. De nombreux usages et applications dĂ©pendent directement de la disponibilitĂ© des donnĂ©es : c’est par exemple la raison pour laquelle le traitement automatique de la langue française est moins dĂ©veloppĂ© que le traitement de la langue anglaise. C’est Ă©galement pour cette raison que les traductions du français Ă  l’anglais fonctionnent beaucoup mieux que les traductions du français vers le thaĂŻ, les corpus de textes franco-thaĂŻlandais Ă©tant beaucoup plus rares. Si la donnĂ©e brute est nĂ©cessaire, elle dĂ©cuple sa valeur lorsqu’elle est struc- turĂ©e et annotĂ©e6 de sorte qu’elle vĂ©hicule des informations valorisables par les techniques d’IA. L’enrichissement et l’annotation des jeux de donnĂ©es sont particuliĂšrement importants pour le machine learning (apprentissage automatique), mais il s’agit lĂ  d’une opĂ©ration pĂ©nible, trĂšs consommatrice en temps, en ressources humaines et financiĂšres. C’est pourquoi dans de nombreux domaines, les moyens du crowdsourcing (externalisation distribuĂ©e Ă  grande Ă©chelle) sont mis en Ɠuvre pour collecter et surtout annoter ces informations (notamment au travers de plateformes de microtĂąches, comme Amazon Mechanical Turk). Les applications gĂ©nĂ©riques de l’IA s’appuient gĂ©nĂ©ralement sur des corpus de domaine public (par exemple, les textes multilingues issus des organisations internationales sont utilisĂ©s pour amĂ©liorer les outils de traduction automatique), mais pour ce qui est des domaines industriels, le travail de collecte et d’annotation, pour fastidieux qu’il soit, est un enjeu stratĂ©gique. La donnĂ©e constitue un avantage compĂ©titif majeur dans la concurrence mondiale pour l’IA et de ce point de vue, il est indĂ©niable que les gĂ©ants du numĂ©rique partent avec un avantage considĂ©rable. Pour autant le volume des donnĂ©es ne fait pas tout : des jeux de donnĂ©es moins importants (small data) peuvent permettre d’obtenir des performances importantes s’ils sont couplĂ©s Ă  des modĂšles pertinents. L’accĂšs Ă  la donnĂ©e reste nĂ©anmoins une condition essentielle de l’émergence d’une industrie française et europĂ©enne de l’IA. Dans un monde de plus en plus automatisĂ©, c’est de cet accĂšs que dĂ©pendent la vitalitĂ© et la perfor- mance de notre recherche et de l’action publique, mais aussi notre capacitĂ© collective Ă  dĂ©terminer la trajectoire de l’intelligence artificielle, Ă  dessiner les contours de notre sociĂ©tĂ© automatisĂ©e. Or sur l’IA, la situation actuelle est caractĂ©risĂ©e par une asymĂ©trie critique entre les acteurs de premier plan – les GAFAM7 (Google, Amazon, Facebook, Apple et Microsoft, auxquels il faut rajouter IBM pour l’IA) d’un cĂŽtĂ©, les BATX (Baidu, Alibaba, Tencent et Xiaomi) – qui ont fait de la collecte et de la valorisation des donnĂ©es la raison de leur prĂ©Ă©minence ; et les autres – entreprises et administrations – dont la survie Ă  terme est menacĂ©e. Cette premiĂšre asymĂ©trie en emporte une seconde, critique, entre l’Europe et les États-Unis. Pour s’en convaincre, il suffit de s’intĂ©resser aux flux de donnĂ©es entre ces grands espaces gĂ©ographiques : rien qu’en France, prĂšs de 80 % des visites vers les 25 sites les plus populaires sur un mois sont captĂ©s par les grandes plateformes amĂ©ricaines8. De ce point de vue, l’Europe fait figure d’exception : tant la Russie que la Chine, pour ne citer qu’elles, parviennent Ă  capter l’essentiel des donnĂ©es de leurs utilisateurs. 6. L’annotation fait rĂ©fĂ©rence Ă  l’adjonction d’une mention Ă  une donnĂ©e qui en qualifie le contenu. 7.  L’acronyme varie selon qu’on y inclut Microsoft et IBM, mais il continue de dĂ©signer un nombre trĂšs restreint d’entreprises. 8.  Étude de la Chaire Castex de CyberstratĂ©gie : http://www. cyberstrategie. org/?q=fr/ flux-donnees
  • 29. 28 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e Cela rĂ©sulte en grande partie de la politique volontariste de ces gouverne- ments de favoriser l’émergence de leurs propres champions du numĂ©rique9. Une politique de la donnĂ©e adaptĂ©e aux besoins de l’intelligence artifi- cielle doit donc s’articuler avec un objectif de souverainetĂ©, d’autonomie stratĂ©gique pour la France et l’Union europĂ©enne. Disons-le d’emblĂ©e : les Ă©quilibres sont fragiles et cet objectif demande de l’ambition. C’est pourtant la condition d’un dĂ©veloppement de l’intelligence artificielle qui ne conduise pas Ă  faire de la France et de l’Europe une « colonie numĂ©rique » des gĂ©ants chinois ou amĂ©ricains. De la mĂȘme façon, le dĂ©veloppement de l’intelligence artificielle peut s’opĂ©rer sans renier nos traditions juridiques et politiques de protection forte des individus. C’est d’ailleurs l’une des positions fortes de notre mission que de considĂ©rer ces standards Ă©levĂ©s comme des opportu- nitĂ©s stratĂ©giques, voire comme des Ă©lĂ©ments diffĂ©renciants, dans la course mondiale Ă  l’intelligence artificielle. Le dĂ©bat actuel sur l’intelligence artificielle coĂŻncide avec l’entrĂ©e en vigueur prochaine du rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD). SaluĂ© des uns, honni des autres – dans les deux cas pour une multitude de raisons –, le RGPD n’en reste pas moins l’une des lĂ©gislations europĂ©ennes les plus ambitieuses de ces derniĂšres dĂ©cennies. C’est Ă©galement l’un des rares exemples oĂč le Parlement europĂ©en a pu jouer un rĂŽle de premier plan, en particulier grĂące Ă  l’impulsion de Jan Philipp Albrecht, eurodĂ©putĂ© allemand. À bien des Ă©gards, ce texte constitue une petite rĂ©volution juridique. Non pas tant en raison de son contenu (en France et ailleurs, les algorithmes et traitements de donnĂ©es sont rĂ©gulĂ©s depuis une quarantaine d’annĂ©es) que pour le signal adressĂ© aux acteurs publics et privĂ©s, ainsi qu’au reste du monde : l’Europe a fait le choix d’un standard Ă©levĂ© de protection des donnĂ©es, auquel devront se plier toutes les entreprises souhaitant traiter les donnĂ©es des EuropĂ©ens (principe d’extraterritorialitĂ© du RGPD) au risque de s’exposer Ă  des amendes records (2 Ă  4 % du chiffre d’affaires mondial). Le RGPD est en outre un instrument puissant de consolidation de l’écosys- tĂšme numĂ©rique europĂ©en. Si ces dispositions avaient existĂ© il y a 20 ans, il est probable que Facebook, Amazon ou Google n’auraient pas pĂ©nĂ©trĂ© le marchĂ© europĂ©en aussi facilement et que la concurrence aurait pu dĂ©marrer sur des bases plus saines. Le dĂ©lai nĂ©cessaire pour qu’ils s’adaptent Ă  la rĂ©gle- mentation aurait pu permettre aux entreprises europĂ©ennes de dĂ©velopper des services compĂ©titifs. L’intelligence artificielle dans le contexte du RGPD Le RGPD vient rĂ©guler l’utilisation des donnĂ©es Ă  caractĂšre personnel, c’est- Ă -dire toute information relative Ă  une personne physique identifiĂ©e ou qui peut ĂȘtre identifiĂ©e, directement ou indirectement. Naturellement, le RGPD intĂ©resse l’IA Ă  plusieurs titres : D’abord, car il vient encadrer les conditions de collecte et de conservation des donnĂ©es Ă  caractĂšre personnel (et uniquement celles-ci), qui peuvent ĂȘtre utilisĂ©es par l’intelligence artificielle ; ainsi que l’exercice de leurs droits par les personnes (droit Ă  l’information, droit d’opposition, droit d’accĂšs, droit de rectification) ; 9.  Mise en Ɠuvre d’une politique commerciale agressive, utilisation systĂ©matique du levier de la commande publique, investissements et soutien direct continus

  • 30. 29 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e Le RGPD vient par ailleurs affirmer un droit Ă  la portabilitĂ© des individus sur leurs donnĂ©es : son article 20 prĂ©voit que « les personnes concernĂ©es ont le droit de recevoir les donnĂ©es Ă  caractĂšre personnel les concernant qu’elles ont fournies Ă  un responsable du traitement ». Le RGPD prĂ©voit Ă©galement le droit pour les personnes d’obtenir, auprĂšs de celui qui en est responsable, des informations sur la logique de fonction- nement de l’algorithme (article 15.1 du RGPD). ; Ensuite, car il interdit qu’une machine puisse prendre seule, c’est-Ă -dire sans supervision humaine, des dĂ©cisions emportant des consĂ©quences graves pour les personnes, en matiĂšre d’octroi de crĂ©dit, par exemple (article 22 du RGPD). Cette disposition, historiquement inspirĂ©e du droit français, insiste sur la nĂ©cessitĂ© de garder une responsabilitĂ© humaine ; Enfin, le RGPD est d’application extraterritoriale, ce qui signifie qu’il peut s’appliquer Ă  toute entreprise dĂšs lors qu’un rĂ©sident europĂ©en est direc- tement visĂ© par un traitement de donnĂ©es. Inciter les acteurs Ă©conomiques Ă  la mutualisation de donnĂ©es En matiĂšre numĂ©rique, l’innovation repose bien souvent sur des logiques d’ouverture et l’IA ne fait pas exception. Par nature, la donnĂ©e elle-mĂȘme est propice Ă  l’ouverture, au partage du fait de son caractĂšre non rival et son faible coĂ»t de production. Les donnĂ©es en tant que telles ont souvent peu de valeur, mais en gagnent quand elles sont contextualisĂ©es, croisĂ©es avec d’autres. Il est frĂ©quent que celui qui collecte la donnĂ©e ne soit pas le seul Ă  pouvoir en tirer un bĂ©nĂ©fice, ou le mieux placĂ© pour l’exploiter. D’oĂč l’intĂ©rĂȘt de favoriser leur circulation pour maximiser l’utilitĂ© Ă©conomique et sociale des donnĂ©es. Les gĂ©ants du Net l’ont bien compris : outre leurs remarquables sens et instinct pour la communication, qu’est-ce qui constitue la force de ces grandes plateformes, sinon leur capacitĂ© Ă  capitaliser sur l’ouverture pour constituer autour d’elles de vĂ©ritables Ă©cosystĂšmes dont elles occupent le centre (voir encadrĂ©) ? L’APIsation de l’économie Si les donnĂ©es sont le carburant de l’économie numĂ©rique, les API (appli- cation programming interface) en sont le moteur. Les API correspondent Ă  des interfaces mises Ă  disposition par les plateformes pour permettre Ă  des acteurs tiers d’innover Ă  partir de leurs ressources. C’est une API de Facebook qui lui a permis de rĂ©pandre le bouton like sur le web et de dominer le marchĂ© de la recommandation. De la mĂȘme façon, les milliers de dĂ©veloppeurs qui utilisent les API de Netflix sont Ă  l’origine de son succĂšs. Selon son dirigeant, avoir ces dĂ©veloppeurs en interne lui aurait coĂ»tĂ© prĂšs d’un milliard de dollars par an. La domination des plateformes s’explique largement par cette capacitĂ© Ă  agrĂ©ger des Ă©cosystĂšmes autour d’elles et Ă  en occuper le centre. Le cƓur de ces Ă©cosystĂšmes, ce sont prĂ©cisĂ©ment les API.  C’est en partant de ce constat qu’un nombre croissant de rĂ©flexions tendent Ă  qualifier les donnĂ©es de nouvelles infrastructures. C’est le cas, par exemple, d’un rapport de l’OCDE de 2015 portant sur l’innovation et le big data10. Cette 10.  OCDE, Data-Driven Innovation : big data for Growth and Well-Being (2015).
  • 31. 30 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e idĂ©e justifie selon l’organisation de mener des politiques d’ouverture des donnĂ©es publiques plus ambitieuses, de promouvoir le partage de donnĂ©es entre acteurs, mais aussi de rĂ©viser le cadre des interventions lĂ©gislatives dans les situations de monopoles. Pour beaucoup d’acteurs Ă©conomiques nĂ©anmoins, trop souvent la fermeture reste la rĂšgle et l’ouverture, l’exception (voir encadrĂ©). Pour beaucoup d’acteurs privĂ©s, les chiffres montrent que l’ouverture reste l’exception Une Ă©tude de 2017 financĂ©e par l’Union europĂ©enne Ă©tablissait qu’environ 90 % des entreprises interrogĂ©es affirmaient ne pas partager leurs donnĂ©es avec d’autres entreprises (Hofheinz Osimo, 2017). MĂȘme Ă  l’intĂ©rieur des organisations, les silos de donnĂ©es constituent des barriĂšres Ă  la rĂ©utilisation des donnĂ©es d’un service Ă  l’autre. DĂšs 2012, un sondage menĂ© par l’Eco- nomist Intelligence Unit Ă©tait parvenu Ă  une conclusion similaire : 60 % des entreprises affirmaient que les silos organisationnels constituaient le frein principal Ă  l’utilisation des donnĂ©es pour le big data. Il n’en demeure pas moins que ce mouvement d’ouverture constitue une lame de fond de l’économie numĂ©rique. Dans le secteur privĂ©, de nombreuses initiatives spontanĂ©es de mise en circulation des donnĂ©es voient le jour, Ă  des degrĂ©s divers d’ouverture. Cela peut ĂȘtre des Ă©changes entre entreprises dans le cadre de partenariats bilatĂ©raux, par exemple entre donneurs d’ordres et sous-traitants au sein d’une mĂȘme verticale. Il peut s’agir d’ouvertures ponctuelles de jeux de donnĂ©es par une entreprise, souvent dans le cadre d’une dĂ©marche visant Ă  stimuler la crĂ©ativitĂ© autour des usages possibles sur ses donnĂ©es (par exemple des hackathons). Comme on l’a vu, une entreprise peut encore choisir d’ouvrir certains jeux de donnĂ©es au travers d’une API, de maniĂšre gratuite ou payante, afin de gĂ©nĂ©rer de nouveaux usages et, in fine, de la valeur pour cette entreprise. L’ouverture peut Ă©galement servir Ă  des projets d’enseignement ou de formation (cela se fait notamment au Canada, trĂšs peu en France). Enfin, certaines plateformes mettent en Ɠuvre un principe d’ouverture maximale de leurs donnĂ©es, dans une logique de crowdsourcing (ex. : OpenStreetMap). La sociĂ©tĂ© Uber s’est rĂ©cemment lancĂ©e dans une vaste entreprise d’ouver- ture et de valorisation de ses donnĂ©es auprĂšs des municipalitĂ©s. Comme Waze avant lui, le gĂ©ant amĂ©ri- cain, dont les chauffeurs VTC parcourent prĂšs d’un milliard de kilomĂštres dans le monde chaque mois, est assis sur l’une des bases de donnĂ©es les plus importantes et prĂ©cise sur le trafic urbain mondial. Bien davantage que nombre d’agences spĂ©cialisĂ©es ou de services municipaux. Si Uber conservait jusqu’ici la main sur ses donnĂ©es pour optimiser son service, aujourd’hui, elle en livre une partie en open data Ă  travers Uber Movement, une initiative qui concerne depuis octobre 2017 la ville de Paris : ces donnĂ©es permettent de dresser un Ă©tat des lieux trĂšs fin et dynamique de la fluiditĂ© de la circulation en Île-de-France. De nouvelles La puissance publique doit donc porter un autre modĂšle de production et de gouvernance des donnĂ©es, qui met l’accent sur la rĂ©ciprocitĂ©, la collaboration et le partage
  • 32. 31 Renforcer l’écosystĂšme europĂ©en de la donnĂ©e donnĂ©es pourraient Ă©galement faire l’objet d’une ouverture volontaire : par exemple la vitesse enregistrĂ©e sur les grands axes de circulation ou encore la localisation de croisements oĂč les chauffeurs sont amenĂ©s Ă  freiner brusquement. Dans le mĂȘme souci de sĂ©duire les collectivitĂ©s territoriales, la plateforme de location de logements entre particuliers Airbnb a Ă©galement lancĂ© un portail DataVille pour donner accĂšs Ă  certaines statistiques sur l’utilisation de son service. Si ces initiatives sont Ă©videmment stratĂ©giques pour les entreprises considĂ©rĂ©es – en termes d’image, bien sĂ»r, mais aussi car elles conservent la main sur les donnĂ©es mises Ă  disposition –, elles n’en sont pas moins rĂ©vĂ©latrices du mouvement Ă  l’Ɠuvre. L’ouverture et le partage de donnĂ©es provenant du secteur privĂ© peuvent ainsi contribuer Ă  alimenter la masse de donnĂ©es disponibles et ainsi contribuer au dĂ©veloppement de l’intelligence artificielle. Le premier acte de la « bataille de l’IA » portait sur les donnĂ©es Ă  caractĂšre personnel. Cette bataille a Ă©tĂ© remportĂ©e par les grandes plateformes. Le second acte va porter sur les donnĂ©es sectorielles : c’est sur celles-ci que la France et l’Europe peuvent se diffĂ©rencier. L’objectif est d’abord stratĂ©gique pour les acteurs français et europĂ©ens, car c’est un moyen pour les entreprises d’un mĂȘme secteur de rivaliser avec les gĂ©ants mondiaux de la discipline. Le partage de donnĂ©es doit Ă©galement ĂȘtre encouragĂ© dans un souci, pour certains cas, de sĂ©curitĂ© des solutions d’intelligence artificielle. Dans l’exemple de la voiture autonome, chaque constructeur dĂ©veloppe aujourd’hui de son cĂŽtĂ© ses propres modĂšles d’apprentissage. Pour assurer la fiabilitĂ© de leurs prototypes et atteindre un niveau de risque acceptable, ces derniers sont tenus d’envisager un maximum de possibilitĂ©s : il faut par exemple collecter des donnĂ©es de roulage toute l’annĂ©e pour se confronter aux variations des conditions climatiques. Par ailleurs, les rĂ©fĂ©rentiels de scĂ©narios ne sont valables que pour une rĂ©gion donnĂ©e : les routes et les comportements de conduite diffĂšrent selon que l’on se trouve Ă  Paris, Ă  Mumbai, Ă  New York ou Ă  Hong Kong. L’ensemble de ces variables rend impossible l’anticipation de tous les scĂ©narios par un seul constructeur, fut-il le plus avancĂ©. Ainsi si les gĂ©ants amĂ©ricains ont pu prendre une avance relative en la matiĂšre, ils sont encore loin d’un niveau de fiabilitĂ© acceptable11. Partager ses donnĂ©es, ses rĂ©fĂ©rentiels de scĂ©narios de conduite autonome (au moins pour partie) revient donc Ă  s’assurer qu’en cas de litige, le plan de validation du vĂ©hicule concernĂ© Ă©tait Ă  l’état de l’art et non propre Ă  un constructeur. La puissance publique doit donc porter un autre modĂšle de production et de gouvernance des donnĂ©es, qui met l’accent sur la rĂ©ciprocitĂ©, la collabo- ration et le partage pour favoriser le partage de donnĂ©es entre les acteurs d’un mĂȘme secteur. Plusieurs pays conduisent ainsi des politiques incitatives au partage de donnĂ©es privĂ©es. C’est le cas au Royaume-Uni, oĂč l’Open Data Institute12 promeut depuis plusieurs annĂ©es cette ouverture volontaire des donnĂ©es privĂ©es afin de favoriser le dĂ©veloppement Ă©conomique : l’ODI met par exemple en avant le cas de l’entreprise Thomson Reuters, qui dĂ©veloppe une plateforme collaborative pour mettre Ă  disposition ses donnĂ©es, accessibles et rĂ©utilisables par tous. Cette approche vise Ă  amĂ©liorer sa relation client, mais aussi la qualitĂ© de ses donnĂ©es, de ses produits et services13. Aux États-Unis, le Bureau of Transportation Statistics (BTS) opĂšre un programme sur la mise en commun de certains jeux de 11.  Le consensus de fiabilitĂ© pour la voiture autonome est fixĂ© Ă  10-8/heure, c’est-Ă -dire que la probabilitĂ© d’occurrence d’une dĂ©faillance grave doit ĂȘtre infĂ©rieure Ă  0,00000001 pour une heure donnĂ©e. Ce taux est 10 fois infĂ©rieur Ă  la moyenne europĂ©enne de rĂ©gulation des produits dĂ©fectueux. 12.  CrĂ©Ă© en 2012 avec le soutien du Conseil de la stratĂ©gie technologique du gouvernement (Technology Strategy Board) qui le finance Ă  hauteur de 10 millions de livres sur cinq ans. 13.  https://theodi. org/open-data- means-business
  • 33. 32 Partie 1 – Une politique Ă©conomique articulĂ©e autour de la donnĂ©e donnĂ©es des compagnies aĂ©riennes sur la frĂ©quentation des lignes de vol domestiques. Les donnĂ©es ainsi rĂ©cupĂ©rĂ©es sont agrĂ©gĂ©es puis traitĂ©es statistiquement, avant d’ĂȘtre mises Ă  disposition par le BTS, contribuant Ă  la propre stratĂ©gie des transporteurs. L’incitation de la puissance publique au partage et Ă  la mise en commun peut s’appuyer sur des initiatives privĂ©es ou Ă  dĂ©faut, favoriser leur Ă©mergence. Dans de nombreux secteurs, ces initiatives existent : elles mĂ©riteraient d’ĂȘtre soutenues et valorisĂ©es (voir encadrĂ©). S’agissant des secteurs que la mission estime prioritaires pour le dĂ©veloppe- ment de l’IA (voir les propositions plus loin), ces dispositifs de mutualisation de donnĂ©es pourraient ĂȘtre intĂ©grĂ©s aux plateformes sectorielles dont la crĂ©ation est recommandĂ©e. En matiĂšre de partage de donnĂ©es, de nombreuses initiatives mĂ©riteraient d’ĂȘtre valorisĂ©es FondĂ©e en 2015, la startup française Dawex ambitionne de lancer une bourse de la donnĂ©e en centralisant les Ă©changes entre acteurs Ă©conomiques. Contrairement aux courtiers en donnĂ©es (data brokers) qui achĂštent, mettent en forme et revendent les donnĂ©es, Dawex accompagne les entreprises dans la contractualisation de leurs Ă©changes en donnĂ©es (contrat de licence, durĂ©e, territoire, usages, capacitĂ© Ă  sous-licencier, etc.) et s’assure qu’ils respectent les rĂ©glementations en vigueur (notamment le RGPD) en fonction du territoire de production et d’exploitation des donnĂ©es. La startup permet Ă©galement aux acteurs Ă©conomiques de partager des donnĂ©es avec des entreprises partenaires, de façon privĂ©e. L’entreprise est laurĂ©ate du Concours d’innovation numĂ©rique et a intĂ©grĂ© le Hub Bpifrance, aprĂšs notamment un financement par la Caisse des DĂ©pĂŽts. Il faut Ă©galement mentionner l’apparition de nouveaux services se proposant d’agrĂ©ger les donnĂ©es publiques et privĂ©es : en matiĂšre de transports et de mobilitĂ©, par exemple, l’entreprise française Transdev a rĂ©cemment annoncĂ© le lancement d’une plateforme qui ambitionne de devenir le « WikipĂ©dia » mondial de la donnĂ©e ouverte : Catalogue (www.catalogue.global). L’entreprise s’emploie ainsi Ă  collecter et rassembler ces donnĂ©es, Ă  les nettoyer et les mettre dans un format ouvert. L’objectif est d’abaisser les barriĂšres Ă  la crĂ©ation de services innovants – notamment pour l’IA – en matiĂšre de transports et de mobilitĂ©. En matiĂšre de transports toujours, La Fabrique des MobilitĂ©s semble ĂȘtre l’une des initiatives les plus abouties. Il s’agit du premier accĂ©lĂ©rateur europĂ©en dĂ©diĂ© Ă  l’écosystĂšme de la mobilitĂ©. La Fabrique met en relation tous les acteurs, les projets, capitalise les retours d’expĂ©riences et les erreurs, pour faire Ă©merger une culture commune de l’innovation. Elle s’adresse Ă  des startups, des projets industriels et des territoires qui dĂ©veloppent de nouvelles solutions de mobilitĂ©s. La Fabrique leur donne un accĂšs privilĂ©giĂ© Ă  des ressources en donnĂ©es tout en veillant Ă  garantir un principe de rĂ©ciprocité : pour rĂ©cupĂ©rer les donnĂ©es mises en commun, il faut contribuer Ă  l’augmen- tation de ce commun. Cette logique vertueuse conduit au dĂ©veloppement