1. E
euratech trends
Novembre 2016 Édition 1 Numéro 9
Si l’expression « Intelligence
Artificielle », et toutes les disci-
plines scientifiques qui en dé-
coulent, naissent officiellement
en 1956, lors de la conférence
de Dartmouth qui réunissait
notamment John McCarthy et
Claude Shannon, l’idée même
de créer un être doté d’une
certaine intelligence remonte
pratiquement à l’histoire de
l’humanité. Les robots dorés
d’Héphaï�stos, le Golem, Fran-
kenstein et tant d’autres ont
déchainé passion et imagina-
tion au cours du temps sur les
potentiels de ces êtres artifi-
ciels mais aussi leurs dangers.
Quoi qu’il en soit, l’Intelli-
gence Artificielle telle qu’on la
connaî�t aujourd’hui démarre
à la fin des années 30 avec les
travaux de McCulloch et Pitts
sur les neurones artificiels, se
poursuit dans les années 40
avecledéveloppementdelacy-
bernétique par Nobert Wiener
et en 1950 par le célèbre test
de Turing pour valider l’intel-
ligence d’une machine et donc
la conférence de Dartmouth
qui a fait naî�tre une véritable
discipline académique. Der-
rière toutes ces avancées, une
nouvelle approche émerge, le
« connexionnisme » avec pour
objectif de reproduire le fonc-
tionnement interne du cer-
veau humain. Dans ces années,
apparaî�t ainsi le perceptron et
la promesse d’un système de
réseau neuronal qui permet de
reproduire la perception des
images et des mots.
AI Winters
Contrairement à ce
qu’affirmait John McCarthy
sur l’aboutissement d’un sys-
tème neuronal en une dizaine
d’années, les progrès technolo-
giques ne se développaient pas
autant que les intentions des
chercheurs. S’en suivirent alors
une série de « AI winters »,
périodes d’euphorie théorique
aboutissant à des déceptions
sur la faisabilité technique et
donc de veille en termes de
recherche. Au tournant des
années 80 et 90, la puissance
croissante des processeurs (en
particulier des processeurs
graphiques), cumulée avec la
réduction des coûts, donne
un nouvel élan à l’Intelligence
Artificielle.
La technologie permet
alors des millions de connec-
tions entre les différents
nœuds et le big data offre
désormais toute la matière né-
cessaire pour que la machine
devienne « apprenante ». Deux
méthodes se développent : le
machine learning (appren-
tissage automatique), donc
un apprentissage à base d’un
algorithme, et le deep lear-
ning (apprentissage profond),
un modèle permettant d’ap-
prendre à partir d’une infor-
mation brute en grande quan-
tité, dont Yann LeCun est un
des pères fondateurs. Depuis,
les victoires retentissantes de
Deep Blue contre Garry Kas-
parov en 1997 et plus récem-
ment d’AlphaGo de DeepMind
sur le champion du monde de
go ont eu des répercutions mé-
diatiques importantes, qui ont
propulsé l’intelligence artifi-
cielle sur le devant de la scène.
Après avoir connu une histoire tumultueuse entre déception et fascination, l’intelligence artificielle semble
enfin avoir trouvé la maturité scientifique et technologique nécessaire à son avènement au cours des
prochainesannées.Restentnéanmoinsdenombreuxquestionnements,notammentquelamachinedépasse
l’Homme.
L’intelligence artificielle
Les cinq lois proposées par la Silicon Valley Robotics,
1.“Lesrobotsnedoiventpasêtreutiliséscommedesarmes”
2.“Lesrobotsdoiventseconformerauxlois,notammentcellessurlaprotectiondelavieprivée.”
3.“Lesrobotssontdesproduits:entantquetels,ilsdoiventêtresûrs,fiablesetdonneruneimageexactedeleurscapacités.”
4.“Lesrobotssontdesobjetsmanufacturés:l’illusioncréée nedoitpasêtreutiliséepourtromperlesutilisateurslesplusvulnérables.”
5.“Ildoitêtrepossibledeconnaî�treleresponsabledechaquerobot”
2. U
n signe ne trompe
pas sur les pro-
messes actuelles de
l’intelligence artifi-
cielle : tous les grands noms s’y
engouffrent avec des moyens
conséquents. Apple a lancé le
bal avec l’acquisition de la star-
tup à l’origine de son assistant
personnel Siri et a récemment
jeté son dévolu sur Emotient
et sa technologie d’analyse des
visages et des émotions. Chez
Google, pas moins de 1 200
projets sont en cours quand
Facebook a notamment créé à
Paris un laboratoire dédié avec
à sa tête Yann LeCun, Amazon
développe son majordome vir-
tuel Alexa, le révolutionnaire
Watson, la plateforme cogni-
tive, fer de lance d’IBM, fait
ses preuves dans le célèbre jeu
télévisé Jeopardy! ou Toyota
annonce un plan d’investisse-
ment de plus de 1 milliard de
dollars dans la recherche en
intelligence artificielle pour les
véhicules autonomes…
Faceàtouscesinvestisse-
ments privés, certains gouver-
nementsontprisletaureaupar
les cornes comme aux �tats-
Unis avec l’annonce d’un plan à
4 milliards de dollars pour faci-
liter l’émergence du secteur ou
en Corée du Sud avec un plan à
795 millions d’euros et la créa-
tion d’un centre de recherche
public-privé. Il faut dire que
d’un point de vue économique,
le cabinet d’analyse Tractica
estime que le marché de l’in-
telligence artificielle pour les
applications en entreprise,
qui ne représentait que 200
millions de dollars en 2015,
dépassera les 36 milliards d’ici
à 20251
! Sans compter les 950
jeunes pousses répertoriées
dans le monde sur le sujet par
le cabinet Venture Scanner, qui
totalisent presque 5 milliards
de dollars d’investissement.
En France, elles sont déjà 180
selon ISAI, ce qui en fait le se-
cond pays européen derrière la
Grande-Bretagne.
Les applications
Si l’intelligence artificielle
connaî�t un tel engouement,
c’est aussi parce que ses
champs d’application sont
particulièrement vastes
comme par exemple (parmi
tant d’autres) la maintenance
prédictive dans l’industrie, le
développement des véhicules
autonomes, la cybersécurité
préventive, en détection de
fraudes ou encore la régénéra-
tion après attaque, l’optimisa-
tion des moyens de production
pour le manufacturing, l’ima-
gerie médicale, la gestion des
flux de patients aux urgences…
Le positionnement de la très
prometteuse Sentient Tech-
nologies est en ce sens très
explicite « From healthcare to
finance to e-commerce, we’re
focused on changing people’s
lives ».
Bref, le deep learning
a de beaux jours devant lui
et certains prédisent même
sa généralisation dans toute
l’électronique de décision.
D’ailleurs selon une étude de
Narrative Science2
, le princi-
pal bénéfice de l’intelligence
artificielle pour une entreprise
serait pour 44 % des sondés
dans l’émergence de données
pour aider aux décisions. Ce
qui implique derrière de re-
penser les organisations et les
investissements. En interne,
mais aussi vers l’externe car
avec l’intelligence artificielle,
c’est toute la relation avec les
clients qui devra être repen-
sée pour faciliter leur engage-
ment. Le meilleur exemple se
matérialise dans les chatbots,
ces agents virtuels que 37%
des fondateurs de startups sur
l’AI voient comme l’applica-
tion principale de l’intelligence
artificielle, selon TechEmer-
gence. Les technologies ont
fait énormément de progrès en
quelques années, notamment
sur la reconnaissance vocale,
comme récemment Microsoft
dont le logiciel dédié a obtenu
un taux d’erreur de 5,9 %, égal
à celui que les transcripteurs
humains! « Nous sommes en
train de passer d’un monde où
les gens doivent comprendre
les ordinateurs à un monde
dans lequel les ordinateurs
doivent nous comprendre »,
explique Harry Shum, patron
du groupe Microsoft Artificial
Intelligence and Research.
« Nous sommes en train de passer d’un monde où les
gens doivent comprendre les ordinateurs à un monde
dans lequel les ordinateurs doivent nous comprendre »
Aujourd’hui
euratech trends #0902
1. Tractica, “Artificial Intelli-
gence Market Forecasts”, août
2016, www.tractica.com/research/
artificial-intelligence-market-forecas
ts/
2. Narrative Science, “2015 State
of Artificial Intelligence & Big
Data in the Enterprise”, juin 2015,
http://resources.narrativescience.
com
3. TechEmergence, “Machine
Learning Healthcare Applications –
2016 and Beyond”, août 2016, http://
techemergence.com/machine-learn-
ing-healthcare-applications/
3. «
En tant que fournis-
seur, ce sont les briques
autour de l’intelligence
artificielle qui génèrent
de la valeur, explique Damien
Cudel, chef de marché plate-
forme applicative chez Micro-
soft. Le stockage, le streaming
des données… l’apprentissage
statistique ne coûtera pas cher,
c’est sur la chaî�ne globale de
traitement (collecte des don-
nées, traitement temps réel,
restitution…) que se trouvent
les enjeux. » Du coup, de nom-
breux acteurs majeurs comme
Apple, Facebook, Microsoft et
IBM ont fait le choix de l’open
source en mettant à disposi-
tion de tous l’avancée de leurs
recherches. Le TensorFlow de
Google que l’on retrouve dans
de nombreuses applications
comme la recherche, la tra-
duction automatique ou les
recommandations, suit aussi
cette tendance. Le but de la
manœuvre : s’assurer d’évolu-
tions rapides pour dépasser la
concurrence et surtout que la
solution d’intelligence artifi-
cielle soit au cœur des projets
futurs…
L’emploi
Toutes ces avancées ne com-
portent bien entendu pas que
des promesses, mais aussi des
craintes.Aupremierchef:l’em-
ploi. Dans un rapport publié fin
2015, des analystes de Bank
of America Merrill Lynch1
ont
estimé que la moitié des em-
plois aux �tats-Unis pourraient
être remplacés par des robots
au cours des vingt prochaines
années, en particulier dans
l’industrie. Selon le cabinet
Gartner, un tiers des emplois
dans le monde seront même
remplacés par des applications
d’intelligence artificielle d’ici
2025. Toute la question est dès
lors de savoir si dans le même
temps d’autres métiers vont
émerger ou si comme l’indique
le cabinet de conseil en stra-
tégie Roland Berger dans un
rapport de 2014 : « les tâches
qui requièrent de la créativité,
du sens artistique, ou de l’intel-
ligence sociale et du contact
humain, qu’elles se rapportent
à un métier manuel ou intel-
lectuel, peu ou bien qualifié,
seront préservées. » D’ailleurs
l’étude de Narrative Science4
souligne que 80 % des sondés
estiment que l’intelligence arti-
ficielle va améliorer la perfor-
mance des employés et créer
des emplois.
La singularité
Autre crainte majeure alimen-
tée par les fantasmes de la
science-fiction : l’utilisation
de l’intelligence artificielle à
des fins malveillantes ou pire
que l’intelligence artificielle
prenne le pas sur l’intelli-
gence humaine. C’est le fameux
point de singularité, fixé pour
le moment en 2045 et qui a
poussé d’illustres personnali-
tés du monde technologique à
tirer dès maintenant le signal
d’alarme. Un consortium a
même été créé en septembre
2016 par les ténors du secteur
Amazon, Facebook, Google,
Microsoft, et IBM. Son but ?
Répondre aux questions sou-
levées par le développement
de l’intelligence artificielle,
partager les bonnes pratiques
et éduquer le grand public sur
cette thématique. Des craintes
temporisées par de nombreux
chercheurs comme le phy-
sicien Stephen Hawking qui
s’inquiète au final plus de notre
dépendance aux machines que
leur véritable émancipation.
euratech trends #09 03
Les enjeux
AGENDA
3rd
International Conference
on Artificial Intelligence and
Applications (AIFU) du 28 au
29 janvier 2017, Dubai (UAE)
9th
International Conference
on Agents and Artificial Intel-
ligence (ICAART) du 24 au 26
février 2017, Porto (PT)
9th
International Conference
on Machine Learning and Com-
puting (ICMLC) du 24 au 26 fé-
vrier 2017, Singapour (MY)
The AI Summit du 09 au 10 mai
2017, Londres (GB)
16th
International Conference
on Artificial Intelligence and
Soft Computing (ICAISC) du 24
au 26 février 2017, Singapour
(MY)
16th
International Conference
on Artificial Intelligence and
Law (ICAIL) du 12 au 16 juin
2017, Londres (GB)
13th
International Conference
on Machine Learning and Data
Mining (MLDM) du 15 au 20 juin
2017, New York (US)
19e
Conférence sur l’Appren-
tissage automatique (CAp
2017)du28au30juin2017,Gre-
noble (FR)
La plate-forme Intelligence
Artificielle (PFIA) du 3 au 7 juil-
let 2017, Caen (FR)
nucl.ai 2017 du 24 au 26 juillet
2017, Vienne (AT)
34th
International Conference
on Machine Learning (ICML) du
06 au 12 août 2017, Sydney (AU)
26th
International Joint Confe-
rence on Artificial Intelli-
gence (IJCAI) du 19 au 25 août
2017, Melbourne (AU)
18th
EPIA Conference on Artifi-
cial Intelligence du 5 au 8 sep-
tembre 2017, Porto (PT)
European Conference on Ma-
chine Learning and Principles
and Practice of Knowledge
Discovery du 18 au 22 sep-
tembre 2017, Skopje (MK)
16th
IEEE International Confe-
rence on Machine Learning and
Applications (ICMLA) du 5 au 8
septembre 2017, Porto (PT)
1. Bank of America Merrill Lynch,
“Robot Revolution – Global Robot
& AI Primer”, décembre 2015
2. Gartner, “Disruptive Macro
Trends for 2025 Personal Tech
Market — Artificial Intelligence
— Me, Myselves and AI”, octobre
2016
3. Roland Berger, “Les classes moy-
ennes face à la transformation digi-
tale”, octobre 2014,
4. Narrative Science, “2015 State of
Artificial Intelligence & Big Data in
the Enterprise”, juin 2015, http://re-
sources.narrativescience.com
4. euratech trends #0904
www.euratechnologies.com
L
a région Hauts-de-
France ne compte pas
moins de 6 équipes de
recherche, soit près
d’une centaine de chercheurs
et doctorants qui travaillent
sur le Machine Learning et ses
applications.
Magnet
MAchine learninG in infor-
mation NETworks
https://team.inria.fr/magnet
Magnet s’intéresse à la défini-
tion de méthodes et modèles
d’apprentissage automatique
au sein de réseaux d’informa-
tions, en particulier ceux pré-
sents sur Internet : réseaux
d’interactions, hyperliens ou
réseaux sociaux. Ces réseaux
sont constitués d’informations
en grands volumes hétéro-
gènes, principalement tex-
tuelles, organisées sous forme
degrandsgraphesdontlesliens
sont explicites ou induits. Les
objectifs envisagés sont les sys-
tèmes de veille, de recherche et
d’extraction d’informations, et
de recommandations.
SequeL
Sequential Learning
https://team.inria.fr/sequel
SequeL développe des
concepts et algorithmes fiables
pour répondre aux problé-
matiques de systèmes artifi-
ciels traitant, par exemple, des
pages web créées, modifiées
ou supprimées du web ou des
mesures de capteurs acquises
par un système passif ou actif
(interagissant sur son environ-
nement, tel que agent logiciel
ou robot matériel). À� partir de
ces données, ces systèmes ex-
traient des informations pour
repérer des objets (classifica-
tion), pour évaluer les para-
mètres d’un processus (esti-
mation), pour interagir avec
son environnement (décision
séquentielle). Ces algorithmes
sont également utilisables
dans le cadre de traitement par
lot de gros volumes de don-
nées. Ces travaux ont des appli-
cations dans les systèmes de
recommandation ou le jeu de
Go (Crazy Stone, logiciel primé
à de nombreuses reprises).
DOLPHIN
Discrete multiobjective Opti-
mizationforLarge-scalePro-
blems with Hybrid dIstribu-
ted techNiques
http://dolphin.lille.inria.fr
DOLPHIN est au coeur de la
modélisation et la résolution
parallèle de problèmes d’opti-
misation combinatoire (multi-
objectifs) de grande taille. Des
méthodes parallèles coopéra-
tives efficaces sont dévelop-
pées à partir de l’analyse de la
structure du problème traité.
Les problèmes ciblés sont des
problèmes génériques (ordon-
nancement flow-shop, élabo-
ration de tournées, etc.) et des
problèmes industriels de logis-
tique, transport, énergie ou de
bioinformatique.
MODAL
MOdel for Data Analysis and
Learning
https://modal.lille.inria.fr
MODAL développe des mo-
dèles génératifs pour l’analyse
de données hétérogènes et /
ou complexes multivariées.
Les exemples typiques de ce
type de données sont des cova-
riables nominales multivariées
ou la combinaison de variables
continues et nominales hété-
rogènes. Bien évidemment,
le traitement d’autres cova-
riables complexes - ordinales,
de rapport ou d’intervalle -
est envisageable. À� partir de
ces modèles génératifs, une
analyse statistique pertinente
permet ensuite d’obtenir
l’analyse visuelle et la classi-
fication supervisée, semi-su-
pervisée ou à l’estimation de
densité. Les axes de recherche
se concentrent sur les modèles
génératifs, qui sont des mo-
dèles décrivant le processus
de génération des données, à
la différence des modèles pré-
dictifs.
INOCS
INtegrated Optimization
with Complex Structure
https://team.inria.fr/inocs
INOCS travaille sur la modé-
lisation et la résolution des
problèmes d’optimisation
de grande taille avec struc-
ture complexe. L’optimisation
consiste à trouver une meil-
leure solution parmi un en-
semble de solutions possibles.
Sa modélisation peut être un
programme mathématique
où les variables de décisions
doivent satisfaire un ensemble
de contraintes définissant la
réalisabilité de la solution et
optimiser une ou plusieurs
fonctions objectifs. Elle est dite
à structure complexe quand
elle comprend des décisions
de type/nature différentes
(par exemple stratégique, tac-
tique ou opérationnelle) et/ou
des décisions présentant une
structure hiérarchique du type
meneur-suiveur (problèmes
bi-niveau) et/ou des décisions
prises dans un environnement
incertain.
HEUDIASYC
Heuristique et Diagnostic
des Systèmes Complexes
https://www.hds.utc.fr
L’équipe DI (Décision, Image)
concentre son activité sur le
développement de nouvelles
méthodes d’analyse et de fu-
sion de données, le raisonne-
ment dans l’incertain, l’appren-
tissage statistique, l’analyse
d’images et la vision par ordi-
nateur. Les applications se font
dans les secteurs de l’environ-
nement, de la santé, des trans-
ports, du diagnostic industriel,
la bioinformatique et l’aide au
diagnostic médical.
Hauts-de-France
Directeur de publication : Massimo Magnifico
Rédacteur en chef : Patrick Bertolo
Journaliste :Thibault Caudron
165 avenue de Bretagne 59000 Lille
03.20.19.18.55
contact@euratechnologies.com
Atos lance le programme quantum, une plateforme de simulation quantique pour l’IA
Après la présentation de son supercalculateur exaflopique Sequana qui pourra calculer 1 milliard de
milliards d’opérations par seconde d’ici 2020, Atos lance son programme Quantum afin de permettre le
développement d’une plateforme de simulation destinée à tester les algorithmes et les logiciels des futurs
ordinateursquantiques.Unpôleseratoutparticulièrementconsacréàlamiseaupointd’algorithmesdestinés
à la constitution d’un portefeuille d’applications quantiques pour le calcul intensif, le big data, l’intelligence
artificielleetlacybersécurité.