Retrouvez notre techday sur le Big Data, qui présente l'état du Big Data et les enjeux pour le monde de l'assurance avec une présentation de notre projet Square Predict.
http://www.square-solutions.com/accueil/square-predict-big-data-assurance/
2. Cliquez pour modifier le style du titre
2TechDay Big Data – 11 février 2014
Big Data - Etat de l’art
L’enjeu pour l’assurance
Projet Square Predict
3. Cliquez pour modifier le style du titre
3TechDay Big Data – 11 février 2014
Big Data - Etat de l’art
L’enjeu pour l’assurance
Projet Square Predict
4. Cliquez pour modifier le style du titreChaque minute sur Internet…
4TechDay Big Data – 11 février 2014
Image source: Qmee.com
Image source: Intel.com
5. Cliquez pour modifier le style du titre
Evolution du « hardware » toujours
exponentielle…
5TechDay Big Data – 11 février 2014
6. Cliquez pour modifier le style du titreQu’est-ce que le Big Data ?
6TechDay Big Data – 11 février 2014
« Big Data is like teenage sex: everyone talks about it,
nobody really knows how to do it, everyone thinks
everyone else is doing it, so everyone claims they are
doing it… » — Dan Ariely
Super DataWareHouse ?
NoSQL?
Cloud ?
Open Data ?
Données non structurées?
Analyse en temps réel?
Machine learning? Web sémantique?
7. Cliquez pour modifier le style du titreOrigine du Big Data ?
7TechDay Big Data – 11 février 2014
Source : Google Trends
8. Cliquez pour modifier le style du titreLe Big Data selon Wikipedia
8TechDay Big Data – 11 février 2014
« Les big data, littéralement les grosses
données, parfois appelées données massives,
est une expression anglophone utilisée pour
désigner des ensembles de données qui
deviennent tellement volumineux qu'ils en
deviennent difficiles à travailler avec des outils
classiques de gestion de base de données ou de
gestion de l'information. »
Source wikipédia
9. Cliquez pour modifier le style du titreRègle des « 3 V »…
9TechDay Big Data – 11 février 2014
Le Big Data, terme apparu en 2001 dans un rapport de
recherche de Gartner, est une démarche qui consiste à
extraire l’information pertinente d’un ensemble de
données se caractérisant par :
• le Volume,
• la Variété,
• la Vélocité.
Règle des « 3 V »
à laquelle peuvent ajouter
• la Valeur
• la Véracité
10. Cliquez pour modifier le style du titreEnjeu du Big Data pour les entreprises
10TechDay Big Data – 11 février 2014
11. Cliquez pour modifier le style du titreQue peut apporter le Big Data ?
11TechDay Big Data – 11 février 2014
Le Big Data peut améliorer les performances dans ces domaines:
• Recommandations : déjà utilisé par les géants de la vente en ligne
• Analyse de sentiments : analyse des données non structurés pour
déterminer le ressenti des utilisateurs face à un produit, une marque…
• Modélisation des risques : meilleure détermination des risques par
traitement croisé des données historiques et facteurs
environnementaux, et simulation des scenarios potentiels
• Détection de fraudes : détection de comportement inhabituel
• Analyse des graphes sociaux : pour déterminer les clients les plus
influents qui ne sont pas forcement ceux qui achètent le plus
• Résiliation clients : détection des comportements amenant à la
résiliation et amélioration des relations clients
• Analyse campagne marketing
• …
12. Cliquez pour modifier le style du titreSpécificités d’un projet Big Data
12TechDay Big Data – 11 février 2014
• Un projet Big Data est un projet de R&D appliquée et
non un projet d’informatisation de processus métiers.
• Un projet Big Data dépend des données et non de
spécification. Le cahier des charges est remplacé par les
cas d’utilisation des données.
• La technologie et les mathématiques statistiques
permettent de rendre accessible des traitements qui ne
l’étaient pas auparavant encore récemment.
13. Cliquez pour modifier le style du titreBig Data, compétences nécessaires
13TechDay Big Data – 11 février 2014
Métier
ITStatistique
Projet
Big Data
Un projet Big Data est la mise en commun de trois
compétences :
14. Cliquez pour modifier le style du titreSources de données
14TechDay Big Data – 11 février 2014
Bases de données internes
~ Go
Documents internes
~ To
Web (Open Data, sites, blogs,
forums, réseaux sociaux, …)
Infini
Logs (d’infrastructure, Web logs)
~ 10 To
15. Cliquez pour modifier le style du titreTypes des données
15TechDay Big Data – 11 février 2014
Données Structurées : Relationnel, objet, colonne
• Exemple : Base de données d’entreprise, LinkedIn,…
Données indexées, faciles à traiter
Données Semi-structurées : XML, JSON, CSV, log
• Exemple : Google API, Twitter API, web logs,…
Données non indexé, faciles à traiter
Données Non structurées : texte, image, audio, vidéo
• Exemple : Web, mail, document,…
Données complexes à traiter
16. Cliquez pour modifier le style du titreOpen Data
16TechDay Big Data – 11 février 2014
L’Open Data est la libération des données de la société civile.
Les enjeux sont :
• Transparence de l’état
• Libre concurrence entre les acteurs économiques
• Accès aux données personnelles…
Portails de données : data.gouv.fr, data-publica.com…
L’Open API est la technologie permettant d’accéder à des
données sur Internet. Les enjeux sont :
• Fournir des données sous licence gratuite ou presque…
• Faire émerger les innovations
Annuaire d’API : programmableweb.com
17. Cliquez pour modifier le style du titreDonnées des blogs & réseaux sociaux
17TechDay Big Data – 11 février 2014
Les blogs et les réseaux sociaux génèrent en permanence des
flux d’information.
Que peut apporter ces information et comment les exploiter ?
• Définir l’approche de l’analyse :
• « Centrée » : clients, prospects, évènements,…
• « Globale » : tendances de marché, opinion, …
• Des limitations d’accès et d’utilisation des données imposées :
• Accès, Visibilité, Nombre de requêtes limité, Conservation
des données, Structuration des données,…
Ne pas négliger les groupes et forums publiques dont les
données sont plus facilement exploitables à des fins d’analyse
de marché
18. Cliquez pour modifier le style du titreDonnées personnelles
18TechDay Big Data – 11 février 2014
Une donnée personnelle est une information relative à une personne
physique identifiée ou pouvant l’être, directement ou indirectement, par
référence à un identifiant ou des éléments qui lui sont propres.
Exemples : adresse, email, téléphone, IP, cookies, n°de contrat, …
Les données personnelles sensibles concernent : la santé, les origines
raciales ou ethniques, les opinions politiques, philosophiques ou
religieuses, les appartenances syndicales des personnes, les
orientations sexuelles.
En France, la CNIL a pour rôle de contrôler que l’usage des données
personnelles respecte la règlementation.
19. Cliquez pour modifier le style du titreProtection des données personnelles
19TechDay Big Data – 11 février 2014
7 principes à respecter :
• Principe de finalité
Les données à caractère personnel ne peuvent être recueillies et traitées que pour un usage déterminé et
légitime, correspondant aux missions de l’établissement, responsable du traitement.
• Principe de proportionnalité
Seules doivent être enregistrées les informations pertinentes et nécessaires pour leur finalité.
• Principe de pertinence des données
Les données personnelles doivent être adéquates, pertinentes et non excessives au regard des objectifs
poursuivis.
• Principe de conservation limitée dans le temps
La durée doit être proportionnelle à la finalité
• Principe de sécurité et de confidentialité
L’accès aux données personnelles n’est autorisé qu’auprès d’une population identifiée et soumise au secret
professionnel
• Principe de transparence
Devoir d’avertir dès la collecte des données et en cas de transmission de ces données à des tiers
• Principe du respect des droits des personnes
Devoir d’informer les intéressés, droits d’accès et de rectification et droit d’opposition
20. Cliquez pour modifier le style du titrePrivacy by design
20TechDay Big Data – 11 février 2014
La « Privacy by Design » est la prise en compte dès la
conception des produits et des services des aspects liés à la
protection de la vie privée et des données à caractère personnel.
La Commission européenne propose de rendre obligatoire
l’adoption de la « Privacy by Design » pour tous les produits,
services et systèmes exploitant le Big Data.
Ce règlement européen serait applicable tel quel dans toute
l'Union européenne deux ans dès sa publication vers 2016...
Ce concept permettra aussi de répondre aux contraintes
réglementaires de la CNIL.
21. Cliquez pour modifier le style du titreTechnologies clés du Big Data
21TechDay Big Data – 11 février 2014
Performance :
• Parallélisation des traitements
• Utilisation intensive de la RAM
• Réplication des données, plutôt que la sauvegarde
Economie :
• Infrastructure à base de matériel standard
• Ajustement dynamique des ressources matérielles
• Distribution des données & Co-localisation des données
et des traitements
22. Cliquez pour modifier le style du titreHadoop
22TechDay Big Data – 11 février 2014
Hadoop est issu du projet Nutch (2002-2004) initié par
Doug Cutting
Développement influencé par les publications sur GFS et
MapReduce
Projet intégré à la fondation Apache en 2009
Sortie de la v1.0.0 Open-Source en 2011
23. Cliquez pour modifier le style du titreL’univers Big Data
23TechDay Big Data – 11 février 2014
24. Cliquez pour modifier le style du titreEcosystème de Hadoop
24TechDay Big Data – 11 février 2014
25. Cliquez pour modifier le style du titreFramework Hadoop
25TechDay Big Data – 11 février 2014
• Framework Java
• Autorise le développement de systèmes d’analyse et de stockage
adaptés au Big Data
• Exécution de calculs sur une à plusieurs milliers de machines
(clusters)
• Deux concepts majeurs : HDFS et MapReduce
• Points forts :
• Haute disponibilité / Robustesse
• Rapidité
• Abstraction
• Mise à l’échelle
Permet d’utiliser des serveurs « low cost » pour du calcul intensif
et rapide
26. Cliquez pour modifier le style du titreMapReduce
26TechDay Big Data – 11 février 2014
MapReduce permet de faire du calcul distribué en deux
fonctions :
• Map : fonction de traitement par décomposition en sous-
problèmes
• Reduce : fonction d’aggrégation des résultats pour
composer une unique solution
MapReduce utilise HDFS en mode distribué:
• JobTracker : Nœud maître responsable de l’exécution de
tâches sur un cluster
• TaskTracker : Nœud esclave exécutant une tâche (map)
sur une partie des données
27. Cliquez pour modifier le style du titreMapReduce
27TechDay Big Data – 11 février 2014
28. Cliquez pour modifier le style du titreExécution MapReduce en parallèle
28TechDay Big Data – 11 février 2014
29. Cliquez pour modifier le style du titreMapReduce avec Hadoop
29TechDay Big Data – 11 février 2014
30. Cliquez pour modifier le style du titreLe langage R
30TechDay Big Data – 11 février 2014
R est un langage Open Source GNU pour le
traitement des données et d'analyse statistiques
www.r-project.org
Il possède des environnements interactifs d’analyse
statistique et graphique de données
Traitements matriciels natifs et parallélisation
R+BigData = RHadoop comprenant 3 packages
• RHDFS, accès au file system HDFS
• RHBASE, accès HBASE
• rmr, permettant d’écrire des programmes
MapReduce en langage R
31. Cliquez pour modifier le style du titreStockage des données Big Data
31TechDay Big Data – 11 février 2014
Les solutions Big data reposent sur un stockage basé sur
le modèle de fichiers distribués répondant aux enjeux:
• Performance : Données réparties sur plusieurs nœuds
de stockage optimisant le trafic réseau. Les données
semblables et les traitements localisés sur un même
nœud (Hadoop HDFS, Map Reduce),
• Linéarité : Ajout de nœuds de stockage sans limite avec
une scalabilité linéaire ;
• Dynamisme : Ajout et suppression de nœuds de calcul
simple avec réplication automatique des données. Si un
nœud de stockage tombe, le service est assuré sans
arrêt et sans perte de données.
32. Cliquez pour modifier le style du titreHadoop Distributed File System
32TechDay Big Data – 11 février 2014
Le file system HDFS possède les caractéristiques :
• Stockage de données distribué
• Inspiré par le Google FileSystem (GFS)
• Haute disponibilité / réplication des données
• Blocs de 64Mo (chunks)
• Utilise TCP/IP et RPC
• Architecture Maître / Esclave
• NameNode : Serveur maître qui gère l’espace de noms du
système de fichiers (DataNode) et l’accès aux fichiers par
les clients
• DataNodes : Serveurs esclaves qui gèrent le stockage des
fichiers sur un nœud (création / suppression de blocs de
données, réplication)
33. Cliquez pour modifier le style du titreL’écosystème NoSQL
33TechDay Big Data – 11 février 2014
• Les bases « Not Only » SQL
• Stockage distribué, tolérant à la panne par réplication
• Relâchement de la contrainte de Cohérence
• Support d’un nombre de transactions par seconde très important
en conservant une latence faible
• Scalabilité horizontale linéaire
• Alternative simplifiée au modèle relationnel
• Alternative simplifiée au langage SQL
• Les bases NewSQL offrent une interface SQL-like à une base
NoSQL
• Les bases NoSQL adoptent progressivement l’architecture
MapReduce
34. Cliquez pour modifier le style du titrePrincipale bases de données NoSQL
34TechDay Big Data – 11 février 2014
35. Cliquez pour modifier le style du titreVisualisation des données & résultats
35TechDay Big Data – 11 février 2014
• La « data visualization » est un outil fondamental de
l’analyse, au même titre que le traitement mathématique
• Traitement mathématique
• Signifiance
• Interactivité entre données, traitements et
représentations
• La « data visualization » est un support de communication
du résultat
• Impact visuel
• Lisibilité du message
• Cohérence entre données et messages
36. Cliquez pour modifier le style du titreLes outils de visualisation spécialisés
36TechDay Big Data – 11 février 2014
Analyse de données multi variés
• R
• Revolution Analytics
• IBM Attribute explorer
• Ggobi, XGobi
• Mondrian (rosuda.org)
Analyse de réseaux et de graph
• Gephi
• Graphviz
• NodeXL
Analyse de cartes (maps)
• Google Fusion Tables
Analyse de textes
• IBM BigSheets
• IN-SPIRE. IN-SPIRE™ provides
tools for exploring
Toolkit
• JUNG
• Gephi toolkit
• Google Chart
• Processing (http://processing.org)
• Protovis/ 3D.js
37. Cliquez pour modifier le style du titre
37TechDay Big Data – 11 février 2014
Big Data - Etat de l’art
L’enjeu pour l’assurance
Projet Square Predict
38. Cliquez pour modifier le style du titre
L’enjeu pour les producteurs d’assurance est d’arriver à
exploiter cette avalanche de données pour ne pas se voir
confisquer la distribution par les purs distributeurs experts
en l’art de la fouille de données.
En effet, la capacité à proposer des produits ciblés, en
fouillant les immenses volumes de données en leur
possession donne un avantage concurrentiel sans égal
aux grands acteurs de la distribution sur Internet.
Big Data & Métier de l’Assurance
38TechDay Big Data – 11 février 2014
39. Cliquez pour modifier le style du titreOpportunités
39TechDay Big Data – 11 février 2014
Le Big Data est utilisable par les assureurs dans les domaines
suivants :
• Marketing : étude du marché, nouveaux produits,, tarification,
segmentation, cross-selling, …
• Commerciale : gestion des campagnes commerciales
ciblée,…
• Gestion relation client : meilleure connaissance des besoins et
attente du client, prévention des résiliations,…
• Gestion des sinistres : détection de suspicion, prévention et
lutte contre la fraude, prévision « en temps réel » des coûts de
catastrophes naturelles…
• Modélisation des risques avec l’ensemble des données
accessibles dans les domaines automobiles et MRH,…
40. Cliquez pour modifier le style du titreOutil de modélisation prédictive
40TechDay Big Data – 11 février 2014
Trois médias vont devenir déterminants pour les
assureurs:
• les «capteurs » : Assurance au kilomètre,
connaissance des risques, la recherche des produits
volés…
• L’Open Data : Données climatiques, sociales … pour
affiner les modèles de prévision des risques.
• les réseaux sociaux dans l’exploitation de
l’ensemble de données non structurées pour le
marketing, l'approche et la fidélisation du client,
l’analyse d’évènement catastrophique…
41. Cliquez pour modifier le style du titreDéfis
41TechDay Big Data – 11 février 2014
Le Big Data pourrait également modifier
profondément le paysage concurrentiel du
secteur, en remettant en cause la hiérarchie des
compagnies existantes.
Risque de concurrence accru pour les
assureurs ne maîtrisant pas l’exploitation des
données Big Data
42. Cliquez pour modifier le style du titreDéfis
42TechDay Big Data – 11 février 2014
Les fournisseurs de données et les grands acteurs
du Web vont chercher à s'approprier une part
significative de la valeur, voire à devenir eux-
mêmes assureurs.
A travers du cross-selling et au changement de
comportements des (jeunes) clients face au
commerce en ligne, une concurrence encore
forte peut venir des acteurs du Web ayant la
puissance financière considérable.
43. Cliquez pour modifier le style du titreDéfis
43TechDay Big Data – 11 février 2014
Le Big Data permettra d’analyser et détecter les
spécificités des marchés locaux.
La concurrence devient mondiale avec des
acteurs étrangers aujourd’hui acceptés par les
(jeunes) clients, acteurs étrangers qui seront
soumis aux réglementations parfois plus
avantageuses…
44. Cliquez pour modifier le style du titreNouveau métier : Data scientist
44TechDay Big Data – 11 février 2014
Comment accéder aux bonnes compétences pour
l’exploitation statistique du Big Data, lui apporter
plus de valeur et en faire un outil de prise de
décision ?
Le Big Data analytique nécessite des compétences
nouvelles visant les technologies de traitement de
données très diverses.
D’où le nouveau métier de Data scientist.
45. Cliquez pour modifier le style du titreActuaire & Data scientist
45TechDay Big Data – 11 février 2014
Au travers du Big Data, le métier de Data Scientist va
profondément changer le rôle des actuaires qui devront :
• Vérifier la qualité des données (fraîcheur, cohérence,
exhaustivité),
• Exploiter des données structurées, semi-structurées et
non structurées.
Dès lors, l'actuaire de demain apparaîtra non plus comme
un producteur de données mais comme un certificateur de
leur qualité et un vérificateur de leur usage
46. Cliquez pour modifier le style du titreBig Data – Mythe & réalité
46TechDay Big Data – 11 février 2014
Prétendre que le Big Data va répondre à l’ensemble des
problématiques du métier de l’assurance est certainement
un mythe.
Actuellement, le Big Data a montré une réelle efficacité
commerciale pour les grands acteurs du Web et
augmentation de la puissance de certains Etats.
Mais les perspectives offertes par le Big Data restent
prometteuses notamment pour la prévision et prévention
des crises sanitaires, des catastrophes naturelles, des
risques environnementaux, amélioration des systèmes de
santé, suivi et accompagnement des personnes âgées…
47. Cliquez pour modifier le style du titreBig Data – Mythe & réalité
47TechDay Big Data – 11 février 2014
Le revers de cet accès aux données de plus en
plus personnelles pose la question aux assureurs
en segmentation et mutualisation des produits.
Il est donc important de prévoir l'anonymisation
des données personnelles, la définition de leurs
conditions d'utilisation et la responsabilité légale de
ceux qui les détiennent.
48. Cliquez pour modifier le style du titre
48TechDay Big Data – 11 février 2014
Big Data - Etat de l’art
L’enjeu pour l’assurance
Projet Square Predict
49. Cliquez pour modifier le style du titreAppel à projet Big Data de la DGCIS
49TechDay Big Data – 11 février 2014
Pour le Ministère du Redressement Productif, le marché du
Big Data évalué à 25 milliards d’euros d’ici à 2015 est :
• un enjeu de création de valeur pour les entreprises
fabriquant des solutions,
• un enjeu de compétitivité pour les entreprises
utilisatrices des solutions de Big Data.
La Direction Générale de la Compétitivité, de l’Industrie et
des Services (DGCIS) a lancé un appel à projet Big Data
en 2012.
50. Cliquez pour modifier le style du titreProjet Square Predict
50TechDay Big Data – 11 février 2014
Un consortium regroupant 3 laboratoires de recherches
informatiques et 3 sociétés s’est constitué autour du
projet Square Predict.
Le projet Square Predict vise à valoriser et
de monétiser l'énorme quantité de données que les
assureurs disposent depuis des années.
A partir de leurs données existantes et des données
issues du Web sémantique et de l‘Open Data, l’objectif de
Square Predict est de générer des prédictions utiles au
business des assureurs.
Le projet Square Predict est un projet Open Source de
2,76 M€ sur 3 ans (de 09/2013 à 09/2016).
.
51. Cliquez pour modifier le style du titre
51
Ambition du projet Square Predict
TechDay Big Data – 11 février 2014
L’ambition du projet est de rendre les étapes amont de la
fouille et de l’analyse aussi transparentes et à la volée que
possible pour permettre aux statisticiens (data scientists) de
se focaliser sur leur métier.
52. Cliquez pour modifier le style du titreSquare Predict - Services
52TechDay Big Data – 11 février 2014
Square Predict apportera aux assureurs les services :
• Utilisation du web sémantique et l'open data pour
compléter ses données avec des données tierces
pertinentes (population des villes, le taux de
criminalité...),
• Utilisation des algorithmes complexes (fouille de
données, recherche de particularités) sur des volumes
très importants et en temps réel,
• Nouvelles méthodes de visualisations de résultats des
prédictions.
53. Cliquez pour modifier le style du titre
53
Square Predict - Objectifs
Square Predict apportera une réponse aux objectifs suivants :
Domain
e
Prédictions Objectifs
Santé
• Coût & Durée de
convalescence
• Coûts & Fréquences
des Complication
• Détection d'épidémie, pour lancer des
actions préventives comme des
campagnes de vaccination.
• Recommandation de praticiens
(dentistes, spécialistes, hôpitaux…)
pour maximiser l'efficacité des dépenses
Auto
• Accidentalité
géographique
• Faiblesse des véhicules
• Estimer les risques locaux
• Estimer les coûts d'obsolescence
Auto
• Typologie conducteur &
typologie d'accidents
• Détection de profils de conducteurs
dangereux
TechDay Big Data – 11 février 2014
54. Cliquez pour modifier le style du titre
54
Square Predict - Objectifs
Domaine Prédictions Objectifs
Habitation
• Vétusté des installations
eaux
• Estimation prédictive des
sinistres
Habitation • Alerte cambriolage
• Détection de signaux
faiblesse
• Prévention des cambriolages
Commercial
&
Gestion
Relation
client
• Qualification client
(Professionnelle, Domicile)
• Prédiction des variations
des appels aux centres de
relation client
• Meilleur ciblage des campagnes
commerciales
• Qualité du service rendu au
client, optimisation des
ressources
Gestion
Relation
client
• Séparation fraudes /
évènements
exceptionnels
• Amélioration de la relation
client
TechDay Big Data – 11 février 2014
55. Cliquez pour modifier le style du titre
55
Consortium Square Predict
Les membre du consortium Square Predict sont :
• LIPADE, Laboratoire d’Informatique PAris
DEscarte spécialiste dans la gestion de
données sémantiques à grande échelle et
à leur protection,
• LIPN, Laboratoire d’Informatique Paris
Nord spécialiste en algorithmie et
apprentissage artificiel,
• LARIS, LAboratoire de Recherche en
Informatique et Système spécialiste en
infrastructure logicielle haute
performance.
TechDay Big Data – 11 février 2014
56. Cliquez pour modifier le style du titre
56
Consortium Square Predict
Les membre du consortium Square Predict sont :
• Arrow Group, éditeur de la solution Open
Source Square Solution le CRM pour
mutuelles et assureurs,
• Isthma, cabinet de conseil spécialiste
dans la fouille de données et visualisation
de résultats,
• Digital & Ethics, cabinet de conseil
spécialiste en déontologie et l’éthique des
affaires.
TechDay Big Data – 11 février 2014
57. Cliquez pour modifier le style du titrePartenariat avec un assureur
57TechDay Big Data – 11 février 2014
Square Predict a conclu un partenariat avec un assureur
leader en France pour :
• Valider les besoins du métier assureur pouvant être pris
en charge par l’exploitation des données Big Data,
• Valider les travaux de recherche et de développement
avec les données réelles,
• Valider les nouvelles méthodes de visualisations de
résultats des prédictions avec les utilisateurs finaux.
58. Cliquez pour modifier le style du titreBénéfices pour l’assureur partenaire
58TechDay Big Data – 11 février 2014
Les avantages pour les assureurs partenaires Square Predict :
• Bénéficier de l’expertise des laboratoires de recherche dans
l’exploitation des Big Data pour définir et affiner la stratégie Big
Data que l’assureur se doit de mettre en place,
• Etre en relation étroite avec le consortium Square Predict durant
la phase d’expérimentation pour mieux mesurer les apports de
l’exploitation du Big Data,
• Bénéficier des résultats du projet de Square Predict et avoir à
disposition la plateforme logicielle Open Source, opérationnelle
intégrée dans l’environnement informatique de l’assureur,
• Etre en avance de phase sur l’exploitation des données Big Data
par rapport à la concurrence.
59. Cliquez pour modifier le style du titreProjet de R&D
59TechDay Big Data – 11 février 2014
Verrous technologies :
Complexité de l'intégration de donnés multi sources.
Algorithmes pertinents et capables de fouiller dans le volume de
données.
Outils de partage et de visualisation des résultats.
Aspect Recherche :
Création d'une plateforme de stockage et de traitement des
données.
Intégration des données (Assurance, web sémantique et open data)
Algorithmes de fouilles et de résultat.
Plateforme de distribution et de ventes des prédictions.
60. Cliquez pour modifier le style du titre
Les défis technologiques du projet Square Predict :
• Fouille de données LIPN, LARIS & ISTHMA
• Analyse sémantique LIPADE & ARROW
• Traitement des « données incertaines » LIPADE
• Visualisation des données LIPN & ISTHMA
• Protection de la vie privée LIPADE & D&E
• Traitement gros volumes LARIS & ARROW
Square Predict – Défis technologiques
60TechDay Big Data – 11 février 2014
61. Cliquez pour modifier le style du titreSous-Projets
61TechDay Big Data – 11 février 2014
Sous-projet Responsable Participants
SP1: Gestion de projet ARROW Tous les partenaires
SP2: Sécurité et
conformité
D&E D&E, ARROW, ISTHMA,
LIPADE, LIPN
SP3: Architecture ARROW Tous les partenaires
SP4: Collecte LIPADE LIPADE, ARROW
SP5: Fouille et analyse ISTHMA LIPN, LARIS, ISTHMA
SP6: Cas d’usage ISTHMA ISTHMA, ARROW, D&E
SP7: Intégration ARROW ARROW
SP8: Communication,
diffusion
LIPN Tous les partenaires
Square Predict est découpé en sous-projets :
62. Cliquez pour modifier le style du titreFrameworks pour Square Predict
62TechDay Big Data – 11 février 2014
Storm
Sélectionner
&
Architecturer
&
Intégrer
63. Cliquez pour modifier le style du titreArchitecture haut niveau
63TechDay Big Data – 11 février 2014
● Formaliser :
○ Les traitements.
○ Les protocoles.
○ Les flux et échanges de données.
○ Les interfaces de communication.
● Approche “co-design” par étape avec “POC.”
ETHIQUE
Collecte
RDF
SEMANTIQUE
Graphe
Analyse
Machine
Learning
Temp Réel.
DATAS
Agregation
Transformation
SOA Configuration du Système SOA Front Office
DashBoard
Configuration
DashBoard
Visualisation
Big Data
Map Reduce
Open Data
E
T
H
I
Q
U
E
Sources
Hétérogènes E
T
H
I
Q
U
E
SAAS
64. Cliquez pour modifier le style du titrePackaging
64TechDay Big Data – 11 février 2014
65. Cliquez pour modifier le style du titreArchitecture bas niveau
65TechDay Big Data – 11 février 2014
66. Cliquez pour modifier le style du titreArchitecture Framework
66TechDay Big Data – 11 février 2014
67. Cliquez pour modifier le style du titreConclusion
67TechDay Big Data – 11 février 2014
Le Big Data apportera un avantage concurrentiel
aux acteurs (établis ou non) qui sauront en tirer
bénéfice.
Le projet de R&D Square Predict aidera les
acteurs du secteur de l’assurance a relevé ce
défis.
68. Cliquez pour modifier le style du titre
Merci de votre attention
Questions ?
Philippe Barra
pbarra@arrow-group.eu
68