SlideShare uma empresa Scribd logo
1 de 2
Baixar para ler offline
Plateforme BlueData EPIC™
pour
Big-Data-as-a-Service (BDaaS)
Avec le logiciel BlueData EPIC (Elastic Private Instant Clusters), vous pouvez déployer
des clusters Hadoop et Spark en quelques minutes au lieu de plusieurs semaines avec
les données et les outils d’analyse dont les Data Scientists ont besoins. Que ce soit dans
votre infrastructure locale ou sur AWS, vous pouvez fournir facilement une expérience
libre-service aux utilisateurs et créer des environnements Big Data à la demande; Hadoop,
Spark, Kafka, Cassandra, et plus.
La plateforme logicielle BlueData associe la technologie des conteneurs Docker à des
innovations brevetées, pour apporter plus de flexibilité et des réductions de coût aux
environnements Big Data:
•	ElasticPlane™ permet aux utilisateurs de créer et de démarrer des clusters virtuels à la
demande dans un environnement sécurisé, multi-tenant.
•	 IOBoost™ assure le même niveau de performance qu’en environnement natif sans
virtualisation, avec en plus l’agilité et la simplicité des conteneurs Docker.
•	 DataTap™ accélère le retour sur investissement pour les architectures Big Data en
éliminant le temps passé à déplacer les données.
La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement
d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus,
dans l’infrastructure locale ou dans le cloud public.
Clusters Hadoop et Spark à la demande
	Augmentez l’agilité de votre
entreprise en permettant aux
Data Scientists et Data Ana-
lysts de créer des clusters Big
Data en quelques minutes, en
quelques clics de souris.
	Simplifier les déploiements
locaux avec une solution Big
Data à la demande, clé en main,
comprenant des images de
distributions majeures Hadoop
et Spark prêtes à l’utilisation.
	Accélération de l’innovation
avec les images pré-intégrées
des principales distributions Big
Data, outils de BI, analytique et
visualisation.
	Réduction des mouvements
de données en séparant les
serveurs de calcul du stockage
et d’autre et en utilisant la fonc-
tion DataTap.
	Maintien de la sécurité et
du contrôle dans un envi-
ronnement multi-tenant, intégré
avec votre politique de sécurité
d’entreprise (par exemple LDAP,
Active Directory, SSO, Kerbe-
ros).
	Obtenir des réductions des
coûts jusqu’à 75% en amélio-
rant et en contrôlant l’utilisation
des ressources, en éliminant la
multiplication de clusters et en
réduisant la duplication inutile
de données.data duplication.
PRINCIPAUX AVANTAGES
DE BLUEDATA
www.bluedata.com
TLa plupart des déploiements Big Data aujourd’hui répondent
aux besoins de plusieurs groupes d’utilisateurs, installés sur des
clusters dédiés dans l’infrastructure locale. Cette approche peut
être complexe, onéreuse et longue à mettre en oeuvre.
Dans certains cas, ces organisations ont recours à l’utilisation
de Cloud public pour accélérer leurs déploiements Big Data.
Mais le déploiement dans le Cloud public pour l’analyse Big
Data nécessite toujours une configuration complexe; une équipe
DevOps dédiée est souvent nécessaire à la mise en oeuvre. De
plus, la plupart des services Cloud publics ne répondent pas
aux besoins d’avoir différents cas d’usage Big Data fourni à
plusieurs équipes et tenants.
La plate-forme logicielle BlueData EPIC est conçue pour
simplifier et accélérer les déploiements Big Data, que ce soit
localement ou sur Cloud public. Les déploiements Big Data multi-
tenant qui auparavant pouvait prendre quelques mois, peuvent
maintenant être réalisés en quelques jours. Les Data Scientists et
les Data Analysts peuvent créer leurs propres clusters virtuels
Hadoop ou Spark à la demande en quelques minutes, tout en
accédant aux données sur stockage local ou sur le Cloud (par
exemple, Amazon S3).
BlueData EPIC est la couche logicielle fonctionnant sur
l’infrastructure sous-jacente (localement ou sur le Cloud public) et
les distributions et applications Big Data. Grâce à la technologie
conteneur Docker, BlueData EPIC offre un meilleur retour sur
investissement, des coûts réduits et une flexibilité maximale pour
les déploiements Big Data — pour différents groupes d’utilisateurs
ayant des cas d’usage et des besoins d’outils différents — sans
pour autant avoir nécessiter de compétences DevOps ou d’une
équipe d’infrastructure spécialisée.
Réduction du temps de déploiement des environnements Big Data
Clusters Big Data libre-service
Les utilisateurs peuvent facilement créer des clusters Hadoop
ou Spark instantanément avec la fonctionnalité ElasticPlane de
BlueData EPIC. Les nouveaux clusters virtuels sont fournis à
la demande, que ce soit pour des applications Big Data dans
un laboratoire, un environnement de développement et de tests
ou en production. Les Data Scientists et Data Analysts peuvent
désormais répondre rapidement aux besoins dynamiques
métiers en analysant leurs données avec une variété de
méthodes allant de l’analytique SQL aux Machine Learning avec
Spark, et ce en quelques clics.
Multi-tenants sécurisés
Les différentes équipes projet, groupes ou départements de
l’entreprise peuvent partager la même infrastructure — et accéder
aux mêmes sources de données — pour leurs besoins d’analyses
Big Data. BlueData fournit une isolation stricte au niveaux des
tenants et des données pour garantir la séparation logique entre
chaque projet, chaque groupe ou service au sein de l’organisation.
La plate-forme est intégrée aux mécanismes de sécurité et
d’authentification de l’entreprise tels que LDAP, Active Directory,
SSO et Kerberos.
Conteneurs avec une performance native
BlueData a développé une solution unique brevetée d’optimisation
des I/Os. Cela apporte les avantages de l’agilité des conteneurs
Docker au Big Data, tout en garantissant des performances
comparables à celles obtenue nativement sur serveurs sans
virtualisation. La fonctionnalité IOBoost d’EPIC apporte un cache
applicatif et une gestion élastique des ressources qui s’adapte
dynamiquement aux profils I/Os des applications, offrant ainsi les
meilleures performances possibles.
Choix d’outils Big Data
La plateforme BlueData EPIC est pré-intégrée avec les outils et les
applications Big Data les plus populaires. Vous pouvez facilement
créer et démarrer différentes distributions Hadoop, des clusters
Spark ou Kafka indépendamment des distributions Hadoop et
installez votre choix d’outils de science des données tels que les
Jupyter Notebook ou Zeppelin. Vous pouvez également intégrer
vos propres outils Big Data préférés et BlueData EPIC permet de
mettre à jour rapidement vos déploiements Big Data — offrant
ainsi une flexibilité et une configurabilité inégalée.
Accès aux données depuis tout système de stockage
Grâce à la fonctionnalité DataTap d’EPIC, vous pouvez accéder aux
données depuis n’importe quel système de stockage partagé (y
compris HDFS et NFS) ou Amazon S3. Cela signifie que vous
n’avez plus besoin de faire plusieurs copies de données ou de
déplacer des données avant d’exécuter leur analyse sur les
cluster Big Data. Les données sensibles peuvent rester sur votre
système de stockage sécurisé implémentant vote politique de
gouvernance de données, supprimant les coûts et les risques
inhérents à la création et au maintien de plusieurs copies, ou au
transfert vers un Cloud public.
Séparation des noeuds de calcul et du stockage
BlueData sépare la partie traitement analytique de la partie
stockage des données, ce qui vous permet d’adapter
indépendamment les ressources de calcul et de stockage en
fonction de vos besoins. Avec BlueData EPIC, vous disposez
également d’une flexibilité inégalée pour combiner l’infrastructure
à vos besoins Big Data. Vous pouvez exécuter notre plateforme
localement ou sur AWS (et bientôt d’autre Clouds publics).
Cela permet une utilisation plus efficace des ressources et une
réduction des coûts d’exploitation.
CARACTÉRISTIQUES PRINCIPALES
Les distributions Big Data et les outils d’analyse sont déployés et disponibles en
quelques clics.
www.bluedata.com

Mais conteúdo relacionado

Mais procurados

SQL Saturday Paris 2015 - Polybase
SQL Saturday Paris 2015 - PolybaseSQL Saturday Paris 2015 - Polybase
SQL Saturday Paris 2015 - PolybaseRomain Casteres
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
 
Delta lake - des data lake fiables a grande échelle
Delta lake - des data lake fiables a grande échelleDelta lake - des data lake fiables a grande échelle
Delta lake - des data lake fiables a grande échellefrançois de Buttet
 
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)Jean-Pierre Riehl
 
LE CLOUD CEGID ET PROJECT SI
LE CLOUD CEGID ET PROJECT SILE CLOUD CEGID ET PROJECT SI
LE CLOUD CEGID ET PROJECT SIPROJECT SI
 
Exadays cloud – Enjeux et Transformation du SI
Exadays   cloud – Enjeux et Transformation du SIExadays   cloud – Enjeux et Transformation du SI
Exadays cloud – Enjeux et Transformation du SISamir Arezki ☁
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big dataacogoluegnes
 
OpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du CloudOpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du CloudMichel-Marie Maudet
 
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...AZUG FR
 
Azure Camp 9 Décembre 2014 - slides Keynote
Azure Camp 9 Décembre 2014 - slides KeynoteAzure Camp 9 Décembre 2014 - slides Keynote
Azure Camp 9 Décembre 2014 - slides KeynoteMicrosoft
 
Azure Camp 9 Décembre - slides session développeurs webmedia
Azure Camp 9 Décembre - slides session développeurs webmediaAzure Camp 9 Décembre - slides session développeurs webmedia
Azure Camp 9 Décembre - slides session développeurs webmediaMicrosoft
 
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Microsoft Décideurs IT
 
Presentation Hadoop Québec
Presentation Hadoop QuébecPresentation Hadoop Québec
Presentation Hadoop QuébecMathieu Dumoulin
 
OpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégieOpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégieSavoir-faire Linux
 
DataStax Enterprise et Cas d'utilisation de Apache Cassandra
DataStax Enterprise et Cas d'utilisation de Apache CassandraDataStax Enterprise et Cas d'utilisation de Apache Cassandra
DataStax Enterprise et Cas d'utilisation de Apache CassandraVictor Coustenoble
 
OpenStack - open source au service du Cloud
OpenStack - open source au service du CloudOpenStack - open source au service du Cloud
OpenStack - open source au service du CloudLINAGORA
 
04 big data fournisseurs
04 big data fournisseurs04 big data fournisseurs
04 big data fournisseursPatrick Bury
 
Le Cloud IaaS & PaaS, OpenStack réseau et sécurité
Le Cloud IaaS & PaaS, OpenStack réseau et sécuritéLe Cloud IaaS & PaaS, OpenStack réseau et sécurité
Le Cloud IaaS & PaaS, OpenStack réseau et sécuritéNoureddine BOUYAHIAOUI
 

Mais procurados (20)

SQL Saturday Paris 2015 - Polybase
SQL Saturday Paris 2015 - PolybaseSQL Saturday Paris 2015 - Polybase
SQL Saturday Paris 2015 - Polybase
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data Virtualization
 
Delta lake - des data lake fiables a grande échelle
Delta lake - des data lake fiables a grande échelleDelta lake - des data lake fiables a grande échelle
Delta lake - des data lake fiables a grande échelle
 
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)
Azure Data Lake, le big data 2.0 (Global Azure Bootcamp Paris 2017)
 
LE CLOUD CEGID ET PROJECT SI
LE CLOUD CEGID ET PROJECT SILE CLOUD CEGID ET PROJECT SI
LE CLOUD CEGID ET PROJECT SI
 
Openstack proposition
Openstack propositionOpenstack proposition
Openstack proposition
 
Exadays cloud – Enjeux et Transformation du SI
Exadays   cloud – Enjeux et Transformation du SIExadays   cloud – Enjeux et Transformation du SI
Exadays cloud – Enjeux et Transformation du SI
 
Cartographie du big data
Cartographie du big dataCartographie du big data
Cartographie du big data
 
OpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du CloudOpenStack & DevOps, l'Open Source au service du Cloud
OpenStack & DevOps, l'Open Source au service du Cloud
 
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...
GAB 2017 PARIS - Azure Data Lake La Big Data 2.0 par Jean-Pierre Riehl et Fab...
 
Openstack framework Iaas
Openstack framework IaasOpenstack framework Iaas
Openstack framework Iaas
 
Azure Camp 9 Décembre 2014 - slides Keynote
Azure Camp 9 Décembre 2014 - slides KeynoteAzure Camp 9 Décembre 2014 - slides Keynote
Azure Camp 9 Décembre 2014 - slides Keynote
 
Azure Camp 9 Décembre - slides session développeurs webmedia
Azure Camp 9 Décembre - slides session développeurs webmediaAzure Camp 9 Décembre - slides session développeurs webmedia
Azure Camp 9 Décembre - slides session développeurs webmedia
 
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
Big Data : SQL, NoSQL ? Pourquoi faire un choix ?
 
Presentation Hadoop Québec
Presentation Hadoop QuébecPresentation Hadoop Québec
Presentation Hadoop Québec
 
OpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégieOpenStack 2014 - Entre projet et stratégie
OpenStack 2014 - Entre projet et stratégie
 
DataStax Enterprise et Cas d'utilisation de Apache Cassandra
DataStax Enterprise et Cas d'utilisation de Apache CassandraDataStax Enterprise et Cas d'utilisation de Apache Cassandra
DataStax Enterprise et Cas d'utilisation de Apache Cassandra
 
OpenStack - open source au service du Cloud
OpenStack - open source au service du CloudOpenStack - open source au service du Cloud
OpenStack - open source au service du Cloud
 
04 big data fournisseurs
04 big data fournisseurs04 big data fournisseurs
04 big data fournisseurs
 
Le Cloud IaaS & PaaS, OpenStack réseau et sécurité
Le Cloud IaaS & PaaS, OpenStack réseau et sécuritéLe Cloud IaaS & PaaS, OpenStack réseau et sécurité
Le Cloud IaaS & PaaS, OpenStack réseau et sécurité
 

Semelhante a BlueData EPIC datasheet (en Français)

SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSoft Computing
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Converteo
 
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationSession en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationDenodo
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
 
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...IBM France Lab
 
Qu'est-ce que le cloud ?
Qu'est-ce que le cloud ?Qu'est-ce que le cloud ?
Qu'est-ce que le cloud ?Vincent Misson
 
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...Laurence Loth
 
Couchbase Capella.pptx
Couchbase Capella.pptxCouchbase Capella.pptx
Couchbase Capella.pptxSaraHmida1
 
Fiche Produit Verteego Data Suite, mars 2017
Fiche Produit Verteego Data Suite, mars 2017Fiche Produit Verteego Data Suite, mars 2017
Fiche Produit Verteego Data Suite, mars 2017Jeremy Fain
 
Session découverte de la Data Virtualization
Session découverte de la Data VirtualizationSession découverte de la Data Virtualization
Session découverte de la Data VirtualizationDenodo
 
Simplifier la mise en place d'une stratégie Data Mesh avec Denodo
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoSimplifier la mise en place d'une stratégie Data Mesh avec Denodo
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoDenodo
 
AGILLY - Introdution au Cloud Computing.pptx
AGILLY - Introdution au Cloud Computing.pptxAGILLY - Introdution au Cloud Computing.pptx
AGILLY - Introdution au Cloud Computing.pptxGerard Konan
 
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?Denodo
 
Solution Hitachi Content Platform
Solution Hitachi Content PlatformSolution Hitachi Content Platform
Solution Hitachi Content PlatformBertrand LE QUELLEC
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
 
Cloud computing cours in power point chap
Cloud computing cours in power point chapCloud computing cours in power point chap
Cloud computing cours in power point chapaichafarahsouelmi
 
Denodo 2022 : le meilleur time-to-Data du marché
Denodo 2022 : le meilleur time-to-Data du marchéDenodo 2022 : le meilleur time-to-Data du marché
Denodo 2022 : le meilleur time-to-Data du marchéDenodo
 
La Data Virtualization au coeur de l’architecture “Data Mesh”
La Data Virtualization au coeur de l’architecture “Data Mesh”La Data Virtualization au coeur de l’architecture “Data Mesh”
La Data Virtualization au coeur de l’architecture “Data Mesh”Denodo
 
exposer cloud sur le cloud computing et azure
exposer cloud sur le cloud computing et azureexposer cloud sur le cloud computing et azure
exposer cloud sur le cloud computing et azuregaetan FOKOM
 

Semelhante a BlueData EPIC datasheet (en Français) (20)

SAS Forum Soft Computing Théâtre
SAS Forum Soft Computing ThéâtreSAS Forum Soft Computing Théâtre
SAS Forum Soft Computing Théâtre
 
Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018Livre blanc data-lakes converteo 2018
Livre blanc data-lakes converteo 2018
 
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data VirtualizationSession en ligne: Découverte du Logical Data Fabric & Data Virtualization
Session en ligne: Découverte du Logical Data Fabric & Data Virtualization
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data Virtualization
 
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...
IBM Bluemix Paris meetup - Big Data & Analytics dans le Cloud - Epitech- 2016...
 
Qu'est-ce que le cloud ?
Qu'est-ce que le cloud ?Qu'est-ce que le cloud ?
Qu'est-ce que le cloud ?
 
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...
Reduisez vos couts simplifiez votre informatique et accelerez vos deploiement...
 
Couchbase Capella.pptx
Couchbase Capella.pptxCouchbase Capella.pptx
Couchbase Capella.pptx
 
Fiche Produit Verteego Data Suite, mars 2017
Fiche Produit Verteego Data Suite, mars 2017Fiche Produit Verteego Data Suite, mars 2017
Fiche Produit Verteego Data Suite, mars 2017
 
Session découverte de la Data Virtualization
Session découverte de la Data VirtualizationSession découverte de la Data Virtualization
Session découverte de la Data Virtualization
 
Simplifier la mise en place d'une stratégie Data Mesh avec Denodo
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoSimplifier la mise en place d'une stratégie Data Mesh avec Denodo
Simplifier la mise en place d'une stratégie Data Mesh avec Denodo
 
AGILLY - Introdution au Cloud Computing.pptx
AGILLY - Introdution au Cloud Computing.pptxAGILLY - Introdution au Cloud Computing.pptx
AGILLY - Introdution au Cloud Computing.pptx
 
Webinar Degetel DataStax
Webinar Degetel DataStaxWebinar Degetel DataStax
Webinar Degetel DataStax
 
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?
J'ai déjà un ETL, pourquoi aurais-je besoin de la Data Virtualization?
 
Solution Hitachi Content Platform
Solution Hitachi Content PlatformSolution Hitachi Content Platform
Solution Hitachi Content Platform
 
Discovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data VirtualizationDiscovery Session France: Atelier découverte de la Data Virtualization
Discovery Session France: Atelier découverte de la Data Virtualization
 
Cloud computing cours in power point chap
Cloud computing cours in power point chapCloud computing cours in power point chap
Cloud computing cours in power point chap
 
Denodo 2022 : le meilleur time-to-Data du marché
Denodo 2022 : le meilleur time-to-Data du marchéDenodo 2022 : le meilleur time-to-Data du marché
Denodo 2022 : le meilleur time-to-Data du marché
 
La Data Virtualization au coeur de l’architecture “Data Mesh”
La Data Virtualization au coeur de l’architecture “Data Mesh”La Data Virtualization au coeur de l’architecture “Data Mesh”
La Data Virtualization au coeur de l’architecture “Data Mesh”
 
exposer cloud sur le cloud computing et azure
exposer cloud sur le cloud computing et azureexposer cloud sur le cloud computing et azure
exposer cloud sur le cloud computing et azure
 

Mais de BlueData, Inc.

Introduction to KubeDirector - SF Kubernetes Meetup
Introduction to KubeDirector - SF Kubernetes MeetupIntroduction to KubeDirector - SF Kubernetes Meetup
Introduction to KubeDirector - SF Kubernetes MeetupBlueData, Inc.
 
Dell EMC Ready Solutions for Big Data
Dell EMC Ready Solutions for Big DataDell EMC Ready Solutions for Big Data
Dell EMC Ready Solutions for Big DataBlueData, Inc.
 
BlueData and Hortonworks Data Platform (HDP)
BlueData and Hortonworks Data Platform (HDP)BlueData and Hortonworks Data Platform (HDP)
BlueData and Hortonworks Data Platform (HDP)BlueData, Inc.
 
How to Protect Big Data in a Containerized Environment
How to Protect Big Data in a Containerized EnvironmentHow to Protect Big Data in a Containerized Environment
How to Protect Big Data in a Containerized EnvironmentBlueData, Inc.
 
Best Practices for Running Kafka on Docker Containers
Best Practices for Running Kafka on Docker ContainersBest Practices for Running Kafka on Docker Containers
Best Practices for Running Kafka on Docker ContainersBlueData, Inc.
 
Bare-metal performance for Big Data workloads on Docker containers
Bare-metal performance for Big Data workloads on Docker containersBare-metal performance for Big Data workloads on Docker containers
Bare-metal performance for Big Data workloads on Docker containersBlueData, Inc.
 
Lessons Learned from Dockerizing Spark Workloads
Lessons Learned from Dockerizing Spark WorkloadsLessons Learned from Dockerizing Spark Workloads
Lessons Learned from Dockerizing Spark WorkloadsBlueData, Inc.
 
BlueData EPIC on AWS - Spec Sheet
BlueData EPIC on AWS - Spec SheetBlueData EPIC on AWS - Spec Sheet
BlueData EPIC on AWS - Spec SheetBlueData, Inc.
 
Lessons Learned Running Hadoop and Spark in Docker Containers
Lessons Learned Running Hadoop and Spark in Docker ContainersLessons Learned Running Hadoop and Spark in Docker Containers
Lessons Learned Running Hadoop and Spark in Docker ContainersBlueData, Inc.
 
The Time Has Come for Big-Data-as-a-Service
The Time Has Come for Big-Data-as-a-ServiceThe Time Has Come for Big-Data-as-a-Service
The Time Has Come for Big-Data-as-a-ServiceBlueData, Inc.
 
Solution Brief: Real-Time Pipeline Accelerator
Solution Brief: Real-Time Pipeline AcceleratorSolution Brief: Real-Time Pipeline Accelerator
Solution Brief: Real-Time Pipeline AcceleratorBlueData, Inc.
 
Hadoop Virtualization - Intel White Paper
Hadoop Virtualization - Intel White PaperHadoop Virtualization - Intel White Paper
Hadoop Virtualization - Intel White PaperBlueData, Inc.
 
Solution Brief: Big Data Lab Accelerator
Solution Brief: Big Data Lab AcceleratorSolution Brief: Big Data Lab Accelerator
Solution Brief: Big Data Lab AcceleratorBlueData, Inc.
 
How to deploy Apache Spark in a multi-tenant, on-premises environment
How to deploy Apache Spark in a multi-tenant, on-premises environmentHow to deploy Apache Spark in a multi-tenant, on-premises environment
How to deploy Apache Spark in a multi-tenant, on-premises environmentBlueData, Inc.
 
BlueData EPIC 2.0 Overview
BlueData EPIC 2.0 OverviewBlueData EPIC 2.0 Overview
BlueData EPIC 2.0 OverviewBlueData, Inc.
 
Big Data Case Study: Fortune 100 Telco
Big Data Case Study: Fortune 100 TelcoBig Data Case Study: Fortune 100 Telco
Big Data Case Study: Fortune 100 TelcoBlueData, Inc.
 
BlueData Hunk Integration: Splunk Analytics for Hadoop
BlueData Hunk Integration: Splunk Analytics for HadoopBlueData Hunk Integration: Splunk Analytics for Hadoop
BlueData Hunk Integration: Splunk Analytics for HadoopBlueData, Inc.
 
Spark Infrastructure Made Easy
Spark Infrastructure Made EasySpark Infrastructure Made Easy
Spark Infrastructure Made EasyBlueData, Inc.
 
BlueData Integration with Cloudera Manager
BlueData Integration with Cloudera ManagerBlueData Integration with Cloudera Manager
BlueData Integration with Cloudera ManagerBlueData, Inc.
 

Mais de BlueData, Inc. (19)

Introduction to KubeDirector - SF Kubernetes Meetup
Introduction to KubeDirector - SF Kubernetes MeetupIntroduction to KubeDirector - SF Kubernetes Meetup
Introduction to KubeDirector - SF Kubernetes Meetup
 
Dell EMC Ready Solutions for Big Data
Dell EMC Ready Solutions for Big DataDell EMC Ready Solutions for Big Data
Dell EMC Ready Solutions for Big Data
 
BlueData and Hortonworks Data Platform (HDP)
BlueData and Hortonworks Data Platform (HDP)BlueData and Hortonworks Data Platform (HDP)
BlueData and Hortonworks Data Platform (HDP)
 
How to Protect Big Data in a Containerized Environment
How to Protect Big Data in a Containerized EnvironmentHow to Protect Big Data in a Containerized Environment
How to Protect Big Data in a Containerized Environment
 
Best Practices for Running Kafka on Docker Containers
Best Practices for Running Kafka on Docker ContainersBest Practices for Running Kafka on Docker Containers
Best Practices for Running Kafka on Docker Containers
 
Bare-metal performance for Big Data workloads on Docker containers
Bare-metal performance for Big Data workloads on Docker containersBare-metal performance for Big Data workloads on Docker containers
Bare-metal performance for Big Data workloads on Docker containers
 
Lessons Learned from Dockerizing Spark Workloads
Lessons Learned from Dockerizing Spark WorkloadsLessons Learned from Dockerizing Spark Workloads
Lessons Learned from Dockerizing Spark Workloads
 
BlueData EPIC on AWS - Spec Sheet
BlueData EPIC on AWS - Spec SheetBlueData EPIC on AWS - Spec Sheet
BlueData EPIC on AWS - Spec Sheet
 
Lessons Learned Running Hadoop and Spark in Docker Containers
Lessons Learned Running Hadoop and Spark in Docker ContainersLessons Learned Running Hadoop and Spark in Docker Containers
Lessons Learned Running Hadoop and Spark in Docker Containers
 
The Time Has Come for Big-Data-as-a-Service
The Time Has Come for Big-Data-as-a-ServiceThe Time Has Come for Big-Data-as-a-Service
The Time Has Come for Big-Data-as-a-Service
 
Solution Brief: Real-Time Pipeline Accelerator
Solution Brief: Real-Time Pipeline AcceleratorSolution Brief: Real-Time Pipeline Accelerator
Solution Brief: Real-Time Pipeline Accelerator
 
Hadoop Virtualization - Intel White Paper
Hadoop Virtualization - Intel White PaperHadoop Virtualization - Intel White Paper
Hadoop Virtualization - Intel White Paper
 
Solution Brief: Big Data Lab Accelerator
Solution Brief: Big Data Lab AcceleratorSolution Brief: Big Data Lab Accelerator
Solution Brief: Big Data Lab Accelerator
 
How to deploy Apache Spark in a multi-tenant, on-premises environment
How to deploy Apache Spark in a multi-tenant, on-premises environmentHow to deploy Apache Spark in a multi-tenant, on-premises environment
How to deploy Apache Spark in a multi-tenant, on-premises environment
 
BlueData EPIC 2.0 Overview
BlueData EPIC 2.0 OverviewBlueData EPIC 2.0 Overview
BlueData EPIC 2.0 Overview
 
Big Data Case Study: Fortune 100 Telco
Big Data Case Study: Fortune 100 TelcoBig Data Case Study: Fortune 100 Telco
Big Data Case Study: Fortune 100 Telco
 
BlueData Hunk Integration: Splunk Analytics for Hadoop
BlueData Hunk Integration: Splunk Analytics for HadoopBlueData Hunk Integration: Splunk Analytics for Hadoop
BlueData Hunk Integration: Splunk Analytics for Hadoop
 
Spark Infrastructure Made Easy
Spark Infrastructure Made EasySpark Infrastructure Made Easy
Spark Infrastructure Made Easy
 
BlueData Integration with Cloudera Manager
BlueData Integration with Cloudera ManagerBlueData Integration with Cloudera Manager
BlueData Integration with Cloudera Manager
 

BlueData EPIC datasheet (en Français)

  • 1. Plateforme BlueData EPIC™ pour Big-Data-as-a-Service (BDaaS) Avec le logiciel BlueData EPIC (Elastic Private Instant Clusters), vous pouvez déployer des clusters Hadoop et Spark en quelques minutes au lieu de plusieurs semaines avec les données et les outils d’analyse dont les Data Scientists ont besoins. Que ce soit dans votre infrastructure locale ou sur AWS, vous pouvez fournir facilement une expérience libre-service aux utilisateurs et créer des environnements Big Data à la demande; Hadoop, Spark, Kafka, Cassandra, et plus. La plateforme logicielle BlueData associe la technologie des conteneurs Docker à des innovations brevetées, pour apporter plus de flexibilité et des réductions de coût aux environnements Big Data: • ElasticPlane™ permet aux utilisateurs de créer et de démarrer des clusters virtuels à la demande dans un environnement sécurisé, multi-tenant. • IOBoost™ assure le même niveau de performance qu’en environnement natif sans virtualisation, avec en plus l’agilité et la simplicité des conteneurs Docker. • DataTap™ accélère le retour sur investissement pour les architectures Big Data en éliminant le temps passé à déplacer les données. La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus, dans l’infrastructure locale ou dans le cloud public. Clusters Hadoop et Spark à la demande Augmentez l’agilité de votre entreprise en permettant aux Data Scientists et Data Ana- lysts de créer des clusters Big Data en quelques minutes, en quelques clics de souris. Simplifier les déploiements locaux avec une solution Big Data à la demande, clé en main, comprenant des images de distributions majeures Hadoop et Spark prêtes à l’utilisation. Accélération de l’innovation avec les images pré-intégrées des principales distributions Big Data, outils de BI, analytique et visualisation. Réduction des mouvements de données en séparant les serveurs de calcul du stockage et d’autre et en utilisant la fonc- tion DataTap. Maintien de la sécurité et du contrôle dans un envi- ronnement multi-tenant, intégré avec votre politique de sécurité d’entreprise (par exemple LDAP, Active Directory, SSO, Kerbe- ros). Obtenir des réductions des coûts jusqu’à 75% en amélio- rant et en contrôlant l’utilisation des ressources, en éliminant la multiplication de clusters et en réduisant la duplication inutile de données.data duplication. PRINCIPAUX AVANTAGES DE BLUEDATA www.bluedata.com
  • 2. TLa plupart des déploiements Big Data aujourd’hui répondent aux besoins de plusieurs groupes d’utilisateurs, installés sur des clusters dédiés dans l’infrastructure locale. Cette approche peut être complexe, onéreuse et longue à mettre en oeuvre. Dans certains cas, ces organisations ont recours à l’utilisation de Cloud public pour accélérer leurs déploiements Big Data. Mais le déploiement dans le Cloud public pour l’analyse Big Data nécessite toujours une configuration complexe; une équipe DevOps dédiée est souvent nécessaire à la mise en oeuvre. De plus, la plupart des services Cloud publics ne répondent pas aux besoins d’avoir différents cas d’usage Big Data fourni à plusieurs équipes et tenants. La plate-forme logicielle BlueData EPIC est conçue pour simplifier et accélérer les déploiements Big Data, que ce soit localement ou sur Cloud public. Les déploiements Big Data multi- tenant qui auparavant pouvait prendre quelques mois, peuvent maintenant être réalisés en quelques jours. Les Data Scientists et les Data Analysts peuvent créer leurs propres clusters virtuels Hadoop ou Spark à la demande en quelques minutes, tout en accédant aux données sur stockage local ou sur le Cloud (par exemple, Amazon S3). BlueData EPIC est la couche logicielle fonctionnant sur l’infrastructure sous-jacente (localement ou sur le Cloud public) et les distributions et applications Big Data. Grâce à la technologie conteneur Docker, BlueData EPIC offre un meilleur retour sur investissement, des coûts réduits et une flexibilité maximale pour les déploiements Big Data — pour différents groupes d’utilisateurs ayant des cas d’usage et des besoins d’outils différents — sans pour autant avoir nécessiter de compétences DevOps ou d’une équipe d’infrastructure spécialisée. Réduction du temps de déploiement des environnements Big Data Clusters Big Data libre-service Les utilisateurs peuvent facilement créer des clusters Hadoop ou Spark instantanément avec la fonctionnalité ElasticPlane de BlueData EPIC. Les nouveaux clusters virtuels sont fournis à la demande, que ce soit pour des applications Big Data dans un laboratoire, un environnement de développement et de tests ou en production. Les Data Scientists et Data Analysts peuvent désormais répondre rapidement aux besoins dynamiques métiers en analysant leurs données avec une variété de méthodes allant de l’analytique SQL aux Machine Learning avec Spark, et ce en quelques clics. Multi-tenants sécurisés Les différentes équipes projet, groupes ou départements de l’entreprise peuvent partager la même infrastructure — et accéder aux mêmes sources de données — pour leurs besoins d’analyses Big Data. BlueData fournit une isolation stricte au niveaux des tenants et des données pour garantir la séparation logique entre chaque projet, chaque groupe ou service au sein de l’organisation. La plate-forme est intégrée aux mécanismes de sécurité et d’authentification de l’entreprise tels que LDAP, Active Directory, SSO et Kerberos. Conteneurs avec une performance native BlueData a développé une solution unique brevetée d’optimisation des I/Os. Cela apporte les avantages de l’agilité des conteneurs Docker au Big Data, tout en garantissant des performances comparables à celles obtenue nativement sur serveurs sans virtualisation. La fonctionnalité IOBoost d’EPIC apporte un cache applicatif et une gestion élastique des ressources qui s’adapte dynamiquement aux profils I/Os des applications, offrant ainsi les meilleures performances possibles. Choix d’outils Big Data La plateforme BlueData EPIC est pré-intégrée avec les outils et les applications Big Data les plus populaires. Vous pouvez facilement créer et démarrer différentes distributions Hadoop, des clusters Spark ou Kafka indépendamment des distributions Hadoop et installez votre choix d’outils de science des données tels que les Jupyter Notebook ou Zeppelin. Vous pouvez également intégrer vos propres outils Big Data préférés et BlueData EPIC permet de mettre à jour rapidement vos déploiements Big Data — offrant ainsi une flexibilité et une configurabilité inégalée. Accès aux données depuis tout système de stockage Grâce à la fonctionnalité DataTap d’EPIC, vous pouvez accéder aux données depuis n’importe quel système de stockage partagé (y compris HDFS et NFS) ou Amazon S3. Cela signifie que vous n’avez plus besoin de faire plusieurs copies de données ou de déplacer des données avant d’exécuter leur analyse sur les cluster Big Data. Les données sensibles peuvent rester sur votre système de stockage sécurisé implémentant vote politique de gouvernance de données, supprimant les coûts et les risques inhérents à la création et au maintien de plusieurs copies, ou au transfert vers un Cloud public. Séparation des noeuds de calcul et du stockage BlueData sépare la partie traitement analytique de la partie stockage des données, ce qui vous permet d’adapter indépendamment les ressources de calcul et de stockage en fonction de vos besoins. Avec BlueData EPIC, vous disposez également d’une flexibilité inégalée pour combiner l’infrastructure à vos besoins Big Data. Vous pouvez exécuter notre plateforme localement ou sur AWS (et bientôt d’autre Clouds publics). Cela permet une utilisation plus efficace des ressources et une réduction des coûts d’exploitation. CARACTÉRISTIQUES PRINCIPALES Les distributions Big Data et les outils d’analyse sont déployés et disponibles en quelques clics. www.bluedata.com