2. 2
Présentation de Spark Packages & Co
Comment partager de la données entre différents job Spark ?
Comment s’interfacer avec Spark ?
Comment rendre une application Spark interactive ?
4. 4
Comment partager de la données entre
différents job Spark ?
Cas d’usage : Plusieurs contextes Spark utilisant un même
fichier d’enrichissement.
Solution 1 : Lire et relire et rerelire le même fichier à chaque
fois.
Solution 2 : Utiliser Tachyon
17. 18
Comment rendre une application Spark
interactive ?
Cas d’usage : Créer une API Rest pour exécuter du Spark et
aider au management des contextes Spark.
Solution 1 : Le faire à la main à base d’Akka + Spray etc …
Solution 2 : Utiliser ce qu’il y’a de disponible dans les Spark-
Packages
18. 19
Spark-jobserver
Open Source
Gestion des contextes Spark par le JobServer
Gestion des « applications » sous forme de jar
Appel d’applications Synchrone ou Asynchrone
Statuts des jobs exécutés
Gestion de la validation des paramètres avant soumission a
Spark