[Finance] Data Engineer (H/F) [Finance] Data Engineer (H/F) …

Meritis
à Paris, Île-de-France, France
CDI, Plein-temps
Dernière candidature, 20 sept. 19
Competitive
Meritis
à Paris, Île-de-France, France
CDI, Plein-temps
Dernière candidature, 20 sept. 19
Competitive
[Finance] Data Engineer (H/F)
Vos points forts

#NoSQL #Big Data #Data Mining #Python #Hadoop #Spark #Scala #Real Time

Ce projet est-il fait pour vous ?
  • Vous êtes passionné de Big Data.
  • Votre maîtrise du Big Data et de la BI sont sans faille.
  • Vous avez déjà mené des projets utilisant des technologies similaires.


Contexte

Pour le compte d'un grand groupe bancaire, vous intégrerez un DataLab transverse à l'ensemble des filiales du groupe.

Dans un contexte d'innovation et de refonte architecturale, vous interviendrez sur 2 plans distincts : l'accompagnement des départements métiers impactés dans la conception et la construction d'un environnement analytique Big Data. Au terme de l'implémentation de fonctionnalités analytiques supplémentaires en Python et R, vous devrez superviser le développement, sous SPARK, de modélisations de données afin de permettre leur application à des volumes très importants.

Projet

Pour mener à bien ce projet, vous aurez pour responsabilités de :
  • Rédiger un document établissant le bilan des composants installés : versions, fonctionnalités, niveau de maturité, failles connus.
  • Élaborer un protocole de tests pour valider la configuration et la sécurisation de chaque composant. Ce protocole devra décrire les étapes et scripts à appliquer.
  • Réaliser un document décrivant les étapes d'installation et de configuration des outils analytiques complémentaires (Python ou Scala) sur une plateforme distribuée.
  • Effectuer une démonstration aux membres du Data Lab permettant de valider le bon fonctionnement des composants analytiques par un exemple d'application sur un jeu de données fourni par le DataLab.
  • Rédiger un document de spécifications des fonctions à développer sous Spark.
  • Documenter les codes sources correspondants aux développements effectués. Ces derniers devront assurer une compatibilité totale avec les environnements Big Data en place.
  • Des connaissances en Cloud et DevOps sont appréciables.

Close
Loading...