Vos missions :
- Mise en place de pipelines de traitement de données
- Utilisation de l’état de l’art des technologies actuelles dédiées à ces activités : Spark / Scala
- Développement sur des stacks Databricks
- Utilisation de tous les types de stockage actuels
Environnement technique :
Scala
Scripting (GuitHub, Ansible, AWX, shell, vba)
Spark
Compétence en développement (Shell unix, Perl, PHP, Python, Git, Github)