Tech Lead Data / Cloudera Montpellier (34) -Cloudera CDP Private Cloud, OpenShift ;
-CI/CD : Gitlab, Jenkins, Nexus, Ansible, AWX, Docker ;
-Développement : Scala (Akka, Cats), SBT, Python ;
-Technos principales : Airflow, Spark, Kafka, Kafka Stream, Spark Streaming, HDFS, Hive, Avro, Parquet, Rest API ;
-DataViz : Kibana (ELK), Tableau ;
-Data Exploration : DataIku, Zeppelin ;
-Data Management : Collibra ;
-Architectures orientées services et les structures complexes de données ;
-Automatisation les déploiements des applications et construction d’une chaîne CI/CD ;
-Gestion des travaux de code review et de coaching des développeurs/OPS ;
-Méthodologies Agile, pratiques XP. Application du cadre SCRUM et SAFe.
Activités demandées :
-Piloter les Roadmaps technique et capacitaire de la plate-forme Data Lake as a Service en anticipant les besoins pour la faire évoluer et améliorer son offre de service, en identifiant les solutions de l’offre Cloudera et des leaders du marché ;
-Concevoir, développer, tester et déployer les différentes briques de la plateforme One Data Lake pour offrir le meilleur niveau de réponse aux exigences fonctionnelles des métiers ainsi qu’aux exigences de performance, de scalabilité, de résilience, d’évolutivité, d’exploitabilité, de conformité aux exigences de sécurité et RGPD ;
-Construire et améliorer la CI/CD, évaluer la performance de notre plateforme et piloter la dette technique, mener des analyses d’impacts techniques, mener la conception des solutions transverses avec les architectes Infrastructure et Solutions le cas échéant, définir les stratégies de tests non fonctionnels et la mesure de leur exécution, définir des stratégies de migration et/ou d’intégration de nouveaux acteurs/clients au sein du DLG ;
-Participer à l’évolution et à l’amélioration des services déjà en place dans le but d’apporter la meilleure expérience utilisateur, et de maximiser les possibilités offertes par les architectures choisies tout en respectant les bonnes pratiques de développement ;
-Contribuer à faire progresser l’organisation, le produit en organisant le partage des expériences et expertises entre les acteurs du Socle Data Lake.
Livrables attendues :
-Les solutions techniques sur le périmètre fonctionnel produit concerné ;
-La documentation de référence sur ces solutions et développements ;
-Les modes opératoires pour les déploiements en environnement de test, pré-production et production ;
-Les supports de montée en compétence ;
-Reporting d’organisation et de suivi de sprint et PI (indicateurs agiles) ;
-Compte rendu d’activité quotidien de l’équipe projet.
Expertise opérationnelles requises sur la prestation :
-Management technique du livrable logiciel ;
-Leadership ;
-Delivery focusé sur le résultat, la satisfaction client et la performance ;
-Gestion des Engagements et Delivery sur des niveaux de qualité élevés sur les exigences de maintenabilité, exploitabilité, sécurité ;
-Travail collaboratif ;
-Communication orale et écrite efficace :
Avancement des travaux / difficultés / risques ;
Publication adapté aux différents publics.
Expertises techniques requises sur la prestation :
-Cloudera CDP Private Cloud, OpenShift ;
-CI/CD : Gitlab, Jenkins, Nexus, Ansible, AWX, Docker ;
-Développement : Scala (Akka, Cats), SBT, Python ;
-Technos principales : Airflow, Spark, Kafka, Kafka Stream, Spark Streaming, HDFS, Hive, Avro, Parquet, Rest API ;
-DataViz : Kibana (ELK), Tableau ;
-Data Exploration : DataIku, Zeppelin ;
-Data Management : Collibra ;
-Architectures orientées services et les structures complexes de données ;
-Automatisation les déploiements des applications et construction d’une chaîne CI/CD ;
-Gestion des travaux de code review et de coaching des développeurs/OPS ;
-Méthodologies Agile, pratiques XP. Application du cadre SCRUM et SAFe.