Description de la mission :
Prestation de Data Engineering visant à mettre en place de nouveaux produits accompagnant la transition technologique de la plateforme et l’évolution des pratiques associées. La mission inclut également l’accompagnement de l’équipe dans la montée en compétence sur les outils du socle : DBT, Kafka, Kafka Connect, Trino.
Responsabilités principales :
Concevoir, implémenter et documenter des pipelines d’ingestion et de transformation (DBT, Kafka Connect, Trino).
Mettre en place des modèles de données optimisés et cohérents avec les standards du socle.
Participer à la migration et à l’optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg).
Intégrer les développements dans la chaîne CI/CD, en respectant les pratiques de déploiement du socle.
Participer à la gestion des habilitations et au contrôle des accès, en conformité avec les principes de sécurité et le RGPD.
Contribuer à la mise en place d’outils d’observabilité (logs, monitoring, audit des accès, performance des jobs).
Accompagner l’équipe dans la prise en main de DBT et Kafka.
Partager les bonnes pratiques de développement, de test et de gestion du code (revues, documentation, mentoring).
Être force de proposition pour l’amélioration continue du socle et des workflows de développement.
Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour garantir la cohérence des modèles et processus.
Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective).
Compétences requises :
Kafka
DBT
Python
Si vous êtes disponible et intéressé(e), merci de me transmettre votre TJM ainsi que votre CV à jour au format Word.
- Le client: est une SSII spécialisée dans le placement des ressources humaines
- Durée indicative: 1 an renouvelable
- Tarif journalier indicatif: 400 €
- Type de mission: Freelance en télétravail/régie
- Démarrage: asap
- Lieu: Nantes