Mission
Au sein de l’équipe Data et au coeur de la plateforme Data, la prestation se déroule en collaboration avec les experts métiers de la donnée.
-La collecte et l’ingestion des différentes sources de données brutes
-La mise en place de pipelines de traitement de données
-Le développement des modèles de données
-L’extraction et l’exposition des données vers la zone Silver
-L’industrialisation des différents environnements, en collaboration avec l’équipe d’exploitation (Ops)
-La participation active aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
-La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données
-La participation active à la veille technique
-L’amélioration des performances et la maîtrise des coûts
Profil recherché
Expertises requises :
- Au moins 5 ans d’expérience en tant que Data ingénieur dans un environnement data
- Compétences solides en data : structures de données, code, architecture
- Expériences dans un environnement du Google Cloud Platform (GCP)
- Expériences sur des projets Big Data intégrant PySpark, BigQuery, et Airflow
- Expériences dans la mise en place de pipeline ETL / ELT
- Expériences sur des projets intégrant Gitlab (Gitlab CI/CD)
- Expériences sur des projets intégrant Docker
- Expériences sur des projets intégrant Terraform et Terragrunt
- Une maitrise des langages SQL et Python est indispensable
- Capacité à vulgariser et à communiquer sur des aspects purement techniques
- Pratique des méthodes Agile (Scrum, Kanban)
- Le client: est une SSII spécialisée dans le placement des ressources humaines
- Durée indicative: 6 mois
- Tarif journalier indicatif: 500 €
- Type de mission: Freelance en télétravail/régie
- Démarrage: asap
- Lieu: Paris