En tant que Data Engineer, vous jouerez un rôle clé dans la gestion et l’optimisation de notre pipeline de données. Vous serez responsable de la collecte, de la transformation et du stockage des données sur notre infrastructure GCP, tout en garantissant leur qualité et leur disponibilité.
Vos principales missions seront :
Développer et maintenir des pipelines de données robustes et scalables avec Airbyte, Airflow et dbt.
Optimiser l’ingestion et la transformation des données en exploitant les meilleures pratiques sur GCP (BigQuery, Cloud Storage, Pub/Sub, etc.).
Gérer et monitorer notre infrastructure de données sur Kubernetes (GKE).
Assurer la qualité et la gouvernance des données en implémentant des solutions de monitoring et de validation.
Collaborer avec les équipes tech et produit pour garantir l’alignement entre les besoins business et la stack data.
Langage principal : Python, PHP, SQL
ETL / ELT : Airbyte, Airflow, dbt
Infrastructure : GCP (BigQuery, Cloud Storage, Pub/Sub, GKE)
Orchestration : Kubernetes (GKE)
Outils complémentaires : Terraform, Git, CI/CD
Nous recherchons un(e) Data Engineer passionné(e), capable de travailler en autonomie et en collaboration avec des équipes pluridisciplinaires.
Compétences requises : ✅ Maîtrise de Python et des bonnes pratiques de développement. ✅ Expérience avec Airbyte, Airflow et dbt pour la gestion des flux de données. ✅ Connaissance avancée de GCP et des services liés à la data (BigQuery, Cloud Storage, etc.). ✅ Expérience avec Kubernetes (GKE) pour le déploiement et la gestion des workloads. ✅ Bonne compréhension des architectures data et des principes de data engineering.
Les plus : ⭐ Expérience en CI/CD et infrastructure as code (Terraform). ⭐ Sensibilité aux enjeux de data governance et data quality. ⭐ Expérience avec des architectures temps réel et streaming.
☎️ Visio avec notre CTO
👉 Entretien physique avec notre équipe Tech
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.