Nous recherchons un Data Engineer talentueux et expérimenté pour contribuer à l’amélioration de la scalabilité et de l’observabilité des étapes de transformation de nos données.
Vous jouerez un rôle clé dans la refonte de nos systèmes de collecte et de traitement des données, en mettant l’accent sur l’optimisation et l’efficacité.
Vous rejoindrez une entreprise en hypercroissance avec de grandes ambitions pour 2025.
Responsabilités
Assurer le lead technique sur l’ingestion, le chargement et la transformation des données (Datalake, Datawarehouse).
Concevoir, développer et maintenir des pipelines de données robustes et évolutifs.
Migrer les processus actuels d’orchestration et de transformation vers des outils modernes tels Dbt, Airflow et Dagster.
Modéliser, implémenter et automatiser les différents flux de données.
Refonte des scripts actuels pour les rendre plus linéaires et faciles à maintenir.
Effectuer des tests de qualité et mettre en place des contrôles pour garantir l’exactitude des données.
Réfléchir à la scalabilité de nos processus et de notre structure data
Ce que l’on offre :
Un challenge technique : Nous manipulons et transformons des flux de données nombreux et volumineux pour restituer l’information le plus simplement possible. Il y a beaucoup de choses à concevoir et construire pour y parvenir.
Un environnement de travail bienveillant : Accueil, partage, respect et développement personnel.
Une autonomie importante : Confiance au lieu de contrôle, apprentissage par les erreurs et créativité dans les solutions.
Passionné(e) par la data et la résolution de problèmes complexes, vous êtes proactif(ve) et excellez en équipe dans un environnement dynamique. Votre engagement envers les meilleures pratiques et vos compétences en communication font de vous la personne idéale pour cette mission.
Vous êtes diplômé(e) d’une école d’ingénieur, d’un Master 2 en data ou informatique, ou d’une formation équivalente.
Compétences requises :
Minimum 5 ans d’expérience en data engineering (hors stage et alternance).
Solides compétences en programmation Python et SQL (Postgres)
Maîtrise des outils d’extraction, transformation (ELT/ETL) et orchestration tels que DBT, Airflow ou Dagster et Airbyte.
Connaissance des technologies de transformation in-memory (DuckDB, Polars, Spark)
Connaissance des outils de versionnement de code (Git) et des environnements de développement collaboratif
Capacité à comprendre et optimiser des flux de données complexes
Compétences en analyse de données et en résolution de problèmes
Bonne communication et capacité à travailler en équipe
Atouts supplémentaires (“cherry on the cake”) :
Expérience en start-up.
Une expérience cloud est un vrai plus (RDS, BigQuery ou autres).
Familiarité avec des technologies NoSQL telles que ClickHouse.
Connaissances en utilisation de LLM.
Expérience en extraction de données via API ou en scraping est un plus.
Expérience managériale.
Étape 1 : échange téléphonique de 30 min pour vérifier ensemble si l’offre vous correspond et si vous correspondez à l’offre.
Etape 2 : échange avec l’équipe data en physique avec pour rentrer dans le détail du poste
Etape 3 : échange en physique avec les associés
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres