Rejoins Edifice et participe à une étape clé de notre développement : la modernisation de notre stack data !
Rattaché.e à l’équipe Data & IA et en collaboration étroite avec les équipes SRE, Customer et User Success, tu seras responsable de la mise en oeuvre et de la maintenance de notre nouvelle architecture de données, conçue pour soutenir notre croissance en France et à l’international.
Dans le cadre de notre stratégie de souveraineté numérique et pour garantir le plus haut niveau de sécurité à nos utilisateurs, nous visons la certification SecNumCloud. Pour cela, notre architecture data s’appuiera exclusivement sur des outils open source, hébergés sur des infrastructures cloud de confiance (OVHcloud, Scaleway) et entièrement opérés par nos équipes internes. Suite à un audit, nous avons défini une stack technique full open source composée principalement d’Apache Spark, Apache Airflow, Trino, dbt, Apache Iceberg, le tout orchestré sur Kubernetes.
Tes missions principales seront :
Installer et configurer les outils de la nouvelle architecture data en t’appuyant sur l’équipe SRE pour les aspects Kubernetes.
Orchestrer les flux de travail de données à l’aide d’Apache Airflow sur Kubernetes et migrer les scripts d’ingestion et de transformation existants vers cette plateforme.
Mettre en place le Data Lakehouse (Apache Iceberg + Trino + Dbeaver)
Déployer et maintenir l’outil de transformation de données dbt, qui sera utilisé par l’Analytics Engineer pour la modélisation. Tu pourras également contribuer à la migration des jobs de transformation existants.
Collaborer avec les Data Analysts et les Product Managers pour comprendre leurs besoins et leur fournir les données nécessaires à leurs analyses et explorations.
Développer et maintenir des pipelines de données robustes et scalables pour l’ingestion, le stockage, la transformation et l’exposition des données provenant de sources variées (bases de données, logs, APIs, fichiers, etc.).
Assurer la qualité, la fiabilité et la sécurité des données tout au long du cycle de vie.
Apporter ton expertise technique sur les aspects data de nos projets d’IA (Machine Learning, IA générative avec RAG, agents)
Participer à la veille technologique sur les outils et les bonnes pratiques de l’ingénierie des données.
Nous recherchons un(e) ingénieur(e) passionné(e) par la donnée, désireux(se) de contribuer à un projet ambitieux de modernisation et de mettre en place une architecture data performante et évolutive.
Compétences Techniques Requises :
Solide expérience en ingénierie des données (minimum 3-5 ans souhaités).
Maîtrise des langages Python, Java et SQL.
Expérience significative avec les écosystèmes Big Data, notamment Apache Spark.
Bonne connaissance des outils d’orchestration comme Apache Airflow.
Expérience avec les outils de transformation de données comme dbt.
Connaissance des architectures Data Lake ou Data Lakehouse (Apache Iceberg est un plus).
Connaissance des environnements conteneurisés (Docker, Kubernetes).
Connaissance du protocole S3.
Développement agile pour apporter rapidement de la valeur par petites itérations.
Compétences Appréciées :
Expérience avec des moteurs de requêtage distribué comme Trino (anciennement PrestoSQL).
Connaissance des outils de BI (Tableau, Superset).
Expérience avec les plateformes Cloud (une expérience sur OVHcloud est un plus).
Connaissance des principes de gouvernance des données et de Data Quality.
Intérêt pour le secteur de l’EdTech.
Capacité à travailler en anglais, l’espagnol serait un plus.
Protocole d’authentification OIDC.
Qualités Personnelles :
Autonomie, rigueur et proactivité.
Excellentes capacités d’analyse et de résolution de problèmes.
Bonnes capacités de communication, notamment pour expliquer des concepts techniques à des non techniciens.
Curiosité et envie d’apprendre en continu.
Capacité à travailler dans un environnement en évolution rapide.
Formation :
Si tu es prêt(e) à relever ce défi et à contribuer activement à la transformation data d’Edifice, n’hésite pas à postuler !
Process classique de recrutement sur une durée moyenne de 3 à 4 semaines :
Un premier entretien avec Frédéric, responsable IA et Data ;
Un deuxième entretien avec Thomas, responsable SRE pour validation des compétences infra et ops ;
Un dernier entretien avec Esther, la directrice des opérations.
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres