Rattaché(e) au Head of Data, vous aurez comme missions principales:
Concevoir, développer et maintenir l’infrastructure du Data Lake de Nomadia, ainsi que les pipelines d’intégration des données provenant des différentes sources, pour permettre l’analyse avancée et le développement de solutions d’Intelligence Artificielle.
Responsabilités Clés:
Conception et développement du Data Lake
Concevoir et implémenter l’architecture du Data Lake en collaboration avec le Head of Data
Établir les bonnes pratiques pour l’organisation des données (zones raw, trusted, refined)
Assurer la scalabilité, la performance et la sécurité de l’infrastructure data
Mettre en place un système de catalogage et de documentation des données
Assurer la compatibilité avec la RGPD
Intégration des sources de données
Développer des pipelines ETL/ELT pour intégrer les données des différentes sources
Assurer la qualité et la cohérence des données intégrées
Gérer les processus de rafraîchissement et de mise à jour des données
Qualité des données
Mettre en place des processus de validation et de nettoyage des données
Implémenter des contrôles de qualité automatisés
Assurer la traçabilité des transformations appliquées aux données
Support technique et optimisation
Résoudre les problèmes techniques liés aux pipelines de données
Optimiser les performances
Automatiser les processus de surveillance et de maintenance
Proposer des améliorations continues de l’infrastructure
Collaboration avec les équipes
Travailler étroitement avec les autres membres de l’équipe Data
Collaborer avec les équipes produit et IA pour comprendre leurs besoins en données
Participer aux réunions techniques
Documenter les processus et les solutions développées
Interactions Clés
Collaboration quotidienne avec le Head of Data et l’équipe Data
Interactions régulières avec les équipes techniques (développeurs, DevOps)
Communication avec les équipes métier pour comprendre les sources de données
Formation et Expérience
Formation supérieure en Informatique, Data Engineering ou équivalent
3ans ou plus d’expérience en tant que Data Engineer
Expérience concrète dans la mise en place de Data Lakes
Maîtrise des technologies cloud (AWS, Azure ou GCP)
Compétences Techniques
Expertise en développement de pipelines ETL/ELT
Maîtrise des technologies de stockage et de traitement distribué (Hadoop, Spark, etc.)
Solides compétences en langages de programmation (Python, Scala, Java)
Expérience avec les outils d’orchestration (Airflow, Luigi, etc.)
Connaissance des bases de données SQL et NoSQL
Compréhension des principes de data governance et data quality
Compétences Comportementales
Rigueur et souci du détail
Autonomie et capacité à prendre des initiatives
Bonne communication technique
Appétence pour l’apprentissage continu
Esprit analytique et résolution de problèmes
Capacité à travailler en équipe
Au moins deux entretiens de recrutements
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres