Data Engineer (H/F)

Résumé du poste
CDI
Dommartemont
Salaire : Non spécifié
Début : 04 novembre 2024
Télétravail non autorisé
Expérience : > 3 ans
Éducation : Bac +3
Compétences & expertises
Contenu généré
Nifi
Python
Java
Kafka
Mongodb
+10
Postuler

Groupe Mentor
Groupe Mentor

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données, surtout en l'absence d'un data architect. Vous veillerez à ce que les données soient facilement accessibles, de haute qualité et bien organisées pour répondre aux besoins des équipes d'analyse, des data scientists, ainsi qu'aux exigences transversales du groupe et de ses filiales.

Vos missions :

1- Conception et développement des pipelines de données

  • Construire et maintenir des pipelines ETL (Extract, Transform, Load)

  • Intégrer des données provenant de diverses sources (BDD, API, fichiers, etc)

2- Gestion des BDD

  • Configurer et gérer les bases de données relationnelles et NoSQL

  • Assurer l'optimisation et la performance des systèmes de stockage de données

3- Qualité et intégrité des données

  • Mettre en place des processus pour garantir la qualité, la cohérence et l'intégrité des données

  • Automatiser les processus de nettoyage et de transformation des données

4- Collaboration avec les équipes

  • Travailler en étroite collaboration avec les Data Scientist et Analyst pour comprendre leurs besoins en données

  • Supporter les équipes de développement en fournissant des solutions de gestions de données efficaces

5- Support

  • Surveiller les flux de données et résoudre les problèmes techniques

  • Maintenir et documenter les flux et l'infrastructure des données


Profil recherché

Diplôme : 

BAC+3/5  en Informatique, Ingénierie de la donnée, Mathématiques ou domaine connexe.

Vos compétences techniques :

  • Python, Java, Scala

  • Systèmes de gestion des BDD (SQL, NoSQL) MySQL, PostrgreSQL, MongoDB, Cassandra, Parquet

  • Outils d'ETL : NiFi, Talend, Informatica, etc

  • Big Data (Hadoop, Spark, Kafka)

  • Cloud ? (AWS, GCP, Azure)

Analytiques :

  • Capacité à comprendre et manipuler des ensembles de données complexes

  • Compétences résolution de problèmes et optimisation des flux de données

Communication :

  • Excellentes compétences en communication orale et écrite

  • Capacité à travailler en équipe et à collaborer avec des parties prenantes non techniques

Organisationnelles :

  • Gestion de projet et priorités simultanément

  • Attention aux détails et souci de la précision

Qualités personnelles :

  • Curiosité, désir d'apprendre, esprit analytique et rigoureux

  • Capacité à travailler en équipe et de manière autonome

  • Adaptabilité et flexibilité

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Postuler