DATA ENGINEER AWS

Résumé du poste
CDI
Rennes
Salaire : Non spécifié
Télétravail non renseigné
Compétences & expertises
Contenu généré
Sagemaker
Azure
Tableau
Git
Pyspark
+5
Postuler

CyberCité
CyberCité

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

A propos du poste…

Nous recherchons un Data Engineer Senior pour rejoindre l’équipe Software. 

Tu joueras un rôle clé dans la conception, le développement et le déploiement de notre data plateforme clients. Tu travailleras en étroite collaboration avec nos équipes de chefs de projets, de développeurs et de consultants CRM pour créer des solutions data-driven robustes et évolutives.

A ce titre, tu seras amené à : 

  • Participer activement à la conception et à l’évolution de notre data plateforme interne ainsi que les différents services qui la composent,
  • Comprendre et maîtriser les différents modèles de données de nos clients en respectant leurs contraintes et leurs besoins spécifiques,
  • Concevoir, développer et maintenir les pipelines de données,
  • Garantir la qualité, la sécurité et l'intégrité des données tout au long du cycle de vie des projets,
  • Collecter, transformer et enrichir les données provenant de multiples data sources,
  • Collaborer étroitement avec les différentes équipes pour partager ton expertise technique,
  • Réaliser une veille technique en vue de proposer des améliorations continues pour rester à la pointe des technologies,
  • Rédiger des documentations fonctionnelles et techniques.

Profil recherché

A propos de toi… 

  • Master 2 en informatique (école d'ingénieur, faculté),
  • Expérience professionnelle d’au moins cinq ans dans la gestion de projets Data Engineering,
  • Expérience professionnelle d’au moins un an sur  le Cloud AWS et ses services Data (RDS, Lambda, Kinesis, EMR, SageMaker, Glue, S3, Athena etc),
  • Première expérience appréciée dans l'encadrement et la formation d'ingénieurs data junior,
  • Maîtrise de Python 3, Pyspark,  SQL
  • Maîtrise de AWS (RDS, EMR, Glue, S3, Athena, Lambda), Docker, Apache Superset, Git…
  • Esprit analytique et appétence pour la Data/Big Data et la BI,
  • Rigueur, curiosité, autonomie, esprit d’équipe et bon relationnel, 
  • Prise d’initiative et force de proposition.

Et tu justifies en plus d’expériences : 

  • avec un framework de traitement de données distribuées (Spark),
  • sur d’autres Cloud providers (GCP, Azure, …) et certifications appréciées,
  • réalisées au sein d’une direction marketing ou sur des sujets data marketing (Consumer Data Platform, CRM, connaissance client etc…),
  • avec des outils de data visualization (PowerBI, Tableau).

Envie d’en savoir plus ?

Postuler