Contexte :
Au sein de la Data Factory, nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Le candidat retenu intègrera la squad dédiée au périmètre E-Commerce.
Description de la Mission :
Analyse et Conception
Participer à l’analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux.
Utiliser l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets.
Être force de proposition sur l’amélioration de notre stack Data.
Développement et Intégration
Concevoir, développer et maintenir les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données.
Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale.
Identifier et résoudre les goulots d’étranglement et les problèmes de performances dans les flux de données.
Qualité, Maintenance et Supervision
Mettre en place des processus et des contrôles pour garantir la qualité des données.
Concevoir et mettre en oeuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces.
Assurer la maintenance corrective ou évolutive.
S’assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe.
Documentation, Support, Pilotage
Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation).
Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO.
Faire le reporting d’avancement des travaux.
Supporter le déploiement.
Environnement Technique :
Langages/Framework : SQL, BigQuery, Python, Shell.
Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend.
Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Compétences Recherchées :
De formation Informatique/Ingénieur, avec une appétence pour le développement et la manipulation de données ainsi qu’une bonne maîtrise de Python et de SQL.
Avoir une expérience au sein de l’environnement GCP avec l’utilisation des principaux services (BigQuery, Cloud Storage, DataFlow, DataForm, Pub/Sub, Composer…) est un prérequis.
Une certification serait un plus.
Une expérience avec Talend et des outils de visualisation est un plus.
Esprit Analytique : Capacité à résoudre des problèmes complexe et à optimiser les processus de traitement de données
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.