Capability
L'équipe Data est composée d'une quinzaine de collaborateurs regroupant Data Scientists, Data Engineers, Data Analysts et Data Strategists, travaillant sur la co-construction d'outils générant de la valeur à partir de la donnée de nos clients.
Si vous aussi, vous partagez cette vision et souhaitez profiter et contribuer à notre communauté internationale sur le sujet, rejoignez-nous !
Vous interviendrez chez nos clients et serez en charge des missions suivantes :
Travailler étroitement avec les parties prenantes à la compréhension fonctionnelle de leurs projets au travers d’ateliers de spécification et de modélisation
Construire des pipelines d’ingestion, de transformation et de valorisation de leurs données au service de la réalisation de produits décisionnels (BI), de data science/machine learning ou d’analytique opérationnelle
S’assurer de la qualité du code réalisé en adéquation avec les normes et standards du projet et mettre en place les tests de validation
Documenter ces projets jusqu’à leur industrialisation opérationnelle et le support nécessaire à la vie du produit.
Vous contribuerez également à la veille collective et à l’émulation commune lors de nos journées de partage au sein de la craft Data engineer, à la rédaction d’articles ou à la participation de projets internes.
Vous disposez de plus de 3 ans d’expérience dans la réalisation de pipelines de données, dans des contextes de construction de la plateforme data à l’échelle, dont notamment dans l’usage des technologies suivantes :
Python 3 : programmation de traitement de la donnée sous la forme de Notebook, utilisant des librairies orientées data et analytique tels que PySpark et/ou Panda, en mode batch ou streaming
SQL pour manipuler les données stockées et réaliser des traitements de transformation avancées et à l’échelle
Collecte et publication utilisant les protocoles de brokers de messages en streaming tels que Kafka, API REST, GRPC, fichiers avec SFTP ou Objet (S3, GCS, ADLS)
Formatage de la donnée JSON, Avro ou Parquet et SQL Apache Iceberg, Delta Lake
Cloud native platform AWS (S3, Glue, Athena, RDS, Kinesis, ...), GCP (Cloud Storage, Big Query, Pub/Sub, Data Flow), Azure (ADLS, Synapse, Stream Analytics)
Principes d’automatisation et de gestion de release, usage d’outillage de gestion de configuration et de pipeline de CI/CD.
Enfin, vous êtes force de proposition, vous travaillez avec exigence de qualité, ouverture et bienveillance.
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.