Au sein de l’équipe Software technology, composée d’une dizaine de personnes (développeurs API, dev front, dev app, data scientist, ingénieurs électronique embarquée, architecte), le data engineer aura pour missions principales :
Administrer un data lakehouse
Administrer les différentes ressources cloud associées aux données.
Définir les politiques de cycle de vie des données.
Être force de proposition sur l’architecture de notre plateforme de données.
Implémenter les évolutions collectivement actées de la plateforme de données.
Effectuer la maintenance de toute la stack technologique sur laquelle repose le data lakehouse pour assurer une accessibilité constante de la plateforme.
Définir les droits d’accès à la plateforme pour les différents utilisateurs.
Assurer l’alimentation en données de la plateforme
Concevoir et implémenter les flux d’ingestion de données brutes.
Maintenir les flux existants.
Modéliser les activités de l’entreprise
Concevoir des modèles de données qui capturent toute la complexité des activités de l’entreprises tout en restant simples d’utilisation.
S’adapter aux changements de l’entreprise pour garantir une qualité constante des données.
Assurer l’évolution des modèles en fonction des besoins exprimés par les équipes métiers (finance, business, marketing, customer care, supply…).
Former les équipes métiers à l’utilisation des modèles.
Maintenir la documentation des modèles à jour.
Proposer un environnement d’amélioration continue de modèles de machine learning
Permettre aux data scientists d’accéder aux données via leur stack technique (Pandas, R etc)
Automatiser et mettre à l’échelle les processus d’entrainement et d’évaluation des modèles de l’équipe data science.
Notre stack technique est diversifié :
Data lakehouse: S3, Glue Data Catalog, Athena, Big Query, Apache Iceberg (parquet+snappy)
Ingestion : Kinesis, Glue Streaming (Spark), Airbyte
Modélisation : dbt, Glue Streaming, Elasticsearch
Environnement de travail : Linux, Docker, Kubernetes, Terraform, Git, Power BI, Kibana
Rejoignez-nous si sur un plan technique :
Vous maitrisez l’état de l’art de la modélisation de données, êtes expert en SQL et en Python,
Vous avez minimum 2 ans d'expérience (hors stage ou formation),
Vous connaissez les écosystèmes techniques AWS et GCP,
Vous avez un niveau avancé en ingénierie logicielle,
Vous pouvez utiliser Linux au quotidien et avoir une solide maitrise des commandes de base,
Vous avez une bonne compréhension et maitrise des commandes Git,
Vous savez construire des images dockers optimisées (en espace de stockage et en temps de compilation),
Vous connaissez les différentes abstractions offertes par l’API de Kubernetes et en maitriser l’usage,
Vous savez gérer vos besoins en ressources cloud avec Terraform,
Vous avez utilisé en production une des API de Spark (scala ou python).
Vous vous épanouirez dans votre poste et dans notre équipe si :
Vous êtes structuré(e) et faites preuve de proactivité,
Vous avez à cœur de comprendre les enjeux de croissance de l’entreprise et, en bon communicant, êtes capable de vulgariser des concepts compliqués pour les novices ou les data débutants,
Vous aimez travailler en équipe et partager de manière concrète les sujets orientés data.
C’est encore mieux si :
Vous aimez la mobilité à moto, à cheval ou à vélo !
Vos avantages :
Des locaux agréables, entre lac et montagne, avec une belle terrasse pour déjeuner dehors,
Flexoffice / télétravail jusqu’à 2 jours par semaine,
Des titres-restaurant Swile,
Une mutuelle d’entreprise prise en charge à 60%,
Réduction et prix préférentiels sur les produits In&motion,
Des teambuilding.
Déroulement de l’entretien :
Si vous êtes présélectionné(e), l’équipe RH vous contactera pour fixer des entretiens avec :
La DRH
L’architecte pour un technical case
La Head of software technology
Le CTO
Si votre candidature est retenue en short-list, une rencontre avec l’équipe et une visite des locaux sera organisée.
A très bientôt !