Au sein de l’équipe Software technology, composée d’une dizaine de personnes (développeurs API, dev front, dev app, data scientist, ingénieurs électronique embarquée, architecte), le data engineer aura pour missions principales:
Administrer les différentes ressources cloud associées aux données.
Définir les politiques de cycle de vie des données.
Être force de proposition sur l’architecture de notre plateforme de données.
Implémenter les évolutions collectivement actées de la plateforme de données.
Effectuer la maintenance de toute la stack technologique sur laquelle repose le data lakehouse pour assurer une accessibilité constante de la plateforme.
Définir les droits d’accès à la plateforme pour les différents utilisateurs.
Concevoir et implémenter les flux d’ingestion de données brutes.
Maintenir les flux existants.
Concevoir des modèles de données qui capturent toute la complexité des activités de l’entreprises tout en restant simples d’utilisation.
S’adapter aux changements de l’entreprise pour garantir une qualité constante des données.
Assurer l’évolution des modèles en fonction des besoins exprimés par les équipes métiers (finance, business, marketing, customer care, supply…).
Former les équipes métiers à l’utilisation des modèles.
Maintenir la documentation des modèles à jour.
Permettre aux data scientists d’accéder aux données via leur stack technique (Pandas, R etc)
Automatiser et mettre à l’échelle les processus d’entrainement et d’évaluation des modèles de l’équipe data science.
Notre stack technique est diversifiée:
Data lakehouse: S3, Glue Data Catalog, Athena, Big Query, Apache Iceberg (parquet+snappy)
Ingestion: Kinesis, Glue Streaming (Spark), Airbyte
Modelisation: dbt, Glue Streaming, Elasticsearch
Environnement de travail: Linux, Docker, Kubernetes, Terraform, Git, Power BI, Kibana
Rejoignez nous si sur un plan technique
Vous maitrisez l’état de l’art de la modélisation de données, êtes expert en SQL et en Python
Vous avez un niveau avancé en ingénérie logicielle
vous pouvez utiliser Linux au quotidien et avoir une solide maitrise des commandes de base
vous avez une bonne compréhension et maitrise des commandes Git
vous savez construire des images dockers optimisées (en espace de stockage et en temps de compilation)
vous connaissez les différentes abstractions offertes par l’API de Kubernetes et en maitriser l’usage
vous savez gérer vos besoins en ressources cloud avec Terraform
vous avez utilisé en production une des API de Spark (scala ou python)
Vous vous épanouirez dans votre poste et dans notre équipe si
Vous êtes structuré(e) et faites preuve de proactivité
Vous avez à coeur de comprendre les enjeux de croissance de l’entreprise et, en bon communicant, êtes capable de vulgariser des concepts compliqués pour les novices ou les data débutants.
Vous aimez travailler en équipe et partager de manière concrète les sujets orientés data.
C’est encore mieux si
Vos avantages
des locaux agréables, entre lac et montagne, avec une belle terrasse pour déjeuner dehors,
des titres-restaurant Swile,
une mutuelle d’entreprise prise en charge à 60%,
des teambuilding, et autres moments de convivialité avec les différentes équipes
Déroulement des entretiens :
Pour mieux faire connaissance, vous complétez les questionnaires Assessfisrt reçus par mail.
Les 3 questionnaires évaluent respectivement votre personnalité, vos motivations et vos aptitudes. Il faut compter environ 30 min pour tout compléter. Ils sont essentiels pour mieux vous connaître et nous assurer que vous correspondez à notre culture. Ce sera aussi l’occasion d’en savoir plus sur vous-même !
Si vous êtes présélectionné(e), vous rencontrerez en entretien :
La DRH
L’architecte pour un technical case
la Head of software technology
le CTO
Si votre candidature est retenue en short-list, une rencontre avec l’équipe et une visite des locaux sera organisée.
A très bientôt !