ML / MLOps Engineer Confirmé·e

Résumé du poste
CDI
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 3 ans
Éducation : Bac +5 / Master
Compétences & expertises
Contenu généré
Gestion de la documentation
Compétences en communication
Adaptabilité
Créativité et innovation
Collaboration et travail d'équipe
+15

JAKALA
JAKALA

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Nous sommes à la recherche d’un·e Machine Learning / MLOps Engineer pour rejoindre notre Data Lab, afin de participer au développement, à la conception, au déploiement et à la maintenance de nos infrastructures et services Data stratégiques.

En tant que ML / MLOps Engineer au sein d’un environnement dynamique et à forte technicité, tu assures la conception et la mise en œuvre d’architectures Data/ML pour le déploiement et l’industrialisation de modèles ML.

Tes missions au quotidien :

  • Etudier et mettre en place les meilleures solutions techniques pour gérer de grands volumes de données, de la collecte de données d’entraînement jusqu’au déploiement en production

  • Industrialiser les modèles Machine Learning et assurer leur mise en production selon les standards de qualités définis en interne

  • Maîtriser la qualité du code mis en production pour assurer le run (Git, évaluation de performance de modèle)

  • Travailler en collaboration avec l’équipe Data (Data Engineer, Data Scientist, PO Data) pour intégrer des modèles ML en tant que livrables dans un produit ou un projet

  • Gérer l’environnement Big Data (GCP/AWS/Azure, au choix) et d’en assurer la stabilité et l’optimisation dans le cadre des projets Data inscrits dans la Roadmap

  • Mettre en place les pipeline de CI/CD de projets ML

  • Automatiser le processus de structuration de la DATA en amont de l’intervention d’un Data Scientist (création et maintenance du code)

  • Concevoir et automatiser le processus de structuration de la DATA et des outils nécessaires permettant aux experts de l’équipe un accès facile aux données pour développer les cas d’usage métier (Data science/IA, Reporting, Analytics, Activation média, …)

  • Être l’interlocuteur privilégié  de l’équipe projet et avant-projet pour les infrastructures ML

  • Assurer avec l’IT le processus de qualité et la fiabilité des flux de données (scalabilité, sécurité, performance, recovery) en conformité avec les standards définis au niveau projet

  • Assurer la rédaction et la maintenance  d’une documentation claire sur les différents projets développés

  • Évaluer l’architecture et l’environnement Data actuels et prévoir des mises à jour nécessaires selon les besoins de l’équipe

  • Développer les APIs/ connecteurs nécessaires pour intégrer notre DATA dans les environnements cibles

Compétences techniques :

  • Maîtrise des environnements Cloud GCP et AWS

  • Langages Python, Terraform, SQL

  • Modélisation, traitement et transformation des données complexes et multi-sources

  • Conception et déploiement d’une architecture distribuée pour le traitement de données

  • Maîtrise des aspects d’authentification, de sécurité, de containerisation et d’orchestration

  • Maîtrise des technologies: Base de données (SQL, noSQL, BigQuery, Snowflake), Suite ELK, Queue de messages (rabbitMQ, Kafka, …), Containerization (Docker, Kubernetes), Ordonnancement (Airflow)

  • Expertise sur l’utilisation et le déploiement d’outils ML tel que MLFlow ou Kubeflow

  • Maîtrise des différentes librairie Python ML et data :  tensorFlow, keras, scikit-learn, pandas, numpy

  • Maîtrise des outils Web-services Python : FastAPI, Flask, Dash

  • Connaissances et veille active sur les outils de qualité de code en Python (pylint, mypy, flake8…) : black, flake8, mypy, pylint, pytest

Compétences générales :

  • Génération et vérification de code de production haute qualité

  • Architecture logicielle

  • Architecture Cloud

  • Capacités de restitution, accompagnement et conseil client

  • Mise en place d’outils d’aide au développement et déploiement de projet Data Science

  • Automatisation GitLab


Profil recherché

Diplômé·e d’études supérieures dans les Système d’Information, Computer Sciences, Big Data (école d’Ingénieurs, école spécialisée ou équivalent universitaire Bac+5), tu as au moins 3 ans d’expérience en ML Ops, Data Architecture, ou a minima Data Ingénierie.

Tu as une forte culture Data Science, idéalement une pratique en Machine Learning.

Passionné·e de la data en particulier les enjeux d’industrialisation des modèles ML, tu possédes les qualités suivantes :

  • Esprit d’équipe et sens de l’écoute.

  • Autonomie et proactivité.

  • Curiosité et créativité.

  • Sens relationnel et capacité d’adaptation

  • Rigueur

  • Esprit d’analyse

Tu es communiquant et possèdes un très bon relationnel.

Tu comprends les avantages et inconvénients des outils, et tu sais choisir les solutions en fonction des besoins clients pour en tirer le meilleur.

Les avantages

  • Entreprise en plein développement , véritable tremplin et accélérateur de progression

  • Projets et missions sur des champs techniques très variés 

  • Mise en situation de responsabilité rapidement 

  • Bureau en plein centre de Paris et de Caen

  • Télétravail possible jusqu’à 3 jours par semaine 

  • Mutuelle d’entreprise 

  • 50% de frais de participation pour les transports

  • Ticket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur)

Contrat

  • Poste à pourvoir en CDI

  • Rémunération selon profil et expérience

  • Poste ouvert aux personnes en situation de handicap


Déroulement des entretiens

  • Une pré-qualification avec notre Talent Acquisition

  • Un entretien avec un Référent Technique Métier

  • Un challenge technique au travers d’un cas usage personnalisé SoyHuCe

  • Un dernier entretien avec notre CEO

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres