GenAI Platform Engineer – Infra & Workflow Scaling

Permanent contract
Issy-les-Moulineaux
Salary: €55K to 90K
A few days at home
Experience: > 7 years

Linagora
Linagora

Interested in this job?

Questions and answers about the job

The position

Job description

LINAGORA s’affirme comme un acteur majeur dans le développement de solutions d’intelligence artificielle véritablement open source. Engagée depuis plusieurs années dans cette démarche, l’entreprise a orienté ses investissements stratégiques vers la création et le soutien d’écosystèmes ouverts et collaboratifs dans le domaine de l’IA.

L’aboutissement le plus significatif de cet engagement est sans doute LUCIE le premier modèle de langage développé from scratch par LINAGORA et la communauté OpenLLM.

LUCIE incarne parfaitement la philosophie de LINAGORA : développer des technologies de pointe tout en préservant les valeurs fondamentales de transparence, de collaboration et d’accessibilité qui caractérisent le mouvement open source.

Pour accompagner la mise en exploitation de LUCIE, d’autres modèles Open Weight et bien entendu des technologies Agentic AI que nous développons, nous sommes à la recherche d’un(e) GenAI Platform Engineer – Infra & Workflow Scaling passionné(e) et talentueux(se) pour rejoindre notre équipe dynamique chez LINAGORA.

Rattaché(e) à l’entité Gen AI, vous jouerez un rôle central dans l’optimisation de nos infrastructures et de nos workflows IA. Vous serez en charge de créer des systèmes qui ne se contentent pas de fonctionner, mais qui sont conçus pour être performants, scalables et transparents.

Dans le rôle de GenAI Platform Engineer – Infra & Workflow Scaling, le ou la candidat(e) sera au cœur de la conception, du déploiement et de l’optimisation des infrastructures et des workflows liés à l’intelligence artificielle. Voici les principales missions et tâches attendues :

  • Conception et déploiement d’infrastructures robustes et scalables : mettre en opération des solutions d’infrastructure qui garantissent la performance et la scalabilité, en tenant compte des exigences spécifiques des workloads en intelligence artificielle. Chaque solution doit être conçue pour résister à une montée en charge sans compromettre la performance tout se basant sur les technologies Open Source d’inférence les plus avancées.

  • Optimisation des systèmes existants : identifier et implémenter des améliorations techniques pour maximiser les performances des systèmes en place. Cela passe par des techniques avancées de tuning (y compris hardware kernel) et d’optimisation, ainsi que par l’analyse des indicateurs de performance.

  • Gestion des déploiements de modèles de LLM : orchestrer le déploiement de modèles de langage à grande échelle en production, en utilisant des outils tels que Triton Inference Server et Ray Serve.

  • Établissement de workflows d’orchestration IA : Concevoir et maintenir des pipelines robustes d’orchestration de données et de modèles avec des outils comme Airflow ou Kubeflow, tout en garantissant leur efficacité et leur fiabilité.

  • Contributions proactives à la documentation et à la culture open source : après avoir installé et configuré des systèmes, contribuer activement à la création de documentation technique claire et accessible, tout en participant à des projets open source.

  • Veille technologique et innovation : rester à l’affût des dernières tendances et avancées technologiques pour intégrer de nouvelles méthodes et outils dans les pratiques de développement.

Ces responsabilités démontrent l’importance d’un rôle qui nécessite non seulement des compétences techniques, mais également un leadership engagé.


Preferred experience

Pour ce rôle crucial au sein de notre équipe, nous recherchons un(e) candidat(e) possédant une combinaison de compétences techniques avancées avec une forte curiosité technologique. Le ou la candidat(e) idéal(e) sera passionné(e) par l’optimisation des performances système et disposera d’une expérience significative dans le domaine.

Compétences techniques indispensables

Le ou la candidat(e) doit maîtriser un ensemble spécifique de compétences techniques pour assurer le succès de nos projets. Les compétences essentielles comprennent :

  • Outils et technologies de déploiement :

    • Helm, Kustomize, operators, RBAC, ArgoCD
  • Administration avancée de Linux :

    • Tuning kernel, cgroups, namespaces, systemd, sécurité (AppArmor, SELinux)
  • Expertise en Kubernetes avancé :

    • CRDs, scheduling affinities, node-pools GPU, admission policies
  • Déploiement de LLM en production :

    • Utilisation de Triton Inference Server, vLLM, Ray Serve
  • Optimisations de modèles :

    • Connaissance des techniques de quantization (INT8/FP16), TensorRT, DeepSpeed, LoRA inference
  • Gestion de l’infrastructure GPU :

    • Multi-GPU, Multi-tenancy, MIG, GPU scheduler K8S, GPUDirect
  • Orchestration des pipelines IA :

    • Expérience avec Airflow, Kubeflow ou création manuelle
  • Surveillance et alerting :

    • Utilisation de Prometheus, Grafana, Loki et Alertmanager

Connaissances supplémentaires valorisées

Des compétences additionnelles seraient considérées comme un atout pour le candidat, notamment :

  • Gestion optimisée de GPU/CPU :

    • Autoscaling pour workloads IA
  • Technique de fine-tuning :

    • Inference quantisée, diffusion model workflows
  • Expérience sur le terrain :

    • Capacité à faire tourner des modèles sur site, edge, ou en hybride cloud/bare-metal
  • Documentation technique :

    • À l’aise pour rédiger des documents techniques précis et contribuer à la culture DevRel.

Ces compétences additionnelles viendront renforcer l’expertise du candidat et son adaptation à un environnement en constante évolution.

Ce poste est l’opportunité idéale pour un(e) expert(e) en infrastructures qui désire non seulement faire évoluer la gestion de workload AI en environnement d’exécution souverains basés en Europe.

Ce poste requiert un(e) professionnel(le) qui a non seulement une expérience d’au moins 8 ans dans le domaine, mais également une passion pour la culture Open Source et une curiosité insatiable pour les technologies émergentes.

La rémunération proposée pour ce poste se situe entre 55 k€ et 90 k€, en fonction de votre expérience et de vos compétences.

Si vous êtes prêt(e) à relever un défi qui allie autonomie, innovation et travail d’équipe, et si vous vous identifiez à notre culture d’ouverture et de partage, n’attendez plus pour postuler ! Rejoignez LINAGORA et participez à l’évolution de solutions qui impactent positivement le monde.


Recruitment process

  • Un call avec la/le talent recruiter (20/30 minutes)

  • Un entretien avec le manager de l’équipe (1H)

  • Un entretien avec le Directeur Général, Michel-Marie MAUDET (1H environ en présentiel)

Want to know more?

These job openings might interest you!

These companies are also recruiting for the position of “Données/Business Intelligence”.

See all job openings