LINAGORA s’affirme comme un acteur majeur dans le développement de solutions d’intelligence artificielle véritablement open source. Engagée depuis plusieurs années dans cette démarche, l’entreprise a orienté ses investissements stratégiques vers la création et le soutien d’écosystèmes ouverts et collaboratifs dans le domaine de l’IA.
L’aboutissement le plus significatif de cet engagement est sans doute LUCIE le premier modèle de langage développé from scratch par LINAGORA et la communauté OpenLLM.
LUCIE incarne parfaitement la philosophie de LINAGORA : développer des technologies de pointe tout en préservant les valeurs fondamentales de transparence, de collaboration et d’accessibilité qui caractérisent le mouvement open source.
Pour accompagner la mise en exploitation de LUCIE, d’autres modèles Open Weight et bien entendu des technologies Agentic AI que nous développons, nous sommes à la recherche d’un(e) GenAI Platform Engineer – Infra & Workflow Scaling passionné(e) et talentueux(se) pour rejoindre notre équipe dynamique chez LINAGORA.
Rattaché(e) à l’entité Gen AI, vous jouerez un rôle central dans l’optimisation de nos infrastructures et de nos workflows IA. Vous serez en charge de créer des systèmes qui ne se contentent pas de fonctionner, mais qui sont conçus pour être performants, scalables et transparents.
Dans le rôle de GenAI Platform Engineer – Infra & Workflow Scaling, le ou la candidat(e) sera au cœur de la conception, du déploiement et de l’optimisation des infrastructures et des workflows liés à l’intelligence artificielle. Voici les principales missions et tâches attendues :
Conception et déploiement d’infrastructures robustes et scalables : mettre en opération des solutions d’infrastructure qui garantissent la performance et la scalabilité, en tenant compte des exigences spécifiques des workloads en intelligence artificielle. Chaque solution doit être conçue pour résister à une montée en charge sans compromettre la performance tout se basant sur les technologies Open Source d’inférence les plus avancées.
Optimisation des systèmes existants : identifier et implémenter des améliorations techniques pour maximiser les performances des systèmes en place. Cela passe par des techniques avancées de tuning (y compris hardware kernel) et d’optimisation, ainsi que par l’analyse des indicateurs de performance.
Gestion des déploiements de modèles de LLM : orchestrer le déploiement de modèles de langage à grande échelle en production, en utilisant des outils tels que Triton Inference Server et Ray Serve.
Établissement de workflows d’orchestration IA : Concevoir et maintenir des pipelines robustes d’orchestration de données et de modèles avec des outils comme Airflow ou Kubeflow, tout en garantissant leur efficacité et leur fiabilité.
Contributions proactives à la documentation et à la culture open source : après avoir installé et configuré des systèmes, contribuer activement à la création de documentation technique claire et accessible, tout en participant à des projets open source.
Veille technologique et innovation : rester à l’affût des dernières tendances et avancées technologiques pour intégrer de nouvelles méthodes et outils dans les pratiques de développement.
Ces responsabilités démontrent l’importance d’un rôle qui nécessite non seulement des compétences techniques, mais également un leadership engagé.
Pour ce rôle crucial au sein de notre équipe, nous recherchons un(e) candidat(e) possédant une combinaison de compétences techniques avancées avec une forte curiosité technologique. Le ou la candidat(e) idéal(e) sera passionné(e) par l’optimisation des performances système et disposera d’une expérience significative dans le domaine.
Le ou la candidat(e) doit maîtriser un ensemble spécifique de compétences techniques pour assurer le succès de nos projets. Les compétences essentielles comprennent :
Outils et technologies de déploiement :
Administration avancée de Linux :
Expertise en Kubernetes avancé :
Déploiement de LLM en production :
Optimisations de modèles :
Gestion de l’infrastructure GPU :
Orchestration des pipelines IA :
Surveillance et alerting :
Des compétences additionnelles seraient considérées comme un atout pour le candidat, notamment :
Gestion optimisée de GPU/CPU :
Technique de fine-tuning :
Expérience sur le terrain :
Documentation technique :
Ces compétences additionnelles viendront renforcer l’expertise du candidat et son adaptation à un environnement en constante évolution.
Ce poste est l’opportunité idéale pour un(e) expert(e) en infrastructures qui désire non seulement faire évoluer la gestion de workload AI en environnement d’exécution souverains basés en Europe.
Ce poste requiert un(e) professionnel(le) qui a non seulement une expérience d’au moins 8 ans dans le domaine, mais également une passion pour la culture Open Source et une curiosité insatiable pour les technologies émergentes.
La rémunération proposée pour ce poste se situe entre 55 k€ et 90 k€, en fonction de votre expérience et de vos compétences.
Si vous êtes prêt(e) à relever un défi qui allie autonomie, innovation et travail d’équipe, et si vous vous identifiez à notre culture d’ouverture et de partage, n’attendez plus pour postuler ! Rejoignez LINAGORA et participez à l’évolution de solutions qui impactent positivement le monde.
These companies are also recruiting for the position of “Données/Business Intelligence”.
See all job openings