DevOps - Data

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Télétravail non renseigné
Compétences & expertises
Contenu généré
Aptitude à résoudre les problèmes
Java
Golang
Sql
Python
Postuler

OVHcloud
OVHcloud

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

DevOps - Data H/F/N

Au sein de votre équipe #OneTeam

  • Vous rejoindrez l’équipe Lakehouse de l’unité Analytics.
  • Notre mission est de collecter, modéliser et transformer les données, en créant des outils pour exploiter et valoriser celles-ci.
  • Vous serez principalement responsable de la construction, de la maintenance et de l’optimisation de solutions de données distribuées, contribuant à la fiabilité, l’évolutivité et la sécurité de notre écosystème de plateforme de données.


Vos principales responsabilités
  • Concevoir, implémenter et optimiser des systèmes de stockage et de traitement de données SQL distribuées avec des technologies comme Apache Iceberg et Trino…
  • Construire et maintenir des Data Lakes et Lakehouses, en assurant l’intégrité, la sécurité et un accès performant aux données.
  • Développer, déployer et maintenir une solution robuste grâce à des pipelines d’automatisation CI/CD, dans des langages tels que Python, Java & Golang.
  • Surveiller et améliorer les performances des systèmes de données, notamment l’optimisation des requêtes et la gestion des ressources.
  • Garantir un niveau d’excellence en suivant les recommandations idiomatiques et de code analysis/coverage du marché.
  • Rédiger et maintenir une documentation technique complète pour soutenir le transfert de connaissances au sein de l’équipe et se conformer aux normes de certification.


Votre futur impact

Dans 6 mois vous aurez :
  • Optimisé notre système de gestion de catalogue afin de préparer l’implémentation de nouvelles features.
  • Participé à l’intégration de features avancées de Trino au sein de la data platform tel que le data travelling.
  • Contribué à l’amélioration continue du système d’observabilité du Lakehouse de la Data Platform.


#

Compétences requises :
  • Vous avez une expérience confirmée sur des sujets DevOps, d’observabilité et de maintien en condition opérationnelles.
  • Vous avez une bonne connaissance des concepts de Data Lakehouse et SQL distribué.
  • Vous justifiez de connaissances sur des technologies de Lakehouse telles que Trino, Apache Iceberg.
  • Vous êtes confirmé dans le développement (Python/Golang/Java…).
  • Vous êtes en capacité d’analyser et surveiller les indicateurs de performance.
  • Vous avez une appétence pour la recherche et la résolution de problèmes complexes dans de larges environnements.


C’est un +
  • Vous assurez et promouvez une veille sur les technologies et la compétition.
  • Vous avez un sens du service client.
  • Vous justifiez d’une expérience de maintien en condition opérationnel d’un système à grande échelle.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Cloud computing et DevOps”.

Voir toutes les offres
Postuler