Consultant Confirmé Data Engineer on Cloud Data Platforms - F/H/N

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Télétravail non renseigné
Expérience : > 5 ans
Compétences & expertises
Contenu généré
Hadoop
Kubernetes
Git
Terraform
Google bigquery
+6
Postuler

OCTO Technology
OCTO Technology

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Vous faites partie de celles et ceux qui pensent que même avec plusieurs années d’expérience, on continue à apprendre ? Alors nous sommes sur la même longueur d'onde ! Et si on en parlait ?

Au sein de l’Atelier Data & AI, on retrouve des communautés de pratique organisées par tribus. L’idée, c’est de se retrouver et de partager des expertises communes, de développer ses compétences en équipes à taille humaine. Vous aurez donc pour missions de faire du conseil, du delivery et de la R&D.

Être Data Engineer on Cloud Data Platforms chez OCTO, c’est : 

1- Faire du conseil autant que du delivery : accompagner nos clients dans la mise en œuvre de solutions autour de la gestion et transformation de leur Data. Participer au développement agile et à l’implémentation d’applications dans le respect des bonnes pratiques. Et bien sûr, qui dit conseil, dit convictions : proposer la solution la plus adaptée, c’est aussi savoir et oser challenger nos clients (et c’est dans notre ADN !) 

2- Participer aux réponses aux appels d’offres et avant-ventes

3- Participer activement à la R&D “Data & IA” : au programme, veille technologique & bonnes pratiques. Quelques sujets “chauds” du moment ? Le Green AI , Green Data et AI4Green 🌱

4- Former & mentorer : le partage de connaissances et la montée en compétences des collaborateurs vous importent ? Nous sommes convaincus et prônons haut et fort la valeur de transmission. Mentoring et gestion de votre carrière seront donc à l’honneur. Et oui, chez OCTO le savoir n’est pas chasse gardée !


Profil recherché

Promis pas de liste à rallonge, mais des compétences clés pour vous permettre de réussir chez nous : 

1- Un socle de savoir-faire techniques et des expériences significatives sur : 

 

  • La  maîtrise des langages SQL et Python
  • L’implémentation et mise en production de pipeline de données ETL/ELT
  • La formalisation et vulgarisation des principales familles d’architectures data (Data Warehouse, Data Lake et Data LakeHouse) 
  • La maîtrise des standards de stockage utilisés sur les plateformes de données modernes (parquet, avro, iceberg, hudi, delta) et plébiscités par la communauté des data engineers.
  • La mise en place de plateformes data modernes à l’échelle de l’entreprise (à l’instar de Snowflake, DataBricks, Starburst ou des services cloud tels que Google Bigquery, AWS Redshift ou Azure Data Factory)
  • La bonne connaissance de l'écosystème de services adaptés au traitement de la données sur l’un des 3 clouds providers principaux (AWS, Azure et GCP) : stockage de données, traitement de la donnée, ML/IA, Analytics
  • La bonne connaissance des pratiques et outils DevOps (Git, CI/CD, Terraform, Docker/Kubernetes, etc.)

…Last but not least : une bonne maîtrise de l’anglais, à l’oral comme à l’écrit 🙂

Les "petits bonus" : 

  • Une expérience sur des outils d'orchestration (Airflow, Prefect, ou autre) est un plus
  • Une expérience de data engineering sur des distributions Hadoop (MapR, Cloudera, HDFS, etc.) est un plus 
  • Une expérience de design d’API dans un contexte d’échange de données est un plus

2- Un panel de savoir-être : 

  • un esprit franc-tireur capable de (se) questionner et de challenger les idées
  • une forte appétence pour le travail en équipe et la réussite collective

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler