Consultant.e Cloud DataOps

Résumé du poste
CDI
Paris
Salaire : 50K à 80K €
Début : 29 octobre 2024
Télétravail non renseigné
Expérience : > 2 ans
Éducation : Sans diplôme
Compétences & expertises
Contenu généré
Looker
Google bigquery
Azure
Snowflake
Kafka
+3
Postuler

Bluecoders
Bluecoders

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Ce rôle de Cloud DataOps Consultant.e couvre une large gamme de responsabilités allant de la stratégie, la planification d'affaires et à la recherche comportementale de pointe ainsi que l'analyse organisationnelle. 

Tes missions principales seront les suivantes : 

  • Concevoir, assembler, assimiler, nettoyer et conformer de vastes ensembles de données complexes pour offrir des insights commerciaux et alimenter des expériences de produits de données 
  • Concevoir et construire une infrastructure de données fiable et évolutive avec des techniques de confidentialité et de sécurité avancées pour protéger les données.. 
  • Assurer la cohérence et la qualité de l'environnement technique et de la structure des données grâce à des métriques, de la documentation, des processus, des tests de données et des formations. 
  • Pour réaliser ces objectifs, tu auras comme missions : Soutenir les consultants dans les défis de données de leurs clients afin de définir des stratégies et mettre en œuvre des systèmes concluants. 
  • Comprendre les problèmes, élaborer des stratégies techniques pour les résoudre et faciliter une exécution technique de haute qualité.

Profil recherché

Doté.e d’une diplôme d’ingénieur ou d’un équivalent Bac+5, une expérience concrète avec des solutions basées sur le cloud et l’infrastructure cloud publique est essentielle. 

Tu dois posséder les compétences techniques suivantes : 

  • Expérience avec les services de Cloud Data Warehouse tels que Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks 
  • Connaissance des architectures relationnelles et Big Data 
  • Maîtrise des technologies Big Data et de l’écosystème Apache comme Beam, Spark, Kafka, Airflow 
  • Compétences avancées en Python et SQL 
  • Exposition aux outils ETL/ELT et de gouvernance 
  • Connaissances en technologies et principes d’IA et de ML Expérience dans la construction de pipelines de données de bout en bout en utilisant des plateformes de données sur site ou basées sur le cloud

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Postuler