Data Engineer Big Data

Résumé du poste
CDI
Courbevoie
Salaire : 42K à 60K €
Télétravail occasionnel
Expérience : > 2 ans
Éducation : Bac +5 / Master
Compétences & expertises
Contenu généré
Scala
Python
Api rest
Azure devops
Azure data factory
+7

Visian
Visian

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Dans le cadre de ses projets clients, Visian, Société de conseil spécialisée en innovation, design produit IT et développement Data, recherche un Data Engineer Cloud pour rejoindre son équipe en pleine croissance.
En tant que Data Engineer Cloud, vous serez responsable de la conception, de l’implémentation et de l’optimisation de solutions de données massives dans le cloud, en garantissant la performance, la scalabilité et la sécurité des architectures déployées.

🎯 Missions

  • Concevoir, implémenter et optimiser des pipelines de données évolutifs et performants sur des environnements Big Data (Azure, AWS, Google Cloud, etc.).

  • Gérer l’intégration, la transformation et la qualité des données provenant de sources multiples et hétérogènes.

  • Mettre en place et maintenir des architectures de données robustes, telles que des Data Lakes, Data Warehouses et des systèmes de gestion de données en temps réel.

  • Assurer la gestion et l’optimisation du stockage des données dans des solutions Cloud telles qu’Azure Data Lake Storage, AWS S3, Google Cloud Storage, etc.

  • Améliorer les performances des traitements de données massives tout en garantissant leur fiabilité et leur sécurité.

  • Collaborer avec les équipes de développement pour concevoir des architectures Cloud adaptées aux besoins métiers.

  • Participer à l’automatisation des déploiements via des outils CI/CD (Azure DevOps, Jenkins, etc.) et contribuer activement à la gouvernance des données.

  • Contribuer à l’amélioration continue des processus en appliquant les bonnes pratiques Big Data et Cloud.


Profil recherché

  • Vous avez 3 à 5 ans d’expérience en tant que Data Engineer, avec une solide expertise dans les environnements Cloud et Big Data.

  • Maîtrise des principales solutions Cloud (Azure, AWS, Google Cloud), avec une expertise particulière dans l’optimisation des services Big Data (Azure Data Factory, Databricks, Google BigQuery, AWS Redshift).

  • Compétence en langage SQL et en programmation (Python, Scala, Java, ou autre).

  • Connaissance des outils et services Cloud pour le stockage, la gestion et la transformation de grandes quantités de données (Data Lakes, Data Warehouses, etc.).

  • Aisance avec les outils et API REST, ainsi que les méthodologies DevOps pour l’automatisation des déploiements.

  • Maîtrise de l’anglais impérative (niveau C1) pour collaborer efficacement dans un environnement international.

  • Autonome, vous êtes force de proposition et avez un excellent esprit d’équipe.


Déroulement des entretiens

  • 1 échange téléphonique (30min)

  • 1 test technique (40min)

  • 1 échange dans nos bureaux avec la direction et un consultant tech sénior (1h30min)

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres