Data Engineer Senior -Databricks

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 5 ans
Éducation : Bac +5 / Master
Compétences & expertises
Contenu généré
Gestion de projets
Méthodologies Agile
Compréhension des architectures réseau
Gestion de bases de données
Culture technologique
+13

Pulsover
Pulsover

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Pulsover est un cabinet de conseil spécialisé dans la data, le cloud et le delivery, partenaire de Databricks et AWS.

Nous renforçons notre pôle Data en recherchant un.e Senior Data Engineer expérimenté.e sur Databricks pour accompagner la croissance de Pulsover.

Si tu es passionné.e par la data, que tu possèdes une expertise approfondie sur Databricks, Spark et AWS, cette offre d’emploi est faite pour toi.

En tant que Data Engineer Senior, tu joueras un rôle essentiel dans la création, la mise en œuvre et la gestion de nos pipelines de données. Tu seras responsable de concevoir des architectures de données robustes, de développer des solutions d’intégration de données efficaces et d’optimiser les performances de nos infrastructures de données.

Tes missions principales :

  • Participer à des projets de data engineering basés sur un framework méthodologique

  • Développer, industrialiser et maintenir des pipelines de données (principalement ETL et ML)

  • Effectuer de l’exploration de données et du prototypage rapide

  • Mettre en application les meilleures pratiques : versioning, tests automatisés, CI/CD

  • Participer activement à l’automatisation des infrastructures basées sur des services de Cloud Computing

  • Implémenter des architectures de type Lakehouse pour casser les silos

  • Déployer des algorithmes de machine learning at scale et sur des flux de streaming

  • Collaborer avec l’ensemble des équipes depuis les spécifications fonctionnelles jusqu’aux validations métiers des solutions implémentées

  • Contribuer à la mise en place de méthodologies Agile de type Scrum

Socle technologique et méthodologique :

  • Stack technique du poste : Spark, Python, Scala, Scikit learn, MLFlow, Versionning (Git), CI/CD (GitHub Actions/ GitLab/ Jenkins)

  • Job orchestration : Apache Airflow

  • Data platform: Databricks, Snowflake

  • Cloud : AWS et/ ou GCP, Azure

  • Méthodo : développement Agile/ travail en équipe collaborative

  • Tests automatisés : Pytest, Scalatest, Cucumber

Les avantages :

  • Un environnement de travail collaboratif et stimulant, favorisant l’apprentissage continu et l’évolution professionnelle

  • Des opportunités de formation et de développement professionnel pour rester à jour sur les dernières technologies

  • La possibilité de travailler sur des projets de données complexes et stimulants, ayant un impact direct sur les décisions stratégiques de l’entreprise

  • Une rémunération compétitive et des avantages sociaux attractifs


Profil recherché

  • De formation ingénieur ou équivalent avec une expérience de 5 ans minimum dans ce domaine

  • Expérience significative en tant que Data Engineer, avec une expertise approfondie sur Spark, Databricks, AWS et/ ou GCP

  • Solide compréhension des principes de l’ingénierie des données, des architectures distribuées et des meilleures pratiques de gestion des données

  • Excellentes compétences en programmation, notamment dans les langages tels que Python ou Scala

  • Connaissance des technologies de bases de données, des outils ETL et de l’intégration de données

  • Capacité à travailler de manière autonome, à gérer plusieurs projets simultanément et à respecter les délais

  • Bon niveau en anglais pour nos projets dans un contexte international

  • Et surtout : bonne humeur et attitude positive sont essentielles ;)

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres