Data Engineer - Spark, Scala, Kafka (H/F) | NEARSHORE

CDI
Casablanca
Salaire : 200 à 300 € par jour
Début : 22 février 2024
Télétravail total
Expérience : > 5 ans
Éducation : Bac +5 / Master

skiils
skiils

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Tu as le pouvoir de créer des pipelines capables de transformer des données en véritables trésors exploitables, alors tu es peut-être notre Super Data Engineer !

Tu es prêt à affronter des défis titanesques, à gérer des montagnes de données, à défendre la résilience des systèmes, et à affronter des flux de données massifs, l’équipe DATA Factorii t’ouvre ses portes comme un véritable repaire de super-héros !

En tant que Super Data Engineer - Spark Scala H/F, tes missions seront de :

  • Définir et déployer le socle technologique d’un Datalake

  • Conseiller et concevoir une architecture de données

  • Implémenter l’intégration des données au sein du Datalake

  • Identifier, étudier et prototyper des cas d’usage stratégiques

  • Industrialiser les projets Big Data en environnement cloud

  • Implémenter les méthodologies Devops pour optimiser les processus de développement

  • Participer à l’estimation des besoins utilisateurs.

  • Concevoir du code et le documenter.

  • Collaborer étroitement au sein de l’équipe SCRUM, comprenant le Product Owner, les développeurs, Quality Analyst, et le support, pour assurer le succès des projets.

Ce que nous t’offrons ?

Un salaire qui évolue comme une rock star sur scène !

Une carrière à la “James Bond” : à moyen et long terme, c’est toi le héros !

Télétravail 100 % depuis le Maroc : l’équilibre parfait entre le soleil et productivité ! !

Et surtout, la chance de t’investir dans des projets ultra cool qui te propulseront techniquement vers l’infini et au-delà !


Profil recherché

En 1er, un savoir être qui correspond à l’ADN de skiils !

  • Les processus agiles, c’est ton super-pouvoir ! Le Manifeste Agile, c’est ton livre de chevet, toujours prêt à l’action.

  • Comprendre l’environnement fonctionnel du client est ta mission principale, car tu sais que c’est là que se trouvent les indices cruciaux pour tes analyses héroïques.

  • Doté(e) d’une autonomie inébranlable, d’un dynamisme surpuissant et d’un sens des relations humaines extraordinaire, tu es une véritable icône.

En 2nd, un bagage technique qui tient la route :

  • Connaissance approfondie des concepts de Kafka, notamment Kafka-Stream.

  • Expérience sur les outils Scala ou Java.

  • Compétence en CI/CD et outils de déploiement (Jenkins, GitLab, Kubernetes, Docker, Ansible).

  • Maîtrise de l’écosystème Big Data (Hadoop, Spark, Apache Kafka, Avro).

  • Expérience avec les bases de données NoSQL (Cassandra, BigTable).

  • Connaissance des moteurs de recherche (Elasticsearch).

  • Excellente communication écrite et orale pour la création de livrables et de rapports.

  • Esprit analytique et orientation vers l’amélioration continue.


Déroulement des entretiens

Chez nous, aucun process de recrutement ne doit prendre plus de 15 jours et il est super simple !

1. LE MATCHING : Votre dossier est sélectionné, C’est l’élément déclencheur de l’aventure.

2. LA RENCONTRE : Axé sur le savoir être, car nous souhaitons avant tout travailler avec des personnalités

3. LA VALIDATION : Axée sur le savoir-faire, et là c’est notre leader technique qui prend le relais

4. … Il n’y a pas de 4ème étape ! A partir de la validation, ton onboarding est finalisé 😊

Rapide hein ? On vous attend !

#deveniruneskilleuse #devenirunskilleur

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.