Qui sommes-nous ?
Wevioo est un groupe international de conseil et de services numériques, qui s’est imposé comme un acteur principal dans le domaine de la transformation digitale, offrant des solutions innovantes et des services de pointe à une clientèle internationale. Fort de plusieurs centaines de projets exigeants menés dans plus de 30 pays d’Europe, d’Amérique du Nord, d’Afrique et du Moyen-Orient.
Wevioo apporte son expertise et son savoir-faire dans 3 domaines :
Consulting & Solutions
Digital Services
Managed Services
Il intervient principalement dans les d’activités suivants : Banque/Assurance, Industrie/Logistique et le Secteur Public
Wevioo mise beaucoup sur l’innovation et investit régulièrement dans la R&D au travers de son Lab (Wevioo Lab).
Le groupe emploie plus de 420 talents et experts, et dispose d’une présence à Paris, Tunis, Dubaï, Alger et Abidjan. Un investissement constant dans le développement de ses collaborateurs et lui a valu l’obtention des labels HappyAtWork & TechAtWork sur les 3 dernières années. Depuis 2023, La société Pro Vision, spécialisée dans la transformation digitale & le low code s’est allié au groupe Wevioo. Cette opération s’inscrit dans la stratégie de croissance du groupe international Wevioo sur le marché européen.
Nous sommes à la recherche d’un(e) Data Engineer pour rejoindre notre équipe en pleine croissance. Vous serez responsable de la conception, de la mise en œuvre et de la maintenance de pipelines de données performants et évolutifs, tout en vous appuyant sur des technologies modernes comme GCP, Airflow, DBT, et les pratiques DevOps.
💼Vos missions principales
Concevoir, développer et optimiser des pipelines de données sur la plateforme GCP.
Implémenter et gérer les workflows de données en utilisant Apache Airflow.
Créer et maintenir des modèles de transformation des données avec DBT (Data Build Tool).
Assurer la disponibilité, la performance et la fiabilité des systèmes de données.
Collaborer avec les équipes produit, data science et développement pour comprendre les besoins et fournir des solutions adaptées.
Appliquer des pratiques DevOps pour automatiser les processus CI/CD, surveiller les pipelines et garantir une infrastructure robuste.
Formation et expérience :
Diplôme en informatique, ingénierie ou domaine connexe.
Minimum 4 ans d’expérience en tant que Data Engineer ou poste similaire.
✅ Compétences attendues :
Solide expérience en ingénierie de données sur Google Cloud Platform (BigQuery, Cloud Storage, Dataflow, etc.).
Maîtrise d’Apache Airflow pour l’orchestration des workflows.
Bonne connaissance de DBT pour les transformations de données.
Compétence en DevOps : CI/CD, gestion des conteneurs (Docker, Kubernetes), monitoring.
☀️ Savoir- être :
Capacité à travailler dans un environnement collaboratif et agile.
Forte aptitude à résoudre les problèmes et esprit analytique.
💡 Ce que vous gagnez à nous rejoindre :
S’entourer d’une équipe exceptionnellement talentueuse qui partage avec vous la même passion pour la Tech et l’innovation 🚀
Être mentoré(e) et accompagné(e) au quotidien par des consultants seniors pour vous aider à développer vos compétences
Être enrôlé(e) dans un parcours d’Upskilling continu pour atteindre vos ambitions de carrière
Accompagner nos clients dans des projets challengeants et sur les dernières tendances Tech du marché
Possibilité de télétravail
Rémunération : Fixe selon profil et expérience + primes diverses
Prise en charge à 100% du Pass Navigo
Mutuelle d’entreprise
Participation aux frais de restauration
Séminaires et événements pour la convivialité, teambuilding, after work 🎉
Si votre candidature retient notre attention, vous passerez un entretien RH, puis, un ou deux entretiens opérationnels. La durée du process est en moyenne de trois semaines.
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres