Data Engineer/Analyst

CDI
Valbonne
Salaire : Non spécifié
Télétravail fréquent
Expérience : > 2 ans

SaaSOffice
SaaSOffice

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

En tant que Data Engineer/Analyst, vous aurez la charge de gérer et d’optimiser à la fois la modélisation, le stockage et l’exploitation de toutes nos données afin de soutenir le développement et l’évolution de nos solutions logicielles. Vous collaborerez étroitement avec les équipes de développement et d’hébergement de nos produits et nos équipes business pour assurer la qualité, la sécurité, la robustesse et l’efficacité de l’exploitation des données produites et utilisées.

Vous serez amené(e) à :

Modéliser avec les équipes de développements nos données :

Utiliser et proposer des systèmes de gestion de données

Assurer la fiabilité, la sécurité et la scalabilité des systèmes de gestion de données. 

Assurer la qualité et la sécurité des données :

Mettre en place des processus et des techniques pour garantir l’intégrité et la qualité des données.

Concevoir et appliquer des techniques de protection des données sensibles.

Analyser et mettre en place du reporting :

Analyser les données pour extraire des insights pertinents.

Créer et maintenir des pipelines d’alimentation et de transformation de données

Créer et maintenir des tableaux de bord et des rapports pour les différentes équipes.

Documenter et mettre en place le mode de gouvernance :

Documenter les processus et les modèles de données.

Assurer la mise à jour continue de la documentation et la conformité aux standards de l’entreprise.

Collaborer avec les équipes :

Travailler en étroite collaboration avec les équipes de développement, produit et business pour répondre à leurs besoins en données.

Participer à des projets transversaux pour améliorer les flux de données et les capacités analytiques de l’entreprise.


TYPES DE PROJETS:

Mise en place d’un pipeline de données de production anonymisées pour les environnements de développement

  • Définir et implémenter un pipeline automatisé pour extraire, anonymiser et transférer les données de production vers des environnements de développement.

  • Assurer la pérennité du système, notamment en corrigeant les éventuels problèmes et en optimisant les performances.

  • Mettre à jour les règles d’anonymisation lors de l’ajout de nouvelles tables ou colonnes dans la base de données source.

  • Vérifier la cohérence des données anonymisées pour garantir leur utilité dans les tests et le développement.

  • Concevoir et déployer des pipelines personnalisés en fonction des besoins spécifiques des équipes ou des projets. Cela peut supposer la mise en place d’anonymisation granulaires selon les besoins.


Mise en place d’un système de suivi et d’analyse des statistiques d’utilisation du logiciel

  • Identifier et déployer la solution la plus adaptée.

  • Garantir la fiabilité et la cohérence des données collectées.

  • Centraliser les données et produire des tableaux de bord exploitables.

  • Ajuster les métriques selon les objectifs des équipes produit

  • Prévoir des mécanismes pour partager les résultats (rapports automatisés, intégrations avec outils comme Jira ou Confluence, etc.) avec les parties prenantes.


Documentation du data model (database) et maintenance

  • Création et structuration de la documentation

  • Intégrer la maintenance de la documentation dans les workflows de développement.

  • Adapter la documentation aux profils utilisateurs (développeurs, analystes, etc.) et inclure des diagrammes visuels.

  • Utiliser des outils pour générer automatiquement des parties de la documentation.

  • Documenter les règles de validation des données et réaliser des audits réguliers pour assurer la cohérence.

  • Centraliser la documentation et désigner une gouvernance claire.


Amélioration du système de statistiques business intégrées au logiciel client

  • Renforcer les pipelines existants pour centraliser les données de manière plus efficace, avec une meilleure gestion des flux en temps réel ou quasi-réel.

  • Évaluer et intégrer des solutions plus performantes pour l’agrégation, l’analyse et l’intégration dans le logiciel client.

  • Mettre en place des contrôles supplémentaires pour garantir la justesse et la cohérence des données affichées aux clients, tout en réduisant les anomalies.

  • Adapter le système actuel pour mieux répondre aux évolutions des besoins clients et des fonctionnalités du logiciel.


Profil recherché

Global :

Diplôme en informatique, ingénierie des données, statistiques ou domaine similaire.

Idéalement avec de l’expérience dans un poste similaire – pour avoir une vision data

Profil passionné par la data – pas besoin d’être le ou la meilleur(e) techniquement, mais appétence forte pour « faire parler la data » et pour se lancer dans la data discovery/data prep.

Hard skills :

  • Maitrise des bases de données relationnelles (SQL, PostgreSQL, MySQL)

  • Expérience dans la conception et le déploiement de pipelines ETL/ELT

  • Familiarité avec des technologies de traitement des données volumineuses comme Apache Spark, Hadoop ou Snowflake.

  • Connaissance des services cloud (AWS, GCP, Azure) pour le stockage, l’analyse et la gestion des données.

  • Expérience avec des outils de visualisation comme Tableau, Power BI, Looker ou Grafana.

  • Compréhension des concepts d’anonymisation, chiffrement et conformité réglementaire (ex. : RGPD).

  • Expérience avec des outils de suivi et de monitoring comme Prometheus, ELK Stack ou Datadog.

Soft skills :

  • Curiosité intellectuelle, autonomie et esprit d’initiative

  • Excellentes compétences en communication favorisant une collaboration efficace en équipe, avec une aisance à aller spontanément vers les autres

  • Organisation et gestion des priorités dans un environnement agile.


Déroulement des entretiens

  1. Entretien RH

  2. Entretien Technique

  3. Entretien Director

Envie d’en savoir plus ?