Le service PILOTAGE de la DITP est chargé du suivi continu des politiques prioritaires du gouvernement.
Intégré au sein d’une équipe produit et composée de profils de développeurs fullstack et de data analystes, des capacités d’encadrement sont demandées pour accompagner vos collègues et piloter les projets data dans le respect de la charge et du planning projet. Vous transmettez votre expertise, êtes garant des solutions techniques mises en œuvre, et êtes force de proposition sur les projets en cours et à venir, de la conception à la mise en production.
Le pôle data et outils de pilotage gère 750 jeux de données à récupérer en interministériel, soit autant de cas, d’interlocuteurs et de gouvernances dans lesquelles se plonger (transports, logement, emploi, santé).
Votre mission principale consiste à structurer, maintenir, optimiser et faire évoluer les pipelines de données, les référentiels, les différents schémas de données et les API Rest qui composent l’application web opérée par le pôle data et outils de pilotage.
La DITP ne possède pas de plateforme de données de type AWS, Azure ou GCP, mais une datafactory souveraine et interne a été développée par le pôle afin de récupérer et de stocker des données standardisées, de les transformer suivant une base de calculs et de règles de gestion définies par les exigences du produit et les attentes des utilisateurs.
Votre rôle sur le poste consiste également à structurer et mettre en œuvre une méthodologie appropriée d’analyse de qualité et de complétude des données dont dispose le pôle, afin de suivre les phases d’intégration de données de résultats des politiques prioritaires du gouvernement. En interne, l’organisation avec l’équipe métier s’est récemment tournée vers un modèle de self-service analytics, et votre mission consistera à déployer des modèles de données dans cette logique.
Pour assurer toutes ces missions, cela demande de bien comprendre les problématiques métier et d’y apporter des réponses techniques, d’intégrer les retours métiers dans l’amélioration continue du produit et de sa gestion.
Vous assurez également un rôle de référent technique au sein de l’équipe, en soutenant l’amélioration des pratiques et en contribuant aux décisions techniques à prendre. En vous appuyant sur votre écoute, votre compréhension et vos compétences, vous devrez être ainsi capable d’accompagner avec pertinence l’équipe technique sur leurs problématiques liées à la modélisation et l’infrastructure des données.
Vous effectuez une veille technologique et réalisez des POCs, vous partagez vos connaissances et faites monter l’équipe en compétence, notamment en diffusant de bonnes pratiques techniques.
Issu d’une formation technique supérieure de haut niveau en grande école d’ingénieur, vous avez une première expérience dans la manipulation de données et souhaitez partager votre expertise au sein d’une équipe technique en assurant le rôle de data & tech lead.
Vous avez :
Un goût prononcé pour le travail en équipe
D’excellentes capacités d’analyse et de résolution de problèmes
De bonnes qualités d’expression, capacités de synthèse et de restitution claire des enjeux techniques à des non-initiés
Une première expérience en tant que data ingénieur
Une rigueur reconnue et êtes méthodique mais aussi autonome et impliqué
Une appétence à assurer une veille technologique constante, à se former régulièrement et assister à différentes conférences techniques
Les connaissances demandées :
Excellente maîtrise du SQL, expérience sur PostreSQL
Maîtrise des enjeux de stockage, requêtage et insertion de données
Maîtrise de R, Python, Docker et Git
Expérience sur dbt Core et des problématiques que cet outil résout
Connaissance de la structure et du fonctionnement des API REST
Familiarité avec le développement web et les frameworks javascript (Node.JS, React..)
Connaissance des méthodes de développement et de déploiement continu
Expertise dans la manipulation des bases de données, les standardiser, et mettre en place des routines d’automatisation de traitement
Développement des scripts, orchestrer la mise à jour et la mise à disposition de données pour la data analyse et le développement (Airflow, Prefect, Luigi..)
Autonomie à la résolution de problèmes complexes
Capacité à encadrer et former une équipe technique
Capacité à présenter les résultats pour des audiences techniques et non techniques
Vous savez :
Structurer des données et proposer des référentiels interopérables
Créer des schémas de données standardisés
Automatiser une collecte de données
Valider la donnée collectée
Assurer des mises à jour régulières des bases de données
Industrialiser, optimiser et monitorer au quotidien les pipelines data
Participer à la création de stratégies d’extraction
Participer à la gouvernance de la donnée (process, normalisation, MDM, …)
Proposer des supports de restitution sur des outils web open source
Travailler dans le secteur public requiert également :
Une connaissance de l’écosystème des outils libres et la capacité à y contribuer
Une connaissance du droit de la donnée et des enjeux juridiques liés au traitement des données sensibles
Une bonne connaissance des données manipulées au sein de l’administration. Ex: bases de données publiques, SIREN, INSEE, etc..
Les candidatures se font exclusivement via la plateforme passerelles : https://passerelles.economie.gouv.fr/offre-de-emploi/emploi-tech-lead-data-ingenieur-h-f_21391.aspx
Les candidats pré-sélectionnés rencontreront l’équipe pour un entretien de motivation. Un test technique sur dbt et SQL sera également proposé.