Dans le cadre de ce stage, vous participerez au développement de scrapers en Python pour collecter, formater et analyser des données issues de sources variées.
Vos principales missions seront :
Développer et optimiser des scrapers web en Python pour extraire des données structurées et non structurées.
Assurer le nettoyage, la transformation et l’analyse des données collectées.
Déployer et automatiser les scrapers sur le cloud GCP (Google Cloud Platform).
Concevoir des pipelines de collecte et de traitement des données sur le cloud.
Implémenter des tests pour assurer la fiabilité et la performance des solutions développées.
Rédiger une documentation technique pour faciliter la maintenance et l’évolution des outils.
Collaborer avec les équipes data pour intégrer les données collectées dans des analyses avancées.
Ce que nous offrons :
Une expérience enrichissante dans le domaine du data engineering et du cloud computing.
Un encadrement technique et un environnement de travail stimulant.
Des opportunités d’apprentissage et d’évolution au sein de l’entreprise.
Possibilité de prolongation ou d’embauche à l’issue du stage.
Formation bac+3 à bac+5 en informatique, développement logiciel ou domaine similaire.
Bonne maîtrise du langage Python et de ses bibliothèques associées (BeautifulSoup, Scrapy, Selenium, Pandas).
Connaissance des systèmes cloud, en particulier Google Cloud Platform (GCP).
Expérience avec les services cloud tels que Cloud Functions, Pub/Sub, BigQuery, et Cloud Storage est un plus.
Compétences en traitement et analyse de données.
Capacité à travailler en autonomie et à proposer des solutions innovantes.
Rigueur, curiosité et esprit d’équipe.
Un court entretien téléphonique avec Guillaume (Talent Acquisition Manager)
Un ou deux entretiens avec l’équipe technique et le top management
Potentiel test technique