SAPER VEDERE
L'équipe Tech
Le principal objectif de notre équipe technique est de fournir aux gens les outils nécessaires pour naviguer dans le monde complexe des affaires publiques et de la communication. Nous effectuons des recherches continues sur la manière dont nous pouvons tirer parti des nouvelles technologies et les intégrer à nos solutions. Les membres de notre équipe technique viennent d'horizons divers, mais nous partageons tous une passion pour le développement personnel et professionnel. Cette diversité nous permet également de sortir des sentiers battus et de trouver sans cesse de nouvelles façons d'innover.
Répartition des collaborateurs
Data
35%
Engineering
55%
Design
10%
3
Nombre de projets sur lesquels nous travaillons
Technologies et outils
Python
100%MongoDB
100%Elasticsearch
100%GoLang
20%Vue.js
100%Vite JS
100%Chart.js
100%Git
100%Docker
100%AWS
75%Vercel
25%
Backend
Frontend
Devops
ScraperFactory ⚙️
Une interface abstraite conçue par notre équipe de développeurs qui est utilisée par tous nos scrapers web. Le résultat d'un grand nombre de brainstormings et de recherches sur la conception de logiciels.
ElasticSearch ⚙️
L'un des principaux outils que nous utilisons pour optimiser la recherche plein texte.
Organisation et méthodologies
Fonctionnement Agile :
- Milestone de 6 mois (roadmap fixe)
- Sprint de 3 semaines qui comporte 1 semaine de répartition des tâches et d'organisation suivit de 2 semaines de code
Réunion :
- Réunion toutes les 3 semaines avec les autres pôles pour voir si tout se passe bien et si la roadmap est toujours à jour.
- Réunion hebdomadaire de la boîte tous les lundis
Gestion :
- L'équipe choisit ses tâches pendant la semaine d'organisation selon les priorités de la roadmap.
- Discussion des échéances et autres avant la validation du sprint
- Beaucoup de travail d'équipe et d'interaction avec toutes les parties prenantes
Rituels :
- Boisson du jeudi soir
- BBQ sur le temps de midi
Projets et défis techniques
Un outil central dans beaucoup de nos projets est le processus de scraping web. Nous utilisons ce procédé pour créer des logiciels qui lisent les informations des sites Web et les enregistrent de manière structurée afin de pouvoir les analyser. L'un des principaux défis qui se posent au cours de ce processus est de faire correspondre le même type d'informations provenant de diverses sources à une structure centralisée. Cela nécessite généralement de nombreuses recherches, non seulement sur le contenu que nous scrapons, mais aussi sur l'architecture de nos bases de données, afin de nous assurer que nous pouvons stocker le maximum d'informations tout en conservant une structure uniforme.
Processus de recrutement
Pour les entretiens, nous avons deux entretiens. Le premier a pour but d'apprendre à connaître le candidat, de comprendre s'il convient à l'équipe et de comprendre les raisons pour lesquelles il a postulé. Pendant cette partie, nous prenons également le temps de parler un peu plus de l'entreprise et de ce que nous faisons. L'idée étant de s'assurer que nous sommes en phase avec la finalité du poste et les objectifs que nous poursuivons. Si tout se passe bien, il y a un deuxième entretien. Pour ces postes, nous attendons un certain niveau d'expertise, c'est pourquoi nous avons un entretien technique en présence d'un front/back/devops de l'équipe.