Data Engineer - Paris, France - WyMee

WyMee
WyMee
Entreprise vérifiée
Paris, France

il y a 2 semaines

Sophie Dupont

Posté par:

Sophie Dupont

beBee Recruiter


Description
Côté tech, l'équipe est composée d'une dizaine de personnes qui travaillent ensemble pour proposer à nos utilisateurs la meilleure expérience possible.

Au sein de l'équipe tech (10 personnes), tu viendras renforcer l'équipe data (3 personnes avec toi) sur les sujets de data engineering. Tu seras en charge de la gestion des pipelines de données, de l'intégration de données, de la qualité des données et également du bon fonctionnement de nos algos en prod. Tu reporteras au Head of Data.
- Tu es LE (LA) responsable technique de la stack data. Aujourd'hui nous utilisons Python, Airflow comme ETL et pour faire tourner certains algos, fastAPI, MLFlow et Metabase pour la data analyse. Nos db sont en PostgreSQL et tout tourne sur Digital Ocean.
- Tu t'occupes du déploiement et de la maintenance des pipelines de prod, pour l'ingestion de données et les algos.
- Tu participes au développement des nouveaux algos en apportant notamment ton aisance technique.
- Tu fais grandir l'équipe sur les sujets de data engineering.
- Tu fais de la veille techno sur le data engineering.

Idéalement tu as déjà de l'expérience en tant que data engineer, à défaut en tant que dev/devops/software engineer et intéressé par les problématiques data
- Tu maitrîses Python, SQL, Docker et Git.
- Tu as déjà mis en prod des algos de ML et des pipelines de données dans des contextes réels.

Soft skills
- Tu es soucieux(se) de l'expérience utilisateur, tu détestes voir un bug en prod.
- Tu es data-driven et orienté(e) business.
- Tu as le souci du détail, mais tu sais aussi être pragmatique.
- Tu es prêt(e) à t'intéresser au secteur du transport de marchandises.
- Tu t'intéresses aux nouvelles technos.

Tu es autonome, impliqué dans ce que tu entreprends, rigoureux et tu désir progresser.

POINTS INCONTOURNABLES
- Intérêt pour l'analyse de la data (bien que tu ne gères pas nécessairement ce sujet)
- Tu maîtrises Python, SQL et Docker
- C'est un plus si tu connais FastAPI et Airflow (ETL)
- Anglais conversationnel nécessaire pour échanger avec les équipes internationales du groupe

COMPÉTENCES TECHNIQUES
- Python, SQL, Docker, Git et Airflow comme ETL
- MLFlow et Metabase pour la data
- FastAPI pour faire tourner certains algos
- Nos db sont en PostgreSQL et tout tourne sur Digital Ocean.
- Tu feras partie d'une petite équipe data composée aujourd'hui d'un head of data et d'un data scientist passionnés, dynamiques, talentueux et impliqués.
- Tu bénéficieras d'une grande autonomie et tes prises d'initiatives seront encouragées.
- Tu participeras aux décisions techniques stratégiques.
- Tu travailleras sur des données riches et spécifiques au transport ainsi que sur des algorithmes originaux.
- Tu auras **3 jours de télétravail** par semaine.

Plus d'emplois de WyMee