Fiche de Poste - Paris, France - Cherry Pick

Cherry Pick
Cherry Pick
Entreprise vérifiée
Paris, France

il y a 1 semaine

Sophie Dupont

Posté par:

Sophie Dupont

beBee Recruiter


Description
**Poste**: Analytics Engineer

**Projet**: Intégration des différentes pipelines et flux de données pour l?hébergement de Prisma, avec un focus sur le Data Warehouse GCP. Le rôle implique l?ingestion de données provenant des G2 et la transmission aux stakeholders internes et externes. Collaboration avec des équipes transverses pour fournir des données disponibles et de qualité, raffinées et correspondant à plusieurs entités pour enrichir l?environnement. Création de données business pour enrichir un domaine spécifique et exposition sur Looker Data Studio.

**Responsabilités Quotidiennes**:
Travailler en tant que Data Engineer et Data Analyst au quotidien.
Préférence pour les profils de Data Engineer.
Travailler avec deux collègues existants et chercher à renforcer l?un ou l?autre ou les deux.
Capacité à ne pas être limité à Airflow ou Google, mais plutôt avoir un bon réflexe et une logique solide.
Focus sur la réflexion, les mineset, l?amélioration des processus plutôt que l?exécution directe.

**Compétences Techniques (Must Have)**:
Expérience avec Google Cloud Platform (GCP), ou la capacité à apprendre rapidement.
Test technique de base suivi d?un debrief.
Échange en direct sur les actions effectuées et évaluation des soft skills.

**Compétences Techniques (Nice to Have)**:
Expérience avec Airflow.
Capacité à comprendre et améliorer les processus.

**Organisation (Team et Methodo)**:
Expérience dans le développement en équipe avec git / gitflow, merge-request et tickets.
Connaissance de JQL, SSH, SFTP, API Rest.

**Familiarité avec les différents formats de données**: JSON, CSV, XML, charset, timezone.

**Stack**:
Maîtrise de SQL (BigQuery).
Maîtrise de Looker Studio (ex-Data Studio).
Développement Python 3.8+ dans Airflow 2.x (Operator, request, sqlalchemy,...).

**Traitement de données**: récupération, nettoyage, structuration, stockage et analyse.

**Environnement Technique**:
**Google Cloud**: AppEngine, Cloud SQL, Google Composer (Airflow), BigQuery.
Base de données PostgreSQL (Google Cloud SQL).

**Solutions**: PHP 8+ / Symfony 5+.

**Processus data**: Python 3, Airflow, Google Colab (notebook),

**Outils**: Jira Agile Kanban, Gitlab / git-flow / merge request / code review.

**Communication**: API Rest / Postman, suite Google (Gmail, Drive, G-Chat...), Slack.

**Durée**: Plus de 2 ans

**Date de Démarrage**: Janvier

**Localisation**: Genevilliers

**Rythme de Travail (Remote & Présentiel)**: 2 jours en présentiel

**Soft Skills (Optionnel)**:
Capacité à communiquer en anglais (technique, écrit, commentaires et documentation).

**Missions**:
Création et enrichissement de bases de données opérationnelles.
Exploration de données pour produire des analyses et des dashboards métiers.
Création et modification de reportings.
Mise en place de flux de données avec des partenaires business (syncing).
Développement de pipelines Data avec Airflow.
Déploiement de monitoring avancé (data quality).

CherryPick est à la recherche d?un Data Analytics engineer pour un client dans le secteur des médias.

Plus d'emplois de Cherry Pick