Emplois

    Data Engineer Big Query - Nouvelle-Aquitaine, France - Sibylone

    Sibylone
    Sibylone Nouvelle-Aquitaine, France

    il y a 2 semaines

    Default job background
    Description

    SIBYLONE, société de conseil spécialisée dans les systèmes d'information de synthèse et de pilotage, aide ses clients à tirer toute la valeur de leur patrimoine de données, levier stratégique majeur de développement et de rentabilité. Notre ambition : rendre les différents acteurs de l'entreprise autonomes dans l'exploitation des données, libérer les usages Métier, pour qu'ils soient en mesure de relever les défis de performance, de couverture de risque, de financement, de conquête client, de RSE... qui s'imposent à eux. Spécialistes reconnus, nos consultants s'appuient pour cela sur une connaissance approfondie de l'activité business de nos clients, en lien avec nos trois piliers que sont le Métier, la Data et le Projet. SIBYLONE emploie environ 250 salariés et réalise un CA de 30m€ dans la prestation de services auprès de grandes entreprises (8 grands comptes représentant 80% du CA).SIBYLONE est une filiale du Groupe Smart 4 Engineering créé en 2020. Le groupe s'est constitué en procédant à l'acquisition de 12 sociétés en France (dont SIBYLONE), Italie, et en Espagne dans le domaine de l'ingénierie. Le groupe est détenu par Dzeta Conseil, acteur familial de l'investissement. Avec nos 3,000 ingénieurs / consultants hautement qualifiés, le Groupe offre ses services dans les domaines très porteurs du Digital, de la Data, de l'Intelligence Artificielle, de la Cybersécurité, du Cloud et des Logiciels.

    Pour l'un de nos clients, nous recherchons un Data Engineer

    • Migration des données du SI vers la plateforme de données GCP
    • Participer à l'industrialisation des cas d'usage métiers du groupe
    • Assurer la qualité, la fiabilité et l'accessibilité des données
    • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées
    • Assurer la maintenance et l'optimisation des systèmes de données existants

    Conception et mise en œuvre de pipelines de données

    • Concevoir et développer des pipelines de données robustes et évolutifs pour l'ingestion, le traitement et la transformation des données

    Modélisation des données et visualisation

    • Concevoir des modèles de données efficaces pour répondre aux besoins d'analyse et de reporting

    Profil

    • État d'esprit innovant
    • Familiarisé avec la modélisation des données et les outils de visualisation de données populaires
    • Esprit technologique
    • Familiarisé avec les outils d'automatisation et d'IaC (CI/CD, Terraform, AWS SAM)
    • Maîtrise des frameworks Git, Python, Big Data (notamment Spark)
    • Connaissance GCP Big Query
    • Connaissance des langages de programmation tels que Python
    • Expérience avec les bases de données SQL et NoSQL
    • Connaissance des technologies (Docker, Kube)
    • Compétence des technologies (Gitlab, Terraform)
    • Capacité à travailler en équipe et à communiquer efficacement