ingenieur socle big data gcp f/h - Indre-et-Loire, France - AG2R LA MONDIALE

    Default job background
    C.D.I
    Description

    Description du poste

    Famille / Métier

    DONNEE - EXPERT DE LA GOUVERNANCE ET DE L'EXPLOITATION

    Intitulé du poste

    INGENIEUR SOCLE BIG DATA GCP F/H

    Type de contrat

    Finalité du poste

    Rattaché(e) au Service Data Hub, au sein du Département « Solution Data et Usages » de la Direction des Systèmes d'Information et du Digital, vous contribuerez à la construction de la plateforme Data Hub sur GCP (S3ns).

    Vous participerez à la mise en œuvre du Framework technique sur GCP, à sa maintenance et à son optimisation, dans le respect des principes, règles et normes du Groupe.

    Vous vous inscrirez dans un mode de fonctionnement Agile, à l'intérieur du Train Data (SAFe), dans un contexte de transformation fort et ambitieux pour l'ensemble du groupe AG2R La Mondiale (Programme de Plateformisation).

    Contenu du poste

    A ce titre, vous contribuerez aux développements des différentes capacités techniques mises à disposition des équipes de développement Métier, permettant :

    d'intégrer des données en provenance de différents types de sources, dans le DataHub,

    de transformer ces données sur le DataHub,

    d'exposer ces données pour différents types d'exploitation (API, outils BI, mise à disposition de données vers des applications externes),

    en respectant les normes, prinipes et patterns construits avec les architectes fonctionnels et techniques et en répondant aux exigences d'industrialisation, de sécurisation, de logs & de supervision.

    Vous participerez également aux activités :

    de Support & Assistance aux utilisateurs de la plateforme sur les capacités du Socle,

    de Développement de prototypes sur de nouvelles capacités mises en œuvre sur GCP,

    de type DevOps, sur les aspects CI/CD, Terraform, automatisation des tests,

    en lien avec le FinOps, en contribuant à la mise en place d'actions en rapport avec le monitoring, la supervision et l'optimisation des services sur la plateforme.

    Expérience et compétences attendues

    attendues

    De formation supérieure en informatique (BAC+5), vous avez enrichi vos connaissances pendant au moins 3 ans dans le cadre de votre parcours professionnel, avec des expériences significatives dans le développement de pipelines de données (batch, microbatch et événementiel), de préférence sur des plateformes Big Data Cloud, idéalement GCP, et le développement de composants génériques de Framework.

    Vous maitrisez :

    Python et SQL/ BQL

    Plusieurs services GCP : BigQuery (Mise en œuvre & Optimisation (partitionnement, clustering)), Cloud Storage, Dataflow, Composer, PubSub, Cloud Logging, Cloud Run, Cloud Functions.

    Terraform, GitLab, Jenkins/Cloudbees

    Compétences complémentaires appréciées :

    Certifications GCP Data Engineer

    Docker, GKE, Cloud KMS, BigTable, Firestore, Dataplex, Analytics Hub.

    Connaissance d'outils ETL/ELT (DBT, Semarchy, Talend, ...) et d'outils BI / Datavizualization.

    Qualités requises

    Vous vous caractérisez par votre rigueur, votre capacité d'écoute et d'analyse, votre sens du service et vous faites preuve de pédagogie.

    Doté(e) d'ouverture d'esprit et de curiosité, vous avez de bonnes qualités relationnelles et de communication écrite et orale.

    Vous savez travailler en équipe, en mode collaboratif, Agile.

    Vous êtes proactif(ve) et dynamique.

    Le poste peut être basé à Esvres (Tours) ou à Paris.

    Localisation du poste

    Pays / Région / Département

    France, Centre Val de Loire, INDRE ET LOIRE (37)

    Ville

    ESVRES SUR INDRE

    Lieu de travail / Etablissement

    Esvres sur Indre