Data Steward (H/F)

Paris 13ème
Travail en hybride

Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?

Smartpoint est une société de conseil et de services spécialisée dans l’ingénierie de la Data et de l'IA depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution. Nous sommes aujourd’hui une équipe de plus de 300 consultants et experts animée par une vision commune :
  • Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
  • Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
  • Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.

Vos responsabilités et le périmètre du poste

Smartpoint recherche, dans le cadre de ses projets clients grands comptes et secteur public, des Data Stewards intervenant sur des missions de gouvernance de données visant à structurer, fiabiliser et sécuriser les données métiers utilisées pour le pilotage, le reporting et les usages analytiques et réglementaires. Le Data Steward intervient au sein d’un domaine métier (RH, Finance, Marketing, etc.) et agit comme référent opérationnel de la donnée, en interface entre les équipes métiers, la DSI et les équipes data. Le poste consiste à :

  • Structurer, formaliser et maintenir les glossaires métiers, dictionnaires de données et règles de gestion, en lien avec les Data Owners
  • Contribuer à l’identification et à la cartographie des données métiers critiques du domaine, en lien avec les Data Owners
  • Structurer et maintenir les métadonnées au sein des outils de catalogage (Collibra, DataGalaxy, Zeenea, Alation, etc.) • Recueillir, formaliser et suivre les règles de qualité des données • Mettre en place les contrôles qualité et piloter les plans de remédiation • Qualifier les usages des données (pilotage, décisionnel, réglementaire, IA, etc.) • Identifier les données sensibles et contribuer à la mise en conformité (RGPD, sécurité) • Participer à la définition et au respect des politiques d’accès aux données • Faciliter les échanges entre métiers, équipes data et IT • Contribuer à l’animation de la gouvernance data (comités, priorisation, bonnes pratiques)

Votre profil

  • De formation Bac+5 (école d’ingénieur, université, école de commerce ou équivalent) • Vous justifiez de 3 à 8 ans d’expérience sur des fonctions de type AMOA / MOA Data, chef de projet Data, consultant data, gouvernance ou pilotage transverse • Vous disposez d’une bonne culture data, BI et gouvernance • Vous êtes à l’aise dans des environnements multi-acteurs et transverses
Vos compétences clés
  • Gouvernance des données, qualité, métadonnées • Bonne compréhension des architectures data (DWH, Data Lake, plateformes data) • Capacité à lire et exploiter des données via SQL • Compréhension des flux, transformations et chaînes de traitement • Maîtrise d’au moins un outil de data catalog / gouvernance (Collibra, DataGalaxy, Zeenea, Alation, etc.) • Connaissances en matière de RGPD et de conformité
Atouts supplémentaires
  • Connaissance des environnements Cloud (Azure, GCP, AWS) • Connaissance d’outils de data quality

Vos qualités pour réussir

Nous recherchons un(e) Consultant(e) Data Steward qui soit :

  • Structuré(e), rigoureux(se) • Autonome • Pédagogue et doté(e) d’un bon relationnel • Capable de travailler en environnement transverse • Attiré(e) par des projets à forte valeur métier

Postuler à cette offre

Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

    Prénom*

    Nom*

    E-mail*

    Téléphone*

    Joindre votre CV et votre message de motivation

    Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

    consultant Java / Kafka confirmé (H/F)

    Paris IDF
    Travail en hybride

    Smartpoint en bref

    Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.

    Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).

    Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone

    Vos responsabilités et le périmètre du poste

    Nous renforçons notre pôle Data Engineering & Streaming avec un consultant java /Kafka confirmé, idéalement certifié ou expérimenté sur Confluent Platform.

    Au sein d’une équipe data et d’architectes techniques, vous serez le référent Kafka et interviendrez sur :

    • L’administration et l’optimisation de Kafka / Confluent (clusters, topics, performances)

    • La conception et l’implémentation de pipelines de données en temps réel

    • Le développement d’APIs (Java et/ou Python) pour l’intégration des flux

    • La mise en place de bonnes pratiques autour de la scalabilité et de la résilience

    • Le support aux équipes de développement et le mentorat technique

    • Une collaboration étroite avec les équipes DataOps sur la supervision et la sécurité

       

    Votre profil

    • Plus de 5 ans d’expérience dans le développement backend ou ingénierie data

    • Minimum 2 ans sur Kafka (Confluent fortement souhaité)

    • Solides compétences en Java ou Python

    • Bonne maîtrise des APIs et bases SQL

    • Esprit d’équipe, autonomie, sens de l’architecture et de la performance

    • Une expérience en data streaming ou event-driven architecture est un vrai plus

    Vos qualités pour réussir

    Postuler à cette offre

    Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

      Prénom*

      Nom*

      E-mail*

      Téléphone*

      Joindre votre CV et votre message de motivation

      Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

      Business Developer ESN Data IA – Paris

      Paris 13ème

      Smartpoint, ESN pure player Data basée à Paris, recherche un.e Business Developer pour renforcer son équipe commerciale. Vous contribuerez activement au développement de nos activités autour de la modernisation des architectures Data, de l’automatisation des pipelines Data Engineering, de l’IA générative, du Data Mesh, et de la gouvernance Data.

      Nos offres adressent directement les enjeux des DSI, CTO, CDO et directions innovation des grandes entreprises.

      Vos responsabilités et le périmètre du poste

      • Identifier, qualifier et engager les leads via des canaux multicanaux : LinkedIn, cold mailing, outils de prospection, événements sectoriels…
      • Utiliser des outils modernes comme Hubspot, Lemlist, PhantomBuster, Sales Navigator pour automatiser et structurer votre approche.
      • Générer des opportunités commerciales avec des interlocuteurs tels que CDO, DSI, lead architectes, responsables Data, PO plateforme, DataOps managers, acheteurs IT…
      • Travailler en coordination avec le directeur commercial et les practices pour assurer une passation fluide jusqu’à l’avant-vente.
      • Participer activement à la structuration commerciale d’une ESN en forte accélération, spécialisée sur des sujets à fort enjeu métier.

      Votre profil

      • Diplômé(e) d’une école de commerce ou équivalent, vous disposez d’au moins 2 ans d’expérience en prospection, dans l’univers ESN, tech ou recrutement IT (sourcing).
      • Vous maîtrisez les outils de prospection digitale B2B et êtes à l’aise avec le contact direct (mail, téléphone, social selling).
      • Vous avez un fort intérêt pour les sujets Data, Cloud, IA et une capacité à dialoguer avec des interlocuteurs techniques.
      • Vous aimez les environnements agiles, structurés mais non bureaucratiques, et souhaitez évoluer rapidement.
      Rémunération fixe + variable attractive Poste en CDI basé à Paris

      Vos qualités pour réussir

      Postuler à cette offre

      Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

        Prénom*

        Nom*

        E-mail*

        Téléphone*

        Joindre votre CV et votre message de motivation

        Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

        Data Analyst (H/F)

        ile de france
        travail en présentiel

        Smartpoint en bref

        Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue. Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone

        Vos responsabilités et le périmètre du poste

        Dans le cadre de la croissance de Smartpoint, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes et celles de nos clients.  Nous cherchons actuellement un Data Analyst (H/F) pour l’un de nos clients en Ile de France. Missions et Contexte :    Nous recherchons un profil data terrain, capable de transformer des données imparfaites en décisions business à forte valeur ajoutée.    Contexte & enjeux du poste  Les données exploitées proviennent de PMS et CRS hétérogènes, avec des niveaux de qualité très variables selon les outils et les pratiques du groupe.    L’enjeu n’est pas académique mais résolument opérationnel : 

        • Données incomplètes, permissives ou incohérentes 
        • Nécessité de reconstruire du sens métier 
        • Contraintes fortes liées à l’hôtellerie (stock périssable, temps réel, valeur nulle d’une chambre non vendue) 
            Vos missions  Rattaché(e) au département Revenue Management, vous interviendrez sur des problématiques data à fort impact business : 
        • Analyser, fiabiliser et exploiter les données issues des PMS / CRS 
        • Identifier, qualifier et corriger les problèmes de qualité de données 
        • Mettre en place et améliorer des modèles d’attribution / contribution afin d’identifier l’origine réelle des réservations 
        • Réaliser des analyses ad hoc au service du Revenue Management 
        • Intégrer et formaliser les règles métier propres à l’hôtellerie 
        • Être force de proposition sur les méthodes, les interprétations et les arbitrages data 
        • Travailler en interaction avec des équipes internationales 
         

        Votre profil

        Profil recherché :   Au delà des compétences, nous recherchons un état d’esprit.  Compétences clés 

        • Excellente maîtrise de SQL (indispensable) 
        • Forte appétence technique et data 
        • Exposition à des environnements data type Microsoft Fabric / pipelines data (ou capacité à monter en compétence rapidement) 
        • À l’aise avec le data crunching, l’exploration et la recherche d’angles morts 
        Expérience 
        • Expérience ou forte exposition au secteur de l’hôtellerie indispensable pour une prise en main rapide des enjeux fonctionnels 
        • Anglais courant impératif (échanges réguliers avec des équipes internationales) 
        Soft skills attendues 
        • Très forte capacité de travail 
        • Curiosité intellectuelle marquée 
        • Profil pugnace, persévérant, orienté résultats 
        • Capacité à aller chercher l’information, questionner, recouper 
        • Goût pour la résolution de problèmes complexes et concrets 
         

        Vos qualités pour réussir

        Postuler à cette offre

        Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

          Prénom*

          Nom*

          E-mail*

          Téléphone*

          Joindre votre CV et votre message de motivation

          Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

          Expert Snowflake / dbt (H/F)

          ile de france
          Travail en hybride

          Smartpoint en bref ?

          Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue. Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone

          Vos responsabilités et le périmètre du poste

          Dans le cadre de projets data stratégiques menés pour nos clients grands comptes, nous recherchons un Expert Snowflake / dbt pour renforcer nos équipes et intervenir sur des plateformes data cloud modernes à forts enjeux de performance, de sécurité et de qualité des données.  

          Vos missions

          • Concevoir et faire évoluer des plateformes data cloud basées sur Snowflake et dbt

          • Administrer et optimiser les environnements Snowflake (performance, coûts, monitoring)

          • Mettre en œuvre des pipelines d’ingestion via Snowpipe et des stages externes AWS S3

          • Développer des modèles de données analytiques et des transformations SQL avancées avec dbt

          • Industrialiser les traitements grâce aux macros Jinja, tests dbt et snapshots

          • Garantir la sécurité et la gouvernance des données (RBAC, RLS, Dynamic Data Masking)

          • Documenter les modèles et collaborer avec les équipes data et métiers

          Votre profil

            De formation supérieure (Diplôme d'ingénieur, Master, ...), vous justifiez d'une expérience de 5 ans minimum dans un contexte data :  

          • Expérience confirmée en data engineering / analytics engineering

          • Maîtrise de Snowflake : administration, optimisation des warehouses, monitoring et sécurité

          • Pratique avancée de dbt : modélisation, SQL complexe, macros Jinja, tests et snapshots

          • Expérience des flux d’ingestion via Snowpipe et AWS S3

          • Connaissance des mécanismes de sécurité des données (RBAC, RLS, Dynamic Data Masking)

          • Sens de la qualité, de la documentation et des bonnes pratiques data

          • Certification Snowflake souhaitée (SnowPro Core / Advanced)

          Vos qualités pour réussir

          Postuler à cette offre

          Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

            Prénom*

            Nom*

            E-mail*

            Téléphone*

            Joindre votre CV et votre message de motivation

            Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

            Team Lead Support Applicatif AEM / Adobe DAM (H/F)

            ile de france
            travail en présentiel

            Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?

            Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution. Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
            • Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
            • Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
            • Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.

            Vos responsabilités et le périmètre du poste

            Le/la Team Lead sera en charge du pilotage du support applicatif autour d’Adobe Experience Manager (AEM) et d’Adobe Digital Asset Management (DAM). Il/elle encadrera une équipe de deux personnes et interviendra directement sur la gestion des tickets afin d’accompagner les contributeurs (équipes régionales et hôteliers).   Responsabilités principales :

            • Assurer le support fonctionnel et applicatif des utilisateurs AEM et DAM
            • Gérer les accès et habilitations aux plateformes
            • Analyser, qualifier et prioriser les incidents et demandes
            • Escalader les tickets vers les feature teams lorsqu’il s’agit de bugs et en assurer le suivi jusqu’à résolution complète
            • Garantir la continuité du service et le déblocage rapide des situations impactant les contributeurs

            Votre profil

            De Formation Bac+4/5 dans une école d'ingénieur ou une université en informatique. Vous justifié d'une expérience significative de minimum 6 ans notamment en tant que Team Lead Support Applicatif AEM / Adobe DAM.

            Hard skills :
            • Doit connaître les plateforme Adobe AEM de DAM Cloud
            • Le livrable est Compétences techniques : Adobe Experienc Manager - Confirmé - Impératif
            • Adobe DAM - Confirmé - Impératif
            • Service Now - Confirmé - Important
            • Connaissances linguistiques Français Courant (Impératif) Anglais Courant (Impératif)
              Soft Skills :
            • Au-delà des compétences techniques sur les plateformes Adobe, nous recherchons un profil faisant preuve de leadership, avec un fort esprit collaboratif et orienté service.
            • La personne devra être capable de prendre le lead sur des initiatives, qu’elles soient identifiées de manière proactive ou confiées par l’organisation.
            • Un excellent niveau de français et d’anglais, à l’oral comme à l’écrit, est requis.

            Vos qualités pour réussir

            Postuler à cette offre

            Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

              Prénom*

              Nom*

              E-mail*

              Téléphone*

              Joindre votre CV et votre message de motivation

              Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

              Développeur Mulesoft expert France (H/F)

              France
              Full

              Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?

              Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution. Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
              • Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
              • Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
              • Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.

              Vos responsabilités et le périmètre du poste

              Dans le cadre de leur transformation digitale, notre client a mis au centre de son architecture IT la brique MuleSoft et à ce titre cherche à renforcer ses équipes Architecture & API Management à travers le recrutement d' un Développeur Mulesoft confirmé .   Rôle: Dans un contexte de projets omni-canaux et CRM, vous intégrez une équipe projet, dans laquelle vous aurez pour mission  : • Comprendre l’environnement client (métier, informatique et projet) • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets • Participation au recueil du besoin technique et fonctionnel • Travailler en collaboration avec des équipes métier et projet dans les différentes étapes du projet • Être force de proposition dans la conception de la solution technique des flux Mulesoft • Développement des nouveaux flux/API, maintient et évolution des flux/API existants • Déploiement des flux dans les environnements CloudHub • Participation active au maintien et à l’amélioration de la plateforme Mulesoft • Participation active à la mise en place du CI/CD • Application des bonnes pratiques Mulesoft • Participation à l’analyse et à la résolution des incidents de production • Rédaction des documentations techniques et d’exploitation

              Votre profil

              De formation supérieure (école d’ingénieur…), vous justifiez impérativement d’une expérience de 5 ans minimum sur des projets d’intégration / API Management, principalement sur Mulesoft.   Vous connaissez au moins une des technologiques suivantes : • Connaissance de la plateforme MuleSoft Anypoint Platform • API Rest / Json / OpenAPI v3 (Swagger) • Protocoles de sécurité relatives aux APIs (OAuth, SSL, CORS, JWT) • Développement en Java • Expérience avec les concepts d'architecture d'intégration, y compris les API, SOAP, REST, et les modèles d'intégration (Sync/Async, Batch, Pub-Sub, etc.). • Expérience avec les outils DevOps (par exemple, Git et Maven). • Expérience avec Munit et MQueue. • Certification MuleSoft (MCD - Mule 4) de préférence Vous avez : • Des connaissances de l’environnement Salesforce (Lightning, Apex, Visualforce, SOQL & SOSL, …) • Une ou plusieurs certifications MuleSoft (Level 1, Integration, API design)  

              Vos avantages :

              • Full remote : liberté géographique totale

              • Projets complexes et stratégiques (API, intégration, data)

              • Environnement technique MuleSoft de haut niveau

              • Forte autonomie et rôle clé dans l’architecture

              • Collaboration avec des équipes data et IT expertes

              • Flexibilité et équilibre vie pro / vie perso

              • Missions à long terme avec impact direct sur le SI client

              Vos qualités pour réussir

              Postuler à cette offre

              Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                Prénom*

                Nom*

                E-mail*

                Téléphone*

                Joindre votre CV et votre message de motivation

                Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                Data Engineer Python GCP Snowflake – Bordeaux (H/F)

                Bordeaux
                Travail en hybride

                Smartpoint en bref ?

                Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue. Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone

                Vos responsabilités et le périmètre du poste

                Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables.
                Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.

                Vos missions

                En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :

                • Conception et développement de pipelines de données robustes et scalables

                • Développement en Python pour le traitement et l’orchestration des flux

                • Mise en œuvre de solutions data sur Google Cloud Platform (GCP)

                • Modélisation, optimisation et exploitation de Snowflake

                • Intégration de données (ETL / ELT) issues de sources multiples

                • Garantie de la qualité, de la fiabilité et de la performance des données

                • Contribution aux choix d’architectures Data & Cloud

                • Travail en collaboration avec Data Analysts, Data Scientists et équipes métier

                Votre profil

                Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :

                • une expérience de minimum 3 ans dans un contexte data similaire
                • Solide maîtrise de Python

                • Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)

                • Pratique professionnelle de Snowflake

                • Bonne connaissance des bases de données SQL

                • Compréhension des enjeux Big Data, Cloud et Data Warehouse

                • Sensibilité aux problématiques de performance, de coûts et de sécurité

                • Autonomie, rigueur et esprit d’équipe

                • une maitrise de l'anglais à l'oral et à l'écrit

                Vos qualités pour réussir

                Postuler à cette offre

                Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                  Prénom*

                  Nom*

                  E-mail*

                  Téléphone*

                  Joindre votre CV et votre message de motivation

                  Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                  Data Engineer Python GCP Snowflake – Lyon (H/F)

                  Lyon
                  Travail en hybride

                  Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?

                  Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution. Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
                  • Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
                  • Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
                  • Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.

                  Vos responsabilités et le périmètre du poste

                  Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables.
                  Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.

                  Vos missions

                  En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :

                  • Conception et développement de pipelines de données robustes et scalables

                  • Développement en Python pour le traitement et l’orchestration des flux

                  • Mise en œuvre de solutions data sur Google Cloud Platform (GCP)

                  • Modélisation, optimisation et exploitation de Snowflake

                  • Intégration de données (ETL / ELT) issues de sources multiples

                  • Garantie de la qualité, de la fiabilité et de la performance des données

                  • Contribution aux choix d’architectures Data & Cloud

                  • Travail en collaboration avec Data Analysts, Data Scientists et équipes métier

                  Votre profil

                  Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :

                  • une expérience de minimum 3 ans dans un contexte data similaire
                  • Solide maîtrise de Python

                  • Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)

                  • Pratique professionnelle de Snowflake

                  • Bonne connaissance des bases de données SQL

                  • Compréhension des enjeux Big Data, Cloud et Data Warehouse

                  • Sensibilité aux problématiques de performance, de coûts et de sécurité

                  • Autonomie, rigueur et esprit d’équipe

                  • une maitrise de l'anglais à l'oral et à l'écrit

                  Vos qualités pour réussir

                  Postuler à cette offre

                  Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                    Prénom*

                    Nom*

                    E-mail*

                    Téléphone*

                    Joindre votre CV et votre message de motivation

                    Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                    Data Engineer Python GCP Snowflake (H/F)

                    Paris 13ème
                    Travail en hybride

                    Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?

                    Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution. Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
                    • Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
                    • Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
                    • Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.

                    Vos responsabilités et le périmètre du poste

                    Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables.
                    Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.

                    Vos missions

                    En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :

                    • Conception et développement de pipelines de données robustes et scalables

                    • Développement en Python pour le traitement et l’orchestration des flux

                    • Mise en œuvre de solutions data sur Google Cloud Platform (GCP)

                    • Modélisation, optimisation et exploitation de Snowflake

                    • Intégration de données (ETL / ELT) issues de sources multiples

                    • Garantie de la qualité, de la fiabilité et de la performance des données

                    • Contribution aux choix d’architectures Data & Cloud

                    • Travail en collaboration avec Data Analysts, Data Scientists et équipes métier

                    Votre profil

                    Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :

                    • une expérience de minimum 3 ans dans un contexte data similaire
                    • Solide maîtrise de Python

                    • Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)

                    • Pratique professionnelle de Snowflake

                    • Bonne connaissance des bases de données SQL

                    • Compréhension des enjeux Big Data, Cloud et Data Warehouse

                    • Sensibilité aux problématiques de performance, de coûts et de sécurité

                    • Autonomie, rigueur et esprit d’équipe

                    • une maitrise de l'anglais à l'oral et à l'écrit

                    Vos qualités pour réussir

                    Postuler à cette offre

                    Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                      Prénom*

                      Nom*

                      E-mail*

                      Téléphone*

                      Joindre votre CV et votre message de motivation

                      Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)