consultant Java / Kafka confirmé (H/F)

Paris IDF
Travail en hybride

Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

Vos responsabilités et le périmètre du poste

Nous renforçons notre pôle Data Engineering & Streaming avec un consultant java /Kafka confirmé, idéalement certifié ou expérimenté sur Confluent Platform.

Au sein d’une équipe data et d’architectes techniques, vous serez le référent Kafka et interviendrez sur :

  • L’administration et l’optimisation de Kafka / Confluent (clusters, topics, performances)

  • La conception et l’implémentation de pipelines de données en temps réel

  • Le développement d’APIs (Java et/ou Python) pour l’intégration des flux

  • La mise en place de bonnes pratiques autour de la scalabilité et de la résilience

  • Le support aux équipes de développement et le mentorat technique

  • Une collaboration étroite avec les équipes DataOps sur la supervision et la sécurité

   

Votre profil

  • Plus de 5 ans d’expérience dans le développement backend ou ingénierie data

  • Minimum 2 ans sur Kafka (Confluent fortement souhaité)

  • Solides compétences en Java ou Python

  • Bonne maîtrise des APIs et bases SQL

  • Esprit d’équipe, autonomie, sens de l’architecture et de la performance

  • Une expérience en data streaming ou event-driven architecture est un vrai plus

Vos qualités pour réussir

Postuler à cette offre

Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

    Prénom*

    Nom*

    E-mail*

    Téléphone*

    Joindre votre CV et votre message de motivation

    Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

    Développeur Mulesoft expert France (H/F)

    France
    Full remote

    Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

    Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

    Vos responsabilités et le périmètre du poste

    Dans le cadre de leur transformation digitale, notre client a mis au centre de son architecture IT la brique MuleSoft et à ce titre cherche à renforcer ses équipes Architecture & API Management à travers le recrutement d' un Développeur Mulesoft confirmé .   Rôle: Dans un contexte de projets omni-canaux et CRM, vous intégrez une équipe projet, dans laquelle vous aurez pour mission  : • Comprendre l’environnement client (métier, informatique et projet) • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets • Participation au recueil du besoin technique et fonctionnel • Travailler en collaboration avec des équipes métier et projet dans les différentes étapes du projet • Être force de proposition dans la conception de la solution technique des flux Mulesoft • Développement des nouveaux flux/API, maintient et évolution des flux/API existants • Déploiement des flux dans les environnements CloudHub • Participation active au maintien et à l’amélioration de la plateforme Mulesoft • Participation active à la mise en place du CI/CD • Application des bonnes pratiques Mulesoft • Participation à l’analyse et à la résolution des incidents de production • Rédaction des documentations techniques et d’exploitation

    Votre profil

    De formation supérieure (école d’ingénieur…), vous justifiez impérativement d’une expérience de 5 ans minimum sur des projets d’intégration / API Management, principalement sur Mulesoft.   Vous connaissez au moins une des technologiques suivantes : • Connaissance de la plateforme MuleSoft Anypoint Platform • API Rest / Json / OpenAPI v3 (Swagger) • Protocoles de sécurité relatives aux APIs (OAuth, SSL, CORS, JWT) • Développement en Java • Expérience avec les concepts d'architecture d'intégration, y compris les API, SOAP, REST, et les modèles d'intégration (Sync/Async, Batch, Pub-Sub, etc.). • Expérience avec les outils DevOps (par exemple, Git et Maven). • Expérience avec Munit et MQueue. • Certification MuleSoft (MCD - Mule 4) de préférence Vous avez : • Des connaissances de l’environnement Salesforce (Lightning, Apex, Visualforce, SOQL & SOSL, …) • Une ou plusieurs certifications MuleSoft (Level 1, Integration, API design)  

    Vos avantages :

    • Full remote : liberté géographique totale

    • Projets complexes et stratégiques (API, intégration, data)

    • Environnement technique MuleSoft de haut niveau

    • Forte autonomie et rôle clé dans l’architecture

    • Collaboration avec des équipes data et IT expertes

    • Flexibilité et équilibre vie pro / vie perso

    • Missions à long terme avec impact direct sur le SI client

    Vos qualités pour réussir

    Postuler à cette offre

    Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

      Prénom*

      Nom*

      E-mail*

      Téléphone*

      Joindre votre CV et votre message de motivation

      Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

      Data Engineer Python GCP Snowflake – Bordeaux (H/F)

      Bordeaux
      Travail en hybride

      Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

      Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

      Vos responsabilités et le périmètre du poste

      Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables.
      Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.

      Vos missions

      En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :

      • Conception et développement de pipelines de données robustes et scalables

      • Développement en Python pour le traitement et l’orchestration des flux

      • Mise en œuvre de solutions data sur Google Cloud Platform (GCP)

      • Modélisation, optimisation et exploitation de Snowflake

      • Intégration de données (ETL / ELT) issues de sources multiples

      • Garantie de la qualité, de la fiabilité et de la performance des données

      • Contribution aux choix d’architectures Data & Cloud

      • Travail en collaboration avec Data Analysts, Data Scientists et équipes métier

      Votre profil

      Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :

      • une expérience de minimum 3 ans dans un contexte data similaire
      • Solide maîtrise de Python

      • Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)

      • Pratique professionnelle de Snowflake

      • Bonne connaissance des bases de données SQL

      • Compréhension des enjeux Big Data, Cloud et Data Warehouse

      • Sensibilité aux problématiques de performance, de coûts et de sécurité

      • Autonomie, rigueur et esprit d’équipe

      • une maitrise de l'anglais à l'oral et à l'écrit

      Vos qualités pour réussir

      Postuler à cette offre

      Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

        Prénom*

        Nom*

        E-mail*

        Téléphone*

        Joindre votre CV et votre message de motivation

        Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

        Data Engineer Python GCP Snowflake – Lyon (H/F)

        Lyon
        Travail en hybride

        Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

        Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

        Vos responsabilités et le périmètre du poste

        Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables.
        Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.

        Vos missions

        En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :

        • Conception et développement de pipelines de données robustes et scalables

        • Développement en Python pour le traitement et l’orchestration des flux

        • Mise en œuvre de solutions data sur Google Cloud Platform (GCP)

        • Modélisation, optimisation et exploitation de Snowflake

        • Intégration de données (ETL / ELT) issues de sources multiples

        • Garantie de la qualité, de la fiabilité et de la performance des données

        • Contribution aux choix d’architectures Data & Cloud

        • Travail en collaboration avec Data Analysts, Data Scientists et équipes métier

        Votre profil

        Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :

        • une expérience de minimum 3 ans dans un contexte data similaire
        • Solide maîtrise de Python

        • Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)

        • Pratique professionnelle de Snowflake

        • Bonne connaissance des bases de données SQL

        • Compréhension des enjeux Big Data, Cloud et Data Warehouse

        • Sensibilité aux problématiques de performance, de coûts et de sécurité

        • Autonomie, rigueur et esprit d’équipe

        • une maitrise de l'anglais à l'oral et à l'écrit

        Vos qualités pour réussir

        Postuler à cette offre

        Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

          Prénom*

          Nom*

          E-mail*

          Téléphone*

          Joindre votre CV et votre message de motivation

          Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

          Data Engineer Senior – Full Microsoft Azure & Fabric

          Paris IDF
          Travail en hybride

          Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

          Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

          Vos responsabilités et le périmètre du poste

          Nous recherchons un(e) Data Ingénieur(e) Senior passionné(e) et expérimenté(e) pour rejoindre notre équipe dynamique. Si vous avez une expertise approfondie dans l'écosystème Microsoft Azure et maîtrisez les technologies de données les plus récentes, cette opportunité est faite pour vous !

          Responsabilités :

          • Concevoir et implémenter des solutions de données sur la plateforme Microsoft Azure.
          • Gérer et optimiser les flux de données avec des outils comme Azure Data Factory, Azure Data Lake, Azure SQL Database et Azure Functions.
          • Mettre en place des processus d'intégration et d'analyse de données via Azure Analysis Services.
          • Participer activement à la modélisation des données en utilisant les techniques de modèle entité-association et de modélisation dimensionnelle.
          • Travailler sur des projets complexes en collaboration avec les équipes de développement et les architectes de données.
          • Assurer une qualité de données optimale et garantir des performances de traitement élevées.
          • Mettre en œuvre des processus ETL/ELT robustes et optimisés.
          • Utiliser Azure DevOps pour le suivi des tâches et la gestion des projets.
          • Si possible, concevoir des rapports interactifs en utilisant des outils de dataviz comme Power BI.

          Votre profil

          • Expérience de 5 à 7 ans en tant que Data Ingénieur, avec une forte maîtrise des outils et services Microsoft Azure.
          • Solide expérience avec les technologies suivantes : Azure Data Factory, Azure Data Lake, Azure SQL Database, Azure Analysis Services, Azure Functions.
          • Maîtrise du langage SQL et des bonnes pratiques de gestion de base de données.
          • Notions de base de Microsoft Azure et une bonne compréhension de l’architecture des services cloud.
          • Bonne maîtrise des techniques de modélisation des données, en particulier le modèle entité-association et la modélisation dimensionnelle.
          • Solide expérience en ETL/ELT.
          • Maîtrise de Azure DevOps pour assurer une gestion efficace des tâches.
          • Compétences dans l’utilisation d’outils de dataviz, notamment Power BI, pour la création de rapports et tableaux de bord.
          • Capacité à travailler en équipe et à gérer plusieurs priorités simultanément.

          Vos qualités pour réussir

          Vos autres forces ?

          • Vous êtes synthétique et organisé ;
          • Vous avez un bon sens du relationnel et vous aimez travailler en équipe, entouré de nombreux experts dans la data ;
          • Vous avez envie de rejoindre une entreprise qui saura vous faire grandir et progresser rapidement vers de nouvelles responsabilités.
          • Si vous êtes prêt(e) à relever de nouveaux défis et à contribuer au développement d’une plateforme data moderne sur Microsoft Azure, envoyez-nous votre candidature dès aujourd'hui !

          Postuler à cette offre

          Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

            Prénom*

            Nom*

            E-mail*

            Téléphone*

            Joindre votre CV et votre message de motivation

            Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

            Consultant Teradata H/F

            Paris IDF
            Travail en hybride

            Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

            Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

            Vos responsabilités et le périmètre du poste

            Au sein de l’équipe projet Teradata , vous participez à toutes les phases du projet, de la conception au développement.

            Activités :
            • Analyser des spécifications fonctionnelles
            • Concevoir la solution technique
            • Enrichir le modèle de données
            • Rédiger les spécifications techniques détaillées
            • Bâtir les stratégies de recette, mener les tests d'intégration technique et fonctionnelle ainsi que leur validation par les référents métiers ;

            Votre profil

            Titulaire d’un diplôme supérieur (Bac +5 : école d’ingénieur, école de commerce, …), vous avez une expérience d’au moins 2 ans sur un poste similaire. Vous avez également des compétences telles que:

            • Une approche rigoureuse, méthodique et constructive
            • De bonnes capacités d'analyse et de synthèse
            • Une aisance relationnelle et de communication orale/écrite
            • Une réelle appétence et curiosité technique

            Vos qualités pour réussir

            Mais qui êtes vous ?

            En tant que Consultant(e) data vous avez indéniablement des qualités d'écoute et de communication. Vous faites preuve d'autonomie et êtes reconnu(e) pour votre rigueur.

            Vos autres atouts :
            • Vous appréciez le travail en équipe
            • Vous avez une réelle appétence et curiosité technique

            Postuler à cette offre

            Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

              Prénom*

              Nom*

              E-mail*

              Téléphone*

              Joindre votre CV et votre message de motivation

              Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

              Architecte Data H/F Paris

              Paris IDF

              Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

              Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

              Vos responsabilités et le périmètre du poste

              Dans le cadre de notre croissance, nous recherchons un(e) Architecte Data expérimenté(e), passionné(e) par les défis d’architecture moderne, la scalabilité des plateformes, et les enjeux de gouvernance et de performance. Vous serez au cœur des projets stratégiques de modernisation des SI Data de nos clients. Vos missions :

              • Concevoir des architectures data cloud-native, évolutives et sécurisées (Data Platform, Data Lakehouse, Data Mesh…).
              • Définir les standards d’ingénierie, les modèles d’intégration et les patterns d’architecture pour l’ensemble de la chaîne de valeur data.
              • Participer à la modernisation des SI vers des écosystèmes hybrides ou full cloud (Azure, AWS, GCP).
              • Encadrer les équipes d’ingénierie et assurer le lien avec les métiers, la DSI, la gouvernance et la sécurité.
              • Contribuer à la mise en place de frameworks DataOps, à l’automatisation et à l’observabilité des flux.
              • Veiller à l’application des bonnes pratiques en matière de gouvernance, qualité, sécurité et compliance.

              Votre profil

              • Diplôme d’ingénieur ou équivalent (informatique, systèmes d’information, data).
              • Expérience confirmée (> 4 ans) en architecture data, avec une excellente maîtrise des écosystèmes cloud (Azure, AWS, GCP).
              • Solide culture technique sur les outils ETL/ELT, data streaming (Kafka, Spark), catalogues (DataHub, Collibra), entrepôts (Snowflake, BigQuery).
              • Bonne compréhension des enjeux liés à la gouvernance, la confidentialité (RGPD) et le data lineage.
              • Capacité à concevoir des architectures modulaires, résilientes, orientées produit et métier.
              • Expérience en encadrement d’équipes ou en lead technique
                 

              Vos qualités pour réussir

              • Leadership technique, capacité à embarquer les équipes et à dialoguer avec des interlocuteurs variés (métier, IT, data).
              • Vision stratégique mais opérationnelle : vous simplifiez la complexité et donnez de la cohérence aux choix d’architecture.
              • Vous êtes rigoureux, structuré, mais aussi curieux et passionné par les innovations dans le domaine de la data.
              • Vous êtes motivé par un environnement exigeant, bienveillant et tourné vers l’excellence technologique.

              Postuler à cette offre

              Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                Prénom*

                Nom*

                E-mail*

                Téléphone*

                Joindre votre CV et votre message de motivation

                Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                AI/ML Engineer

                Paris IDF

                Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

                Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

                Implantée à Paris, Tunis et Casablanca, Smartpoint s’appuie sur une organisation agile et réactive, reconnue pour sa capacité à industrialiser les projets Data & IA à grande échelle tout en garantissant la sécurité, la conformité et la qualité des données.

                Certifiée ISO 27001 / 27701, évaluée Gold Ecovadis et engagée dans la réduction de son empreinte carbone, Smartpoint figure parmi les ESN les plus responsables du secteur.

                Vos responsabilités et le périmètre du poste

                Dans le cadre de notre développement, nous recherchons un(e) Ingénieur(e) confirmé en Intelligence Artificielle et Machine Learning pour rejoindre notre équipe dynamique et contribuer à la création de produits révolutionnaires. Missions :

                • Concevoir, développer et déployer des modèles d'apprentissage automatique (Machine Learning) et d'intelligence artificielle (AI) pour résoudre des problématiques complexes.
                • Collaborer avec les équipes produit, data science et développement pour intégrer des solutions AI/ML dans nos produits et services.
                • Mettre en œuvre des algorithmes avancés pour l'analyse et le traitement des données massives.
                • Participer à l'amélioration continue des processus d'optimisation des modèles et à l'innovation en matière de technologies AI/ML.
                • Analyser les performances des modèles et proposer des ajustements pour garantir leur efficacité.
                • Suivre les évolutions technologiques et les meilleures pratiques en AI/ML pour maintenir l'entreprise à la pointe de l'innovation.

                Votre profil

                • Diplôme en informatique, mathématiques, statistiques ou dans un domaine similaire.
                • Expérience significative de 5 ans minimum dans l'implémentation de modèles d'apprentissage supervisé et non supervisé, réseaux de neurones, apprentissage profond (Deep Learning).
                • Compétences en programmation, notamment en Python, R ou autre langage pertinent pour le développement AI/ML.
                • Maîtrise des outils et frameworks AI/ML tels que TensorFlow, PyTorch, Scikit-learn, etc.
                • Expérience avec des bases de données et des systèmes de traitement de données massives (Big Data).
                • Connaissance des principes fondamentaux de l'algorithmique et des mathématiques appliquées.
                • Esprit d'équipe, capacité à travailler en collaboration et à communiquer clairement les résultats techniques à des non-spécialistes.
                • Bonne maîtrise de l'anglais technique.
                   

                Vos qualités pour réussir

                • Connaissances des systèmes de recommandation, traitement du langage naturel (NLP), vision par ordinateur, etc.
                • Expérience dans l'utilisation de GPU pour l'entraînement de modèles.
                • Connaissance des outils de gestion de version (Git, GitLab, etc.)
                • vous êtes synthétique et organisé ;
                • Vous avez un bon sens du relationnel et vous aimez travailler en équipe, entouré de data analysts et de data scientists ;
                • Vous avez envie de rejoindre une entreprise qui saura vous faire grandir et progresser rapidement vers de nouvelles responsabilités.
                • Vous êtes curieux et vous vous assurez des évolutions technologiques dans le domaine de la data

                Postuler à cette offre

                Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                  Prénom*

                  Nom*

                  E-mail*

                  Téléphone*

                  Joindre votre CV et votre message de motivation

                  Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                  Data Engineer Confirmé (H/F)

                  Paris IDF
                  Travail en hybride

                  Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

                  Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.  

                  Vos responsabilités et le périmètre du poste

                  En tant que Data Engineer, vous serez amené(e) à :

                  • Participer aux analyses techniques, études d’impacts et cadrages en lien avec les équipes produit et architecture.

                  • Concevoir des solutions data performantes, sécurisées et maintenables, dans le respect des bonnes pratiques d’architecture.

                  • Développer de nouveaux data products et assurer la maintenance corrective et évolutive des solutions existantes.

                  • Rédiger la documentation technique associée (modélisation, procédures, ordonnancement).

                  • Contribuer aux phases de tests, en lien avec les équipes QA.

                  • Reporter régulièrement votre avancement et participer activement à la vie de la Squad (rituels agiles, pair programming, etc.)

                   

                  Livrables attendus :

                  • Code applicatif conforme aux standards de qualité, performance et sécurité, déployé sur la Data Platform.

                  • Documentations techniques à jour (modèles de données, pipelines, procédures d’exploitation).

                  • Propositions d’amélioration ou d’optimisation technique pertinentes et argumentées.

                  Votre profil

                  De Formation : Bac +4/5 en école d’ingénieur ou université spécialisée en informatique. Vous justifiez d'une expérience d'au moins 6 ans dans un contexte similaire. Des connaissances en termes d’éco-conception seront aussi un avantage.

                   
                  • Expérience confirmée en data engineering ou développement de plateformes data.

                  • Solide maîtrise de l’écosystème cloud (idéalement GCP), des pipelines de traitement et des outils d’ingestion/streaming.

                  Stack technique :

                  • Langages : Python, Shell

                  • Modélisation / Requêtes : SQL, Modèle Physique de Données (MPD)

                  • Streaming & ingestion : Kafka, Kafka Connect, SFTP

                  • Stockage : Google Cloud Platform (BigQuery, Cloud Storage), SharePoint

                  • Traitement : GCP Dataflow, DBT, scripts Python

                  • Restitution : Looker, fichiers CSV/Excel

                  • CI/CD & outils DevOps : GitLab, Docker, Kubernetes, Helm, Kustomize, Terraform, Flamingo

                  • Tests : DBT tests, tests de non-régression

                  • Formats manipulés : CSV, JSON, XML, Avro

                  Vos qualités pour réussir

                  Nous recherchons un(e) développeur(se) qui soit :

                  • Autonome, rigoureux(se), curieux(se) et proactif(ve).

                  • Forte capacité d’analyse, de résolution de problèmes complexes et d’innovation technique.

                  • Bon relationnel et goût du travail en équipe agile.

                  Postuler à cette offre

                  Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                    Prénom*

                    Nom*

                    E-mail*

                    Téléphone*

                    Joindre votre CV et votre message de motivation

                    Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)

                    Project Manager Collibra (H/F)

                    Paris IDF
                    Travail en hybride

                    Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

                    Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.

                    Vos responsabilités et le périmètre du poste

                    Smartpoint recherche dans le cadre de ses projets clients, un project manager Collibra intervenant dans la gestion de projet en vue de définir les processus opérationnels, activités et flux de travail à mettre en œuvre dans COLLIBRA pour le département IT.

                    Le poste consiste à :

                    • Identifier les besoins à mettre en œuvre et définir les attentes en matière d’inventaire basées sur le métamodèle de COLLIBRA (par exemple : gestion des données/actifs métier critiques, résultats clés des données, intégration des rôles et responsabilités, gestion des workflows tels que la gestion des problèmes de qualité des données, cadre de contrôle),

                    • Définir les exigences en termes de qualité et de format des données à migrer, et produire des expressions de besoins adaptées à COLLIBRA,

                    • Assister lors de la phase de tests et de la migration du contenu existant depuis les outils qui seront remplacés,

                    • Assurer le suivi et l’expertise sur la configuration par l’intégration des écrans, workflows afin de garantir une expérience de bout en bout pour les données,

                    • Contribuer à la gouvernance de la gestion des données du Groupe.

                    Votre profil

                    De formation supérieure (Master, diplôme d'ingénieur, ...), vous justifiez d'une expérience d'au moins 7 ans en gestion de projet ainsi qu'une expérience confirmée sur :  

                    • La solution COLLIBRA pour garantir des processus compatibles avec le modèle natif de la solution, et assurer que les workflows pourront être mis en œuvre par l’intégration technique,

                    • Les concepts de gouvernance des données et de qualité des données. Cela est également un prérequis pour garantir un démarrage rapide, compte tenu du calendrier serré mais aussi de la pertinence des processus et workflows attendus,

                    • Les processus AGILE pour assurer l’efficacité dans la mise en œuvre du projet avec l’intégration IT

                       

                    Vos qualités pour réussir

                    Vos autres forces ?
                    • Vous êtes synthétique et organisé ;
                    • Vous avez une vision stratégique
                    • Vous avez un bon sens du relationnel, une très bonne communication et vous aimez travailler en équipe
                    • Vous avez envie de rejoindre une entreprise qui saura vous faire grandir et progresser rapidement vers de nouvelles responsabilités.

                    Postuler à cette offre

                    Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

                      Prénom*

                      Nom*

                      E-mail*

                      Téléphone*

                      Joindre votre CV et votre message de motivation

                      Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)