Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services spécialisée dans l’ingénierie de la Data et de l'IA depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de plus de 300 consultants et experts animée par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Vos responsabilités et le périmètre du poste
Smartpoint recherche, dans le cadre de ses projets clients grands comptes et secteur public, des Data Stewards intervenant sur des missions de gouvernance de données visant à structurer, fiabiliser et sécuriser les données métiers utilisées pour le pilotage, le reporting et les usages analytiques et réglementaires.
Le Data Steward intervient au sein d’un domaine métier (RH, Finance, Marketing, etc.) et agit comme référent opérationnel de la donnée, en interface entre les équipes métiers, la DSI et les équipes data.
Le poste consiste à :
Structurer, formaliser et maintenir les glossaires métiers, dictionnaires de données et règles de gestion, en lien avec les Data Owners
Contribuer à l’identification et à la cartographie des données métiers critiques du domaine, en lien avec les Data Owners
Structurer et maintenir les métadonnées au sein des outils de catalogage (Collibra, DataGalaxy, Zeenea, Alation, etc.)
• Recueillir, formaliser et suivre les règles de qualité des données
• Mettre en place les contrôles qualité et piloter les plans de remédiation
• Qualifier les usages des données (pilotage, décisionnel, réglementaire, IA, etc.)
• Identifier les données sensibles et contribuer à la mise en conformité (RGPD, sécurité)
• Participer à la définition et au respect des politiques d’accès aux données
• Faciliter les échanges entre métiers, équipes data et IT
• Contribuer à l’animation de la gouvernance data (comités, priorisation, bonnes pratiques)
Votre profil
De formation Bac+5 (école d’ingénieur, université, école de commerce ou équivalent)
• Vous justifiez de 3 à 8 ans d’expérience sur des fonctions de type AMOA / MOA Data, chef de projet Data, consultant data, gouvernance ou pilotage transverse
• Vous disposez d’une bonne culture data, BI et gouvernance
• Vous êtes à l’aise dans des environnements multi-acteurs et transverses
Vos compétences clés
Gouvernance des données, qualité, métadonnées
• Bonne compréhension des architectures data (DWH, Data Lake, plateformes data)
• Capacité à lire et exploiter des données via SQL
• Compréhension des flux, transformations et chaînes de traitement
• Maîtrise d’au moins un outil de data catalog / gouvernance (Collibra, DataGalaxy, Zeenea, Alation, etc.)
• Connaissances en matière de RGPD et de conformité
Atouts supplémentaires
Connaissance des environnements Cloud (Azure, GCP, AWS)
• Connaissance d’outils de data quality
Vos qualités pour réussir
Nous recherchons un(e) Consultant(e) Data Steward qui soit :
Structuré(e), rigoureux(se)
• Autonome
• Pédagogue et doté(e) d’un bon relationnel
• Capable de travailler en environnement transverse
• Attiré(e) par des projets à forte valeur métier
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
consultant Java / Kafka confirmé (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.
Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone
Vos responsabilités et le périmètre du poste
Nous renforçons notre pôle Data Engineering & Streaming avec un consultant java /Kafka confirmé, idéalement certifié ou expérimenté sur Confluent Platform.
Au sein d’une équipe data et d’architectes techniques, vous serez le référent Kafka et interviendrez sur :
L’administration et l’optimisation de Kafka / Confluent (clusters, topics, performances)
La conception et l’implémentation de pipelines de données en temps réel
Le développement d’APIs (Java et/ou Python) pour l’intégration des flux
La mise en place de bonnes pratiques autour de la scalabilité et de la résilience
Le support aux équipes de développement et le mentorat technique
Une collaboration étroite avec les équipes DataOps sur la supervision et la sécurité
Votre profil
Plus de 5 ans d’expérience dans le développement backend ou ingénierie data
Minimum 2 ans sur Kafka (Confluent fortement souhaité)
Solides compétences en Java ou Python
Bonne maîtrise des APIs et bases SQL
Esprit d’équipe, autonomie, sens de l’architecture et de la performance
Une expérience en data streaming ou event-driven architecture est un vrai plus
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Business Developer ESN Data IA – Paris
Paris 13ème
Smartpoint, ESN pure player Data basée à Paris, recherche un.e Business Developer pour renforcer son équipe commerciale. Vous contribuerez activement au développement de nos activités autour de la modernisation des architectures Data, de l’automatisation des pipelines Data Engineering, de l’IA générative, du Data Mesh, et de la gouvernance Data.
Nos offres adressent directement les enjeux des DSI, CTO, CDO et directions innovation des grandes entreprises.
Vos responsabilités et le périmètre du poste
Identifier, qualifier et engager les leads via des canaux multicanaux : LinkedIn, cold mailing, outils de prospection, événements sectoriels…
Utiliser des outils modernes comme Hubspot, Lemlist, PhantomBuster, Sales Navigator pour automatiser et structurer votre approche.
Générer des opportunités commerciales avec des interlocuteurs tels que CDO, DSI, lead architectes, responsables Data, PO plateforme, DataOps managers, acheteurs IT…
Travailler en coordination avec le directeur commercial et les practices pour assurer une passation fluide jusqu’à l’avant-vente.
Participer activement à la structuration commerciale d’une ESN en forte accélération, spécialisée sur des sujets à fort enjeu métier.
Votre profil
Diplômé(e) d’une école de commerce ou équivalent, vous disposez d’au moins 2 ans d’expérience en prospection, dans l’univers ESN, tech ou recrutement IT (sourcing).
Vous maîtrisez les outils de prospection digitale B2B et êtes à l’aise avec le contact direct (mail, téléphone, social selling).
Vous avez un fort intérêt pour les sujets Data, Cloud, IA et une capacité à dialoguer avec des interlocuteurs techniques.
Vous aimez les environnements agiles, structurés mais non bureaucratiques, et souhaitez évoluer rapidement.
Rémunération fixe + variable attractive
Poste en CDI basé à Paris
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Analyst (H/F)
ile de france
travail en présentiel
Smartpoint en bref
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.
Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone
Vos responsabilités et le périmètre du poste
Dans le cadre de la croissance de Smartpoint, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes et celles de nos clients.Nous cherchons actuellement un Data Analyst (H/F) pour l’un de nos clients en Ile de France.Missions et Contexte :Nous recherchons un profil data terrain, capable de transformer des données imparfaites en décisions business à forte valeur ajoutée.Contexte & enjeux du posteLes données exploitées proviennent de PMS et CRS hétérogènes, avec des niveaux de qualité très variables selon les outils et les pratiques du groupe.L’enjeu n’est pas académique mais résolument opérationnel :
Données incomplètes, permissives ou incohérentes
Nécessité de reconstruire du sens métier
Contraintes fortes liées à l’hôtellerie (stock périssable, temps réel, valeur nulle d’une chambre non vendue)
Vos missionsRattaché(e) au département Revenue Management, vous interviendrez sur des problématiques data à fort impact business :
Analyser, fiabiliser et exploiter les données issues des PMS / CRS
Identifier, qualifier et corriger les problèmes de qualité de données
Mettre en place et améliorer des modèles d’attribution / contribution afin d’identifier l’origine réelle des réservations
Réaliser des analyses ad hoc au service du Revenue Management
Intégrer et formaliser les règles métier propres à l’hôtellerie
Être force de proposition sur les méthodes, les interprétations et les arbitrages data
Travailler en interaction avec des équipes internationales
Votre profil
Profil recherché :Au delà des compétences, nous recherchons un état d’esprit.Compétences clés
Excellente maîtrise de SQL (indispensable)
Forte appétence technique et data
Exposition à des environnements data type Microsoft Fabric / pipelines data (ou capacité à monter en compétence rapidement)
À l’aise avec le data crunching, l’exploration et la recherche d’angles morts
Expérience
Expérience ou forte exposition au secteur de l’hôtellerie indispensable pour une prise en main rapide des enjeux fonctionnels
Anglais courant impératif (échanges réguliers avec des équipes internationales)
Soft skills attendues
Très forte capacité de travail
Curiosité intellectuelle marquée
Profil pugnace, persévérant, orienté résultats
Capacité à aller chercher l’information, questionner, recouper
Goût pour la résolution de problèmes complexes et concrets
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Expert Snowflake / dbt (H/F)
ile de france
Travail en hybride
Smartpoint en bref ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.
Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone
Vos responsabilités et le périmètre du poste
Dans le cadre de projets data stratégiques menés pour nos clients grands comptes, nous recherchons un Expert Snowflake / dbt pour renforcer nos équipes et intervenir sur des plateformes data cloud modernes à forts enjeux de performance, de sécurité et de qualité des données.
Vos missions
Concevoir et faire évoluer des plateformes data cloud basées sur Snowflake et dbt
Administrer et optimiser les environnements Snowflake (performance, coûts, monitoring)
Mettre en œuvre des pipelines d’ingestion via Snowpipe et des stages externes AWS S3
Développer des modèles de données analytiques et des transformations SQL avancées avec dbt
Industrialiser les traitements grâce aux macros Jinja, tests dbt et snapshots
Garantir la sécurité et la gouvernance des données (RBAC, RLS, Dynamic Data Masking)
Documenter les modèles et collaborer avec les équipes data et métiers
Votre profil
De formation supérieure (Diplôme d'ingénieur, Master, ...), vous justifiez d'une expérience de 5 ans minimum dans un contexte data :
Expérience confirmée en data engineering / analytics engineering
Maîtrise de Snowflake : administration, optimisation des warehouses, monitoring et sécurité
Pratique avancée de dbt : modélisation, SQL complexe, macros Jinja, tests et snapshots
Expérience des flux d’ingestion via Snowpipe et AWS S3
Connaissance des mécanismes de sécurité des données (RBAC, RLS, Dynamic Data Masking)
Sens de la qualité, de la documentation et des bonnes pratiques data
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Team Lead Support Applicatif AEM / Adobe DAM (H/F)
ile de france
travail en présentiel
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Vos responsabilités et le périmètre du poste
Le/la Team Lead sera en charge du pilotage du support applicatif autour d’Adobe Experience Manager (AEM) et d’Adobe Digital Asset Management (DAM).
Il/elle encadrera une équipe de deux personnes et interviendra directement sur la gestion des tickets afin d’accompagner les contributeurs (équipes régionales et hôteliers).
Responsabilités principales :
Assurer le support fonctionnel et applicatif des utilisateurs AEM et DAM
Gérer les accès et habilitations aux plateformes
Analyser, qualifier et prioriser les incidents et demandes
Escalader les tickets vers les feature teams lorsqu’il s’agit de bugs et en assurer le suivi jusqu’à résolution complète
Garantir la continuité du service et le déblocage rapide des situations impactant les contributeurs
Votre profil
De Formation Bac+4/5 dans une école d'ingénieur ou une université en informatique. Vous justifié d'une expérience significative de minimum 6 ans notamment en tant que Team Lead Support Applicatif AEM / Adobe DAM.
Hard skills :
Doit connaître les plateforme Adobe AEM de DAM Cloud
Le livrable est Compétences techniques : Adobe Experienc Manager - Confirmé - Impératif
Adobe DAM - Confirmé - Impératif
Service Now - Confirmé - Important
Connaissances linguistiques Français Courant (Impératif) Anglais Courant (Impératif)
Soft Skills :
Au-delà des compétences techniques sur les plateformes Adobe, nous recherchons un profil faisant preuve de leadership, avec un fort esprit collaboratif et orienté service.
La personne devra être capable de prendre le lead sur des initiatives, qu’elles soient identifiées de manière proactive ou confiées par l’organisation.
Un excellent niveau de français et d’anglais, à l’oral comme à l’écrit, est requis.
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Développeur Mulesoft expert France (H/F)
France
Full
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Vos responsabilités et le périmètre du poste
Dans le cadre de leur transformation digitale, notre client a mis au centre de son architecture IT la brique MuleSoft et à ce titre cherche à renforcer ses équipes Architecture & API Management à travers le recrutement d' un Développeur Mulesoft confirmé .
Rôle:
Dans un contexte de projets omni-canaux et CRM, vous intégrez une équipe projet, dans laquelle vous aurez pour mission :
• Comprendre l’environnement client (métier, informatique et projet)
• Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets
• Participation au recueil du besoin technique et fonctionnel
• Travailler en collaboration avec des équipes métier et projet dans les différentes étapes du projet
• Être force de proposition dans la conception de la solution technique des flux Mulesoft
• Développement des nouveaux flux/API, maintient et évolution des flux/API existants
• Déploiement des flux dans les environnements CloudHub
• Participation active au maintien et à l’amélioration de la plateforme Mulesoft
• Participation active à la mise en place du CI/CD
• Application des bonnes pratiques Mulesoft
• Participation à l’analyse et à la résolution des incidents de production
• Rédaction des documentations techniques et d’exploitation
Votre profil
De formation supérieure (école d’ingénieur…), vous justifiez impérativement d’une expérience de 5 ans minimum sur des projets d’intégration / API Management, principalement sur Mulesoft.
Vous connaissez au moins une des technologiques suivantes :
• Connaissance de la plateforme MuleSoft Anypoint Platform
• API Rest / Json / OpenAPI v3 (Swagger)
• Protocoles de sécurité relatives aux APIs (OAuth, SSL, CORS, JWT)
• Développement en Java
• Expérience avec les concepts d'architecture d'intégration, y compris les API, SOAP, REST, et les modèles d'intégration (Sync/Async, Batch, Pub-Sub, etc.).
• Expérience avec les outils DevOps (par exemple, Git et Maven).
• Expérience avec Munit et MQueue.
• Certification MuleSoft (MCD - Mule 4)
de préférence Vous avez :
• Des connaissances de l’environnement Salesforce (Lightning, Apex, Visualforce, SOQL & SOSL, …)
• Une ou plusieurs certifications MuleSoft (Level 1, Integration, API design)
Vos avantages :
Full remote : liberté géographique totale
Projets complexes et stratégiques (API, intégration, data)
Environnement technique MuleSoft de haut niveau
Forte autonomie et rôle clé dans l’architecture
Collaboration avec des équipes data et IT expertes
Flexibilité et équilibre vie pro / vie perso
Missions à long terme avec impact direct sur le SI client
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Engineer Python GCP Snowflake – Bordeaux (H/F)
Bordeaux
Travail en hybride
Smartpoint en bref ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.
Notre valeur ajoutrée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone
Vos responsabilités et le périmètre du poste
Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables. Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.
Vos missions
En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :
Conception et développement de pipelines de données robustes et scalables
Développement en Python pour le traitement et l’orchestration des flux
Mise en œuvre de solutions data sur Google Cloud Platform (GCP)
Modélisation, optimisation et exploitation de Snowflake
Intégration de données (ETL / ELT) issues de sources multiples
Garantie de la qualité, de la fiabilité et de la performance des données
Contribution aux choix d’architectures Data & Cloud
Travail en collaboration avec Data Analysts, Data Scientists et équipes métier
Votre profil
Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :
une expérience de minimum 3 ans dans un contexte data similaire
Solide maîtrise de Python
Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)
Pratique professionnelle de Snowflake
Bonne connaissance des bases de données SQL
Compréhension des enjeux Big Data, Cloud et Data Warehouse
Sensibilité aux problématiques de performance, de coûts et de sécurité
Autonomie, rigueur et esprit d’équipe
une maitrise de l'anglais à l'oral et à l'écrit
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Engineer Python GCP Snowflake – Lyon (H/F)
Lyon
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Vos responsabilités et le périmètre du poste
Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables. Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.
Vos missions
En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :
Conception et développement de pipelines de données robustes et scalables
Développement en Python pour le traitement et l’orchestration des flux
Mise en œuvre de solutions data sur Google Cloud Platform (GCP)
Modélisation, optimisation et exploitation de Snowflake
Intégration de données (ETL / ELT) issues de sources multiples
Garantie de la qualité, de la fiabilité et de la performance des données
Contribution aux choix d’architectures Data & Cloud
Travail en collaboration avec Data Analysts, Data Scientists et équipes métier
Votre profil
Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :
une expérience de minimum 3ans dans un contexte data similaire
Solide maîtrise de Python
Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)
Pratique professionnelle de Snowflake
Bonne connaissance des bases de données SQL
Compréhension des enjeux Big Data, Cloud et Data Warehouse
Sensibilité aux problématiques de performance, de coûts et de sécurité
Autonomie, rigueur et esprit d’équipe
une maitrise de l'anglais à l'oral et à l'écrit
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Engineer Python GCP Snowflake (H/F)
Paris 13ème
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preffered Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de 350 consultants et experts animée par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Vos responsabilités et le périmètre du poste
Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables. Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.
Vos missions
En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :
Conception et développement de pipelines de données robustes et scalables
Développement en Python pour le traitement et l’orchestration des flux
Mise en œuvre de solutions data sur Google Cloud Platform (GCP)
Modélisation, optimisation et exploitation de Snowflake
Intégration de données (ETL / ELT) issues de sources multiples
Garantie de la qualité, de la fiabilité et de la performance des données
Contribution aux choix d’architectures Data & Cloud
Travail en collaboration avec Data Analysts, Data Scientists et équipes métier
Votre profil
Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :
une expérience de minimum 3 ans dans un contexte data similaire
Solide maîtrise de Python
Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)
Pratique professionnelle de Snowflake
Bonne connaissance des bases de données SQL
Compréhension des enjeux Big Data, Cloud et Data Warehouse
Sensibilité aux problématiques de performance, de coûts et de sécurité
Autonomie, rigueur et esprit d’équipe
une maitrise de l'anglais à l'oral et à l'écrit
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.