Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Dans le cadre de la croissance de Smartpoint, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes et celles de nos clients.Nous cherchons actuellement un Consultant Data (H/F) pour l’un de nos clients à Nantes.Missions et Contexte :Nous recherchons un profil data, capable de transformer des données imparfaites en décisions business à forte valeur ajoutée.Vos missions:Rattaché(e) au PPO Data, vous interviendrez sur des problématiques suivantes :Analyse et compréhension des besoins:
Comprendre et modéliser les problématiques métiers
Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques
Élaborer un plan d’analyse des données adapté aux besoins métiers
Data science et modélisation:
Concevoir et développer des modèles de machine learning
Mettre en œuvre des techniques statistiques et de data mining
Optimiser les modèles de données des projets data
Développer et maintenir des scripts Python optimisés
Exploitation et valorisation des données:
Analyser les données et interpréter les résultats pour les métiers
Conceptualiser des solutions autour de problématiques opérationnelles
Formaliser les résultats d’analyse et les présenter aux équipes métiers
Mettre en évidence la valeur des actions proposées
Visualisation et restitution:
Concevoir des visualisations de données adaptées aux besoins métiers.
Produire éventuellement des visualisations cartographiques.
Rendre les résultats lisibles, exploitables et actionnables.
Collaboration et industrialisation:
Créer les tables et vues nécessaires aux projets data.
Collaborer avec les équipes Data Ops pour l’industrialisation :
collecte de données
traitements
supervision
restitution
Estimer la charge des traitements techniques et des développements.
Recommandations et amélioration:
Être force de proposition sur les actions à mettre en œuvre.
Formuler des préconisations opérationnelles basées sur les analyses.
Votre profil
Expériences requises
Minimum 4 années d’expérience en projets data orientés analyse et data science
Minimum 3 années d’expérience dans la manipulation de données en environnement data industriel et complexe
Minimum 2 années d’expérience de travail en méthodologie Agile
Compétences indispensables
Maîtrise de Python et PySpark
Excellente connaissance des :
Techniques statistiques
Méthodes de Data Science
Datamining
Maîtrise des SGBD et du SQL
Expérience de manipulation de données dans une architecture data complexe
Maîtrise de Git
Capacité d’analyse, de synthèse et de recommandation
Vos qualités pour réussir
Une appétence en manipulation de données en environnement data complexe et industriel.
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Développeur Java React confirmé (H/F)
Paris Ile-de-France
Sur site + télétravail
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une société de conseil et de services numériques, spécialisée dans l’ingénierie de la Data depuis 2006. Nos compétences reconnues en ce domaine nous permettent d’être « Preferred Vendor » et d’être référencés parmi les plus grands comptes français dans les domaines de la banque, de l’énergie, des média, des télécoms ou encore de la grande distribution.
Nous sommes aujourd’hui une équipe de 350 consultants et experts animés par une vision commune :
Une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
Une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable
Une méthode de développement agile et des pratiques XOps (DataOps, MLOps, PlatformOps) pour une stack technologique qui permet plus d’automatisation, qui réduit le nombre de technologies et les processus ; et qui accélère le time-to-market.
Nous rejoindre, c’est intégrer une équipe Agile vous permet de monter en compétences sur vos domaines technologiques actuels mais aussi sur d’autres outils Data / BI. Smartpoint, c'est en effet aussi un lab R&D particulière actif qui forme nos collaborateurs pour qu'ils soient toujours à la pointe des dernières avancées technologiques. Vous évoluerez sur des projets d'envergure dans des environnements métiers variés et challengeant.
Vos responsabilités et le périmètre du poste
En tant que Développeur(se) React, vous interviendrez sur des projets web frontend et mobile particulièrement innovants.
Voici un aperçu des tâches qui pourraient vous être confiées :
Conception et développement applicatif dans le cadre d’architecture micro-services ;
Création de nouvelles fonctionnalités ;
Assurer la qualité des développements (code) ;
Respecter les bonnes pratiques ;
Mettre en place et réaliser les tests.
Votre profil
Vous avez une formation en informatique à minima bac + 2 ou alors vous êtes autodidacte avec de fortes compétences en Java, confirmées par plusieurs années d’expériences (3 ans). En plus de cela, vous maîtrisez parfaitement React et vous êtes idéalement coutumier de nombreux autres environnements techniques : AWS, Android, javascript, HTML5 (...). Vous avez des bases en SQL et la maîtrise de Spring est un vrai plus !
Vos qualités pour réussir
Nous recherchons avant tout un état d'esprit. Vous aimez le travail en équipe et souhaitez donner un nouvel élan à votre carrière ? Vous souhaitez évoluer sur des technologies innovantes et des projets d'envergures ? Rejoignez nous !
Nous recherchons un(e) développeur(se) qui soit :
Autonome et polyvalent
Curieux et qui aime découvrir de nouvelles technologies
ouvert à travailler avec des équipes hétérogènes
attiré par le challenge
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Engineer Python GCP Snowflake (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Smartpoint, ESN spécialisée dans la data, accompagne ses clients dans la conception et le déploiement de plateformes data cloud performantes et scalables. Dans le cadre de notre croissance, nous recherchons un Data Engineer pour intervenir sur des projets stratégiques autour de la donnée, du Cloud et du Big Data.
Vos missions
En tant que Data Engineer, vous serez au cœur des enjeux data de nos clients :
Conception et développement de pipelines de données robustes et scalables
Développement en Python pour le traitement et l’orchestration des flux
Mise en œuvre de solutions data sur Google Cloud Platform (GCP)
Modélisation, optimisation et exploitation de Snowflake
Intégration de données (ETL / ELT) issues de sources multiples
Garantie de la qualité, de la fiabilité et de la performance des données
Contribution aux choix d’architectures Data & Cloud
Travail en collaboration avec Data Analysts, Data Scientists et équipes métier
Votre profil
Diplômé d'une école d'ingénieur ou d'un Master vous avec une forte sensibilité aux architectures modernes et disposez des qualités requises suivantes :
une expérience de minimum 3 ans dans un contexte data similaire
Solide maîtrise de Python
Expérience confirmée sur GCP (BigQuery, Dataflow, Cloud Storage, Composer…)
Pratique professionnelle de Snowflake
Bonne connaissance des bases de données SQL
Compréhension des enjeux Big Data, Cloud et Data Warehouse
Sensibilité aux problématiques de performance, de coûts et de sécurité
Autonomie, rigueur et esprit d’équipe
une maitrise de l'anglais à l'oral et à l'écrit
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Business Developer ESN Data IA – Paris
Paris 13ème
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Identifier, qualifier et engager les leads via des canaux multicanaux : LinkedIn, cold mailing, outils de prospection, événements sectoriels…
Utiliser des outils modernes comme Hubspot, Lemlist, PhantomBuster, Sales Navigator pour automatiser et structurer votre approche.
Générer des opportunités commerciales avec des interlocuteurs tels que CDO, DSI, lead architectes, responsables Data, PO plateforme, DataOps managers, acheteurs IT…
Travailler en coordination avec le directeur commercial et les practices pour assurer une passation fluide jusqu’à l’avant-vente.
Participer activement à la structuration commerciale d’une ESN en forte accélération, spécialisée sur des sujets à fort enjeu métier.
Votre profil
Diplômé(e) d’une école de commerce ou équivalent, vous disposez d’au moins 2 ans d’expérience en prospection, dans l’univers ESN, tech ou recrutement IT (sourcing).
Vous maîtrisez les outils de prospection digitale B2B et êtes à l’aise avec le contact direct (mail, téléphone, social selling).
Vous avez un fort intérêt pour les sujets Data, Cloud, IA et une capacité à dialoguer avec des interlocuteurs techniques.
Vous aimez les environnements agiles, structurés mais non bureaucratiques, et souhaitez évoluer rapidement.
Rémunération fixe + variable attractive
Poste en CDI basé à Paris
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Expert Snowflake / dbt (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Dans le cadre de projets data stratégiques menés pour nos clients grands comptes, nous recherchons un Expert Snowflake / dbt pour renforcer nos équipes et intervenir sur des plateformes data cloud modernes à forts enjeux de performance, de sécurité et de qualité des données.
Vos missions
Concevoir et faire évoluer des plateformes data cloud basées sur Snowflake et dbt
Administrer et optimiser les environnements Snowflake (performance, coûts, monitoring)
Mettre en œuvre des pipelines d’ingestion via Snowpipe et des stages externes AWS S3
Développer des modèles de données analytiques et des transformations SQL avancées avec dbt
Industrialiser les traitements grâce aux macros Jinja, tests dbt et snapshots
Garantir la sécurité et la gouvernance des données (RBAC, RLS, Dynamic Data Masking)
Documenter les modèles et collaborer avec les équipes data et métiers
Votre profil
De formation supérieure (Diplôme d'ingénieur, Master, ...), vous justifiez d'une expérience de 5 ans minimum dans un contexte data :
Expérience confirmée en data engineering / analytics engineering
Maîtrise de Snowflake : administration, optimisation des warehouses, monitoring et sécurité
Pratique avancée de dbt : modélisation, SQL complexe, macros Jinja, tests et snapshots
Expérience des flux d’ingestion via Snowpipe et AWS S3
Connaissance des mécanismes de sécurité des données (RBAC, RLS, Dynamic Data Masking)
Sens de la qualité, de la documentation et des bonnes pratiques data
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Steward (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Smartpoint recherche, dans le cadre de ses projets clients grands comptes et secteur public, des Data Stewards intervenant sur des missions de gouvernance de données visant à structurer, fiabiliser et sécuriser les données métiers utilisées pour le pilotage, le reporting et les usages analytiques et réglementaires.
Le Data Steward intervient au sein d’un domaine métier (RH, Finance, Marketing, etc.) et agit comme référent opérationnel de la donnée, en interface entre les équipes métiers, la DSI et les équipes data.
Le poste consiste à :
Structurer, formaliser et maintenir les glossaires métiers, dictionnaires de données et règles de gestion, en lien avec les Data Owners
Contribuer à l’identification et à la cartographie des données métiers critiques du domaine, en lien avec les Data Owners
Structurer et maintenir les métadonnées au sein des outils de catalogage (Collibra, DataGalaxy, Zeenea, Alation, etc.)
• Recueillir, formaliser et suivre les règles de qualité des données
• Mettre en place les contrôles qualité et piloter les plans de remédiation
• Qualifier les usages des données (pilotage, décisionnel, réglementaire, IA, etc.)
• Identifier les données sensibles et contribuer à la mise en conformité (RGPD, sécurité)
• Participer à la définition et au respect des politiques d’accès aux données
• Faciliter les échanges entre métiers, équipes data et IT
• Contribuer à l’animation de la gouvernance data (comités, priorisation, bonnes pratiques)
Votre profil
De formation Bac+5 (école d’ingénieur, université, école de commerce ou équivalent)
• Vous justifiez de 3 à 8 ans d’expérience sur des fonctions de type AMOA / MOA Data, chef de projet Data, consultant data, gouvernance ou pilotage transverse
• Vous disposez d’une bonne culture data, BI et gouvernance
• Vous êtes à l’aise dans des environnements multi-acteurs et transverses
Vos compétences clés
Gouvernance des données, qualité, métadonnées
• Bonne compréhension des architectures data (DWH, Data Lake, plateformes data)
• Capacité à lire et exploiter des données via SQL
• Compréhension des flux, transformations et chaînes de traitement
• Maîtrise d’au moins un outil de data catalog / gouvernance (Collibra, DataGalaxy, Zeenea, Alation, etc.)
• Connaissances en matière de RGPD et de conformité
Atouts supplémentaires
Connaissance des environnements Cloud (Azure, GCP, AWS)
• Connaissance d’outils de data quality
Vos qualités pour réussir
Nous recherchons un(e) Consultant(e) Data Steward qui soit :
Structuré(e), rigoureux(se)
• Autonome
• Pédagogue et doté(e) d’un bon relationnel
• Capable de travailler en environnement transverse
• Attiré(e) par des projets à forte valeur métier
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Data Analyst (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Dans le cadre de la croissance de Smartpoint, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes et celles de nos clients.Nous cherchons actuellement un Data Analyst (H/F) pour l’un de nos clients en Ile de France.Missions et Contexte :Nous recherchons un profil data terrain, capable de transformer des données imparfaites en décisions business à forte valeur ajoutée.Contexte & enjeux du posteLes données exploitées proviennent de PMS et CRS hétérogènes, avec des niveaux de qualité très variables selon les outils et les pratiques du groupe.L’enjeu n’est pas académique mais résolument opérationnel :
Données incomplètes, permissives ou incohérentes
Nécessité de reconstruire du sens métier
Contraintes fortes liées à l’hôtellerie (stock périssable, temps réel, valeur nulle d’une chambre non vendue)
Vos missionsRattaché(e) au département Revenue Management, vous interviendrez sur des problématiques data à fort impact business :
Analyser, fiabiliser et exploiter les données issues des PMS / CRS
Identifier, qualifier et corriger les problèmes de qualité de données
Mettre en place et améliorer des modèles d’attribution / contribution afin d’identifier l’origine réelle des réservations
Réaliser des analyses ad hoc au service du Revenue Management
Intégrer et formaliser les règles métier propres à l’hôtellerie
Être force de proposition sur les méthodes, les interprétations et les arbitrages data
Travailler en interaction avec des équipes internationales
Votre profil
Profil recherché :Au delà des compétences, nous recherchons un état d’esprit.Compétences clés
Excellente maîtrise de SQL (indispensable)
Forte appétence technique et data
Exposition à des environnements data type Microsoft Fabric / pipelines data (ou capacité à monter en compétence rapidement)
À l’aise avec le data crunching, l’exploration et la recherche d’angles morts
Expérience
Expérience ou forte exposition au secteur de l’hôtellerie indispensable pour une prise en main rapide des enjeux fonctionnels
Anglais courant impératif (échanges réguliers avec des équipes internationales)
Soft skills attendues
Très forte capacité de travail
Curiosité intellectuelle marquée
Profil pugnace, persévérant, orienté résultats
Capacité à aller chercher l’information, questionner, recouper
Goût pour la résolution de problèmes complexes et concrets
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Project Manager Collibra (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Smartpoint recherche dans le cadre de ses projets clients, un project manager Collibra intervenant dans la gestion de projet en vue de définir les processus opérationnels, activités et flux de travail à mettre en œuvre dans COLLIBRA pour le département IT.
Le poste consiste à :
Identifier les besoins à mettre en œuvre et définir les attentes en matière d’inventaire basées sur le métamodèle de COLLIBRA (par exemple : gestion des données/actifs métier critiques, résultats clés des données, intégration des rôles et responsabilités, gestion des workflows tels que la gestion des problèmes de qualité des données, cadre de contrôle),
Définir les exigences en termes de qualité et de format des données à migrer, et produire des expressions de besoins adaptées à COLLIBRA,
Assister lors de la phase de tests et de la migration du contenu existant depuis les outils qui seront remplacés,
Assurer le suivi et l’expertise sur la configuration par l’intégration des écrans, workflows afin de garantir une expérience de bout en bout pour les données,
Contribuer à la gouvernance de la gestion des données du Groupe.
Votre profil
De formation supérieure (Master, diplôme d'ingénieur, ...), vous justifiez d'une expérience d'au moins 7 ans en gestion de projet ainsi qu'une expérience confirmée sur :
La solution COLLIBRA pour garantir des processus compatibles avec le modèle natif de la solution, et assurer que les workflows pourront être mis en œuvre par l’intégration technique,
Les concepts de gouvernance des données et de qualité des données. Cela est également un prérequis pour garantir un démarrage rapide, compte tenu du calendrier serré mais aussi de la pertinence des processus et workflows attendus,
Les processus AGILE pour assurer l’efficacité dans la mise en œuvre du projet avec l’intégration IT
Vos qualités pour réussir
Vos autres forces ?
Vous êtes synthétique et organisé ;
Vous avez une vision stratégique
Vous avez un bon sens du relationnel, une très bonne communication et vous aimez travailler en équipe
Vous avez envie de rejoindre une entreprise qui saura vous faire grandir et progresser rapidement vers de nouvelles responsabilités.
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
Software Developer mastering SQL / Grafana/ remote / Porto F/H
Porto
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi nous sommes différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, run et à amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Description of the services to be rendered :
Deliver part of MDG Viewer / OEG Viewer Replacement project:
• Design Grafana dashboards corresponding to specifications, including potentially complex SQL requests, targeting the database (ClickHouse) loaded with OEG/MDG messages. Some SQL requests have time-series specificities (windowing…). Give insights on inserted data to enable optimized requests.
• The delivery of the Grafana dashboards should be repeatable in the various environments automatically.
• Establish with testers common QA plan allowing clear, accurate, regular reporting through KPI’s related to the testing activities (design, execution, automation, regression). Deliver Unit Tests.
• Context: o Model driven development, using code generation through Java, XSL or Python for the database schema o The delivery of software is made as Docker or RPM depending on the production environment, configuration is delivered through Ansible or AWS parameters, with CloudFormation typically for AWS
Deliverables :
• Grafana dashboards, with complex / time-series oriented SQL request • SQL code for new functionalities and tests, following coding standards, state of the art practices
• Clear and accurate documentation relative to implemented code
• Actively contribute to continuous code improvement
• Automated test suites, built around tests frameworks (Unit Test part)
• Deliveries reports
• Context: Java, Python, Git, Jenkins (Groovy), JIRA, tests automated using Gherkin, AWS
• Ability to deliver Python and/or Java code accompanying the dashboards is a plus, for example to enable “screenshots” of the Grafana dashboard in emails
Unity :
• We respect and value the people we work with
• We are unified through a common purpose
• We embrace diversity and strive for inclusion
Integrity :
• We value transparency, communicate honestly and share information openly
• We act with integrity in everything we do
• We don’t hide our mistakes, and we learn from them
Agility :
• We act with a sense of urgency and decisiveness
• We are adaptable, responsive and embrace change
• We take smart risks
Energy :
• We are positively driven to make a difference and challenge the status quo
• We focus on and encourage personal leadership
• We motivate each other with our ambition Accountability
• We deliver maximum value to our customers and stakeholders
• We take ownership and are accountable for the outcome
• We reward and celebrate performance
Votre profil
Software Developer mastering SQL / Grafana technologies with many years of experience
Design Grafana dashboards corresponding to specifications, including potentially complex SQL requests, targeting the database (ClickHouse) loaded with OEG/MDG messages. Some SQL requests have time-series specificities (windowing…).
The delivery of software is made as Docker or RPM
Design Grafana dashboards corresponding to specifications, including potentially complex SQL requests, targeting the database (ClickHouse) loaded with OEG/MDG messages. Some SQL requests have time-series specificities (windowing…).
The delivery of software is made as Docker or RPM
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
consultant Java / Kafka confirmé (H/F)
Paris IDF
Travail en hybride
Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue.
Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts).
Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.
Vos responsabilités et le périmètre du poste
Nous renforçons notre pôle Data Engineering & Streaming avec un consultant java /Kafka confirmé, idéalement certifié ou expérimenté sur Confluent Platform.
Au sein d’une équipe data et d’architectes techniques, vous serez le référent Kafka et interviendrez sur :
L’administration et l’optimisation de Kafka / Confluent (clusters, topics, performances)
La conception et l’implémentation de pipelines de données en temps réel
Le développement d’APIs (Java et/ou Python) pour l’intégration des flux
La mise en place de bonnes pratiques autour de la scalabilité et de la résilience
Le support aux équipes de développement et le mentorat technique
Une collaboration étroite avec les équipes DataOps sur la supervision et la sécurité
Votre profil
Plus de 5 ans d’expérience dans le développement backend ou ingénierie data
Minimum 2 ans sur Kafka (Confluent fortement souhaité)
Solides compétences en Java ou Python
Bonne maîtrise des APIs et bases SQL
Esprit d’équipe, autonomie, sens de l’architecture et de la performance
Une expérience en data streaming ou event-driven architecture est un vrai plus
Vos qualités pour réussir
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.