data qualité DQM data governance

Data Engineer Confirmé (H/F)

Paris IDF
Travail en hybride

Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?

Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.  

Vos responsabilités et le périmètre du poste

En tant que Data Engineer, vous serez amené(e) à :

  • Participer aux analyses techniques, études d’impacts et cadrages en lien avec les équipes produit et architecture.

  • Concevoir des solutions data performantes, sécurisées et maintenables, dans le respect des bonnes pratiques d’architecture.

  • Développer de nouveaux data products et assurer la maintenance corrective et évolutive des solutions existantes.

  • Rédiger la documentation technique associée (modélisation, procédures, ordonnancement).

  • Contribuer aux phases de tests, en lien avec les équipes QA.

  • Reporter régulièrement votre avancement et participer activement à la vie de la Squad (rituels agiles, pair programming, etc.)

 

Livrables attendus :

  • Code applicatif conforme aux standards de qualité, performance et sécurité, déployé sur la Data Platform.

  • Documentations techniques à jour (modèles de données, pipelines, procédures d’exploitation).

  • Propositions d’amélioration ou d’optimisation technique pertinentes et argumentées.

Votre profil

De Formation : Bac +4/5 en école d’ingénieur ou université spécialisée en informatique. Vous justifiez d'une expérience d'au moins 6 ans dans un contexte similaire. Des connaissances en termes d’éco-conception seront aussi un avantage.

 
  • Expérience confirmée en data engineering ou développement de plateformes data.

  • Solide maîtrise de l’écosystème cloud (idéalement GCP), des pipelines de traitement et des outils d’ingestion/streaming.

Stack technique :

  • Langages : Python, Shell

  • Modélisation / Requêtes : SQL, Modèle Physique de Données (MPD)

  • Streaming & ingestion : Kafka, Kafka Connect, SFTP

  • Stockage : Google Cloud Platform (BigQuery, Cloud Storage), SharePoint

  • Traitement : GCP Dataflow, DBT, scripts Python

  • Restitution : Looker, fichiers CSV/Excel

  • CI/CD & outils DevOps : GitLab, Docker, Kubernetes, Helm, Kustomize, Terraform, Flamingo

  • Tests : DBT tests, tests de non-régression

  • Formats manipulés : CSV, JSON, XML, Avro

Vos qualités pour réussir

Nous recherchons un(e) développeur(se) qui soit :

  • Autonome, rigoureux(se), curieux(se) et proactif(ve).

  • Forte capacité d’analyse, de résolution de problèmes complexes et d’innovation technique.

  • Bon relationnel et goût du travail en équipe agile.

Postuler à cette offre

Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.

    Prénom*

    Nom*

    E-mail*

    Téléphone*

    Joindre votre CV et votre message de motivation

    Joindre votre fichier au format pdf ou doc (taille maximale : 2Mo par fichier)