Smartpoint en bref, qui sommes-nous et en quoi sommes-nous différents ?
Smartpoint est une ESN pure player Data & IA créée en 2006 à Paris. Nous concevons, modernisons, déployons et opérons des plateformes Data/IA de bout en bout, avec une approche DataOps & IAOps 360° : du cadrage à l’industrialisation, le run et l'amélioration continue. Notre valeur ajoutée : des architectures data production-ready, des pipelines automatisés et observables et une obsession de la valeur opérationnelle pour les métiers. Nos équipes interviennent sur l’ensemble des grands chantiers Data & IA : architecture et modernisation des plateformes, data engineering & XOps (DataOps, MLOps/LLMOps), IA / IA générative (LLM, RAG, agents), BI & analytics (modernisation BI, reporting, dashboards) ainsi que la gouvernance des données & qualité (catalogue, lineage, data quality, data contracts). Quelques repères : +300 experts, SmartLab (R&D inshore à Paris, agrément CIR), certifications ISO 27001/27701, engagement RSE et bilan carbone.Vos responsabilités et le périmètre du poste
En tant que Data Engineer, vous serez amené(e) à :
-
Participer aux analyses techniques, études d’impacts et cadrages en lien avec les équipes produit et architecture.
-
Concevoir des solutions data performantes, sécurisées et maintenables, dans le respect des bonnes pratiques d’architecture.
-
Développer de nouveaux data products et assurer la maintenance corrective et évolutive des solutions existantes.
-
Rédiger la documentation technique associée (modélisation, procédures, ordonnancement).
-
Contribuer aux phases de tests, en lien avec les équipes QA.
-
Reporter régulièrement votre avancement et participer activement à la vie de la Squad (rituels agiles, pair programming, etc.)
Livrables attendus :
-
Code applicatif conforme aux standards de qualité, performance et sécurité, déployé sur la Data Platform.
-
Documentations techniques à jour (modèles de données, pipelines, procédures d’exploitation).
-
Propositions d’amélioration ou d’optimisation technique pertinentes et argumentées.
Votre profil
De Formation : Bac +4/5 en école d’ingénieur ou université spécialisée en informatique. Vous justifiez d'une expérience d'au moins 6 ans dans un contexte similaire. Des connaissances en termes d’éco-conception seront aussi un avantage.
-
Expérience confirmée en data engineering ou développement de plateformes data.
-
Solide maîtrise de l’écosystème cloud (idéalement GCP), des pipelines de traitement et des outils d’ingestion/streaming.
Stack technique :
-
Langages : Python, Shell
-
Modélisation / Requêtes : SQL, Modèle Physique de Données (MPD)
-
Streaming & ingestion : Kafka, Kafka Connect, SFTP
-
Stockage : Google Cloud Platform (BigQuery, Cloud Storage), SharePoint
-
Traitement : GCP Dataflow, DBT, scripts Python
-
Restitution : Looker, fichiers CSV/Excel
-
CI/CD & outils DevOps : GitLab, Docker, Kubernetes, Helm, Kustomize, Terraform, Flamingo
-
Tests : DBT tests, tests de non-régression
-
Formats manipulés : CSV, JSON, XML, Avro
Vos qualités pour réussir
Nous recherchons un(e) développeur(se) qui soit :
-
Autonome, rigoureux(se), curieux(se) et proactif(ve).
-
Forte capacité d’analyse, de résolution de problèmes complexes et d’innovation technique.
-
Bon relationnel et goût du travail en équipe agile.
Postuler à cette offre
Veuillez remplir les informations suivantes, notre service recrutement reviendra vers vous dans les plus brefs délais. Les champs obligatoires sont indiqués avec *.
