Captiva rejoint le groupe Smartpoint 

Le nouvel ensemble propose désormais deux pôles d’expertises majeurs en Data et Développement de produits.

Paris, le 10 juin 2022

Smartpoint, pure player de la Data, annonce le rapprochement avec Captiva, ESN parisienne de près de 80 collaborateurs, spécialisée dans le développement de produits et la qualité logicielle.

Désormais, le groupe Smartpoint, c’est une proposition de valeur élargie en expertises technologiques autour des deux principaux chantiers des entreprises en France pour soutenir leur transformation digitale : l’exploitation de la data et sa valorisation ; ainsi que le développement de nouveaux produits.

Le nouvel ensemble compte plus 250 collaborateurs qui réalisent des prestations IT ou délivrent des projets au forfait pour des entreprises des secteurs de la banque-assurance, la grande distribution, le transport, l’énergie, les média et les services.

Conformément à notre plan de croissance, nous cherchions à nous développer en nous rapprochant d’entreprises qui nous ressemblent en termes de valeurs et de vision. C’est chose faite avec Captiva et ses 80 collaborateurs, qui rejoignent l’aventure et vont désormais partager nos ambitions. Captiva est spécialisée en développement applicatif, testing et AMOA. En termes de références clients, pour ne citer que quelques comptes, Captiva intervient aujourd’hui au sein du Groupe Crédit Agricole, Accor Hotels et Manpower. Nous sommes donc très complémentaires et ce rapprochement va nous permettre d’avoir une position plus forte sur notre marché.

Yazid Nechi, Président de Smartpoint

 

Zoom sur les éditeurs incontournables en plateformes analytiques et Business Intelligence.

D’après Gartner, il est désormais essentiel que les plateformes s’intègrent davantage dans un écosystème analytique plus global qui comprend les outils métiers mais aussi la data science qui restait jusqu’à présent encore à part. La plupart comprennent déjà des fonctionnalités d’Intelligence Artificielle comme la langage naturel et la génération de rapport / KPI automatisés qui permettent aux utilisateurs métiers de mieux d’approprier les outils.

Les leaders de cette année ? (et pour la 2ème année !)

Microsoft avec PowerBI toujours au-dessus de la mêlée (déjà pour son bon rapport qualité / prix et ses fonctionnalités enrichies avec Azure notamment en Machine Learning), Salesforce avec Tableau et Qlik.

A noter aussi l’intérêt croissant des outils comme Looker et QuickSight qui ont l’intérêt de se plugger sur plusieurs environnements technologiques. Ce qui permet de rester indépendant face aux poids croissants des géants technologiques…

Microstrategy reste aussi un incontournable ❤

« Au lieu d’un environnement de BI distinct situé au-dessus d’une base de données, dans lequel les informations doivent être déplacées dans les deux sens, une forme de symbiose s’instaure. Dans ce cadre, une telle plateforme embarque des fonctionnalités d’interrogation des données et d’analytique et ne nécessite pas des flux ETL incessants en direction d’un SGBD. L’autre pendant de ce phénomène est reflété par les solutions de BI embarquées dans les environnements de travail des métiers. Il existe donc plusieurs écosystèmes analytiques.
Enfin, la BI doit faire partie d’une plateforme analytique de bout en bout. Celle-ci doit inclure la capture des données, les capacités d’analyse, jusqu’à la prise de décision. »

Austin Kronz, l’un des auteurs de ce rapport (propos repris par Le Mag IT)

Bilan carbone

Le point sur le bilan carbone de BI Newvision, une marque Smartpoint

Trier, recycler, éviter d’imprimer ou d’échanger des mails avec de lourdes pièces jointes en favorisant le travail collaboratif… notre démarche RSE ne s’arrête pas là et cela commence par faire notre bilan carbone. 
Il est important pour nous de calculer l’ensemble des émissions de gaz à effet de serre de notre entreprise.

Nous avons choisi Greenly afin de s’engager concrètement pour le climat et réduire nos émissions CO2.
Voici déjà le point sur l’empreinte carbone de BI Newvision, une société Smartpoint. Ce premier bilan nous a donné de manière globale un aperçu rapide de nos émissions, ce qui nous a permis de distinguer les principaux postes d’émissions.
En additionnant toutes les émissions, BI Newvision a une empreinte de 373t CO2.
Notre principal poste d’émission est l’achat de services (95,1%), suivi des émissions liées au déplacement (3%).

Bilan Carbone BI NEWVISION

Smartpoint rejoint Planet Tech’Care.

Nous sommes fiers aujourd’hui de nous associer à numeum et de rejoindre la communauté de Planet Tech’Care 🌍.

Smartpoint milite pour un numérique plus responsable et se mobilise pour réduire l’empreinte environnementale de la Tech. Cela fait partie intégrante des valeurs qui nous animent au quotidien et nous sommes déjà très engagés sur ces sujets.

  • Nous prônons notamment une utilisation éthique des données, moins énergivore et conforme dès la conception (RGPD).
  • Nous privilégions une approche Smart Data pour lutter contre le Data Swamp, ces entrepôts de données qui stockent des données inutiles, et permettre une exploitation des données plus durable.


Certes, le nombre de données collectées en provenance de sources très diverses connait une croissance exponentielle. Nos clients ont besoin d’avoir accès en temps réel à des bases toujours plus volumétriques pour extraire du sens et mieux les exploiter pour gagner en efficacité opérationnelle.
… en revanche, rien ne sert de stocker des data qui ne seront jamais utilisées ou peu, cela ne fait qu’alourdir la gestion des données, la consommation des ressources, les performances globales… et cela n’est pas responsable, ni éthique.

PlanetTech’Care a été officiellement lancé le 8 octobre 2021 lors du colloque « Numérique et environnement : faisons converger les transitions » organisé conjointement par le Ministère de la Transition écologique, le Ministère de l’Économie, des Finances et de la Relance et le Secrétariat d’Etat en charge de la Transition numérique et des Communications électroniques.

Vous aussi, rejoignez le mouvement !

Smart people, à la découverte des équipes.

C’est comment chez le Pure Player de la Data ?


Nous vous proposons une visite guidée de Smartpoint en vidéo, à la rencontre de nos équipes 🎬

Cette vidéo été tournée au siège (Paris 13ème, rue neuve Tolbiac) en novembre dernier, avant les restrictions sanitaires dues à la 5ème vague.

Voici venu le temps des DataOps


Les référentiels de données se multiplient (transactionnel, MDM, informationnel, etc.), les volumes explosent, les outils et les plateformes se nourrissent de données … Garantir une gouvernance et une gestion unifiée est devenue mission impossible avec les approches traditionnelles.
En revanche, nous constatons tous les jours que les entreprises qui réussissent sont des entreprises Data Driven où l’accès aux données est démocratisé et accessible par toutes les ressources qui les consomment, de manière sécurisée et contrôlée.


Pour y parvenir ? Seule une approche comme le DataOps est efficiente car elle s’applique sur l’ensemble des processus qui interviennent dans la gestion du cycle de vie des données (et des applications qui les utilisent) en mettant en pratique les principes de l’agilité et la recherche en continu de toujours plus d’automatisation.


Les avantages ? Gestion de multiple sources de données et pipelines dans toute leur variété, plus de vélocité, de fiabilité et de qualité, de réutilisation et de reproductivité de composants, plus de valeur business, accélération du time-to-market, etc.


Chez Smartpoint, nous nous appuyons entre autres sur Talend et Informatica pour automatiser la préparation et l’acquisition des données tout en garantissant la Data Quality.

Des data et des hommes

Le traitement des données et la manière dont elles sont consommées par les différents acteurs qui interviennent tout au long de son cycle de vie est un incroyable voyage ! Et ces données sont de plus en plus précieuses au fur et à mesure que notre civilisation avance.

Le monde de la Data nous ouvre chaque jour de nouvelles perspectives !


Quand on parle de data, on a tendance à résumer cela à de l’ingénierie et à des concepts techniques mais c’est aussi une question de capacités de prises de décision, de mise en opération quasiment instantanément quand l’IA s’en mêle … et de plus en plus d’éthique.

Medhi GARGOURI, Directeur Général et associé fondateur de Smartpoint


Voici un article intéressant qui résume les rôles des Data Players dans l’entreprise entre les consommateurs des données (au centre de cet écosystème), les product managers et fonctions dites métiers, les architectes, les ingénieurs data, les ingénieurs QA, les data analysts, les data scientists.

Auteur Antriksh Goel

Article à lire pour aller plus loin : https://towardsdatascience.com/an-experience-of-a-data-ecosystem-4f86e98fd013

Top 3 des tendances en stratégies analytiques et migrations data-to-the cloud


Migrer en état vos traitements (workloads) qu’ils soient en Custom SQL (Python, Scala ou Java), en ETL Low-code (Fivetran ou Matillion par exemple) ou basés sur les technologies Hadoop (SPARK) peut sembler une bonne idée sur le papier… Mais dans les faits, vous ne faites que déplacer les enjeux de dette technologique et de réduction du TCO (total cost of ownership) des pipelines de données et … vous ne tirez pas pleinement partie des capacités des plateformes de dernière génération.

Voici trois best practice à suivre :

  1. Une meilleure utilisation des outils en SaaS qui apportent une valeur ajoutée immédiate sans nécessiter – ou presque – d’administration, d’autant plus qu’ils offrent aujourd’hui des fonctionnalités avancées en termes de sécurité, d’optimisation des performances et de réplication.
  2. La mise en œuvre des concepts DataOps dans vos cycles de développement tels que le contrôle de version et l’automatisation des builds, des tests et des déploiements.
  3. Une meilleure exploitation des capacités des plateformes de Data Cloud qui permettent aujourd’hui le partage massif de données via des data marketplace, sans avoir à concevoir des pipelines pour échanger des extraits des fichiers, ni copier les données, ni développer et maintenir des API pour mettre à disposition les données aux ressources qui vont les consommer. Par exemple Snowflake Data Cloud propose plus de 400 data sets et une plateforme unique pour prendre en charge toute les données de manière sécurisée avec une gouvernance centralisée !

Pour aller plus loin sur notamment l’approche de l’ingénierie de données avec dbt (Data Build tool) en particulier et sur les solutions proposées par Snowflake, c’est ici.

Réduire l’impact environnemental … passe aussi par une meilleure gestion de vos données.

Quelle méthode adopter pour une approche frugale de vos projets data ? Certes, il est nécessaire d’avoir un certain volume de données pour établir des estimations ou des prévisions mais au-delà d’un certain seuil, le gain apporté par une donnée supplémentaire décroit.


Accumuler des data n’est pas synonyme de création de valeur, alors que l’on a tendance à collecter et à stocker un maximum de données « au cas où » nous aurions besoin de les exploiter et de les analyser à moment donné…. C’est au contraire une aberration ! Non seulement les données perdent de manière générale de la valeur avec le temps et surtout, leur capture, leur stockage, leur circulation et leur diffusion génère des dépenses énergétiques exponentielles … d’autant plus que la Data est inexorablement copiée vers des destinations diverses et variées sans que la donnée source ne soit jamais supprimée.


Comment ne pas générer plus de données que nécessaire ? Comment réduire la consommation de ressources matérielles et énergétiques ?
Voici en 5 points des pistes de développement de techniques de minimisation des coûts énergétiques de vos projets Data.

  1. L’intérêt de la data. Avez-vous vraiment besoin de ces données et pour quels usages ? Il est important de ne pas perdre de vue l’objectif à atteindre et en quoi il justifie la collecte et l’informatisation de la donnée (utilité)
  2. Représentativité de la donnée : en quoi cette donnée participe à un ensemble de phénomènes ? Est-ce que cette data est la plus pertinente pour représenter ce ou ces phénomènes ?
  3. Est-ce que cette nouvelle donnée rend caduque une autre donnée déjà collectée et à quelle fréquence ?
  4. Éviter la redondance liée aux étapes de transformation des données en mutualisant notamment les étapes de préparation via un partage des pipelines (DataOps, MLOps) pour pouvoir les réutiliser et analyser les interactions entre les projets.
  5. Meilleur échantillonnage et sondage des données pour déterminer quel volume est réellement nécessaire pour une analyse ou la modélisation souhaitée. Souvent seule 10% des données suffisent pour obtenir les attendus ou suivre les évolutions d’un phénomène … et c’est autant de ressources informatiques économisées au niveau infrastructure !
Pour une approche frugale de vos projets data

Pour aller plus loin : Projets data : comment réduire l’impact environnemental

Une rentrée Data 2021 qui se fait dans le cloud.

Depuis ces dernières années – et cela s’est encore accéléré depuis la crise sanitaire – les entreprises accélèrent leur migration vers des infrastructures en cloud public auprès d’Azure (Microsoft Clouding Computing Platform), AWS (Amazon Web Services), GCP (Google Cloud Platform), mais aussi OVH Cloud, ce dernier devenant de plus en incontournable face à des préoccupations croissantes en termes de gouvernance et de souveraineté des données.


D’ailleurs Toucan Toco en DataViz (ou analytique embarquée) et Dataiku en DataScience proposent désormais des versions managées de leurs plateformes depuis les marketplace des géants du cloud (AWS pour Toucan Toco et bientôt OVH; Azure, AWS et bientôt GCP pour Dataiku).

  • Aujourd’hui, on estime que près de 80% des entreprises sont engagées dans une migration sur le cloud. La plupart ont adopté une stratégie hybride pour des raisons de coûts, de sécurité ou de contrôle de leurs données (souveraineté).
  • Bien que tout semble très simple et rapide sur le papier …. la réalité est loin d’être aussi reluisante ! Gartner pointe dans son dernier Magic Quadrant dédié aux infrastructures cloud et leurs plateformes de services que les écueils sont nombreux (à lire ici) : catalogues illisibles, complexités des contrats, tarifs agressifs avec des coûts cachés, pratiques commerciales douteuses, service après-vente insuffisant, pannes…
  • La nécessité de se faire accompagner par un partenaire expérimenté et spécialiste des projets data cloud est plus que jamais indispensable avant de s’engager car c’est le début d’un rapport fort de dépendance vis-à-vis de la plateforme cloud que vous allez choisir. Smartpoint vous accompagne et vous aide à prendre la bonne décision.


Et vous-vous que pensez vous des services data disponibles dans les marketplaces des plateformes cloud ? Quels sont vos retours d’expérience ?

Pour en savoir sur les stratégies cloud de Toucan Toco et Dataiku ainsi que leurs offres pour les entreprises, c’est ici :

https://www.lemagit.fr/actualites/252505855/Toucan-Toco-setale-lui-aussi-sur-les-marketplaces-cloud

https://www.lemagit.fr/actualites/252502900/Comment-Dataiku-veut-attirer-ses-clients-vers-le-cloud