Testing automatisé augmenté par l’IA, notre top 5 outils 2024

L’intégration de l’intelligence artificielle (IA) dans les processus de testing représente une avancée majeure dans le domaine de la qualité logicielle (QA). En 2024, l’IA continue de transformer les pratiques de testing en offrant des gains jusqu’alors inégalés en termes de productivité, de qualité, et de réduction des coûts.

Voici un aperçu des principaux bénéfices pour nos clients et le top 5 des outils de testing augmentés à l’IA recommandés par nos experts Smartpoint de la practice « Test automation & AI » accompagné de quelques exemples concrets d’utilisation de l’IA dans les tests.

Les bénéfices du testing augmenté à l’IA pour nos clients

1/ Amélioration de la Qualité Logicielle

L’IA permet d’identifier les défauts plus tôt et bien plus précisément que les tests manuels, réduisant ainsi le nombre de bugs et améliorant la qualité globale du logiciel. Les capacités d’apprentissage automatique de l’IA permettent également de générer des cas de tests exploratoires, couvrant ainsi des scénarios que les tests traditionnels auraient du mal à identifier.

2/ Réduction des coûts :

L’automatisation des tests permet de réduire drastiquement les coûts de main-d’œuvre et d’optimiser l’utilisation des ressources. 66 % des entreprises ont réussi à réduire leurs coûts de 21 à 50 % grâce à l’automatisation des tests. (Source enquête Qualitest). Moins de bugs en production signifie également moins de coûts associés à la correction des erreurs post-livraison.

3/ Accélération du Time-to-Market

L’IA permet d’exécuter des tests en continu et en parallèle, ce qui accélère le processus de validation et permet une mise sur le marché plus rapide des produits. C’est également plus d’adaptabilité car l’IA s’adapte rapidement aux changements dans le code. Les délais liés aux ajustements des tests sont également réduits. 56% des entreprises ont réduit le temps de test de 35 à 65% grâce à l’IA (Source Xray)

4/ Amélioration de l’efficacité

L’IA surveille et analyse les performances des applications en temps réel, permettant une identification rapide des problèmes et une optimisation continue. 73 % des entreprises affirment que l’IA a amélioré l’efficacité de leurs tests. (Source : Xray)

cas usages ia dans le stests

Cas d’usages de l’IA dans les tests

Tests unitaires automatisés : Si le code est bien géré avec des pratiques appropriées de gestion de la configuration logicielle, les algorithmes d’analyse du code peuvent être utilisés pour automatiser les tests unitaires, assurant une couverture complète et réduisant les erreurs humaines.

Tests d’API Automatisés : Dans le cas d’une architecture microservices, les algorithmes peuvent générer automatiquement des tests d’API, assurant que chaque service communique correctement avec les autres, ce qui améliore l’intégrité du système.

Génération automatisée de données de test : En surveillant les données de production, des algorithmes de régression peuvent générer automatiquement des données de test synthétiques, assurant que les tests sont représentatifs des conditions réelles.

Prédiction des goulets d’étranglement : En utilisant les journaux opérationnels, des algorithmes de régression peuvent prédire les goulets d’étranglement et les points de référence en matière de performance, permettant une optimisation proactive.

Automatisation des scripts de développement axés sur le comportement : Les algorithmes de traitement du langage naturel peuvent convertir des récits d’utilisateurs rédigés en langage simple en formats Gherkin, créant ainsi des tests automatisés basés sur le comportement utilisateur.

Optimisation basée sur l’Analyse des Défauts : En se focalisant sur les zones à risque en utilisant des données historiques propres aux défauts, des algorithmes de corrélation peuvent identifier les fonctionnalités les plus sujettes aux défauts, permettant aux équipes de se concentrer sur ces zones lors des tests.

Détermination des scénarios critiques : En analysant les comportements des utilisateurs en production, des algorithmes d’apprentissage non supervisés peuvent identifier les scénarios les plus importants à tester, optimisant ainsi la couverture des tests.

Notre Top 5 des outils de testing augmentés à l’IA à adopter en 2024

1. Selenium

Selenium est un outil de testing open source largement utilisé pour l’automatisation des tests web. Avec l’intégration de frameworks IA, Selenium améliore la capacité à détecter et à corriger les erreurs plus efficacement.

Avantages ? Flexibilité, large adoption, compatibilité avec de nombreux langages de programmation.

2. Applitools

Spécialisé dans les tests visuels, Applitools utilise l’IA pour valider les interfaces utilisateur en comparant automatiquement les captures d’écran à des versions de référence.

Avantages ? Amélioration de la qualité UI/UX, réduction des erreurs visuelles.

3. Testim

Testim utilise l’IA pour créer, exécuter et maintenir des tests automatisés avec une grande précision. Il améliore continuellement les scripts de test en apprenant des modifications de l’application.

Avantages ? Réduction des temps de maintenance des tests, meilleure détection des changements dans l’application.

4. Katalon Studio

Une plateforme de tests unifiée qui utilise l’IA pour automatiser les tests web, API, mobiles et desktop. Katalon Studio offre des fonctionnalités avancées d’analyse des tests et d’optimisation.

Avantages ? Facilité d’utilisation, large couverture de tests.

5. Functionize

Functionize combine l’apprentissage automatique et le traitement du langage naturel pour créer des tests adaptatifs. Il offre une reconnaissance visuelle et des tests automatisés basés sur des scénarios utilisateurs réels.

Avantages ? Tests adaptatifs, réduction des efforts de scriptage.

Le testing augmenté à l’IA est un domaine en pleine évolution qui offre de nombreux avantages aux entreprises et aux clients. En 2024, l’adoption de cette technologie devrait s’accélérer, avec des outils et des solutions encore plus puissants disponibles sur le marché. Les entreprises qui investissent dans le testing augmenté à l’IA seront en mesure d’améliorer la qualité de leurs logiciels, d’offrir une meilleure expérience utilisateur, de réduire leurs coûts et de mettre leurs produits sur le marché plus rapidement. L’implémentation de l’IA dans les processus de testing est un levier puissant pour améliorer la qualité, la productivité et l’efficacité tout en réduisant les coûts. En 2024, les outils de testing augmentés à l’IA continuent d’évoluer, offrant des fonctionnalités toujours plus sophistiquées et une intégration plus étroite avec les processus de développement logiciel.

Vous souhaitez intégrer l’automatisation et l’IA dans vos processus de test ? Challengez-nous !


LAISSEZ-NOUS UN MESSAGE

Les champs obligatoires sont indiqués avec *.

    Prénom*

    Nom*

    Société*

    E-mail*

    Téléphone*

    Objet*

    Message

    WINDATA REJOINT SMARTPOINT

    Paris, le 4 avril 2024

    Smartpoint, expert reconnu dans le domaine de la Data, annonce son rapprochement avec WinData. Fondée en 2010, L’ESN parisienne et sa filiale à Tunis rassemble une cinquantaine de consultants spécialisés dans le traitement des données, le développement logiciel, ainsi que la gestion de projets.

    WinData vient renforcer les domaines d’expertises de Smartpoint en ingénierie de la Data mais aussi en développement de produits. Avec WinData, nous accueillons non seulement une expertise renforcée mais aussi un portefeuille clients des plus complémentaires avec des références telles que le groupe BPCE, SeLoger, Epsilon, Sequens et UFF, entre autres.

    Ce rapprochement est aussi une rencontre entre deux cultures d’entreprises qui partagent les mêmes valeurs et une passion partagée pour les nouvelles technologies ; les fondateurs étant eux aussi ingénieurs de formation et anciens consultants.

    Le nouvel ensemble compte désormais 350 collaborateurs qui réalisent des prestations IT ou délivrent des projets au forfait pour des entreprises des secteurs de la banque-assurance, la grande distribution, l’énergie, les média et les services. Le groupe intervient sur l’ensemble du territoire français mais également en Suisse. Avec ce développement, l’offre nearshore en Tunisie se voit également significativement renforcée.

    « Ce rapprochement s’inscrit pleinement dans notre stratégie de croissance, visant à renforcer nos positions auprès des grands donneurs d’ordre en nous associant avec des structures alignées sur nos valeurs fondamentales et notre vision du futur. Avec Windata, nous concrétisons cette ambition : leurs 50 experts nous rejoignent pour écrire ensemble un nouveau chapitre de notre histoire. Spécialistes de la data, de l’innovation en développement de produits et de la gestion de projet, ils vont nous permettre de renforcer notre proposition de valeur. La complémentarité de nos portefeuilles clients, notamment dans les secteurs de la banque et de la finance, consolide notre position de leader et nous ouvre des perspectives prometteuses. »

    Yazid Nechi, Président de Smartpoint

    Data, les top tendances 2024.

    2023 a été très dense et rythmée notamment par les avancées technologiques spectaculaires de l’IA générative … mais pas que ! Exercice de début d’année oblige, Smartpoint, pure player data depuis 2006, vous dévoile ses prédictions pour 2024.

    01

    Une alternative pour outiller votre pipeline en open source ? C’est à lire ici avec notre top 5 outils.

    04

    L’adoption des grands modèles de langages (LLM) transforme l’interprétation des données sur de larges volumes et les rend compréhensibles pour le plus grand nombre. Ils ont d’ailleurs contribué à améliorer considérablement les performances du NLP.

    Ils permettront de toujours mieux identifier des tendances, de mener des analyses plus fines et surtout plus pertinentes.

    La conception et de le déploiement de modèles avancés de ML sont d’ailleurs devenus beaucoup plus accessibles (et rapides !) pour les ingénieurs data alors qu’ils étaient, jusqu’alors, réservés à des professionnels très expérimentés et spécialisés.

    02

    La Data Fabric fournit une vue unifiée avec un accès centralisé aux données et leur intégration dans un écosystème data distribué. Elle peut se connecter à des sources qui sont dans le cloud ou dans des environnements on-premise.

    Le Data Mesh est une architecture décentralisée axée Domaine où les données sont traitées et gouvernées par des équipes qui en ont la responsabilité – comme un produit – permettant ainsi une infrastructure en libre service.

    Leur adoption va permettre aux entreprises de gérer plus efficacement des écosystèmes toujours plus denses, et complexes ; de manière plus fluide, plus flexible et surtout plus évolutive dans la durée.

    05

    La Data a elle aussi sa part de responsabilité à assumer et c’est possible (à lire ici).

    Ainsi, on devrait voir enfin des considérations liées à l’empreinte carbone influer sur les choix des entreprises. La futur est dans des solutions plus sobres et vertueuses dès la phase de conception, au plus juste des usages attendus, moins gourmandes en termes d’échanges de données ou encore en consommation de ressources (traitement, calculs, stockage).

    L’impact environnemental des systèmes data va progressivement s’appréhender sur l’ensemble de leur cycle des vie, de leur développement à leur décommisionnement.

    Les critères ESG vont venir réguler les pratiques et c’est une bonne nouvelle pour l’ensemble de la profession.

    03

    Ainsi, les tâches répétitives, chronophages et souvent sources d’erreurs sont prises en charge par des outils toujours plus intelligents notamment en nettoyage et intégration des données.

    Il en est de même, grâce aux avancées en IA et en apprentissage automatique, pour le processus de data discovery et celui d’amélioration de la qualité des données (data quality) qui jusqu’alors demandaient beaucoup d’opérations manuelles.

    06

    écrivons ensemble le futur de la data et inventons les usages de demain.

    Smartpoint, labellisée Best Workplace Experience 2023 par Speak & Act.

    Toute l’équipe Smartpoint est fière de l’obtention du label Best Workplace Experience – Happiness Barometer qui atteste de notre appartenance dans le TOP 30 des entreprises offrant la meilleure expérience collaborateur.

    Présentation de Speak & Act

    Speak & Act, plateforme de marque employeur et école, labellise les entreprises et écoles offrant la meilleure expérience collaborateur, stagiaire/alternant, candidat et étudiante afin d’informer, accompagner et orienter les étudiants et candidats vers le bon employeur et la bonne école. Le label et classement « Best Workplace Experience – Happiness Barometer » est exclusivement fondé sur les avis des stagiaires et alternants recueillis au travers d’un questionnaire anonyme garantissant son caractère impartial et indépendant. 

    Présentation de Smartpoint

    Smartpoint est une société de conseil et de services numériques (ESN) spécialisée en ingénierie de la data qui rassemble plus de 250 consultants et ingénieurs. Smartpoint aide les entreprises et les organisations à exploiter leurs gisements de données pour en faire le moteur de leur transformation digitale.

    Lors de cette enquête 2023, c’est plus de 250 entreprises qui ont été évaluées et plus de 20 000 avis collectés. Pour cette première année de participation à la campagne de labellisation Happiness Barometer 2023, Smartpoint se hisse à la 20ème place du classement avec un note moyenne de 3,87 /5.

    • Nos collaborateurs recommandent l’entreprise avec un taux de satisfaction de 83%.
    • Nos collaborateurs pensent que leur employeur respecte la parité homme et femme avec un taux de satisfaction de 82%.
    • Nos collaborateurs sont satisfaits à 81% de la réputation de l’entreprise.

    Pour en savoir plus :

    Découvrir les avis de notre entreprise sur speaknact.fr : ici

    Méthodologie du classement et label Speak & Act : ici  

    Lire l’article dans LE POINT : ici

    Lire l’article dans FORBES : ici

    RSE, Smartpoint reçoit la médaille de platine et entre dans le top 1% des entreprises.

    Smartpoint rejoint le top 1% des entreprises les mieux notées. Cette reconnaissance vient saluer les efforts menés par l’ensemble des équipes Smartpoint qui visent l’exemplarité en ces domaines.

    Paris, le 13 mars 2023

    EcoVadis évalue les performances RSE des entreprises à travers quatre thèmes que sont l’environnement, l’éthique et la gouvernance, le social et les Droits de l’Homme et la politique d’achats responsables.  Le score, de 0 à 100, reflète la qualité du système de gestion de la RSE de l’entreprise au moment de l’évaluation

    Après une médaille d’argent en 2021, Smartpoint a engagé un ensemble de mesures correctives pour améliorer les performances de sa politique RSE. Un plan d’action jugé concluant et salué par un score de 78/100, qui lui vaut cette distinction délivrée par EcoVadis.

    Smartpoint est engagée dans une politique d’amélioration continue, avec des actions concrètes, pour améliorer son impact sur la société.
    Nous sommes fiers de cette médaille de platine qui nous place parmi les entreprises les plus exemplaires en termes de RSE.
    En revanche, nous sommes conscients que les enjeux de développement durable sont considérables et qu’il reste encore tant à faire. Nous avons également engagé une démarche de réduction de notre empreinte carbone et nous militons aussi pour plus de sobriété numérique via notamment la conduite de projets data responsables.
    C’est le combat du siècle et il ne fait que commencer.

    YAZID nechi, président, smartpoint

    RÉSULTATS SMARTPOINT SCORE 2023 – SOURCE ECOVADIS

    Index 2023 Égalité professionnelle entre les femmes et les hommes, Smartpoint obtient un score de 73/100.

    Paris, le 01/03/2023

    Concernant l’indicateur relatif à l’écart de taux d’augmentations individuelles, Smartpoint obtient 35 points sur 40, avec un écart favorable à la population féminine. 100% des salariées ont bénéficié également d’une augmentation dans l’année qui a suivi leur retour de congés maternité.

    En revanche, les hommes restent sur-représentés parmi les dix salariés ayant les plus hautes rémunérations.

    Smartpoint a mis en place des mesures correctives pour améliorer son score telles que l’élaboration d’une stratégie d’action pour réduire les écarts constatés lors du diagnostic.

    Architectures Data Cloud, les 5 chantiers prioritaires.

    1. La gouvernance des données

    Nous en sommes convaincus chez Smartpoint, ce sujet n’a jamais été d’autant d’actualité. Pourtant, il est tout sauf nouveau ! D’ailleurs, nous avons des années d’expérience en ce domaine lorsque les données étaient dans des entrepôts …. Mais ces chantiers se sont beaucoup complexifiés avec les nouveaux modèles d’architectures puisqu’il s’agit de gérer aujourd’hui des données dans des data lakes ou des lakehouses (stockage dans le cloud donc), non structurées, de plus en plus volumétriques et partagées largement (data mesh).

    Les chantiers sont nombreux et le choix d’outils vaste ! Audit, data lineage de bout en bout, qualité des données, gestion des données de références, data catalogs, règles de accès aux des données et de partage des données de manière sécurisées, mise en conformité règlementaire (…).

    La Gouvernance des données est devenu un sujet très complexe et critique pour nos clients car la solution réside dans la spécificité de chaque écosystème IT et les utilisations qui sont faites des données.

    Parmi les solutions, citons celles des incontournables Informatica, Talend, Collibra ou encore Experian.

    2. Le Lakehouse

    Toutes les plateformes proposent désormais des fonctionnalités pour implémenter un lakehouse plutôt qu’un data warehouse ou un data lake (quelle est la différence entre data warehouse, un data lake et un lakehouse ? C’est à lire ici)

    Le créateur de Spark, Databricks, a clairement une longueur d’avance en termes de solution mais cela ne va pas peut-être pas durer. En format de tables open-source, sachez que Apache Iceberg est de plus en plus adopté par les services AWS (Glue notamment). Snowflake permet aussi désormais d’implémenter un lakehouse en utilisant Iceberg. 

    3. L’architecture Data Mesh

    Nous avons beaucoup travaillé en 2022 sur ce concept architectural qui se rapproche d’une architecture microservices avec des composants qui peuvent être modifiés ou mis à jour individuellement, et être utilisés par plusieurs équipes (Les quatre principes fondamentaux d’un data mesh sont à lire ici)

    Les premiers retours d’expériences nous ont montré, qu’au-delà du concept, cela a un impact fort au niveau de l’organisation de la team Data qui doit être responsabilisées sur leur domaine Data (Le Product Thinking ou Data as product).

    4. Le streaming et le traitement temps réel

    Historiquement, les data warehouses étaient alimentés en fin ou en début de journée par traitements batch (et cela prenait des heures !) pour que les utilisateurs BI puissent disposer d’états ou de tableaux de bords un fois par jour. Ils attendent aujourd’hui d’être alertés en temps réel pour prendre des décisions ou réagir immédiatement. C’est devenu indispensable en gestion des risques (attrition client, risques de crédit ou fraude, etc.) ou pour alimenter les moteurs de recommandations de produits par exemple.

    Cet enjeu de vitesse des données est de plus en prégnant chez nos clients. Mais avec l’augmentation des volumes, il devient de plus en plus important de ne pas uniquement les charger, mais aussi de les transformer et de les analyser en temps réel. Cela impacte fortement votre architecture data. Là, encore la plateforme lakehouse de Databricks est intéressante pour le streaming des données et pour fournir de l’analytique en temps réel. Autre solution, utiliser par exemple Apache Flick et Amazon Kinesis Data Analytics pour de l’ETL sur vos flux de données temps réel (à lire ici).

    5. La modélisation de données

    C’est le grand retour ! Avec Hadoop et son datalake, toutes les données étaient déversées sans aucune notion de modélisation. On sait aujourd’hui, que cela été une aberration. En termes de stockage bien sûr mais aussi sur le plan architectural car cela a rendu très compliqué l’exploitation des données et la data discovery.

    Le data modeling permet de stocker les données de manière cohérente et organisée, les data scientists y ont accès plus facilement et peuvent mieux les exploiter. Les résultats sont d’autant améliorés et beaucoup plus fiables.

    En rationalisant le pipeline de données et en permettant aux ingénieurs data de se concentrer sur des tâches plus complexes, la modélisation des données peut aider les organisations à mieux utiliser leurs données et à libérer tout le potentiel de la data science et de l’apprentissage automatique. En savoir plus sur les type de modélisation ? C’est ici.

    Et vous, quelles sont vos priorités Data dans les mois qui viennent ?

    Confiez-vos chantiers au pure player de la data 😉

    Source : https://medium.com/@gauravthalpati/5-data-trends-for-y2023-da9af83cca34

    Projets Data responsables et sobriété numérique ? Oui, c’est possible.

    Le saviez-vous ? En 2030, on prévoit que 13 % de la consommation mondiale d’électricité proviendra des centres de données (source ici), Rien qu’en France, 10 % de la consommation d’électricité provient des data centers.

    Et alors que le cloud computing, l’IoT et l’IA exposent, les besoins en stockage de données également. Aujourd’hui, l’industrie du traitement des données est en voie de produire plus d’émissions de gaz à effet de serre que les secteurs de l’énergie, l’automobile et l’aviation réunis.

    Il est possible d’avoir une approche plus frugale et responsable pour protéger l’environnement … sans pour autant freiner le progrès. En revanche, cela nous demande de repenser nos méthodes, nos approches et mêmes nos principes d’architecture data.

    Historiquement, dans le cadre d’un projet de Business Intelligence traditionnel, nous n’étions pas du tout dans une démarche de sobriété ! L’objectif était de collecter un maximum de données, de les stocker de manière centralisée dans un datawarehouse ou un datalake, puis les traiter, les croiser, les analyser pour les restituer au plus grand nombre sous forme de tableaux de bord, et le plus fréquemment possible. Un gouffre en termes de consommations de ressources !

    Aujourd’hui, l’heure est au tri et cette bonne pratique est aussi en vigueur pour les projets Data.

    Au préalable, il convient de se poser la question des données utiles et celles qui ne le sont pas. Stocker des données qui ne servent à rien … ne sert à rien d’autant plus que les données sont périssables dans le temps pour la plupart. Ces données inutiles, ou dark data, représenterait plus de la moitié des données stockées par les entreprises !

    • Au niveau du processus ETL, on peut identifier que les données dites vivantes, c’est-à-dire uniquement celles qui ont changé pour effectuer uniquement le chargement incrémental des données
    • Se concentrer sur les fonctionnalités essentielles, c’est à dire qui vont demander un traitement dont vous avez vraiment besoin
    • Réduire le nombre de requêtes en utilisant les caches (systèmes de stockage temporaire)  
    • Vous poser la question de la fraicheur des données, avez-vous vraiment besoin d’un rapport quotidien ?
    • Collecter que l’essentiel et diminuer les volumes échangés
    • Limiter les traitements d’information et surtout arrêter la réplication des données dans plusieurs systèmes
    • Faire le ménage en supprimant les données qui ne servent à rien et respecter le cycle de vie des données (data governance)
    • Moderniser votre écosystème data en une plateforme unique qui vous permettra de travailler directement sur la donnée

    Au niveau du stockage, dès que possible, il est préférable d’utiliser une infrastructure edge computing qui permet de traiter les données au plus proche de là où on en a besoin et donc de réduire d’autant la latence. C’est l’architecture la plus appropriée pour l’IoT.

    Une infrastructure cloud est toujours préférable car vous ne payez qu’à l’usage.

    Chez Smartpoint, nous suivons particulièrement des fournisseurs tels Ikoula, hébergeur français de Green Hosting qui utilise de l’énergie issue à 100% d’énergie renouvelables ou encore Qarno dont le principe est de décentraliser la puissance de calcul et de valoriser la chaleur émise par les serveurs.

    Pour aller plus loin : Sobriété numérique : comment développer un projet data éco-responsable ?

    Projets data responsables et sobriété énergétique

    Retour sur l’actualité de Smartpoint en 2022 en quelques faits marquants.

    2022 a vu Smartpoint grandir, croître mais aussi engager de nouveaux chantiers pour s’inscrire dans une logique de développement responsable et durable. Voici les principaux faits marquants qui ont marqué cette année.

    • L’équipe Captiva nous a rejoint et c’est près de 80 collaborateurs, spécialisés dans le développement de produits et la qualité logicielle, qui participent aujourd’hui à enrichir notre proposition de valeur pour nos clients. Nous sommes aujourd’hui plus de 250 !
    • Nous avons pris des engagements encore plus forts pour un développement durable et un numérique plus responsable : notre politique RSE a reçu la médaille d’argent délivrée par EcoVadis, nous avons réalisé notre bilan Carbone et engagé de nombreuses actions pour encore nous améliorer ; et nous avons rejoint la communauté Planet Tech’Care. 
    • Nous sommes plus visibles et reconnus ! Notre nouveau site web a vu bondir le nombre de visiteurs X5 et vous êtes toujours plus nombreux à nous suivre sur LinkedIN avec +65% d’abonnés en plus par rapport à l’année dernière.

    Résultat ? Nous allons réaliser plus de 20% de croissance organique cette année.

    Alors, merci à l’ensemble de nos équipes pour leur engagement et à nos clients pour leur confiance !

    Faits marquants et retrospectives 2022

    Smartpoint réalise son bilan carbone

    Notre score nous place dans le 10% des entreprises françaises les plus engagées en ce domaine.

    Chez Smartpoint, nous sommes une entreprise engagée et nous sommes particulièrement sensibles aux enjeux climatiques. Nous militons également pour un numérique plus responsable et nous nous mobilisons pour réduire l’empreinte environnementale de la Tech sein de la communauté Planet Tech’Care.

    Smartpoint poursuit son engagement et réalise son premier bilan de ses émissions carbone avec Greenly selon une méthodologie standardisée par l’ADEME sur les scopes 1, 2 et 3.

    Avec un bilan de 3,5 tonnes de CO2 par collaborateur, nous sommes déjà bien en dessous de la moyenne de notre secteur d’activité (Agence de création digitale et ESN) qui se situe à 7,6 tonnes de CO2 par collaborateur. C’est mieux mais pas suffisant pour Smartpoint, nous sommes collectivement déterminés et nous souhaitons aller plus loin !


    Nous allons mettre en place un ensemble d’actions et de mesures qui vont nous permettre de limiter encore davantage notre impact et contribuer à limiter le réchauffement climatique.

    Notre ambition ? La neutralité carbone !