Le deep-learning s’invite dans les catalogues e-commerce

Les algorithmes de Deep Learning ne cessent d’ouvrir de nouveaux champs des possibles en termes d’applications ! Citons pour exemple le succès de sites comme « This Person Does Not Exist », « This Anime Does Not Exist », « This Automobile Does Not Exist ».

Chez Smartpoint, nous avons réussi à générer – from scratch – des mannequins virtuels ultraréalistes en utilisant les réseaux antagonistes génératifs GANs, nous permettant ainsi de lancer bientôt notre « This Fashion Model Does Not Exist » 😉  


Notre équipe de recherche a expérimenté de nouvelles solutions avec une base de données de photos de mode mettant en scène le port de vêtements de mannequins “réels” (des catalogues de produits utilisés dans l’e-commerce) dans l’objectif de voir comment les modèles génératifs GANs gèrent des géométries complexes et des données limitées.  


Ces modèles viendront surement enrichir à court terme le catalogue des d’outils de promotion qu’utilisent les marques de prêt-à-porter, les acteurs du retail ou encore les agences de publicité. Il faut dire que les enjeux sont de taille en termes d’économies potentielles et de gains de temps (location de studio, frais de shooting photo, mannequins, essayages multiples de modèles en différentes couleurs, etc.).  A suivre !

Omar GASSARA, Responsable du lab, Smartpoint

Fashion model generation using Generative Adversarial Networks (GANs), Smartpoint R&D

L’IA part à la découverte de nouvelles molécules dans l’industrie pharmaceutique.

La découverte de nouvelles molécules, qui sont dotées de spécifications biochimiques bien particulières, représente toujours un processus très laborieux et coûteux dans la R&D pharmaceutique. En effet, cette découverte est traditionnellement menée par un tâtonnement au cas par cas sur un nombre astronomique de molécules candidates dont l’objectif est de trouver, ou mieux identifier, une molécule qui maximise un grand nombre de critères de natures très diverses. Même en s’appuyant sur des logiciels de simulation complexes, la démarche demeure incertaine, étant donné que, d’une part, la stabilité physico-chimique des molécules prédites numériquement n’est pas toujours assurée, et que, d’autre part, les structures moléculaires générées sont souvent difficiles à développer et à mettre en œuvre. Dans ce contexte, l’Intelligence Artificielle (IA) permet d’optimiser ce problème multiparamétrique dont les contraintes sont abordées simultanément et, par la suite, de mettre au point des modèles holistiques à forte valeur ajoutée qui ont le potentiel de générer des nouvelles molécules pratiques et rentables.

Notre projet intitulé « L’IA pour la génération contrôlée de nouvelles molécules » s’inscrit dans cette perspective de creuser les apports possibles de l’IA dans la R&D pharmaceutique. Pour y parvenir, nous avons développé un nouveau modèle de réseau neuronal récurrent contrôlé, basé sur une architecture multicouche de cellules « Long Short-Term Memory (LSTM) », pour générer des molécules présentant des propriétés pharmacologiques et physico-chimiques particulières (activité sur une protéine, solubilité, toxicité, etc.) et qui peuvent être, par exemple, utiles pour le traitement du cancer. En l’occurrence, nous avons généré des molécules actives sur les cibles suivantes :

  • BRAF, gène responsable de la production de la protéine B-Raf sérine/thréonine kinase B-Raf impliquée dans l’envoi des signaux qui déterminent la croissance des cellules,
  • ITK, gène responsable de la production de la protéine Tyrosine-protéine kinase ITK/TSK soupçonnée de jouer un rôle important dans la prolifération et la différentiation de lymphocytes T,
  • mTOR, enzyme de la famille des sérine/thréonine kinases qui régule la prolifération cellulaire, la croissance, la mobilité et la survie cellulaire ainsi que la biosynthèse des protéines et la transcription.

Le modèle proposé, que nous appelons « Multiplicative Conditionned LSTM-based RNN », est capable de générer de nouvelles molécules qui n’avaient jamais été observées auparavant et qui présentent une diversité proche de celle des molécules qui ont servi à l’apprentissage du modèle, tout en contrôlant leurs propriétés et les caractères actifs ou non sur chaque cible, malgré le nombre limité de données d’apprentissage disponibles.

Omar GASSARA, R&D Project Manager, Smartpoint

Les algorithmes utilisés dans le cadre de ce projet sont : (1) un réseau de neurones récurrents (en anglais « Recurrent Neural Network RNN ») profond avec une cellule d’architecture « Long Short-Term Memory », (2) « Semantically Conditionned LSTM-based RNN » et (3) « Multiplicative Conditionned LSTM-based RNN », le nouveau modèle que nous proposons.

Exemple de nouvelles molécules générées présentant une activité sur le gène BRAF ; Ces représentations graphiques, dites formules topologiques, montrent la structure de chaque molécule et indiquent le nombre et le type d’atomes qui la composent, ses liaisons interatomiques et sa forme dans l’espace.

Innovations dans les moteurs de recommandation pour le retail & la grande distribution.

Le croisement et l’analyse d’innombrables données, de type Big Data, a toujours été une problématique majeure dans la grande distribution. Depuis des années, les distributeurs collectent, enregistrent et analysent d’énormes quantités d’informations, depuis les sorties de caisses jusqu’aux stocks, en passant par les prix. De nos jours, la valorisation de ce type de données est devenue nécessaire pour les enseignes de distribution qui cherchent à fidéliser les consommateurs les moins réguliers en leurs proposant des produits répondant au mieux à leurs besoins. En effet, connaître les préférences du client, devancer ses attentes et lui proposer l’offre la plus personnalisée, pourraient l’empêcher de se tourner vers des concurrents, qui, eux, en sont capables.

Pourtant les modèles standards de filtrage collaboratif, qui sont utilisés traditionnellement dans les moteurs de recommandation, manquent souvent de précision. Ils nécessitent des calculs excessivement lourds et s’avèrent désormais incapables de tirer parti de la grande quantité de données disponibles (et exponentielle). Ainsi, les enseignes ont eu recours depuis quelques années déjà aux technologies d’intelligence artificielle dans le but de déployer de nouveaux systèmes plus intelligents dont l’architecture est davantage capable de prendre en charge et de traiter les big data. Les projets dans ce domaine se multiplient et se développent rapidement, même s’il convient de mentionner que la majorité d’entre eux sont encore au stade de pilote et font toujours objet de recherche scientifique.

L’objectif de nos travaux était de développer un nouvel algorithme de moteur de recommandation plus précis et plus rapide, basé sur le machine learning et le deep learning, afin d’optimiser l’édition des coupons dans la grande distribution pour une grande enseigne. En effet, les acteurs de la grande distribution investissent massivement dans de larges campagnes marketing mais ils n’ont jusqu’ici que quelques retours sur l’impact effectif de leurs campagnes. Pour y parvenir, nous avons expérimenté de nouveaux outils basés sur la data des consommateurs. L’idée était de faire en sorte que les coupons édités par la grande distribution soient personnalisés afin de s’adapter au mieux aux habitudes de consommation du destinataire final. Ces coupons visent à récompenser le consommateur pour sa fidélité à un ou plusieurs produits, ou encore à lui suggérer des produits susceptibles de l’intéresser en fonction de son historique d’achat… D’où l’objectif du système visé qui consiste à prédire si un consommateur ayant reçu une offre promotionnelle (un coupon) sur un produit, deviendrait un consommateur récurrent de ce dernier ou pas.

Après une analyse détaillée de l’état de l’art, nous avons construit, optimisé et évalué un modèle adapté à notre problématique en s’inspirant des travaux de recherche de R. Salakhutdinov et al. publiés en 2007 dans leur article « Restricted Boltzmann Machines for Collaborative Filtering ». L’adaptation de ce modèle à notre besoin n’était pas triviale étant donné que ce dernier nécessite une notation explicite des produits par les consommateurs, ce qui n’était pas le cas dans les données dont nous disposions. Pour résoudre ce problème, nous avons remplacé cette note des produits par un indice de consommation calculé par une procédure inspirée de la méthode de pondération « Term Frequency-Inverse Document Frequency (TF-IDF) ».

Par ailleurs, l’apprentissage de notre modèle a été effectué, d’une part, sur les données brutes de transactions effectuées par le consommateur et, d’autre part, sur l’historique de comportement de certains consommateurs suite à la réception des offres promotionnelles, c’est-à-dire, l’indication selon laquelle le consommateur est revenu consommer le produit en question ou pas.

Nous avons finalement proposé une nouvelle approche de filtrage collaboratif adaptée à la problématique de la grande distribution en utilisant les Machines de Boltzmann Restreintes. Nous avons entrainé le modèle proposé sur des données de transactions variées et représentatives du comportement des différents consommateurs d’une grande enseigne. Les résultats obtenus à la phase d’évaluation sur des données de test ont très encourageants et prometteurs, en les comparant à ceux des méthodes standards. Ce projet a donné lieu à de nouveaux travaux qui consistent à enrichir davantage ce modèle en le combinant avec d’autres approches par factorisation de matrice ou par recherche de similarité pour améliorer encore les performances. Nous prévoyons maintenant de réaliser un projet pilote pour cerner la valeur ajoutée de notre système.

Omar GASSARA, R&D Project Manager – Data Science, Smartpoint

Différence entre une machine de Boltzmann et une machine de Boltzmann restreinte.