Vous avez aimé Blade Runner, Ex Machina, Ghost in the Shell, Her et A.I ? Vous rêvez d’un monde où les chatbots répondent immédiatement à n’importe quelle question de vos clients ? Il va falloir attendre encore un peu… Mais de nouveaux progrès sont observés grâce à la combinaison de deux nouvelles techniques qui pourraient accélérer l’automatisation des centres de contact. Décryptage avec Leon Paul Schaub, ingénieur en sciences du langage chez Akio (Traitement du langage naturel).
Le domaine de l’interaction clients est devenu si complexe, entre la multiplication des canaux (appels, emails, chat, réseaux sociaux) et le volume croissant de données à traiter, que l’avenir des centres de contact semble se jouer en premier lieu dans leur capacité à automatiser les actions qui ne nécessitent pas absolument une intervention humaine (chatbots). Parmi les solutions d’optimisation des traitements, les chatbots tiennent la corde.
Ainsi, selon la dernière étude AFRC / PWC (1), alors qu’ils représentent seulement 11% des interactions clients/marques, les chatbots sont en tête des priorités de développement de 37% des directeurs de la relation client. Il est vrai que les récentes avancées technologiques en font l’un des sujets les plus prometteurs. La puissance des machines (Premier Intel en 1993, 188 DMIPS, Windows 2000, 9700 DMIPS et aujourd’hui avec Intel EI 177 000 DMIPS) combinée aux progrès scientifiques dans le traitement des données (deep learning, machine learning, lifelong learning…) a en effet permis de doper les performances des agents conversationnels, lesquels commencent à atteindre des taux de satisfaction utilisateurs intéressants.
Léon-Paul Schaub : « Le fait qu’il y ait beaucoup de données disponibles, couplé à la puissance des machines, rend possible la création de modèles mathématiques qui formalisent le langage naturel, ce qui n’était pas possible avec les approches symboliques plus classiques (système génératif de Chomsky, aussi appelé langages réguliers, ou plus simplement système de règles) »
Des chatbots dans tous les centres de relation client ?
Alors demain, tous équipés ? Ce n’est pas si simple, car l’industrialisation des bots se heurte à plusieurs contraintes. La performance d’un bot ne réside pas seulement dans la technologie, il faut aussi prendre en compte :
| La méthodologie d’apprentissage, aussi bien au moment de la mise en place – injection des données disponibles pour alimenter une première base de connaissance qui s’incrémente au fur et à mesure du temps passé à entraîner le bot – que dans la durée. En effet, la qualité des dialogues et la performance des réponses s’affinent après chaque interaction utilisateur/client.
| Le coût énergétique nécessaire aux interactions entre le chatbot et les serveurs, tout au long, et à chaque utilisation de l’agent conversationnel. Avoir un bot actif signifie faire tourner un serveur à plein régime pendant toute la durée de la conversation, ce qui représente un coût électrique mais aussi écologique. Moins une conversation dure, moins ce coût est élevé.
Or, la plupart des solutions actuellement disponibles sur le marché ont été conçues à l’aide de référentiels artificiels, qui ne correspondent pas forcément à la réalité du terrain. A titre d’exemple, les grands acteurs (GAFA + Microsoft et IBM) construisent des systèmes de dialogue opérationnels pour des utilisations bien identifiées, comme répondre à une question simple sur une réservation de billet ; mais dès que l’échange avec le client sort du cadre, par exemple quand le dialogue vient à porter sur une réduction due à un programme de fidélisation dont la valeur dépend de la réservation qui vient d’être faite, le moteur d’intelligence artificielle montre très rapidement ses limites.
Par ailleurs, les référentiels originaux sont le plus souvent génériques, mais non verticaux, ce qui signifie que les chatbots savent traiter une conversation de la vie courante mais qu’ils ne disposent pas du vocabulaire technique du métier, et encore moins de ses modes de fonctionnement. Dans certaines branches de l’industrie comme la finance, la culture métier est un impératif pour soutenir une conversation, même restreinte. Enfin, le NLP (traitement automatique des langues), cette technique qui permet à la machine d’interpréter le langage humain via des formalisations et des probabilités, est très riche pour l’anglais mais demeure moins fournie en outils et techniques pour les autres langues.
LPS : « Malgré l’engouement pour les systèmes de dialogue, il n’existe pas à ce jour un système commercialisé qui mette toute la communauté d’accord sur sa qualité. »
Pour franchir un seuil, les chatbots doivent s’appuyer sur une nouvelle méthodologie d’apprentissage basée sur la mémoire de l’interaction client
Dans le cadre d’un projet de recherche co-financé par le LIMSI (Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur) et Akio, une nouvelle démarche a été adoptée, plus en accord avec les dernières recherches scientifiques dans le domaine. Des résultats prometteurs ont été obtenus en utilisant principalement deux techniques très corrélées entre elles.
La première est l’adaptation à l’utilisateur. Comment permettre au chatbot d’apprendre vite et mieux ? Non pas en se contentant de le bombarder d’informations (méthode classique) mais en lui montrant ses erreurs. Il s’agit de procéder par échanges antagonistes en entraînant le chatbot à distinguer des questions posées par un utilisateur de celles générées automatiquement par un programme. L’exercice permet au chatbot de mieux reconnaître la frontière entre une question pertinente ou pas.
La seconde technique concerne la « capacité réflexive » de la machine. Il s’agit de s’inspirer des modèles de conversation humains, et particulièrement de la mécanique mémoire/anticipation/qualité. En effet, l’efficacité d’un dialogue entre deux personnes repose sur la capacité du locuteur à se mettre à la place de celui qui l’écoute, et vice versa. Cette empathie croisée s’appuie principalement sur la mémorisation des échanges précédents (Mémoire) ; parce que nous nous souvenons de ce qui vient d’être dit, nous en déduisons à l’avance ce qui va suivre (Anticipation). C’est cette capacité de prédiction sur ce que l’autre va dire qui rend le dialogue fluide et adaptable (Qualité).
Appliqué aux chatbots, il s’agit donc d’incorporer au système la capacité à questionner ce qui a été dit précédemment durant la conversation, ce qui implique de s’appuyer sur un historique de dialogue. En somme, d’injecter une notion de mémoire de l’échange, qui conduit à un « moi » artificiel pour le chatbot, capable dès lors de se juger et de se corriger en permanence, pour optimiser sa performance. D’où la dénomination « agent à capacité réflexive ».
Concrètement, le bot interprète à un moment m un input utilisateur d’une certaine façon (f) ; mais par la suite, au moment m+1, lors de l’évaluation du dialogue, il calcule qu’il aurait dû interpréter l’input en f’ au lieu de f. Il en déduit sa future anticipation.
L’objectif du bot est de terminer la conversation le plus rapidement possible. Vu la durée de l’échange, il peut analyser que la première interprétation n’était pas la meilleure pour trouver le chemin le plus court pour satisfaire la conversation. Il a une mémoire du passé et une mémoire du présent qui lui donne la capacité de comprendre qu’il faut recalculer toutes les conséquences de ce changement d’interprétation, grâce à une simulation interne. A noter que l’ensemble ne fonctionne qu’à condition de « forcer » le chatbot à ne rien prendre pour acquis tant que le dialogue n’est pas finalisé – on parle alors de POMDP (processus de décision markovien partiellement observable).
LPS : « En dotant l’agent d’un modèle de mémoire d’inspiration cognitive, nous pensons pouvoir augmenter les performances d’un système de dialogue orienté-but en situation réelle, par l’emploi d’algorithmes d’apprentissage automatique avec une approche antagoniste en support d’un nouveau modèle de mémoire pour l’agent ».
Les bénéfices
En implémentant ces deux techniques (adaptation à l’utilisateur et capacité réflexive), on peut s’attendre à des dialogues bien plus réalistes. Car le chatbot va se montrer à la fois plus sceptique et plus agile en cas de question épineuse n’ayant jamais été vue dans les données d’entraînement. Bien entendu, l’objectif consiste à améliorer la pertinence des réponses, à être capable de faire face à des cas particuliers non répertoriés et à améliorer les deux niveaux du taux de satisfaction :
- Le niveau Pourquoi : le client est satisfait car la réponse est pertinente, le bot en devient plus ‘’confiant’’
- Le niveau Comment : Le client est satisfait car la réponse a été délivrée le plus vite possible, à moindre coût pour le système.
Pour le service client, la conséquence est qu’un plus grand nombre de demandes de premier niveau vont pouvoir être traitées efficacement par un robot, ce qui va libérer du temps aux conseillers pour les problématiques plus complexes à forte valeur ajoutée.
Pour aller plus loin, voici les documents support des travaux de Léon-Paul Schaub et Cyndel Vaudapiviz, présentés à l’occasion de l’événement référence en matière de TALN en France: Récital, la rencontre annuelle du traitement automatique des langues. Partagez l’expertise de l’équipe Akio et découvrez notamment :
- Les différents types de mémoires sollicitées à l’occasion d’un dialogue (sensorielle, de travail, épisodique, sémantique et procédurale…)
- Pourquoi les utilisateurs se sentent aujourd’hui rapidement frustrés et continuent à plébisciter le contact humain
- Mais aussi comment les dernières avancées technologiques permettent de prévoir un bel avenir pour ces agents conversationnels !
| Les systèmes de dialogue orientés-but : état de l’art et perspectives d’amélioration
| Les systèmes de dialogue et la mémoire
- Quelles tendances et quelles priorités pour améliorer la satisfaction Client – 1ère édition de l’enquête sur les leviers – Juillet 2019 – Cabinet Price Waterhouse Cooper et Association française de la Relation Client