
Les IA génératives ouvrent de nouvelles possibilités dans le développement d’outils conversationnels, un retour en grâce des chatbots est encore à venir.
Interview donnée par Samir Dilmi, Chief Revenu Officer chez Dydu, pour Siècle Digital.
Ah… Les chatbots, ces services derrière lesquels on promettait aux utilisateurs de converser avec une forme d’intelligence pour lui demander ce que l’on voulait à n’importe quelle heure, n’importe quand, avec une réponse proche de celle d’un humain. Quelle déception ce fut pour des millions d’internautes à travers le monde qui s’en sont très vite désintéressés ! L’émergence de ChatGPT et plus largement des grands modèles de langage (LLM) va-t-elle rabibocher les marques et les consommateurs avec les chatbots ?
Nous sommes en 2016 et ils envahissent internet à grands pas. On en retrouve sur bon nombre de sites web, et surtout dans l’application Messenger de Facebook qui leur a offert une place de choix. Service après-vente, recrutement, ressources humaines, restauration rapide, banque, presse, université… Dans une période où « transformation digitale » est martelé à chaque réunion, les chatbots se présentent comme une aubaine pour monter qu’on sait innover.
« La plupart des chatbots ont été assez déceptifs pour les utilisateurs finaux, et coûteux pour les entreprises, » se remémore Ghislain de Pierrefeu, Partner Intelligence Artificielle et Data chez Wavestone. Bien que certains eussent déjà mis en pratique le traitement du langage naturel, permettant à des agents de comprendre plusieurs intentions, ils se sont avérés limités dans leurs réponses. Pour les marques qui ont voulu persévérer, avec la promesse de désengorger leurs centres de relation client, la note fut salée. Elles ont dû mobiliser des ressources pour entraîner leur chatbot, lui apporter des données de qualité et en quantité pour qu’il lise correctement les demandes d’un utilisateur, pour qu’il comprenne et emploi un vocabulaire spécialisé… « Les acteurs n’ont jamais réussi à traiter la chaîne jusqu’au bout pour aller chercher et intégrer des données personnelles. (…)
Il y a eu un phénomène de désaffection. Les gens en ont eu marre et ont préféré appeler un conseiller ou envoyer un mail, » complète-t-il.
Un constat partagé par Samir Dilmi, Chief Revenue Officer chez Dydu, entreprise française pionnière dans la création de chatbots. « Ce gros boom a été suivi d’une grosse déception. Beaucoup d’entreprises se sont précipitées sur un enjeu business sans soigner le produit et sans toujours comprendre que ce n’est pas une solution de remplacement, mais une solution d’aide. »
Face à un désintérêt notable du grand public, les entreprises se sont tournées vers des applications internes, notamment dans le support IT, les ressources humaines ou encore l’aide à la vente. « C’est là où on a commencé à voir apparaître les premiers chatbots RH, » poursuit Samir Dilmi. Dans des agences bancaires, les conseillers ont pu accéder à des interfaces permettant d’obtenir des informations sur tous les produits, et les croiser avec d’autres données comme la situation d’un compte.
Le développement de ces usages a permis de faire progresser le traitement du langage naturel (NLP), « aujourd’hui on est capable de comprendre un contexte, la question, et d’aller chercher la réponse au bon endroit ». Même si le risque d’une utilisation en interne est moindre, les marques ont appris à consacrer du temps à la formation de leur chatbot. Il subsiste cependant des lacunes, comme l’emploi d’un vocabulaire spécifique à un secteur (bancaire, énergie, santé…), ou encore l’écriture à un niveau de maîtrise de la langue proche de l’humain. Lacunes qui pourraient être corrigées à terme par l’intégration de LLM, qui apporteraient des avantages supplémentaires.
Si les premiers grand modèle de langage sont apparus en 2018, il a fallu attendre quatre années pour que l’on découvre l’étendue de leurs capacités, notamment à travers les IA génératives. Pour les entreprises, GPT d’OpenAI, LLaMA de Meta, ou encore Bard de Google offrent des compétences à la fois ergonomiques, car on peut leur demander tout ce que l’on souhaite, et l’on obtiendra une réponse ; linguistiques car il faut admettre qu’ils s’expriment dans un français quasi-parfait.
Un avantage manifeste de l’utilisation de LLM réside dans le temps nécessaire à entraîner son chatbot. « La courbe d’apprentissage est totalement revue, » salue Samir Dilmi qui fait le parallèle avec une méthode de supervision où un humain valide les réponses, encore majoritairement pratiquée. « Nous pouvons récupérer des archives de SAV, étudier les conversations, et l’entraîner avant même que le robot soit lancé. Nous gagnons un temps précieux dans la mise en place du bot et l’absorption de connaissances ».
Mais attention à ne pas tout laisser entre les mains d’un LLM pour éviter un phénomène bien connu mais inexplicable : les hallucinations. Ces IA à tout faire peuvent inventer des réponses, et pour les marques cela représente un risque évident. Il faut donc s’attendre à les voir LLM exploités en premier lieu pour des besoins simples, comme comparer des produits, créer des recettes de cuisine… Plutôt que pour confirmer une couverture d’assurance à l’international, ou suivre un traitement médical. « Avant, on pouvait être déçu par l’incapacité d’un chatbot à fournir une réponse, aujourd’hui on pourrait être déçu par une mauvaise réponse, » analyse Ghislain de Pierrefeu.
Castorama s’est prêté au jeu avec le lancement en novembre sur son site d’un chatbot :
Hello Casto. L’objectif est d’arriver à « compenser en ligne ce qu’un expert en magasin propose à nos clients, » explique Romain Roulleau Directeur du Marketing et du Digital de Castorama. Il fonctionne dans un environnement fermé, dans un orchestrateur baptisé Athena conçu au niveau du groupe pour développer les projets d’intelligence artificielle. Il traite les questions relatives à la sécurité, à la pertinence des réponses, et à la modération des échanges. Hello Casto se base sur les trois principaux LLM du marché, Bard, GPT, et Claude (Anthropic), qui interviennent selon la question et le contexte. Malgré des retours encourageants, l’enseigne se veut prudente. « Nous effectuons des corrections plusieurs fois par jour. (.) On sait que l’hallucination ça existe, et c’est aussi pour ça qu’Athéna est là, » ajoute Romain Roulleau.
Avec la maturité gagnée et les solutions technologiques qui se présentent, un retour en grâce des chatbots est définitivement à prévoir.