Blog

Retour aux articles

Tout savoir sur chatGPT (ou presque)

Partager

Catégories

1000

Tout savoir sur chatGPT (ou presque)

Interview exclusive de Maaike Coppens, auteure de Design conversationnel et consultante chez Open Dialog AI

Maaike Copens, auteure de Design conversationnel

On avait déjà interviewé Maaike il n’y a pas si longtemps que ça, mais c’était avant.

Avant quoi ?

Avant la déferlante chatGPT ! Et puisque Maaike est la spécialiste des agents conversationnels, il fallait bien qu’on reparle de ce sujet avec elle. Alors voilà, c’est parti, 3500 mots pour parler d’IA et de génération de texte. Ça vaut le coup de les lire.

En résumé :

Bonjour Maaike, on parle partout de chatGPT sur les réseaux sociaux, et c’est un peu la folie, en fait ! Mais j’ai aussi l’impression qu’on dit tout et n’importe quoi. Et je voudrais éclaircir avec toi, puisque tu es LA spécialiste des agents conversationnels, ce qu’on peut faire et ne pas faire avec chatGPT, et quel parti on peut en tirer ou pas, dans le cadre d’offre de services aux particuliers ou aux professionnels.

Mais avant de démarrer, j’aimerais que tu nous dises en 2 mots ce qu’est chatGPT et comment il fonctionne.

ChatGPT est l’application d’un grand modèle de langage en format de dialogue.  Le grand modèle de langage sous-jacent utilisé par ChatGPT est GPT-3 – renforcé par l’utilisation d’ InstructGPT, ajoutant ainsi une couche d’apprentissage supervisé.  OpenAI a ainsi optimisé le modèle pour avoir des conversations, et rendre le tout plus performant encore.

GPT est l’abbréviation de Generative Pretrained Transformer, ou plus communément, un modèle qui est entraîné pour générer du contenu – une application concrète de ce que l’on appelle l’IA Générative.

ChatGPT n’est-il qu’un perroquet surdoué ?

Qu’est-ce qu’un grand modèle de langage?  Pour mieux le comprendre, il faut s’intéresser au NLP (Natural Language Processing), qui est un domaine de l’intelligence artificielle qui s’intéresse au traitement du langage naturel (TLN en français).  Le propre d’une intelligence artificielle étant qu’il faut un modèle sous-jacent permettant à ce traitement d’avoir lieu.  En occurence donc, un modèle de langage. Il existe différents types de modèle de langage dans ce domaine: les modèles statiques et les modèles basé sur des réseaux de neurones.

ChatGPT n’a pas de connaissances propres mais crée des réponses basés sur la séquence de mots la plus statistiquement probable

On parlera d’un grand modèle de langage (large language model) dès lors que le modèle de langage ne s’appuie pas uniquement sur un domaine particulier, basé sur un entraînement statique par ‘intents’ mais un modèle qui utilise un ensemble de techniques statistiques et probabilistiques pour déterminer et faire des prédictions sur la séquence de mots la plus probable dans une phrase donnée, basé sur un dataset important de paramètres.

Ce qu’il faut retenir : ChatGPT est un produit capable de comprendre et répondre à des requêtes en langage naturel.  L’application utilise un grand modèle de langage, entraîné sur un grand nombre de paramètres, et renforcé par d’autres algorithmes et de la supervision humaine.  Elle n’a cependant pas de connaissances propres mais crée des réponses basées sur la séquence de mots la plus statistiquement probable.

Ce qui rend ChatGPT et les autres solutions d’OpenAI si attrayant, est non seulement sa capacité apparente à converser à propos de n’importe quel sujet, mais aussi le fait que l’on peut tous interagir avec, et que justement le modèle est ‘ouvert’.

Alors justement, tu parles de capacité apparente, et c’est vrai que c’est bluffant. On pose une question à chat GPT et il répond comme s’il avait compris la question. Et ça, sur n’importe quel sujet. Mais quand on creuse ensuite un peu le sujet et qu’on pose des questions plus précises ou dans un contexte particulier, on s’aperçoit que les réponses, même si elles sont écrites dans un français impeccable, sont, en réalité, moins cohérentes et comportent des erreurs. Et moi, je me pose tout de suite une question, qui est importante : chatGPT est-il fiable ou raconte-t-il n’importe quoi ?

Se poser la question de la fiabilité de ChatGPT revient à se poser la question de la fiabilité des paramètres sur lesquelles a été entraîné ce modèle.  

Ce qu’il faut savoir sur ChatGPT, et ce qui finalement résulte de ce que nous décrivons ci-dessus est qu’il s’agit d’une application avec un modèle de langage entraîné sur de la data existante, un dataset de près de 175 milliards de paramètres! C’est ce qui fait aujourd’hui sa puissance et sa capacité à avoir ‘réponse à tout’. S’agissant d’une forme d’intelligence générative, ChatGPT va utiliser ces paramètres pour prédire, et générer une séquence de mots plausibles en lien avec le sujet proposé.  

Avoir réponse à tout ne veut pas dire avoir la bonne réponse à tout…

Avoir réponse à tout ne veut pas dire avoir la bonne réponse à tout… et c’est par ailleurs là, le plus grand piège de ces modèles et applications très performantes: leur capacité à générer des réponses convaincantes avec une facilité déconcertante. La réponse est tellement bien tournée qu’il puisse nous paraître impossible qu’elle soit fausse…  Ceci est renforcé par le fait que nous ne percevons pas la source desdites informations et paramètres d’entraînement, ne nous permettant pas de discerner le vrai du faux en s’appuyant sur d’autres paramètres contextuels  en notre possession, comme on le ferait lors d’une recherche plus classique où nous avons des éléments à notre disposition permettant de mettre en oeuvre notre esprit critique : source de l’information, site web de provenance, juxtaposition des informations avec d’autres résultats fournis, etc.  C’est là toute la différence entre les moteurs de recherche classiques et ChatGPT. 

Historiquement, l’homme a toujours cherché à obtenir des réponses à ses questions.  Avant l’ère industrielle, cette connaissance se transmettait d’experts à des individus par la parole, le dialogue… Vint ensuite, les encyclopédies, permettant au plus grand nombre de consulter des informations plus ou moins détaillées sur un nombre impressionnant de sujets.  Ces encyclopédies étaient traitées en tant que source de la vérité, de fait de l’autorité des experts qui y contribuaient, et de la sélection faite par les auteurs desdites encyclopédies eux-même incarnant une certaine forme d’autorité et de notoriété. Diderot et d’Alembert, notamment, ont écrit sur la théorie de la double validation d’un témoignage pour confirmer sa probabilité. On pourrait donc dire que l’on invente rien… si ce n’est que la digitalisation de cette transmission. Internet s’invite dans les foyers et l’accès à la connaissance se multiplie exponentiellement.  Non seulement, l’accès à des informations que l’on pourrait qualifier comme étant ‘de bonne foi’ mais plus généralement, à toute information que quiconque disposant d’un ordinateur souhaite partager. Aujourd’hui, les moteurs de recherche classiques s’enrichissent, avec plus ou moins de succès, d’applications semblables à ChatGPT, comme BARD pour Google et l’Assistant Bing basé lui aussi sur un grand modèle de langage OpenAI (une évolution nldr de ChatGPT).  Cependant, la double validation d’un témoignage ou d’une information ne s’appuie plus sur l’expertise, mais sur la récurrence d’une séquence de mots dans le dataset d’entraînement.  Il est donc légitime de se poser la question: quid de la véracité des propos tenus par ces assistants? Par ailleurs, Google à l’annonce de BARD en a fait les frais loupant son effet d’annonce en montrant un exemple dont l’information était fausse.     

Perroquet bleu avec un chapeau

Un réel tournant de la méfiance envers l’ intelligences artificielle vers la confiance parfois un peu trop aveugle…

Ce qui m’interpelle avant tout, c’est la courbe d’adoption fulgurante qu’a connu ChatGPT depuis sa sortie, et le degré de confiance qu’il a inspiré.  C’est un réel tournant de la méfiance envers l’ intelligences artificielle vers la confiance parfois un peu trop aveugle… A quoi est-ce dû ?  

Tout d’abord au fait que cela passe par une interface conversationnelle. Comme mentionné par Paul Grice dans ses maximes de la conversation, le modèle mental humain d’une conversation contient un principe de qualité.  Nous partons inconsciemment du principe que l’autre interlocuteur collabore avec nous pour faire avancer la conversation, avec des informations de qualité – à savoir qui sont vraies selon ses connaissances.  Ce pourrait-il donc que nous donnons plus de crédit à ChatGPT et ses informations parce que nous le percevons comme étant le co-participant à une conversation plutôt qu’une source d’information classique que l’on mettrait davantage en question?  Il serait intéressant de mener des recherches anthropologiques et des études UXR sur ce point.

A la question donc sur la fiabilité des informations de ChatGPT, on peut donc opposer la réponse suivante:

  • ChatGPT est entraîné sur un dataset avec de nombreux paramètres augmentant de façon significative la probabilité que les réponses fournies soient plus efficaces que des applications utilisant des modèles de langages précédents.
  • ChatGPT prédit une séquence de mots et d’informations mais n’a pas conscience du sens profond de ce qui est dit 
    • Ainsi ChatGPT sait que la séquence de ‘Le président de la France’ est statistiquement majoritairement suivi de ‘Emmanuel Macron’ dans son dataset
    • ChatGPT ne sait cependant pas ce que veut dire qu’est ‘un président’, ‘La France’ ou la personne de Emmanuel Macron.
  • L’entraînement de ChatGPT se base sur un dataset de 2021 et n’est donc pas au fait de l’évolution de la connaissance et des informations au-delà de cette date.  Si La France avait tenu des élections entre cette date et maintenant, désignant une autre personne, l’information ‘Le président de la France est Emmanuel Macron’ serait alors désuète.
  • La véracité ou non des réponses fournies par ChatGPT est difficile à vérifier dans l’immédiat, car exprimé de façon très habile, sans mention des sources
  • Grâce au mécanisme d’apprentissage renforcé, l’utilisation du feedback humain, a permis au modèle de langage sous-jacent d’être récompensé ou puni en fonction de l’efficacité perçue par les humains en charge de sa supervision.  Note ici que cela pose la question et le risque du biais implicite, lié à la diversité des équipes en charge de ce travail.

On peut donc en conclure que les applications en question fournissent une probable réponse, pas des réponses possibles et encore moins ce que l’on devrait considérer comme la réponse.  La combinaison et juxtaposition de différentes sources d’informations lorsque l’on cherche de possibles réponses à une question ou une problématique, ce qui peut inclure ChatGPT ou d’autres applications, me semble donc au jour d’aujourdh’ui l’approche la plus efficace.

On voit partout aujourd’hui sur les réseaux sociaux et dans la presse, des gens qui proposent des utilisations “magiques” de chatGPT : rédaction d’articles pour le SEO, rédaction de fiches produits pour le ecommerce, création de personas pour le marketing, brief d’agence, etc…

On a un peu l’impression que c’est tout et n’importe quoi. Et ça me laisse assez dubitatif, et la question que je me pose aujourd’hui est : quelles véritables applications peut-on faire d’un outil comme chatGPT ou de son algorithme ? Comment peut-on l’employer en étant sûr qu’il ne produise pas des choses fausses, mais que, en même temps, il soit suffisamment précis pour ne pas dire de généralités ? Tu as des exemples en tête ?

Jusqu’ici dans cet article nous avons souligné l’importance de prendre les informations fournies par ChatGPT avec un grain de sel.  Cependant, combiné avec l’intelligence humaine, utiliser ChatGPT peut être un outil d’aide à la conception – à condition de toujours garder un œil critique sur ce qui est produit.  Ainsi ChatGPT peut:

  • Être un accélérateur de conception : plutôt que de se morfondre devant la page blanche, ChatGPT peut donner quelques pistes de réflexion autour d’un sujet donné. Comme on dit, il suffit parfois d’une étincelle… 
  • Servir d’assistance pour résumer des textes: ChatGPT vous permet de résumer un texte long en récit concis, et en distiller une possible conversation. 
  • Classifier du texte et catégoriser un dataset: ChatGPT peut prendre un texte et en distiller les points les plus importants, le sentiment prédominant, … 
  • Adapter du contenu à un ton d’expression: ChatGPT permet la reformulation d’un écrit en fonction du ton d’expression défini par une marque
  • Permettre une visualisation rapide et concise de data: ChatGPT nous permet de visualiser le résultat de 175 milliard de paramètres en quelques phrases.  Cependant, ne connaissant pas l’origine de cette data, il faut du discernement humain pour y voir plus clair.
  • Formuler des hypothèses dans la phase découverte de conception d’un produit ou service
  • Générer des formulations variées de certains messages, ou textes – en fonction de paramètres précis
  • Servir de compagnon de code: à savoir, aider à debugger du code ou encore suggérer l’écriture de code (en sachant qu’il y a sûrement quelques erreurs).  Le peer review à l’ère de l’ automatisation intelligente…

En sus, dans le domaine du design conversationnel, l’utilisation de ChatGPT peut notamment aider à la:

  • Découverte de sujets récurrents dans un corpus de données conversationnelles pour informer la conception 
  • Génération de synonymes et d’expressions utilisateurs (training phrases) possibles pour nourrir l’entraînement d’un modèle de langage plus restreint, basé sur des intents.
  • Génération de dialogues exemples pour mieux guider la conception des conversations clés, et le design pour la longue traîne – à savoir des variations que l’on peinerait à prédire sans source de calcul étendu

Pour la création de persona, le risque de biais et de multiplication des stéréotypes pourrait ainsi se retrouver accéléré de façon significative

Aujourd’hui, la recommandation de certains d’utiliser ChatGPT pour l’écriture d’articles SEO me pose question.  Ceci pour plusieurs raisons : 

  • La fiabilité des informations et le manque de référence aux ressources utilisées pour l’écriture de l’article
  • Se pose nécessairement aussi la question de la propriété intellectuelle et du plagiat
  • Il existe d’ores et déjà des algorithmes à même de déceler des textes écrits par l’humain des textes générées par des modèles de langage, des watermarks.  Ainsi, la génération de textes laisse une trace à travers l’utilisation d’enchaînements prédéfinis et récurrents que l’écriture humaine n’utilise pas, et qui est somme toute plus aléatoire.  On peut imaginer que dans le futur, ces articles seraient plutôt penalisés qu’encouragés – les moteurs de recherche ayant toujours donné une certaine préférence au contenu unique.
  • Faire écrire ses articles SEO-friendly par une intelligence artificielle, revient à répandre des informations non-vérifiées et renforcer des potentielles semi-vérités car cela nourrit le corpus de textes présents en ligne.  Un peu comme une fausse rumeur qui se répand.
  • Puis, imaginons 1000 personnes demandant l’écriture d’un article sur le même sujet… et publiant tous cet article généré par ChatGPT.
  • Le dataset sur lequel est entraîné ChatGPT est aujourd’hui limité à 2021, se baser sur ce dataset pour la génération d’articles SEO qui se doivent pour certains sujets d’être au fait des dernières évolutions, revient à regurgiter les mêmes articles que des années précédentes.

En ce qui concerne l’aide à la conception, comme la description d’un persona marketing, ou d’un parcours utilisateur, ces sujets tombent pour moi sous l’ombrelle de la formulation d’hypothèses et de l’accélération de la conception.  À savoir que l’on ne devrait pas prendre le texte et l’hypothèse généré pour de l’argent comptant. Notamment pour la création de persona, le risque de biais et de multiplication des stéréotypes pourrait ainsi se retrouver accéléré de façon significative.  Cependant, cela ne veut pas dire que c’est à jeter à la poubelle –  au contraire on peut l’utiliser comme base de réflexion, à valider ou invalider sur le terrain et avec la connaissance des experts métiers.

Cependant, n’oublions pas que ChatGPT est une application avec un modèle sous-jacent, et c’est là où résident les possibilités à plus long terme : sur les modèles de langage et non pas sur l’application en elle même en isolation.  Par ailleurs, on peut voir les opportinutés de ces modèles de langage à travers les intégrations que Microsoft en fera à travers sa ligne de produits digitaux, Teams, Edge, notammant allant de la complétion de texte, la génération de variantes, le résumé de contenu ou encore l’assistance à la recherche… le tout de manière conversationnelle. Pour explorer les possibilités des grands modèles de langage, il faut donc prendre un peu de hauteur et se distancier du buzz créé par l’application ChatGPT en elle-même.

En résumé, ChatGPT peut être considéré comme une aide automatisée à la conception qui devra être juxtaposé à des données provenant d’études vérifiées et vérifiables, quantitatives et qualitatives.

En résumé, ChatGPT peut être considéré comme une aide automatisée à la conception qui devra être juxtaposé à des données provenant d’études vérifiées et vérifiables, quantitatives et qualitatives.  En soi, ChatGPT n’a aucune connaissance propre si ce n’est que l’enchaînement de mots basé sur un modèle probabilistique ( à savoir la probabilité qu’un certain mot sera suivi de tel autre mot pour former une phrase).  ChatGPT doit donc être considéré comme un générateur de texte, basé sur des motifs de langage, plutôt qu’un générateur de contenu.

ChatGPT est entraîné sur un dataset de connaissances générales, non spécifique à un domaine spécialisé ou entreprise en particulier.  Ainsi, les conditions générales de vente du site e-commerce A peuvent être différentes de celle de e-commerce B.  ChatGPT pourrait éventuellement générer des conditions générales tel qu’elles pourraient être conçues théoriquement et en général, mais ne saurait vous indiquer la réalité des conditions générales pour cette marque et ce site e-commerce en particulier.  Par ailleurs, ChatGPT n’a pas conscience de la légalité ou non et l’application possible ou non des dites conditions générales.

Cependant, ChatGPT pourrait à contrario générer des questions possibles que les utilisateurs pourraient se poser sur des conditions générales données qui lui seraient fournies, ou, comme pour l’assistant Bing les résumer s’ils sont présents sur le site web de la marque.

Tu es une spécialiste des agents conversationnels. Notre expérience du ecommerce nous a montré qu’en 2022, les gens se tournaient volontiers vers des êtres humains quand ils sont en difficulté sur un site Web. Est-ce que l’on peut imaginer utiliser chatGPT pour créer des chatbots plus intelligents, des assistants qui permettraient de répondre intelligemment aux questions les plus courantes des internautes ?

En effet, dans le e-commerce en particulier, les applications conversationnelles, chatbots, peuvent en règle générale apporter une aide à l’utilisateur, et augmenter les chances de conversion des achats.  En effet, quand on regarde de plus près l’abandon de panier dans le cadre de l’e-commerce – le fait de trouver réponse à ses questions, ses doutes, diminue de façon significative les probabilités d’abandon.

Une étude récente réalisée par Forrester, indique ainsi qu’en effet les consommateurs aiment interagir avec des chatbots du fait de leur disponibilité à tout moment, leur capacité à répondre à des questions fréquentes et de fluidifier le parcours d’interaction.  Cette même étude nous apprend que 60% des participants portent un regard positif sur leur expérience chatbot.  Il reste donc encore une marge de progression assez importante qui pourrait bien être réduite grâce à l’utilisation de grands modèles de langages.  

60% des participants portent un regard positif sur leur expérience chatbot

Une des reproches faites aux chatbots actuels n’utilisant pas ces modèles, est leur incapacité de tenir la conversation à multiples tours de paroles ou encore de tenir des conversations plus complexes.  L’utilisation de grands modèles de langages, en combinaison avec une logique conversationnelle, et des bases de connaissances propres à une organisation, permettent d’ y remédier, grâce à la combinaison de l’intelligence artificielle avec l’intelligence préexistante de l’organisation, et l’intelligence humaine.

Plus concrètement, le LLM (large language model) peut être utilisé pour répondre de façon fluide à des requêtes complexes.  La logique conversationnelle, quant à elle, permet à l’organisation de définir un tunnel de vente avec des étapes de conversion prédéfinies, par exemple.  Enfin, l’intégration avec la base de connaissances propre à l’organisation devrait permettre de répondre aux questions des utilisateurs avec des réponses pertinentes et personnalisées à l’utilisateur, plutôt que des réponses générales fournies par le LLM pré-entraîné seul.

Quels conseils donnerais-tu à ceux qui veulent utiliser chatGPT ?

Les modèles de langages gagnent en performance, par ailleurs GPT 4 est d’ores et déjà annoncé avec un dataset d’entraînement exponentiellement plus grand encore que la version utilisée pour ChatGPT – de quoi nous surprendre avec des réponses, sans doute, de plus en plus efficaces.  

L’environnement dans lequel nous évoluons change sans cesse, et l’intelligence artificielle est un accélérateur de changement que l’on ne peut ignorer. Malgré une certaine méfiance, somme toute saine, il est aujourd’hui indispensable de s’intéresser au sujet du conversationnel en général, et des grands modèles de langage en particulier, et comment en tirer avantage pour améliorer son expérience client.

Expérimentez, testez, aimez, ou, détestez mais gardez avant tout un oeil critique sur les réponses fournies, avant de les re-utiliser sans réfléchir

Le meilleur moyen donc de s’y mettre est de se renseigner, de rester à l’écoute et s’entourer d’experts de l’IA conversationnelle.  Ensuite, se poser la question des éventuelles opportunités à explorer dans le cadre des grands modèles de langage (plutôt que ChatGPT, l’application en elle-même uniquement) pour votre organisation ou vos utilisateurs.  Rien ne vaut, effectivement, l’expérimentation.  Commencer par identifier un cas d’usage, où répondre à des questions de vos utilisateurs dans l’immédiat, en contexte et de façon personnalisée – ferait une réelle différence et apporterait une réelle valeur ajoutée.  Puis posez vous la question, si cela est possible à l’aide de l’utilisation d’une interface conversationnelle simple (sans traitement du langage), ou au contraire, si cela nécessite une intégration profonde avec vos systèmes et une connaissance linguistique étendue.  Si la réponse à cette dernière question est ‘oui’, les grands modèles de langage peuvent effectivement vous permettre de concevoir une expérience conversationnelle d’envergure et potentiellement efficace.

Quant à l’utilisation de l’application, ChatGPT, mon conseil est des plus simples : expérimentez, testez, aimez, ou, détestez, mais gardez avant tout un œil critique sur les réponses fournies, avant de les re-utiliser sans réfléchir.  Gardez néanmoins l’esprit ouvert aux applications futures possibles, car il n’y a aucun doute que l’interface conversationnelle vient de s’inviter au coeur de l’expérience.

Merci beaucoup, Maaike !

(tous les perroquets de l’article ont été générés par l’IA)

Qui est Maaike Copens ?

Maaike est une experte en conception de produits conversationnels, conférencière et auteure de renommée internationale. Elle possède une solide expérience dans le design conversationnel, travaillant  aussi bien  avec des startups dans ce domaine qu’avec de grandes marques, en France et à l’international. 

Elle possède une expertise particulière en matière de technologie vocale, consultant sur des plateformes telles qu’Amazon Alexa, Google DialogFlow, et bien d’autres. Elle a récemment été reconnue par Amazon comme Alexa Champion.

Maaike est également co-auteur du Voice UX Workbook (en anglais) et auteur de ‘Design Conversationnel’, paru aux Editions Eyrolles.

Maaike travaille activement avec OpenDialog AI – menant  leurs équipes de conception dans l’effort de traduire un framework conversationnel, complexe et riche, en une plate-forme agréable, performant et efficace.

En savoir plus


-->

Nouveaux articles