Les nouveaux chatbots pourraient changer le monde.  Pouvez-vous leur faire confiance ?
MaisonMaison > Blog > Les nouveaux chatbots pourraient changer le monde. Pouvez-vous leur faire confiance ?

Les nouveaux chatbots pourraient changer le monde. Pouvez-vous leur faire confiance ?

Aug 21, 2023

Publicité

Supporté par

Siri, Google Search, le marketing en ligne et les devoirs de votre enfant ne seront plus jamais les mêmes. Ensuite, il y a le problème de la désinformation.

Envoyez une histoire à n'importe quel ami

En tant qu'abonné, vous avez 10 articles cadeaux à donner chaque mois. Tout le monde peut lire ce que vous partagez.

Par Cade Metz

Cade Metz a écrit cet article sur la base de mois de conversations avec les scientifiques qui construisent des chatbots et les personnes qui les utilisent.

Ce mois-ci, Jeremy Howard, un chercheur en intelligence artificielle, a présenté un chatbot en ligne appelé ChatGPT à sa fille de 7 ans. Il avait été publié quelques jours plus tôt par OpenAI, l'un des laboratoires d'IA les plus ambitieux au monde.

Il lui a dit de demander au chatbot expérimental tout ce qui lui passait par la tête. Elle a demandé à quoi servait la trigonométrie, d'où venaient les trous noirs et pourquoi les poules incubaient leurs œufs. A chaque fois, il répondait dans une prose claire et bien ponctuée. Lorsqu'elle a demandé un programme informatique capable de prédire la trajectoire d'une balle lancée dans les airs, cela lui a également été donné.

Au cours des jours suivants, M. Howard - un scientifique des données et professeur dont le travail a inspiré la création de ChatGPT et de technologies similaires - en est venu à voir le chatbot comme un nouveau type de tuteur personnel. Il pourrait enseigner à sa fille les mathématiques, les sciences et l'anglais, sans oublier quelques autres leçons importantes. Principal d'entre eux : Ne croyez pas tout ce qu'on vous dit.

"C'est un plaisir de la voir apprendre comme ça", a-t-il déclaré. "Mais je lui ai aussi dit : ne fais pas confiance à tout ce que ça te donne. Ça peut faire des erreurs."

OpenAI fait partie des nombreuses entreprises, laboratoires universitaires et chercheurs indépendants travaillant à la création de chatbots plus avancés. Ces systèmes ne peuvent pas exactement discuter comme un humain, mais ils semblent souvent le faire. Ils peuvent également récupérer et reconditionner des informations à une vitesse que les humains n'auraient jamais pu. Ils peuvent être considérés comme des assistants numériques - comme Siri ou Alexa - qui sont mieux à même de comprendre ce que vous recherchez et de vous le donner.

Après la sortie de ChatGPT - qui a été utilisé par plus d'un million de personnes - de nombreux experts pensent que ces nouveaux chatbots sont sur le point de réinventer ou même de remplacer les moteurs de recherche Internet comme Google et Bing.

Ils peuvent fournir des informations dans des phrases serrées, plutôt que de longues listes de liens bleus. Ils expliquent les concepts de manière à ce que les gens puissent les comprendre. Et ils peuvent fournir des faits, tout en générant des plans d'affaires, des sujets de dissertation et d'autres nouvelles idées à partir de zéro.

"Vous avez maintenant un ordinateur qui peut répondre à n'importe quelle question d'une manière qui a du sens pour un humain", a déclaré Aaron Levie, directeur général d'une entreprise de la Silicon Valley, Box, et l'un des nombreux cadres explorant la manière dont ces chatbots vont changer le paysage technologique. "Il peut extrapoler et prendre des idées dans différents contextes et les fusionner."

Les nouveaux chatbots le font avec ce qui semble être une confiance totale. Mais ils ne disent pas toujours la vérité. Parfois, ils échouent même en calcul simple. Ils mêlent réalité et fiction. Et à mesure qu'ils s'améliorent, les gens pourraient les utiliser pour générer et répandre des contrevérités.

Google a récemment construit un système spécifiquement pour la conversation, appelé LaMDA, ou Language Model for Dialogue Applications. Ce printemps, un ingénieur de Google a affirmé qu'il était sensible. Ce n'était pas le cas, mais cela a captivé l'imagination du public.

Aaron Margolis, un scientifique des données à Arlington, en Virginie, faisait partie du nombre limité de personnes extérieures à Google autorisées à utiliser LaMDA via une application Google expérimentale, AI Test Kitchen. Il a toujours été étonné par son talent pour la conversation ouverte. Cela l'amusait. Mais il a averti qu'il pourrait s'agir d'un fabuliste - comme on pouvait s'y attendre d'un système formé à partir de vastes quantités d'informations publiées sur Internet.

"Ce que cela vous donne, c'est un peu comme un film d'Aaron Sorkin", a-t-il déclaré. M. Sorkin a écrit "The Social Network", un film souvent critiqué pour avoir étiré la vérité sur l'origine de Facebook. "Certaines parties seront vraies, et certaines parties ne seront pas vraies."

Il a récemment demandé à LaMDA et ChatGPT de discuter avec lui comme s'il s'agissait de Mark Twain. Lorsqu'il a demandé à LaMDA, il a rapidement décrit une rencontre entre Twain et Levi Strauss, et a déclaré que l'écrivain avait travaillé pour le magnat du bluejeans alors qu'il vivait à San Francisco au milieu des années 1800. Cela semblait vrai. Mais ce n'était pas le cas. Twain et Strauss ont vécu à San Francisco en même temps, mais ils n'ont jamais travaillé ensemble.

Les scientifiques appellent ce problème "l'hallucination". Tout comme un bon conteur, les chatbots ont une façon de prendre ce qu'ils ont appris et de le transformer en quelque chose de nouveau - sans se soucier de savoir si c'est vrai.

LaMDA est ce que les chercheurs en intelligence artificielle appellent un réseau de neurones, un système mathématique vaguement modélisé sur le réseau de neurones du cerveau. C'est la même technologie qui traduit entre le français et l'anglais sur des services comme Google Translate et identifie les piétons comme des voitures autonomes naviguant dans les rues de la ville.

Un réseau de neurones acquiert des compétences en analysant des données. En repérant des motifs sur des milliers de photos de chats, par exemple, il peut apprendre à reconnaître un chat.

Il y a cinq ans, des chercheurs de Google et des laboratoires comme OpenAI ont commencé à concevoir des réseaux de neurones analysant d'énormes quantités de texte numérique, notamment des livres, des articles de Wikipédia, des actualités et des journaux de discussion en ligne. Les scientifiques les appellent "grands modèles de langage". Identifiant des milliards de modèles distincts dans la façon dont les gens relient les mots, les chiffres et les symboles, ces systèmes ont appris à générer du texte par eux-mêmes.

Leur capacité à générer du langage a surpris de nombreux chercheurs dans le domaine, y compris de nombreux chercheurs qui les ont construits. La technologie pourrait imiter ce que les gens avaient écrit et combiner des concepts disparates. Vous pourriez lui demander d'écrire une scène "Seinfeld" dans laquelle Jerry apprend une technique mathématique ésotérique appelée algorithme de tri à bulles - et ce serait le cas.

Avec ChatGPT, OpenAI a travaillé pour affiner la technologie. Il ne fait pas de conversation fluide aussi bien que LaMDA de Google. Il a été conçu pour fonctionner davantage comme Siri, Alexa et d'autres assistants numériques. Comme LaMDA, ChatGPT a été formé sur une mer de texte numérique extrait d'Internet.

Au fur et à mesure que les gens testaient le système, il leur demandait d'évaluer ses réponses. Étaient-ils convaincants ? Étaient-ils utiles ? Étaient-ils véridiques ? Ensuite, grâce à une technique appelée apprentissage par renforcement, il a utilisé les évaluations pour affiner le système et définir plus précisément ce qu'il ferait et ne ferait pas.

"Cela nous permet d'arriver au point où le modèle peut interagir avec vous et admettre quand c'est faux", a déclaré Mira Murati, directrice de la technologie d'OpenAI. "Il peut rejeter quelque chose qui est inapproprié, et il peut contester une question ou une prémisse qui est incorrecte."

La méthode n'était pas parfaite. OpenAI a averti ceux qui utilisent ChatGPT qu'il "peut parfois générer des informations incorrectes" et "produire des instructions nuisibles ou un contenu biaisé". Mais la société prévoit de continuer à affiner la technologie et rappelle aux personnes qui l'utilisent qu'il s'agit toujours d'un projet de recherche.

Google, Meta et d'autres sociétés traitent également des problèmes de précision. Meta a récemment supprimé un aperçu en ligne de son chatbot, Galactica, car il générait à plusieurs reprises des informations incorrectes et biaisées.

Les experts ont averti que les entreprises ne contrôlent pas le sort de ces technologies. Des systèmes comme ChatGPT, LaMDA et Galactica sont basés sur des idées, des documents de recherche et du code informatique qui circulent librement depuis des années.

Des entreprises comme Google et OpenAI peuvent faire avancer la technologie à un rythme plus rapide que d'autres. Mais leurs dernières technologies ont été reproduites et largement diffusées. Ils ne peuvent pas empêcher les gens d'utiliser ces systèmes pour diffuser des informations erronées.

Tout comme M. Howard espérait que sa fille apprendrait à ne pas faire confiance à tout ce qu'elle lisait sur Internet, il espérait que la société apprendrait la même leçon.

"Vous pourriez programmer des millions de ces robots pour qu'ils ressemblent à des humains, en ayant des conversations conçues pour convaincre les gens d'un point de vue particulier", a-t-il déclaré. "J'ai mis en garde contre cela pendant des années. Maintenant, il est évident que cela n'attend que d'arriver."

Cade Metz est journaliste technologique et auteur de "Genius Makers : The Mavericks Who Bring AI to Google, Facebook, and The World". Il couvre l'intelligence artificielle, les voitures sans conducteur, la robotique, la réalité virtuelle et d'autres domaines émergents. @cademetz

Publicité

Envoyez une histoire à un ami 10 articles cadeaux