Ethan Mollick : Le nouveau monde courageux de l'IA générative
MaisonMaison > Nouvelles > Ethan Mollick : Le nouveau monde courageux de l'IA générative

Ethan Mollick : Le nouveau monde courageux de l'IA générative

Jul 15, 2023

Dans cet épisode du podcast Forward Thinking du McKinsey Global Institute, le co-animateur Michael Chui s'entretient avec le professeur de commerce Ethan Mollick. Il est professeur associé à la Wharton School de l'Université de Pennsylvanie. Mollick couvre des sujets tels que :

Michael Chui (co-animateur) :Janet, avez-vous essayé d'utiliser ChatGPT ?

Janet Bush (co-animatrice) : Je n'avais pas fait. J'étais vraiment nerveux à ce sujet, mais tu m'as persuadé de m'inscrire juste avant que nous ayons cette conversation. Et j'étais complètement claqué – c'est un mot anglais pour étonné. Je suis donc fasciné d'en savoir plus.

Michel Chu : Eh bien, comme vous le savez, nous publierons en juin des recherches sur le potentiel économique de l'intelligence artificielle générative, y compris son impact sur la main-d'œuvre. Mais l'invité d'aujourd'hui a également été frappé par l'énorme potentiel de l'IA générative en entreprise. Et non seulement il y a pensé et tweeté à ce sujet, mais il a également expérimenté ces idées. Et en tant que professeur de commerce enseignant l'entrepreneuriat, il demande en fait aux étudiants d'utiliser l'IA générative lorsqu'ils élaborent des plans d'affaires dans ses cours.

Janet Bush : Eh bien, j'aime ça parce que cela signifie que si j'écris en utilisant ChatGPT, je ne tricherai pas. Je suis fasciné d'entendre ce qu'il a à dire.

Michel Chu :Ethan, bienvenue sur le podcast.

Ethan Mollick : Je suis tellement content d'être ici. Merci de m'avoir.

Michel Chu : Super. Commençons par votre parcours. Où as-tu grandi ? Qu'as-tu étudié? Comment avez-vous fini par faire ce que vous faites aujourd'hui ?

Ethan Mollick : Je parle peut-être comme un East Coaster, mais je suis né et j'ai grandi à Milwaukee, Wisconsin, ce qui a surpris tout le monde. Mais j'ai un amour pour le fromage en grains pour le prouver. Et puis j'ai fait mon premier cycle à Harvard, j'ai créé une entreprise avec un colocataire à l'université après mon passage obligatoire dans le conseil en gestion.

Nous avons inventé le paywall, dont je me sens encore un peu mal. Et puis j'ai décidé, puisque je ne savais rien de ce que je faisais - on inventait au fur et à mesure - que je ferais un MBA pour apprendre à bien faire les choses. Je suis allé au MIT pour obtenir un MBA, puis j'y suis resté pour un doctorat, quand j'ai réalisé que personne ne savait ce qu'ils faisaient à propos des start-ups.

Pendant ce temps, j'ai également commencé à travailler au Media Lab avec certaines des personnes qui s'intéressaient à l'IA. J'ai aussi travaillé sur des jeux pendant un certain temps. Je suis allé à Wharton par la suite, j'y enseigne depuis, en lançant des start-ups internes à Wharton et en recherchant les performances des individus et comment améliorer l'enseignement, en gros.

Michel Chu : Qu'est-ce qui se passe avec le paywall ? Qu'avez-vous inventé là-bas ?

Ethan Mollick : Mon colocataire d'université qui était le génie technique a en fait développé le premier paywall, la première charge d'accès. Donc, le New York Times, le Wall Street Journal - pendant un moment, c'est ce qu'ils ont utilisé, c'était notre logiciel de fortune.

Et j'étais un jeune de 22 ans qui allait chez de grands éditeurs et essayait de leur dire qu'ils devraient aller sur Internet et ne savait pas mieux que c'était probablement une mauvaise idée. À l'époque, tout le monde était en ligne, donc c'était bien. Nous avons traversé tout le processus. Nous avons été acquis. J'ai été de l'autre côté de ce processus.

Michel Chu : D'accord. Nous vous blâmerons à partir de maintenant. C'est super. Eh bien, vous m'avez récemment dit que vous pariez toute votre carrière sur l'IA générative. Alors, juste pour nos auditeurs, qu'est-ce que l'IA générative ?

Ethan Mollick : J'ai l'impression que des deux choses, parier que la carrière semble beaucoup plus inquiétante, mais je parlerai d'abord de l'IA générative. L'IA générative est la catégorie que nous attribuons au type d'intelligence artificielle que vous voyez avec ChatGPT ou Midjourney ou DALL-E.

C'est un peu mal défini, mais vous pouvez en quelque sorte penser que toutes les IA font la même chose, qui essaie de prédire l'avenir sur la base de données passées. Auparavant, il s'agissait de prédire combien de widgets nous allions vendre ou où devraient se trouver nos camions UPS.

L'IA générative commence à prédire ce que devrait être le mot suivant dans une phrase afin qu'elle puisse écrire un paragraphe pour vous, à quoi une image devrait ressembler en fonction d'une invite. Il s'agit donc essentiellement de l'utilisation créative et productive de l'IA pour générer des mots et des images.

Michel Chu : Et qu'est-ce qui le rend différent des autres tendances technologiques ? Vous avez été dans la technologie pendant un certain temps, même avant d'être universitaire.

Ethan Mollick : Je me suis assis sur tous les NFT et Web3, ce qui fait du bien rétrospectivement, même si j'espère qu'aucun de vos auditeurs ne me tuera pour cela. Je pense que ce qui rend cette tendance très, très différente, c'est qu'elle est déjà là.

Nous sommes habitués à ce que les tendances soient, en quelque sorte, "Dans cinq ans, le monde sera différent. Dans cinq ans, nous ferons tous nos transactions financières via la blockchain. Dans cinq ans, nous parlerons tous en réalité virtuelle." Il y a quelques entreprises courageuses qui l'expérimentent, mais la technologie n'est pas encore vraiment réelle, mais peut-être qu'elle y arrivera.

L'IA est là maintenant. Nous n'avons donc pas besoin de nous inquiéter d'une future IA - je veux dire, nous pouvons nous en inquiéter - pour voir le changement se produire aujourd'hui. Ainsi, le produit actuellement disponible dans 169 pays, qui est GPT-4 sous la forme de Bing, est l'IA la plus avancée accessible au public sur la planète.

Il est accessible à des milliards de personnes. Il peut littéralement écrire du code pour vous. Il peut littéralement faire des rapports pour vous. Il peut passer l'examen du barreau. Il peut réussir l'examen de résidence en neurochirurgie. Nous n'avons pas besoin d'avancement futur pour que cela se produise. Il est donc impossible d'imaginer qu'il n'y aura pas de changement du fait que cette technologie sera largement disponible.

Michel Chu : Parlons de certaines de ces choses qu'il peut faire. Encore une fois, vous êtes un ancien gars de Twitter à carreaux bleus. Vous tweetez souvent sur des choses que vous avez découvertes qu'il peut faire. Quelles sont certaines des choses provocatrices que vous avez découvertes que cette technologie peut faire aujourd'hui ?

Ethan Mollick : Parmi les nombreuses choses qu'il peut faire, c'est provocateur - je pense que beaucoup de gens savent qu'il peut écrire du code, mais les nouvelles versions peuvent en fait écrire et exécuter du code de ces choses. Vous pouvez lui demander quelque chose de vraiment étrange.

Je lui ai demandé de "me montrer quelque chose de numineux", qui est un mot SAT plaqué or qui parle de quelque chose d'un autre monde touchant des puissances supérieures, angéliques. Et il a modélisé pour moi l'ensemble de Mandelbrot, disant que les fractales ont ce motif numineux.

J'ai dit "Montrez-moi quelque chose d'eldritch", qui si quelqu'un écoute ou lit des romans d'horreur sait qu'il est associé à Cthulhu et HP Lovecraft. Il a généré spontanément pour moi un générateur de texte HP Lovecraft qui a utilisé les premiers morceaux de l'histoire de HP Lovecraft pour créer une chaîne de Markov qui créerait un texte inquiétant.

Il fait des sauts intuitifs dans ce genre de discussions auxquelles vous ne vous attendriez pas, ainsi que la création du code et son exécution. Je lui ai demandé de me donner un projet d'expo-sciences qui gagnerait une expo-sciences au lycée, et il a écrit et exécuté du code pour me montrer comment fonctionnait l'apprentissage automatique, puis a écrit tous les diagrammes et tout le reste. Cela fait beaucoup de sorte de pensée humaine dans le cadre du processus.

Michel Chu : Donc, ce n'est pas seulement "S'il vous plaît, changez ce poème en quelque chose que Shakespeare écrirait", ou quelque chose comme ça. C'est, "S'il vous plaît écrivez-moi un morceau de code basé sur un terme qui est obscur." Et donc non seulement il comprend, entre guillemets, le terme, mais il écrit également du code pour celui-ci et l'exécute.

Ethan Mollick : Eh bien, il comprend le point de vue humain qui pourrait faire la différence ici. Et encore une fois, la compréhension et tout le reste - les gens ne peuvent pas me voir, car c'est un podcast, mais je fais des citations aériennes. Chaque fois que j'utilise un mot humain pour décrire l'IA, supposez qu'il y a des guillemets autour de lui.

Il est beaucoup plus facile de parler de l'IA comme si elle faisait des choses humaines, mais il est important de reconnaître que ce n'est pas notre façon de faire. Mais, oui, il fait le genre de choses que nous ne nous attendrions pas à ce qu'un logiciel fasse, que nous ne nous attendrions pas à ce qu'un simple outil de complétion de mots - ce que font finalement les LLM, les grands modèles de langage comme ChatGPT - fasse ces choses.

Qu'il s'agisse ou non d'une illusion ou d'un comportement inexpliqué ou que cela ait trouvé les schémas profonds du langage humain comme le pense Steve Wolfram, je ne peux pas vous dire de quoi il s'agit. Mais il fait plus que ce à quoi nous nous attendions sur ces fronts.

Michel Chu : Pourquoi est-ce important, du moins économiquement ou du point de vue de l'entreprise ? Pourquoi les gens devraient-ils s'en préoccuper sinon qu'ils s'inquiètent des devoirs de leurs enfants ou de ce genre de choses?

Ethan Mollick : Il y a une tonne de raisons. La première chose est que c'est un outil utile. Je me suis lancé un défi l'autre jour où j'ai dit : "Combien de marketing pourrais-je faire en 30 minutes ?" Je lance des produits tout le temps. Je dirige quelque chose à Wharton appelé Wharton Directive, qui produit des jeux éducatifs.

Et je me suis dit : « Voici notre nouveau produit. Cherchez-le, puis allons-y et commercialisons autant que nous le pouvons.

En 30 minutes, l'IA, avec juste un peu d'incitation de ma part, a proposé une très bonne stratégie de marketing, une campagne de marketing par e-mail complète - ce qui était excellent, soit dit en passant, et j'ai dirigé un tas de choses de ce genre dans le passé - a écrit une spécification de site Web, créé le site Web avec des fichiers CSS, tout ce dont vous auriez besoin, créé les images nécessaires pour le site Web, créé le script d'une vidéo, et en fait créé une fausse vidéo avec des voix à consonance humaine et de faux acteurs de l'IA, et créé un réseau social complet campagne médiatique.

30 minutes. Je sais par expérience qu'il s'agirait d'une équipe de personnes travaillant pendant une semaine. Et c'est pareil partout. Si nous regardons où l'IA a le plus grand impact, c'est exactement ce genre de choses pour lesquelles nous payons le plus les humains, qui nécessitent le plus d'éducation, qui sont les plus créatives à faire, et qui libèrent les gens de certaines de ces tâches, pour le meilleur ou pour le pire.

C'est l'une des raisons de s'en soucier, c'est qu'il fait réellement des choses qui nous tiennent à cœur dans le monde des affaires. Et la deuxième raison de s'en soucier est que beaucoup de gens y ont accès. Les entreprises n'ont ici aucun avantage particulier sur les particuliers.

En fait, cela ne fonctionne pas très bien comme logiciel d'entreprise. Cela fonctionne très bien comme un outil auquel je peux déléguer, presque un assistant que je peux avoir à qui je peux déléguer des tâches que je ne veux pas faire qu'il gérera pour moi. Cela a un gros impact économique.

Et puis troisièmement, parlons chiffres. Dans les premières expériences contrôlées, nous constatons entre 30 et 80 % d'améliorations des performances pour des tâches individuelles allant du codage à l'écriture, du marketing et des documents commerciaux, de 30 à 80 %. Pour vous donner un peu de contexte, la puissance de la vapeur, lorsqu'elle a été ajoutée à une usine au début des années 1800, a augmenté les performances de 18 à 22 %. Ce sont des chiffres que nous n'avons jamais vus auparavant.

Michel Chu : Dites-en plus sur ce que cela signifie, pour augmenter les performances de 30 à 80 %. Donnez une tâche, et selon quelle mesure est-elle meilleure de 30 à 80 % ?

Ethan Mollick : Prenons juste un exemple de ce à quoi ressemble une amélioration des performances de 30 à 50 %, car il y a en fait beaucoup de dimensions. Il y a une très bonne étude du MIT, une première expérience utilisant ChatGPT-3.5, qui est la version légèrement plus ancienne de Chat.

Ce qu'ils ont fait, c'est qu'ils ont donné des tâches réalistes de rédaction commerciale à des personnes ayant une expérience en affaires, puis que leurs résultats ont été jugés de différentes manières. Et ce qu'ils ont découvert, c'est que non seulement cela réduisait le temps qu'il fallait aux gens pour travailler de plus de 30 %, de sorte qu'ils demandaient à Chat de faire une grande partie de l'écriture pour eux, mais la qualité du produit final était en fait jugée meilleure que lorsque les humains l'ont créé. Et les humains qui l'ont fait ont préféré leur travail parce qu'ils ont externalisé les trucs ennuyeux. Ainsi, lorsque nous parlons d'amélioration des performances, nous parlons de meilleurs résultats, d'une vitesse plus rapide et potentiellement même d'un meilleur travail.

Michel Chu : Ouah. C'est assez remarquable. Nous avons également constaté cette augmentation de la productivité des développeurs de logiciels. Certains de mes collègues font également des expériences avec nos groupes, et c'est vraiment intéressant parce que dans certains cas, ce sont les meilleurs ingénieurs qui obtiennent le plus d'améliorations grâce à l'utilisation de ces outils. Je ne sais pas si vous avez entendu parler ou vu des types d'effets similaires.

Ethan Mollick : C'est très dispersé en ce moment. C'est l'une des questions géantes - qui en profite ? Certains des travaux montrent que les moins performants en bénéficient le plus. Certains montrent les plus performants. Nous ne comprenons pas encore assez qui en profite, et cela va être un gros problème à l'avenir.

Michel Chu : En parlant d'énormes avantages, vous avez souligné que certaines des personnes les plus instruites et les mieux rémunérées sont celles où ces technologies peuvent réellement augmenter la productivité. Qu'est-ce que cela signifie pour la main-d'œuvre? Qu'est-ce que cela signifie pour les emplois?

Chez MGI, nous avons effectué de nombreuses recherches sur les impacts potentiels de l'automatisation. Nous avons différents scénarios que nous avons modélisés au fil du temps. Quelles sont vos réflexions ou votre analyse lorsque vous commencez à réfléchir à ce que cela pourrait signifier pour la main-d'œuvre ?

Ethan Mollick : Tout d'abord, soyons clairs, personne ne sait rien. Je veux mettre cette mise en garde. Nous ne le faisons pas. Nous avons des modèles réconfortants du passé, qui sont des perturbations à court terme suivies de performances à long terme, mais nous n'avons jamais eu de menace d'automatisation largement basée sur les cols blancs les mieux payés.

Nous ne savons pas ce que cela signifie, et nous ne savons pas comment cela sera exploité. Nous ne savons pas de quelle situation il s'agit. Et cela prend déjà juste l'idée que la technologie reste statique telle qu'elle est aujourd'hui. Il y a beaucoup d'hypothèses en place.

La version à court terme et pleine d'espoir est que nous externalisons des tâches, pas des emplois. Les parties vraiment ennuyeuses de votre travail que vous ne voulez pas faire, ce sont des choses qui sont sous-traitées à l'IA - peut-être que vous le faites vous-même - et vous vous concentrez sur les parties les plus intéressantes, créatives et humaines de votre travail.

La version la plus menaçante est qu'il s'avère qu'une grande partie de notre travail consiste essentiellement à gérer d'autres humains d'une manière que l'IA pourrait mieux faire. Vous produisez donc un rapport qui aide vos supérieurs à comprendre ce que font les gens qui travaillent sous vos ordres, et c'est en grande partie votre travail. "Est-ce que c'est permanent ou pas ?" devient une grande question.

Je pense que c'est en grande partie dû au fait que nous ne savons même pas encore comment les entreprises pèsent là-dessus. Je pense, de façon troublante, à - j'étais sur scène récemment avec le chef d'une entreprise, et c'est public, parce qu'il en a parlé sur scène, Turnitin, le PDG de Turnitin. Il joue avec GPT depuis plus longtemps que beaucoup d'entre nous. Son entreprise est en plein essor.

Mais il a déclaré sur scène qu'il pensait pouvoir se débarrasser de 70 ou 80 % de ses ingénieurs et spécialistes du marketing d'ici 18 mois et remplacer certains d'entre eux par des lycéens grâce à ChatGPT. Je ne sais pas si j'irais aussi loin. Mais je pense que le fait que certaines personnes y pensent devrait nous rendre un peu nerveux.

Michel Chu :Que devraient faire les gens, étant donné qu'il y a des soucis ici?

Ethan Mollick : Je pense que l'inquiétude et l'excitation vont de pair. Une partie de la raison pour laquelle il y a une menace à cela est que cela vous rend en fait beaucoup plus productif. Et la productivité est la clé de tout. Plus vous faites de travail, plus vous pouvez probablement être payé, et évidemment le travail que nous faisons en tant que société, plus la productivité est élevée. C'est toute la raison pour laquelle notre niveau de vie augmente. Il y a donc un bon côté à cela.

Michel Chu : Vous avez mentionné que les choses ne fonctionnent pas très bien en tant que logiciels d'entreprise. Mais nous savons également que pratiquement toutes les sociétés de logiciels d'entreprise ajoutent l'IA générative en tant que fonctionnalité. Donc, qu'il s'agisse ou non d'un système de messagerie ou d'un système de gestion de la relation client, ils l'ajoutent en tant que fonctionnalité. Qu'est-ce que cela signifie lorsque vous pensez aux logiciels d'entreprise et à la manière dont cette technologie pourrait être adoptée dans les entreprises réelles ?

Ethan Mollick : Je pense qu'il est important de reconnaître comment les entreprises utilisent l'IA avec des logiciels par rapport à ce à quoi l'IA est bonne. Ce pour quoi ils n'utilisent pas l'IA, c'est le traitement des données, ce qui est en fait assez bon pour écrire le code, ou du moins ce n'est pas ce qu'ils publient, c'est des choses qui écrivent du code. Ce n'est pas profondément dans leurs API.

Ce qu'il fait, c'est en quelque sorte une sorte de gifle sur la surface, qui est comme, "OK, il y a un chatbot qui vous aidera à faire des tâches non structurées en plus de cela." Presque tout le monde a des chatbots pour des tâches non structurées. Vous pouvez parler à un chatbot dans Slack et lui demander de rédiger un essai pour vous. Vous pouvez parler à un chatbot dans - nommez le logiciel que vous voulez.

Il y a évidemment un peu plus de travail là-dessus, et le service client. Mais le fait est que ces systèmes ne fonctionnent pas bien avec les autres parce qu'ils ne fonctionnent pas réellement comme des logiciels. Logiciel que nous voulons être fiable. Nous voulons qu'il produise les mêmes résultats à chaque fois. Et ayant dirigé des organisations de logiciels, je sais que c'est parfois un fantasme, mais c'est ce que nous voulons.

Ce n'est pas fiable. Parfois, il refusera de faire des choses. Parfois, cela fera des choses différentes. Si vous baissez suffisamment la température, modifiez le niveau d'aléatoire pour qu'il commence à être plus prévisible, les résultats deviennent beaucoup moins intéressants.

C'est un piège. Maintenant, nous allons nous améliorer, mais pour le moment, j'utilise toutes les versions API des plug-ins disponibles pour ChatGPT, auxquels j'ai un accès anticipé, et il oublie parfois qu'il peut les utiliser. Il devient confus par eux. Il invente parfois des trucs. Cela ira mieux, mais cela ne fonctionne pas comme le fait un logiciel. Et donc ça change le paradigme de ce qu'est un logiciel, parce que si on s'attend à ce qu'il soit reproductible, ce n'est pas explicable.

Nous attendons des logiciels qu'ils soient explicables. Nous nous attendons à ce que le logiciel soit accompagné d'un manuel afin que vous connaissiez le nombre de commandes disponibles et ce qu'elles font. Les commandes sont complètement aléatoires, et elles font des choses différentes à chaque fois, selon ce qu'il y a dans sa mémoire et ce qui s'est passé dans le passé, quelle est sa graine aléatoire. Ce n'est pas ainsi que fonctionnent les logiciels traditionnels. Et quand les gens pensent à cela comme à un logiciel, ils perdent de vue ce qui le rend si important et intéressant.

Michel Chu : Cela semble certainement intéressant et important, mais certains des mots que vous avez utilisés ici sont peut-être effrayants si vous essayez d'appliquer ce genre de choses dans les affaires. J'aimerais donc que vous parliez davantage du fait que, comme vous l'avez dit, ces systèmes ne sont pas nécessairement fiables.

Les gens parlent d'« hallucinations » lorsque vous demandez des faits, dans le sens où cela hallucinera parfois non seulement les faits, mais en fait les documents justificatifs qui sont censés étayer ces faits. Ou vous avez également parlé des défis liés à l'explicabilité. Pourquoi a-t-il produit ce qu'il a produit ? Si vous avez un système qui n'est ni fiable ni explicable, pourquoi l'utiliser en entreprise ?

Ethan Mollick : Parce que les gens ne sont déjà pas explicables et pas fiables, et l'analogie devrait penser aux gens, penser aux stagiaires, et non penser aux logiciels. Ce n'est pas parce qu'il est fait de logiciel que c'est l'analogie la plus utile que nous puissions lui donner, tout comme le fait que nous soyons faits de viande ne nous aide pas vraiment à réfléchir à ce que nous faisons utilement.

Maintenant, je ne dis pas que l'IA est en aucune façon sensible, vivante, une personne. Mais il est formé sur la pensée humaine. Il est construit autour d'un système conçu pour reproduire le langage humain. Il n'est pas surprenant que sa structure profonde soit humaine.

Et nous savons que même dans la mesure où il existe un excellent document de recherche qui montre si vous le rendez anxieux, si vous l'amorcez avec les mêmes amorces d'anxiété que nous utilisons pour les humains, et que vous dites des choses - "Écrivez 100 mots sur quelque chose qui vous rend anxieux" - il agit différemment quand il est anxieux.

Il obtient en fait des niveaux de biais plus élevés, mais devient également plus innovant et plus diversifié dans ses réponses, comme le font les humains. Il y a en fait de vraies raisons d'y penser de cette façon. Et par conséquent, les personnes qui externalisent leur service informatique commettent une erreur, ou leur service de science des données commet une erreur. C'est un outil de création incroyable. C'est un outil innovant incroyable. C'est médiocre comme quelque chose qui vous donne la même réponse à chaque fois.

Michel Chu : Dites-en plus sur cette chose anxiogène. Donc, vous pouvez traiter ces systèmes comme s'ils avaient des émotions parce que vous pouvez engendrer le genre de réponses qu'une personne ferait si elle était anxieuse, en colère, triste, qu'avez-vous ?

Ethan Mollick : Pas seulement ça. Il y a un article de Harvard qui est vraiment excellent, qui montre que vous pouvez l'utiliser pour des études de marché, parce que si vous lui dites qu'il s'agit d'une personne en particulier, il répond suffisamment comme cette personne pour que vous puissiez en tirer des informations sur les prix.

Il y a un bel article économique qui montre qu'il réagit aux problèmes classiques de biais cognitifs avec le type de biais cognitifs que les humains ont. Encore une fois, pas humain, pas sensible, mais formé d'une manière qui le pousse à donner l'impression qu'il est sensible. Donc, y penser de cette façon peut être un outil très puissant. Et encore une fois, je pense que c'est l'analogie qui manque à beaucoup de gens.

Michel Chu : Et donc cela peut être utile dans le sens où si vous voulez qu'il simule ce qu'une personne pourrait faire. Mais on peut supposer que cela pourrait aussi être un ensemble de problèmes, s'il est formé sur des données qui présentent des préjugés en ce qui concerne le sexe, la race ou l'ethnicité, et nous lui demandons ensuite d'effectuer des tâches. Cela signifie-t-il qu'il pourrait potentiellement effectuer des tâches d'une manière qui a ces préjugés que nous voyons également chez les gens ?

Ethan Mollick : Absolument. C'est absolument un danger de partialité. S'il n'y avait pas ses garde-corps, ce serait incroyablement biaisé. Les garde-corps ajoutent différents ensembles de préjugés qui antagonisent d'autres groupes de personnes. Il a absolument un parti pris. Il fait absolument des trucs. Ça hallucine. Encore une fois, cependant, c'est pourquoi je pense qu'y penser comme une personne peut en fait être utile, car c'est biaisé. Ce n'est pas une machine qui pense comme une machine.

Nous devons tout prendre avec un grain de sel. Cela ne veut pas dire qu'il ne peut pas faire un travail formidable. Cela signifie que nous devons faire attention au travail qu'il fait. Et il fait un travail humain avec des problèmes humains.

Je pense que nous avons tendance à surestimer le danger de certaines de ces préoccupations, en particulier les hallucinations et les faits inventés. Il y a un bon article qui a donné à GPT et Google Bard l'examen de qualification en neurochirurgie et qui a non seulement réussi avec brio, évidemment, mais le taux d'hallucinations est passé de 44 % avec Google's Bard à 22 % pour GPT-3,5 à 2 % pour GPT-4. Je ne pense pas que le problème des hallucinations soit insoluble, mais vous ne laisseriez probablement personne travailler sous vos ordres produire un rapport client sans le regarder. J'ai l'impression que c'est la même chose à propos de GPT-4.

Michel Chu : C'est intéressant. Vous enseignez dans une école de management. Est-ce que la bonne façon de penser à ces systèmes revient à gérer une personne autant qu'à programmer un ordinateur ?

Ethan Mollick : Ce n'est pas le cas, mais c'est aussi ce que l'on ressent. Donc, évidemment, c'est une chose très différente, mais si c'est votre départ avant, et - nous parlions plus tôt des gens qui créent des invites très compliquées avec le post-traitement. Je fais le même ensemble de choses. Mais vous pouvez obtenir 80% du chemin pour tirer le meilleur parti de ces systèmes en les traitant simplement comme une personne dont vous êtes responsable.

Michel Chu : C'est fou. [rires] Quels sont les types de principes de gestion qui s'appliquent réellement à la réflexion sur l'utilisation efficace de ces systèmes ?

Ethan Mollick : Nous ne connaissons pas les réponses à toutes ces choses. Je peux vous raconter une partie de mon expérience à ce sujet, c'est-à-dire certaines des choses sauvegardées avec des données. Les deux meilleures façons sont, comme pour toute autre chose, de lui demander de réfléchir étape par étape à un problème pour obtenir de meilleurs résultats que si vous ne lui dites pas de réfléchir étape par étape, puis d'examiner les étapes pour s'assurer qu'elles sont les bonnes étapes.

La même chose que je ferais avec quelqu'un qui fait une tâche pour la première fois. Lui donner des exemples le rend meilleur. "Faites-le comme ça, parce que c'est comme ça que nous l'avons fait dans le passé." Il fera un meilleur travail. Ce sont des choses humaines. Encore une fois, en tant qu'enseignant, c'est plutôt génial parce que je suis, comme, "Je sais comment enseigner des trucs, et je peux enseigner ça et ça marche plutôt bien."

Vous verrez toutes ces personnes avec ces invites très élaborées en ligne. Vous vous attendez à ce que ce soit magique, mais c'est vraiment conversationnel. Les choses à retenir, cependant, c'est qu'il ne devient pas fou, ou du moins pas vraiment fou, donc vous pouvez lui demander de travailler 400 fois où je me sentirais très mal d'envoyer un stagiaire, "Non. Recommencez. Recommencez. Recommencez." Pas de problème pour l'IA.

Mais je me surprends toujours à le remercier et à lui dire : "Bon travail, mais pourriez-vous modifier cela", même si je sais que cela n'a pas d'importance. Mais cela peut finir par avoir de l'importance. Nous ne savons même pas. Il pourrait s'avérer qu'être gentil avec lui - je soupçonne que le fait d'être gentil avec lui donne de meilleurs résultats, mais nous n'en avons aucune idée.

Je pense que la chose globale que je dirais, c'est que nous ne connaissons pas tous les principes, mais ce serait mon point de départ, c'est d'y penser comme une personne. Et encore une fois, c'est là que je pense que beaucoup de grandes entreprises se trompent. Ils en font un problème informatique et stratégique. C'est un peu une question de RH.

Michel Chu : C'est fascinant. Donc, encore une fois, si vous y réfléchissez en tant que personne, les compétences en tant qu'enseignant, les compétences en tant que gestionnaire, ce sont les compétences que vous apportez lorsque vous essayez de faire en sorte que cela fonctionne mieux, ces systèmes fonctionnent mieux. Dites-moi ce que cela signifie de considérer cela comme un problème de RH.

Ethan Mollick : C'est une question de ressources humaines de différentes manières. Une façon dont c'est une question de RH, c'est qu'il s'agit de personnes et de politiques. Laissez-vous les gens utiliser ces systèmes ? Qui peut les utiliser ?

C'est un outil que les gens peuvent utiliser. Ce n'est pas un outil informatique. Ce n'est pas réglementé. Une fois que les gens commencent à utiliser ces systèmes, il n'est pas facile de savoir à quoi ils s'en servent ou quels en sont les résultats. Leur travail est contaminé par le travail de l'IA. C'est une décision politique, pas une décision informatique.

C'est une menace pour la sécurité, mais c'est en quelque sorte secondaire par rapport au fait que, comme j'en ai parlé à un groupe de responsables des RH qui l'ont fait, toutes leurs critiques sont désormais rédigées par AI. Que pensez-vous de cela ? »

Michel Chu : Attendez. Répète ça. Que se passe-t-il ici?

Ethan Mollick :Si vous collez le curriculum vitae de quelqu'un et son dernier rapport de performance et que vous dites : "Rédigez un bon rapport de performance pour lui", vous obtenez un rapport de performance qui semble souvent beaucoup mieux pour la personne qui le lit, qui semble plus précis, que si la personne des RH y consacre une heure.

Michel Chu : Mais l'invite inclut-elle une vue de la performance de la personne ? Ou vous dites que cela améliore un brouillon qu'une personne a écrit.

Ethan Mollick : Non Non Non Non. Je dis collez leur CV, collez un paragraphe sur leurs objectifs de performance précédents, puis écrivez deux phrases : "Ils atteignent très bien leurs objectifs. Voici ce que leur manager a dit à leur sujet." Rédigez une belle évaluation des performances. Incluez beaucoup de détails. Rédigez-la d'un point de vue professionnel des RH. Incluez des points exploitables », puis appuyez sur Entrée et vous obtiendrez une bonne évaluation.

Michel Chu :Comment te sens tu à propos de ça?

Ethan Mollick : Mauvais. Mais je suis intimidé par le fait qu'il y a tout un tas de choses que nous faisons qui mettent le feu à notre temps pour montrer que nous sommes très prévenants envers les gens, ce qui est bien.

Si on me demande d'écrire une lettre de recommandation pour quelqu'un, je passe beaucoup de temps sur cette lettre de recommandation. C'est un gros problème. La lettre de recommandation que je finis par produire pour eux est probablement pire que si je collais leur curriculum vitae, collais le travail et disais : « Écrivez une très bonne lettre de recommandation pour cette personne », puis quand je l'ai reçue, dites : « Non, en fait, rendez le paragraphe deux plus brillant. Faites en sorte que le paragraphe un mentionne une faiblesse. J'obtiendrai de meilleurs résultats qui feront probablement mieux pour la personne à qui j'écris une lettre.

Je ne le fais pas. Mais c'est le défi. Il y a beaucoup de travail que nous faisons dans les organisations qui dépend de la présence d'un humain dans la boucle pour avoir un sens, mais qui n'est toujours pas si bien fait. Mais l'IA peut faire mieux.

Que ressentons-nous à ce sujet ? Je ne sais pas. Je pense que nous sommes sur le point de découvrir qu'une grande partie de notre travail comporte de grands éléments comme celui-ci. Je produis - et au fait, lorsque Microsoft publiera Copilot, qui ajoute essentiellement l'IA à Office, vous allez envoyer un e-mail composé avec l'IA avec un document joint que l'IA a écrit, à un responsable qui utilise l'IA pour lire le document et vous répondre. « Qu'est-ce que cela signifie pour le travail ? » est, je pense, une question à laquelle nous commençons à peine à nous attaquer. Encore une fois, une question de RH, une question de stratégie, pas une question informatique.

Michel Chu : Il y a aussi un problème de confiance. J'ai raconté cette histoire au New York Times, que j'ai envoyé un e-mail à un collègue et il m'a immédiatement envoyé un texto et m'a dit : « Cet e-mail est-il légitime ? Et j'ai dit : "De quoi tu parles, Rob ?" Et il a dit: "Cela semblait suspect." Et j'ai dit : "Eh bien, je devrais peut-être utiliser ChatGPT pour le rédiger", et il a répondu : "Je pensais que vous l'aviez fait."

Alors commençons-nous tous à nous inquiéter du fait que la communication que nous recevons d'autres personnes n'est pas à certains égards authentique ou authentique ?

Ethan Mollick : Je pense que si vous n'êtes pas déjà inquiet, vous êtes en retard. C'est fait. Le cheval est sorti de l'écurie et tous les autres animaux sont également sortis de l'écurie. C'est fait.

Je peux déjà vous dire que l'écriture de tous mes élèves est maintenant excellente. J'ai besoin d'IA dans ma classe, donc ils vont être excellents de toute façon, mais c'est excellent. Si quelqu'un ne vous envoie pas un e-mail bien écrit, c'est qu'il ne s'en soucie pas suffisamment pour utiliser l'IA. Chaque image en ligne est suspecte. Toute communication est suspecte. Bien sûr, je veux dire, tout s'est cassé. C'est juste que les gens mettent du temps à s'en rendre compte.

Michel Chu :Quel genre de monde est-ce où nous nous inquiétons de toutes ces choses ?

Ethan Mollick : La réponse inverse est que c'est le monde dans lequel nous vivons en ce moment, et nous devons lui reconstruire un sens. Mais c'est le véritable défi pour tout homme d'affaires qui écoute cela. A quoi ressemble ce monde ? Quel travail est significatif à ce stade et qu'est-ce qui ne l'est pas ? Que devez-vous déléguer à l'IA, évidemment ?

Les gens utilisent secrètement l'IA autour de vous tout le temps. Je ne peux pas souligner à quel point l'utilisation secrète de l'IA se produit dans des endroits auxquels vous ne vous attendez pas. Les gens viennent me voir après des discussions tout le temps, des gens auxquels on ne s'attend pas, des gens en charge de la rédaction des politiques, et ils utilisent l'IA pour faire des choses parce qu'une fois que vous commencez à l'utiliser, vous vous dites : "Pourquoi est-ce que je veux encore écrire un document à la main ?"

On a l'impression de passer du traitement de texte à l'écriture manuscrite. Pourquoi ferais-tu ça? Je connais beaucoup de gens dans des entreprises où l'IA est interdite qui apportent simplement leur téléphone et font tout leur travail sur l'IA, puis se l'envoient par e-mail, car pourquoi ne le feriez-vous pas ?

Nous sommes déjà dans ce monde. Et ce qui se passe, c'est que les entreprises se disent : « Mettons-le dans un document d'orientation. Attendons que quelqu'un nous dise quoi faire. Vos employés utilisent déjà l'IA partout. Et au fait, pas seulement vos employés.

Encore une fois, disponible partout dans le monde. Il y a donc un milliard de personnes dans des pays qui ont beaucoup de talent mais pas beaucoup d'opportunités qui peuvent maintenant écrire dans un anglais parfait, écrire du code, produire des résultats. Que faites-vous de ceux-là ? Je ne pense pas que l'ampleur de ce changement soit encore vraiment remarquée par la plupart des gens.

Michel Chu : Je pense que vous avez mentionné qu'il y a une analogie avec ce que nous appelions les dépenses informatiques fantômes, que la technologie est si attrayante que les gens l'utilisent même si elle n'est pas sanctionnée par l'informatique centrale. Et en tant qu'ancien DSI, cela résonne certainement en moi. Je suis très curieux, cependant, comme vous l'avez dit, vous l'utilisez en classe. Dites-moi ce que vous en pensez. Comment l'utilisez-vous en classe ?

Ethan Mollick : Je l'ai rendu obligatoire. J'enseigne beaucoup de cours d'entrepreneuriat, quelques cours d'innovation. L'IA est requise pour chacun d'eux. J'ai des politiques à ce sujet. Ils devraient me dire quelles invites ils ont utilisées à la fin, écrire un paragraphe pour y réfléchir. Mais je me fiche de ce qui est écrit par l'IA à ce stade.

Ce que j'ai fait maintenant, c'est trois choses différentes. J'ai considérablement élargi la quantité de travail que font les gens. Beaucoup de bonnes start-ups sont sorties de Wharton. Ma classe 801 que j'enseigne, qui est l'introduction à la classe MBA - pas seulement moi, mais un tas d'autres enseignants talentueux l'enseignent. Les gens ont collecté des milliards de dollars de cette classe au fil du temps, ou sont sortis pour des milliards.

C'est une classe très réussie à Wharton. Je voudrais en réclamer tout le mérite mais je ne peux pas. Ce sont des étudiants talentueux. Mais à la fin d'un cours d'un semestre, qu'avez-vous fait ? Vous avez peut-être le terrain pour votre idée. Peut-être avez-vous fait un sondage.

Maintenant, j'exige des gens : "Ayez un logiciel fonctionnel. Je me fiche que vous ne puissiez pas écrire de logiciel. Vous devriez avoir un logiciel fonctionnel. Je pense que vous devriez avoir un site Web fonctionnel. Je pense que vous devriez avoir des images, et je pense que vous devriez avoir de fausses analyses de marché. Je pense que vous auriez dû interroger 50 fausses personnes et dix vraies personnes."

Je peux juste demander tellement plus de travail dans le même laps de temps. Et c'est incroyable. Vous avez maintenant cinq personnes de plus dans votre équipe, dix personnes de plus dans votre équipe. C'est comme ça que tu y penses. Je m'attends à ce que tout le travail soit parfait. Je ne veux plus de fautes de grammaire. Je ne veux pas de problèmes. Pourquoi reverrais-je jamais ça ?

Et puis ça me permet aussi d'en faire plus en tant qu'enseignant. J'ai remarqué que mes étudiants de premier cycle ont cessé de lever autant la main en classe. Et oui, j'enseigne plutôt bien. Les gens me donnent des scores élevés. "Pourquoi?" je leur demande. Parce qu'ils préfèrent poser une question à l'IA plus tard, pour l'expliquer de quatre manières différentes, plutôt que de s'embêter à dire à toute la classe "Je ne comprends pas quelque chose".

Je pense que le changement est déjà là. L'avenir se trouve déjà dans tant d'endroits, et nous ne l'avons tout simplement pas encore reconnu. Et cette action d'arrière-garde ne fonctionnera pas.

Michel Chu :Que pensez-vous du fait que les étudiants posent plutôt une question à un système plutôt qu'à vous ?

Ethan Mollick : Cela change notre façon de faire des cours. Tout d'abord, les conférences sont toujours stupides. Je les fais, mais ils sont toujours stupides. Ils n'ont jamais été la façon dont vous devriez travailler. Donc l'école va bien se passer. On peut en parler davantage, mais il y a des façons de faire fonctionner l'école.

Les gens voudront toujours l'avoir. Cela ne m'inquiète pas, du moins à moyen terme. Nous verrons ce qui se passera si les gens de l'IAG [intelligence générale artificielle] ont raison, alors nous nous en occuperons plus tard. Mais j'ai l'impression que cela me montre ce que nous devrions faire.

C'est un peu bizarre que quelqu'un qui est confus doive dire à tout le monde en classe "Bonjour, je suis confus par cela", puis je peux leur expliquer d'une manière différente. C'est super pour moi. Cela me permet d'expliquer les choses plusieurs fois. Mais d'une certaine manière, c'est une de mes faiblesses, que tout le monde ne comprend pas.

Mais bien sûr tout le monde ne le comprend pas. Soit j'enseigne à un niveau trop élevé et certaines personnes manquent, soit à un niveau trop bas, certaines personnes s'ennuient. Alors, pourquoi ne voudrions-nous pas que les gens demandent à l'IA : "Expliquez-le comme si j'avais cinq ans. Je suis titulaire d'un MBA avec un diplôme en banque. Expliquez comment cela fonctionne." Pourquoi pas?

En ce moment, nous devrions nous soucier des erreurs. Nous devrions nous soucier des erreurs. On devrait s'inquiéter des hallucinations. Mais je fais aussi des erreurs. Et mes étudiants entendent mal les choses que je dis tout le temps. Est-ce pire ou mieux ? Je ne sais pas.

Michel Chu : L'une des choses auxquelles je réfléchis — comme vous l'avez dit, les étudiants génèrent maintenant plus de travail — est de savoir si nous pouvions également revenir à la discussion sur la main-d'œuvre. Bien que vous puissiez augmenter la productivité, cela ne signifie pas nécessairement que vous avez réduit le nombre de personnes qui travaillent. Vous pourriez simplement les faire produire plus, étant donné qu'ils sont devenus beaucoup plus productifs.

Ethan Mollick : Il ne fait aucun doute dans mon esprit, d'après les données dont nous disposons jusqu'à présent, qu'il y aura des augmentations massives de productivité pour vos analystes. « Que fais-tu de ce temps ? est vraiment votre question.

Allez-vous les laisser travailler moins et les payer autant ? Allez-vous vous attendre à ce qu'ils travaillent plus et fassent plus de travail en même temps ? Allez-vous changer le type de travail qu'ils font pour qu'il soit plus haut de gamme et créatif ? Allez-vous en embaucher moins ?

C'est le problème. Si je devais t'interviewer, c'est ce que je te demanderais, "Qu'est-ce que tu vas faire avec ce truc ? Qu'est-ce que ça veut dire ?" Et je pense que c'est la question.

Michel Chu : Il existe des précédents historiques avec d'autres technologies. Je veux dire, il fut un temps où nous payions des gens pour calculer, puis Excel est arrivé. Nous avons encore des gens qui occupent des rôles similaires mais, encore une fois, ils ont en quelque sorte tous évolué, en termes de choses qu'ils font.

Ethan Mollick : Je suis d'accord, mais nous n'avons jamais vu une technologie à usage général aussi large se produire aussi rapidement pour les personnes aux revenus les plus élevés, les plus instruites et les plus créatives. Bien que je pense absolument que chaque précédent est, c'est génial, cela nous libère pour faire un travail plus créatif et plus intéressant, je m'inquiète quand une grande partie du travail créatif et intéressant peut également être fait par l'IA.

Je veux une indication vraiment claire. C'est pourquoi je n'arrête pas de dire aux gens, utilisez-le. Déterminez quelle est votre capacité unique en tant qu'humain, mais assurez-vous également que vous pouvez la défendre, car l'IA s'améliore, pas pire.

Michel Chu : Parlez de la façon dont ça va mieux. Vous avez parlé, et d'autres ont noté, à quel point chaque génération de cette technologie s'améliore. Il y a des appels à suspendre le développement continu de cette technologie, par exemple. On se demande si la technologie peut ou non s'utiliser pour s'améliorer. Quelles sont vos réflexions sur l'évolution de cette technologie dans le temps ?

Ethan Mollick : Chaque courbe de développement technologique est une courbe en S. Il commence lentement, devient exponentiel, puis il commence à ralentir à mesure qu'il atteint son maximum. Nous sommes sur la partie exponentielle de la courbe. La partie raide de la courbe en S Et le problème avec une partie raide d'une courbe en S est qu'il est littéralement imprévisible de savoir quand cela s'atténue. On ne peut pas vraiment le dire.

La loi de Moore était censée continuer à échouer. En fait, soit dit en passant, lorsque vous regardez la loi de Moore, qui prédit la croissance des puces informatiques, j'ai interviewé Gordon Moore, exactement sur cette question. Il pensait qu'une grande partie du début de la courbe proviendrait d'une chose appelée mémoire à bulles qui s'est avérée ne pas fonctionner.

La courbe a en fait été un peu plus lente qu'il ne le pensait au début, mais elle a ensuite décollé parce que le silicium a fini par être meilleur qu'il ne le pensait. Puces de transistor standard. Nous ne savons pas à l'avance quelle sera la forme de la courbe en S. Nous ne savons pas ce qui va se passer à la suite de cette courbe.

Nous pouvons prévoir trois scénarios. La première est que la pause se produit, la réglementation se produit, auquel cas c'est la meilleure IA que nous n'utiliserons jamais. Je pense toujours que ça va complètement perturber le travail.

L'autre option est que nous sommes sur une sorte d'exponentielle régulière. Ça va beaucoup mieux, mais peut-être pas 100 fois mieux. Peut-être dix fois mieux. Eh bien, alors nous avons un outil vraiment perturbateur qui va vraiment remplacer beaucoup de travail. Qu'est-ce que cela signifie? Que faisons-nous de notre temps ?

Et puis nous avons le genre de scénario effrayant dont tout le monde parle, mais je pense que cela passe probablement trop de temps par rapport aux deux autres scénarios, à savoir : "Et si cela devient si bon qu'il devient une intelligence artificielle générale, nous déjoue, puis devient notre dictateur bienveillant ?" J'espère bienveillant.

Je pense qu'on passe beaucoup de temps à planifier cette troisième éventualité, mais les deux premières sont plus probables. Et je pense que nous devons être prêts pour cela. Mais dans tous les cas, je pense qu'il est probable que l'IA que vous utilisez aujourd'hui soit la pire IA que vous ayez jamais utilisée.

Michel Chu :Et vous dites que nous passons trop de temps à nous inquiéter du type de scénarios de super-intelligence.

Ethan Mollick : Je pense que nous devrions nous en préoccuper. Je pense juste que cela finit par être le souci exclusif, car cela enlève en quelque sorte tout l'air de la pièce. L'idée de construire un dieu extraterrestre qui règne en quelque sorte sur nous - il y a beaucoup de gens qui sont super préoccupés par cela.

Nous devrions nous en inquiéter. Nous devrions absolument nous préoccuper de cela et des problèmes d'alignement à grande échelle. Mais comme nous en avons parlé aujourd'hui, le monde du travail et de l'éducation vient de changer radicalement en six mois.

Je vois beaucoup moins de travail dans le traitement de ce que cela signifie. Cela a tendance à se résumer à « des emplois se produiront-ils ou des personnes perdront-elles des emplois ou non ? » C'est évidemment important, mais ce n'est même qu'une partie de ce qui arrive au travail et à l'éducation.

Comment trouvons-nous du sens lorsque nous utilisons des outils d'IA ? Quel genre de travail est précieux pour les humains? Dans quoi les gens devraient-ils investir ? Qu'est-ce qui est OK pour faire ça ? Comment réguler ces choix ? Ce sont des problèmes beaucoup plus importants auxquels nous n'avons pas prêté attention.

Michel Chu :Avez-vous des réponses provisoires à l'une de ces questions?

Ethan Mollick : La réponse provisoire à ces questions est, encore une fois, je pense qu'il s'agit de modèles. L'une des choses auxquelles les personnes qui écoutent ce podcast, et en particulier les membres des organisations, doivent réfléchir est la suivante : "Que voulez-vous modéliser ?"

L'avenir peut être ce que nous voulons qu'il soit. Nous avons une agence ici. Voulez-vous donc que ce soit quelque chose où nous gardons nos employés tout au long de cette transition et nous trouvons des moyens pour eux de faire encore plus et mieux le travail et nous découvrons comment nous utilisons cela comme un avantage concurrentiel pour nous développer, plutôt que pour réduire les coûts ?

C'est en votre pouvoir, et vous devriez le faire, car je pense que ce modèle est le grand modèle de l'avenir. Il y aura beaucoup d'entreprises - comme IBM a annoncé qu'elle n'embaucherait pas autant de personnes parce que l'IA fera son travail, ou l'exemple que j'ai donné plus tôt du même genre de chose. C'est un autre modèle.

Je pense que nous devons modéliser le comportement que nous voulons voir en testant différentes approches de l'IA qui fonctionnent mieux. Je pense qu'il est tout à fait plausible que nous soyons dans un monde où l'IA augmente considérablement la productivité, enlève nos pires tâches. Il y a toujours eu cette pensée que l'IA et les robots supprimeraient les tâches les plus sales et les plus dangereuses, l'extraction du charbon, la conduite de camions.

Et puis la pensée a été: "Nous trouverons d'autres emplois pour les personnes dans ces espaces." Je pense que nous devons penser de la même manière dans le travail des cols blancs. Quel est le travail équivalent sale et dangereux que vous voulez abandonner ? Comment fait-on cela? Je pense qu'il est en notre pouvoir de rendre cela extrêmement positif. Nous devons juste réfléchir à la façon de le faire.

Michel Chu : Il y a donc toujours un rôle pour l'agence humaine ici. Il y a toujours un rôle à jouer pour décider comment nous voulons utiliser cette technologie polyvalente incroyablement puissante.

Ethan Mollick : Absolument. Et c'est là que, encore une fois, je pense que l'accent mis sur [the] "L'IA aboutira-t-elle au dieu extraterrestre qui nous tuera tous" nous égare, car cela en fait ce choix étrange de, "Allons-nous toucher le fond ou devons-nous continuer?"

Ce n'est pas le seul choix auquel nous sommes confrontés à propos de l'IA. Ce n'est même pas le seul choix concernant les problèmes d'AGI. Mais en laissant cela de côté, ce n'est pas le choix qui compte vraiment. Le choix est ce à quoi chaque dirigeant pense. Vont-ils trouver un moyen et que font-ils pour que cela se produise?

Je vois tellement de passivité de la part des cadres supérieurs quand je leur en parle que ça me fait un peu peur. C'est l'enjeu du moment. C'est la chose la plus importante à laquelle vous devriez consacrer du temps. Et ils la délèguent à un comité ou attendent qu'un groupe consultatif extérieur leur dise quoi faire. Il n'y a pas de réponses à venir. Tu dois faire des trucs.

Michel Chu :Que fait l'exécutif activement impliqué en plus, comme vous l'avez dit, de commencer à jouer avec la technologie afin qu'il développe des intuitions à son sujet?

Ethan Mollick : Vous pensez, comment puis-je faire un programme de plantage pour comprendre comment cela fonctionne dans mon travail ? Et cela peut littéralement signifier quelque chose d'aussi radical que de retirer 20% de vos travailleurs les plus créatifs de tout ce qu'ils font et de les faire utiliser uniquement l'IA générative pendant une semaine. Voyez quelle part de leur travail ils font. Et donnez-leur un prix d'un million de dollars à celui qui aura la meilleure idée. Je pense que vous économiserez de l'argent avec cela dans la plupart des organisations.

Mais je pense que vous devez également réfléchir à l'avance à ce qui se passera s'il s'avère qu'ils peuvent automatiser 80 % de leur travail ? Que vais-je faire si cela arrive ? Je pense que vous devez également avoir cette philosophie liée à cela.

Suis-je engagé envers mes employés avec qui nous allons travailler ? La seule façon pour moi de les amener à me montrer ce qu'ils font, c'est qu'ils le révèlent et qu'ils se sentent en sécurité. Sinon, ils continueront à utiliser l'IA secrètement, contre vous.

Michel Chu : Revenant en boucle, vous avez dit que vous pariez votre carrière sur cette technologie. Qu'est-ce que cela signifie?

Ethan Mollick : Je n'ai pas vraiment cru que d'autres technologies - je suis un nerd qui est aussi sceptique vis-à-vis de la technologie. J'ai été dans le Media Lab du MIT et j'ai créé des sociétés de logiciels, des sociétés de jeux, et j'ai toujours été du genre "Eh, je ne sais pas à ce sujet." Toujours été un peu sceptique.

Et là je ne suis pas sceptique. Je crains vraiment que les gens ne prennent pas cela assez au sérieux. Je crains aussi qu'il semble y avoir une sorte de réaction chez beaucoup de gens intelligents que je connais qui utilisent le système pendant environ dix minutes, puis ils se disent : "Euh, je ne veux plus l'utiliser."

Parfois, ils ont une raison à cela, par exemple : "Cela m'a donné une mauvaise réponse, donc je ne veux plus jamais y toucher." Parfois, c'est juste "Je n'ai pas vraiment envie de m'occuper de ça maintenant". Et je pense que c'est vraiment dangereux. Je parie donc ma carrière là-dessus dans une certaine mesure parce que, écoutez, je suis titulaire, donc c'est un pari léger, alors ne prenez pas cela trop au sérieux de ma part. J'ai un travail même si je me trompe.

Mais je parie que non. Je parie que c'est le gros problème. C'est le moment qui va vraiment commencer à changer les choses, cela va fondamentalement être un changement dans la façon dont nous travaillons et dont nous interagissons à un niveau aussi important que tout ce que nous avons vu dans notre vie. Internet était un gros problème, mais il a fallu beaucoup de temps depuis sa naissance pour avoir un effet. Je pense que ce sera beaucoup plus tôt.

Michel Chu :Vous pensez que l'impact viendra plus vite pour cet ensemble de technologies.

Ethan Mollick : Oui, parce que c'est déjà le cas, et si vous ne vous en rendez pas compte, c'est que vous ne cherchez pas assez parce que vous ne l'utilisez pas. Il y a très peu de gens que je connais qui utilisent la technologie — je veux dire, encore une fois, la sélection, d'accord, tout le reste. Il y a très peu de gens, en fait personne que je connaisse, qui a utilisé la technologie pendant cinq ou dix heures et qui a ensuite dit : "Eh, ce n'est pas si intéressant. Je ne vais pas l'utiliser à nouveau." Je n'ai tout simplement pas vu cela se produire.

J'ai seulement vu des gens passer de sceptiques à croyants. Et puis certains des croyants deviennent, genre, des membres d'une secte, ce qui m'inquiète aussi, parce que je n'en suis pas un. Mais parlez à des scientifiques qui sont profondément impliqués dans le GPT-4 et ils vous diront : "Nous avons commencé". Et vous vous dites, "Ooh, ce n'est pas le genre de choses que je veux entendre de la part des chercheurs."

Je ne suis pas là, mais je pense que le scepticisme est suffisamment justifié pour que vous jouiez avec lui pendant cinq ou dix heures, puis décidez ce que vous pensez.

Michel Chu : Qu'est-ce que cela signifie, alors? Quels sont ces changements qu'il produira à un rythme plus rapide que nous ne le pensons ?

Ethan Mollick : C'est une technologie polyvalente. Il n'y a pas une industrie qui restera inchangée à cause de cela, sauf peut-être celle de la toiture, qui est apparemment l'industrie la moins exposée. Mais j'ai parlé à quelques personnes dans le domaine des toitures, et elles m'ont dit : "Oh, non. Cela va être un gros problème dans le domaine des toitures aussi, car cela change la façon dont nous commandons et dont nous interagissons avec les clients."

Je dirais donc que l'avantage concurrentiel que vous avez actuellement est que vous pourriez comprendre cela pour votre industrie. Vous pourriez comprendre ce que cela change. Cela va changer la nature et le sens du travail pour beaucoup de gens.

Je pense que la partie encore plus profonde à laquelle nous ne nous attaquons pas assez est la façon dont nous avons organisé le travail au cours des 180 dernières années - depuis que l'invention du chemin de fer et du télégraphe nous a forcés à créer des structures organisationnelles à grande échelle - n'a pas beaucoup changé. Nous avons peut-être eu la naissance d'agile, mais c'est aussi un processus hautement structuré pour les logiciels.

Aucune de ces choses n'a beaucoup de sens dans un monde d'IA. Agile est une méthode stupide pour un monde d'IA parce que tout le monde doit se coordonner de manière très particulière qui ne fonctionne pas bien avec le travail avec du code dans lequel vous pouvez faire des sauts soudains.

Nous n'avons pas de réponses à beaucoup de ces ensembles de choses, ce qui est je pense effrayant mais aussi super excitant. Et je pense que ce qui m'inquiète, c'est que les gens qui attendent les réponses vont sauter toute cette génération d'IA et ne pas être prêts pour ce qui va se passer.

Michel Chu : Cela dit, après avoir mentionné les réponses, permettez-moi de vous donner une série de questions rapides, des réponses rapides juste pour conclure. Très bien, nous y voilà. Qu'est-ce qui vous passionne le plus dans le développement de l'IA générative ?

Ethan Mollick : La fermeture absolue de l'écart entre la créativité et les résultats. J'ai beaucoup, beaucoup d'idées, et j'avais l'habitude de construire des organisations entières pour les mettre en œuvre. Et maintenant, je me dis simplement : "Hé, l'IA peut-elle créer un jeu qui m'apprend ce sujet, l'entropie, pour les collégiens ?" Oui, c'est possible, en deux secondes. C'est génial. Je veux dire, quel outil pour augmenter les performances.

Michel Chu :Qu'est-ce qui vous préoccupe le plus dans le développement de l'IA générative ?

Ethan Mollick : On ne sait pas où ça va finir. Nous ne connaissons pas les implications sociales. Et il y a des choses très immédiates à propos des fausses nouvelles, de la fausse information, de la pollution de l'environnement de l'information, pas seulement dans les médias sociaux mais à l'intérieur des entreprises, auxquelles je pense que nous ne nous attaquons pas assez. Peu importe à quel point j'essaie de paniquer avec d'autres personnes, je pense que les gens ne réalisent pas ce qui va se passer avec le contenu massif qui nous arrive.

Michel Chu :Quel est le cas d'utilisation le plus sous-estimé de l'IA générative ?

Ethan Mollick : En tant que partenaire créatif. Les gens n'aiment pas entendre dire que l'IA est créative, mais c'est vraiment... elle maximise toutes nos tâches de créativité. Mais c'est vraiment bon pour les trucs créatifs. C'est vraiment bien d'être un partenaire pour créer un jeu vidéo pour vous ou lancer une campagne Donjons & Dragons pour vous ou générer 500 idées pour votre start-up ou prendre vos idées et les rendre plus intéressantes ou lui donner des idées contraintes. Trouvez dix idées pour mieux me brosser les dents, mais elles ne s'appliquent qu'aux astronautes dans l'espace. Cela vous donne ce volume d'idées et de créativité qui est une clé très importante pour l'innovation.

Michel Chu :Quel est le cas d'utilisation le plus surmédiatisé ?

Ethan Mollick : Le cas d'utilisation le plus surmédiatisé en ce moment est cette idée d'auto GPT, l'idée que nous pouvons donner à l'IA ses propres objectifs et qu'elle exécute ces objectifs de manière autonome. Et la réponse à la vraie chose à ce sujet est que cela ne fonctionne pas très bien. L'IA est prise dans une boucle, comme si vous envoyiez un stagiaire exécuter de manière autonome. Ça va se confondre.

Et puis en plus de ça, quelle est la valeur là-dedans ? Il est bien mieux pour vous d'être réellement dans la boucle, de lui donner une commande, de voir jusqu'où il va, puis de le corriger, plutôt que de le faire fonctionner de manière autonome. Je pense donc que les gens sautent trop vite sur le prochain truc de l'IA. Vous n'avez pas compris tout ce que le GPT-4 peut faire. Nous avons cinq ans d'exploration technologique avant d'être prêts à passer à la chose suivante.

Michel Chu :Quelle industrie sous-estime le plus l'impact de l'IA générative ?

Ethan Mollick : Je pense qu'il est difficile de savoir directement. Je pense que c'est du conseil, pour être honnête parce que je pense que les consultants se considèrent comme très uniques et font - je leur parle - des choses que l'IA ne peut pas faire. Mais c'est exactement dans le collimateur, rassemblant plusieurs données pour analyse à partir d'Internet, écrivant de grandes analyses et faisant la génération autonome de diapositives, faisant un travail de données complexe. Il fait tout cela. Et je pense que nous devons y réfléchir davantage.

Michel Chu :Quelle profession, autre que consultant, sous-estime le plus l'impact de l'IA générative ?

Ethan Mollick : Je pense qu'il y a un impact très évident de cela dans l'écriture marketing. Et je pense que même si les spécialistes du marketing y pensent vaguement, je pense que beaucoup d'entre eux essaient encore de le mettre dans une boîte et supposent qu'il ne peut pas faire les choses qu'il peut faire. Cela ne veut pas dire que les spécialistes du marketing humain n'ont pas un grand rôle à jouer, mais je pense qu'ils doivent vraiment repenser beaucoup à ce que cela signifie de faire de la rédaction et de l'analyse marketing lorsqu'un outil effectue une grande partie du travail bas de gamme que vous faisiez auparavant.

Michel Chu :Quelle est votre question incontournable lorsque vous souhaitez tester les performances d'un système d'IA générative ?

Ethan Mollick : J'en ai quelques-uns, et différents niveaux d'étrangeté. Je lui demande d'écrire une sextine sur les éléments, qui est une forme poétique très complexe. Très bon test d'IA.

Un très bon test pour savoir si vous utilisez un système d'IA avancé consiste à lui demander de vous donner dix phrases qui se terminent par le mot pomme. Seuls les systèmes les plus avancés peuvent le faire car les IA ne voient pas les mots comme nous. Tout ce qui est antérieur à GPT-4 gâchera complètement cela. C'est donc mon test de référence pour déterminer si j'utilise un système basé sur GPT-4, le système le plus avancé ou un système plus ancien.

Je trouve aussi que "montre-moi quelque chose qui me ravit" est une bonne réponse aussi. Et vous pouvez voir ce qu'il en résulte de manière créative.

Michel Chu :Que feriez-vous professionnellement si vous ne faisiez pas ce que vous êtes aujourd'hui ?

Ethan Mollick : En tant que professeur étudiant l'IA, je suis très content d'où je suis, mais je pense que l'entrepreneuriat est l'option évidente. C'est le moment d'or pour vous. Vous avez maintenant une équipe de dix personnes sous vos ordres. Qu'est-ce que tu vas faire avec ça ? Vous venez d'avoir dix employés libres. Cela ressemble à un moment.

Michel Chu :Que recommanderiez-vous à quelqu'un qui termine ses études secondaires aujourd'hui pour étudier ?

Ethan Mollick : Je pense beaucoup à ça. La réponse simple et cynique est de se tourner vers une industrie réglementée, car celle-ci prendra le plus de temps à adopter l'IA. Pharma, banques, hôpitaux, c'est la bonne voie à suivre.

Mais l'autre option est d'aller dans la tempête. Quel est le domaine qui, selon vous, sera le plus touché par cela ? Comment faites-vous partie de la nouvelle génération qui l'utilise ?

Je pense que c'est la question à un million de dollars à laquelle je pense tout le temps, à quoi ressemble l'industrie ? Je pense que deux ans, nous surestimons le changement. Mais cinq, dix ans ? Je pense que nous le sous-estimons.

Michel Chu :Et quel conseil donneriez-vous aux auditeurs de ce podcast ?

Ethan Mollick : Utilisez cette chose. Je pense que la seule issue est de passer, et j'ai une théorie selon laquelle la seule façon de savoir que vous avez vraiment commencé à comprendre ce que signifie cette chose est de passer trois nuits blanches.

Le but est de vous amener aux trois nuits blanches, les nuits où vous vous dites : « Oh, mon Dieu. C'est tellement excitant. C'est tellement terrifiant. Qu'est-ce que ça veut dire d'être humain ? Qu'est-ce que ça veut dire ? Je ne comprends pas.

Si vous n'y arrivez pas et que vous ne vous levez pas anxieusement au milieu de la nuit et que vous essayez une question puis que vous retournez vous coucher, vous vous dites : « Oh, mon Dieu. Je n'arrive pas à croire qu'il ait fait ça » ou « Pourquoi n'a-t-il pas fait ça ? » – je pense que vous n'avez pas eu votre moment. Je ne sais pas si vous avez déjà passé vos trois nuits blanches, mais c'est ce que je vous exhorte à faire. Jusqu'à ce que vous y arriviez, vous n'avez pas vraiment compris cela.

Michel Chu :Ethan Mollick, au nom de nos auditeurs, merci de nous avoir donné des nuits blanches.

Ethan Mollick :Merci.

Ethan Mollickest professeur agrégé à la Wharton School de l'Université de Pennsylvanie.Michel Chuiest partenaire du McKinsey Global Institute, oùJanet Bushest rédacteur en chef.

Forward Thinking est une production du McKinsey Global Institute. Il est animé par Michael Chui et Janet Bush et produit par Vasudha Gupta. Notre ingénieur du son est Collin Warren. Retrouvez-nous en ligne sur mckinsey.com/mgi ou @McKinsey_MGI sur Twitter.

Les opinions exprimées par les invités du podcast sont les leurs et ne reflètent pas les points de vue ou les opinions du McKinsey Global Institute. Les références à des produits, services ou organisations spécifiques ne constituent en aucun cas une approbation ou une recommandation de la part de MGI.

Dans cet épisode Michael Chui (co-animateur) : Janet Bush (co-animateur) : Michael Chui : Janet Bush : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Et han Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael C hui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick: Michael Chui: Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Michael Chui : Ethan Mollick : Ethan Mollick Michael Chui Janet Bush