Le problème avec l'apocalypticisme de l'IA
MaisonMaison > Blog > Le problème avec l'apocalypticisme de l'IA

Le problème avec l'apocalypticisme de l'IA

Jul 13, 2023

La peur des élites face à l'intelligence artificielle trahit une vision dégradée de l'humanité.

L'intelligence artificielle (IA) était autrefois un sujet discret discuté avec ferveur par un petit groupe d'informaticiens. Mais pas plus. Maintenant, c'est le sujet d'un débat public quasi quotidien et de tout un tas de catastrophisme.

Pas plus tard que cette semaine, le Center for AI Safety, une ONG basée à San Francisco, a publié une déclaration sur sa page Web affirmant que : "L'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale, aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire". Cette déclaration apocalyptique a été soutenue par certains des plus grands noms travaillant dans l'IA, dont Sam Altman, le directeur général d'OpenAI (la société derrière ChatGPT), et Demis Hassabis, directeur général de Google DeepMind.

Il ne fait aucun doute que l'IA est une percée technologique majeure qui pourrait vraiment avoir un impact significatif sur nos vies. Mais le récit prédominant qui émerge autour de l'IA va bien plus loin que cela. Il surestime massivement son potentiel actuel et tire invariablement des conclusions absurdement dystopiques. En conséquence, les assistants IA non conscients, de ChatGPT à Google Bard, sont désormais considérés comme potentiellement capables de sensibilité et de développer une intelligence bien supérieure à la nôtre. Ils sont censés être à un pas du développement d'une agence indépendante et de l'exercice de leur propre jugement et volonté.

Certains passionnés d'IA se sont permis de se livrer à des envolées utopiques. Ils affirment que l'IA pourrait être sur le point de guérir le cancer ou de résoudre le changement climatique. Mais beaucoup d'autres, comme l'atteste la déclaration du Center for AI Safety, ont commencé à spéculer sur son potentiel catastrophique. Ils prétendent que l'IA se retournera contre nous, ses créateurs, et deviendra une menace réelle et mortelle pour l'avenir de la civilisation humaine.

En croyant que l'IA développera son propre sens de l'agence, ces experts en IA, aux côtés de divers experts et politiciens, se livrent à une forme extrême de déterminisme technologique. Autrement dit, ils supposent que seul le développement technologique détermine le développement de la société.

Les déterministes technologiques ont pris les choses à l'envers. Leur récit ignore la manière dont la société peut arbitrer et déterminer le développement technologique. Ces technologies qui ont prospéré et changé la société ne l'ont fait que parce que les êtres humains les ont adoptées puis adaptées à leurs besoins. À leur tour, ces technologies, aussi rudimentaires soient-elles, ont permis aux humains non seulement de répondre à nos besoins, mais aussi de cultiver de nouveaux besoins. Comme l'écrivait Karl Marx à propos du besoin de manger : « La faim, c'est la faim ; mais la faim qui est satisfaite par de la viande cuite mangée avec un couteau et une fourchette diffère de la faim qui dévore de la viande crue à l'aide des mains, des ongles et des dents.

Le récit technologiquement déterministe qui s'est développé autour de l'IA ne se contente pas d'ignorer la manière dont la société humaine médiatise le développement technologique. Cela suppose également que les humains sont totalement impuissants face à la puissance des technologies émergentes. Les alarmistes de l'IA semblent penser que la subjectivité humaine n'existe plus.

Le récit apocalyptique de l'IA a émergé à une vitesse incroyable. Fin mars, 50 scientifiques de l'IA générative, dont des personnalités clés comme le PDG de Twitter Elon Musk, le co-fondateur d'Apple Steve Wozniak et des chercheurs de la société d'IA DeepMind, ont publié une lettre publique par l'intermédiaire du Future of Life Institute. Ils ont appelé à un arrêt temporaire de la formation des systèmes d'IA, avertissant que nous risquons de développer et de déployer "des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable". En ce qui les concerne, nous risquons de créer une IA super intelligente qui pourrait potentiellement constituer une menace existentielle pour l'humanité.

Leur appel à faire quelque chose a pris de l'ampleur début mai lorsque Altman, aux côtés des PDG de Microsoft, Alphabet (la société holding de Google) et Anthropic, s'est réuni à la Maison Blanche pour discuter des menaces posées par l'IA avec de hauts responsables américains. Puis Altman a comparu devant le Sénat américain le 16 mai, exigeant que l'IA soit réglementée. Et ainsi le récit apocalyptique a été mis en place.

Comme toujours, c'est l'Union européenne qui a mené la ruée vers la réglementation. Son projet de loi sur l'intelligence artificielle, initialement proposé en avril 2021, a déjà passé sa première audition parlementaire. Cette loi fixera probablement la barre pour les autres législatures à respecter, alors que le Royaume-Uni et les États-Unis réfléchissent à la meilleure façon de réglementer l'IA.

Cette masse de législations prospectives sur l'IA, alimentée par un récit de plus en plus apocalyptique et fataliste, renforce le sentiment qu'il y a vraiment quelque chose à craindre - que quelque chose doit être fait pour arrêter l'IA avant qu'il ne soit trop tard.

L'une des interventions les plus significatives dans ce débat de plus en plus fébrile est venue du soi-disant parrain de l'IA, Geoffrey Hinton. Début mai, il a démissionné de Google, affirmant regretter désormais sa contribution au développement de l'IA.

Hinton a remporté l'équivalent d'un prix Nobel d'informatique en 2018 pour ses travaux sur les réseaux de neurones IA. Et pourtant, il était là le mois dernier en train de dire à plusieurs organes de presse que les grandes entreprises technologiques allaient trop vite pour déployer l'IA auprès du public. Il a affirmé que l'IA atteignait des capacités de type humain plus rapidement que les experts ne l'avaient prévu. "C'est effrayant", a-t-il déclaré au New York Times. Ce qui l'a vraiment secoué, c'est "la réalisation que l'intelligence biologique et l'intelligence numérique sont très différentes, et que l'intelligence numérique est probablement bien meilleure". Ailleurs, il a déclaré au Financial Times qu'"il est tout à fait concevable que l'humanité soit une phase passagère dans l'évolution de l'intelligence". Et juste au cas où nous n'aurions pas compris, il a demandé aux lecteurs d'imaginer "quelque chose qui est plus intelligent que nous dans la même mesure que nous sommes plus intelligents qu'une grenouille". Des trucs effrayants, en effet.

Hinton va trop loin ici. C'est un énorme pas en avant entre le développement d'algorithmes qui tentent d'émuler le cerveau humain et le développement d'une « intelligence numérique » qui surpasse « l'intelligence biologique ». Il est peut-être un génie quand il s'agit de développer l'intelligence artificielle, mais il colporte des bêtises absolues sur l'intelligence humaine.

Malheureusement, les affirmations de Hinton et d'autres sont répétées comme la vérité incontestée. L'historien, philosophe et auteur à succès Yuval Noah Harari affirme maintenant que l'IA générative, comme ChatGPT, a "piraté le système d'exploitation de notre civilisation". "Lorsque l'IA pirate le langage", prévient-il, "cela pourrait détruire notre capacité à avoir des conversations significatives, détruisant ainsi la démocratie". La militante anti-mondialisation Naomi Klein craint que les entreprises les plus riches de l'histoire ne s'emparent de la somme totale des connaissances humaines et ne les enferment derrière des produits propriétaires. Pendant ce temps, l'économiste du MIT Daron Acemoglu affirme que l'IA « endommagera le discours politique, l'élément vital le plus fondamental de la démocratie ».

Au milieu de tant de pessimisme des experts et des commentateurs, qui ne serait pas préoccupé par l'IA ? Si l'on en croit un segment important de nos élites, nous sommes à l'aube d'un monde de type Terminator, où une IA sensible est sur le point d'opprimer et même d'effacer l'humanité.

Cela vaut la peine de se demander pourquoi des personnes aussi intelligentes ne peuvent qu'imaginer le pire en ce qui concerne cette technologie remarquable. Pourquoi une intelligence surhumaine, si c'est bien ce qui est en train d'être créé, chercherait-elle à nous détruire ? Un système d'IA ne viserait-il pas à surpasser, plutôt qu'à détruire, les réalisations de la civilisation humaine ?

Cette vision fataliste et dystopique de l'IA n'a pas grand-chose à voir avec la technologie elle-même. Cela vient de la vision réduite de nos élites de l'action humaine. De leur point de vue, les machines sont des agents, tandis que les humains sont des objets passifs. Cela reflète un malaise propre au XXIe siècle, dans lequel les humains sont considérés comme soumis à des forces totalement indépendantes de notre volonté.

Les visions dystopiques impliquant des robots anti-humains ne sont pas nouvelles. La pièce de 1920 de l'écrivain tchèque Karel Čapek, RUR: Rossum's Universal Robots, a introduit pour la première fois le mot «robot» dans le monde. Il racontait l'histoire d'humains artificiels (robots) se révoltant contre leurs créateurs humains, conduisant à l'extinction de l'humanité. La remarquable pièce de science-fiction expressionniste de Fritz Lang, Metropolis, sortie en 1927, présente également un avenir dans lequel les robots tyrannisent les humains, manipulent les gens et maintiennent le contrôle sur une société hautement stratifiée. Ensuite, il y a la série de romans "robots" d'Isaac Asimov, à commencer par I, Robot en 1950, qui a exploré les implications de la robotique avancée et le potentiel des robots à prendre le contrôle de la société humaine.

Toutes les visions sombres de ces écrivains d'un avenir inhumain, gouverné par une bureaucratie robotique, s'inspirent profondément de leurs expériences de massacre industriel pendant les Première et Seconde Guerres mondiales et du totalitarisme du fascisme et du stalinisme. Mais ces écrivains et leurs sombres visions étaient des exceptions à une règle plus générale. Aussi sombre qu'ait été leur époque, ils vivaient dans des sociétés où l'on attendait toujours des gens qu'ils assument la responsabilité de l'avenir. Il y avait encore le sentiment que les gens pouvaient exploiter les avancées technologiques pour forger un monde meilleur.

En effet, une vision très différente de l'avenir peut être trouvée dans le roman magistral de Vasily Grossman de 1959, Life and Fate. Il a été écrit depuis les tranchées du front russe pendant la Seconde Guerre mondiale, l'un des chapitres les plus barbares de l'histoire humaine. Mais, dans le livre, la foi de Grossman dans l'humanité et la technologie persiste. Il peut encore rêver d'un avenir où une « machine électronique » pourrait « résoudre des problèmes mathématiques plus rapidement que l'homme et sa mémoire serait sans défaut ». La machine du futur imaginée par Grossman « pourra écouter de la musique et apprécier l'art ; il pourra même composer des mélodies, peindre des tableaux et écrire des poèmes ». Il surpassera les réalisations de l'homme, dit-il.

Le contraste avec aujourd'hui est remarquable. Même au lendemain de la barbarie de la Seconde Guerre mondiale, Grossman voit ce que nous appelons l'IA aujourd'hui comme quelque chose qui élèverait l'humanité, et non la menacerait - qui apporterait le meilleur de l'homme, en composant, en peignant et en écrivant. Sa « machine électronique » incarne ce qu'il appelle les « particularités de l'esprit et de l'âme d'un être humain moyen et discret ». La machine de Grossman incarne et fait progresser l'humanité. Il se rappellera, écrit-il :

'Souvenirs d'enfance… larmes de bonheur… amertume de la séparation… amour de la liberté… pitié pour un chiot malade… nervosité… tendresse d'une mère… pensées de mort… tristesse… amitié… amour des faibles… espoir soudain… une supposition heureuse… mélancolie… joie irraisonnée… embarras soudain…'

L'IA de Grossman ne cherche pas à détruire ou à punir l'humanité. Au lieu de cela, il exprime la condition humaine. Son IA est née d'une vision humaniste. Les machines, pensait-il, pourraient permettre à l'humanité de s'élever et de dépasser ses limites antérieures.

Comparez cela avec la vision misérable des experts d'aujourd'hui. Ils envisagent l'IA comme une force profondément inhumaine qui se retournera presque inévitablement contre nous, nous dégradera et nous punira. Il n'incarnera pas le meilleur d'entre nous. Il incarnera le pire d'entre nous.

De plus, le fait même qu'ils considèrent les outils d'IA comme ChatGPT comme un pas massif vers l'intelligence sensible montre à quel point ils pensent peu à l'intelligence sensible. Il a fallu plus de 175 milliards de paramètres de données, 285 000 cœurs de processeur et 10 000 cartes graphiques pour développer ChatGPT-3. C'est à peu près égal à la puissance de calcul des 20 supercalculateurs les plus puissants du monde réunis. Et le résultat final est une machine qui ne peut que régurgiter le langage sans comprendre un seul mot. Ce que fait ChatGPT est impressionnant en soi. Mais, dans l'état actuel des choses, ce n'est pas une tache sur l'intelligence humaine.

La machine de Grossman nécessiterait tellement plus de puissance de traitement informatique et d'énergie que nous ne pouvons en produire actuellement. Et il faudrait une société beaucoup plus avancée pour s'en rendre compte – une société dans laquelle la crise énergétique ne serait plus qu'un lointain souvenir et l'informatique quantique une réalité quotidienne. Il est peu probable qu'une société aussi avancée soit préoccupée par un bot de discussion complotant contre nous.

Dans leurs efforts pour contraindre et légiférer contre cette technologie émergente, les experts en intelligence artificielle d'aujourd'hui et leurs pom-pom girls dans les médias rendent un très mauvais service à l'humanité. Leur vision sombre de l'IA reflète leur manque de croyance en l'humanité, leur sentiment que nous sommes à la merci de forces indépendantes de notre volonté. Et, par conséquent, ils nous enchaînent à une culture de faibles attentes.

Hannah Arendt peut aider à faire la lumière sur notre impasse actuelle. Dans son chef-d'œuvre, The Human Condition (1958), elle critique les théories modernes du béhaviorisme. Ces théories conçoivent le comportement humain soit comme un réflexe à certains stimuli environnementaux, soit comme une conséquence de l'histoire d'un individu. Arendt a affirmé que le béhaviorisme réduit les expériences et les actions humaines complexes à des relations de cause à effet simplistes. Et, par conséquent, ils effacent la capacité de spontanéité, de créativité et de liberté de l'humanité. Le problème avec les théories behavioristes, écrit-elle, "n'est pas qu'elles sont fausses mais qu'elles pourraient devenir vraies, qu'elles sont en fait la meilleure conceptualisation possible de certaines tendances évidentes de la société moderne". Autrement dit, dans la société bureaucratique du vivant d'Arendt, le comportement individuel était de plus en plus traité comme quelque chose qui pouvait être géré et dirigé. Les humains étaient réduits à des objets. Elle poursuit : « Il est tout à fait concevable que l'ère moderne – qui a commencé par une telle explosion sans précédent et prometteuse de l'activité humaine – puisse se terminer par la passivité la plus meurtrière et la plus stérile que l'histoire ait jamais connue.

Les paroles d'Arendt auraient pu être écrites en gardant à l'esprit le récit apocalyptique de l'IA. À une époque où les humains sont considérés comme les objets de forces inhumaines, du changement climatique aux pandémies, déclenchées par nos propres actions, est-il étonnant que l'IA soit présentée comme une menace ? Le récit apocalyptique de l'IA est, selon Arendt, la «conceptualisation de certaines tendances évidentes de la société moderne».

Et donc quelque chose d'aussi potentiellement utile que l'IA est devenu un moyen pour les politiciens et les experts d'exprimer leur vision fataliste du monde. C'est une tragédie auto-réalisatrice. L'IA pourrait permettre à la société d'aller au-delà de ses limites perçues. Pourtant, nos pessimistes experts semblent déterminés à nous maintenir dans ces limites.

La bonne nouvelle est que rien de tout cela n'est inévitable. Nous pouvons conserver une croyance dans le potentiel humain. Nous pouvons résister au récit qui nous dépeint comme des objets, vivant à la merci des choses que nous avons créées. Et si nous le faisons, il est concevable que nous puissions, un jour, développer des machines capables de représenter « les particularités de l'esprit et de l'âme d'un être humain moyen et discret », comme l'a dit Vasily Grossman. Maintenant, ce serait un avenir pour lequel il valait la peine de se battre.

Docteur Norman Lewisest directeur général de Futures Diagnosis et chercheur invité au MCC Brussels.

Lundi 5 juin – 19h à 20h

Andrew Doyle interviewe Brendan O'Neill à propos de son nouveau livre. Gratuit pour les supporters cloutés.

Photos par : Getty.

Pour vous renseigner sur la republication du contenu de spiked, un droit de réponse ou pour demander une correction, veuillez contacter la rédactrice en chef, Viv Regan.

Dr Norman Lewis Pour en savoir plus sur la republication du contenu de spiked, un droit de réponse ou pour demander une correction, veuillez contacter la rédactrice en chef, Viv Regan.