Le symposium UT Austin examine l'avenir de l'architecture et de l'IA
MaisonMaison > Nouvelles > Le symposium UT Austin examine l'avenir de l'architecture et de l'IA

Le symposium UT Austin examine l'avenir de l'architecture et de l'IA

Dec 19, 2023

Architecture After AIUniversité du Texas à AustinSymposium 3 févrierExposition 30 janvier—24 février

Dans certains cercles, 2022 restera dans les mémoires comme l'année du modèle texte-image. En avril dernier, OpenAI a lancé DALL-E 2, une mise à jour de DALL-E publiée l'année précédente, qui produit des images très détaillées et souvent surréalistes à partir de descriptions textuelles en quelques secondes. (Le nom est un portemanteau du personnage de Pixar WALL-E et de l'artiste Salvador Dalí). Rapidement sur les talons de DALL-E 2 sont venus Stable Diffusion, Midjourney, Imagen et d'autres modèles "d'apprentissage en profondeur" qui font essentiellement la même chose. Les architectures informatiques qui permettent ces plates-formes ne sont pas nouvelles mais n'étaient auparavant utilisées que par de petits groupes de spécialistes. Désormais, ils sont accessibles à toute personne disposant d'un vocabulaire permettant de produire le type d'images de synthèse qui, jusqu'à présent, était le domaine des spécialistes de la visualisation formés.

Avec la sortie de ces modèles d'apprentissage automatique, les mondes de l'art et de l'architecture sont devenus fous avec un mélange de torsion (les robots viennent pour nos travaux !) Et de jubilation (la puissance à portée de main est presque écrasante !). Au cours des derniers mois, plusieurs conférences et expositions ont tenté de percer le brouillard numineux de ce premier élan d'excitation et de commencer à poser des repères théoriques pour aider à comprendre ces nouvelles technologies et les effets qu'elles peuvent avoir sur la pratique de l'architecture. Il s'agit notamment de l'exposition et du symposium sur l'architecture neurale au Taubman College du Michigan en novembre et de plusieurs panels lors de la conférence ACADIA 2022. Plus récemment, l'Université du Texas à l'École d'architecture d'Austin (UTSoA) a organisé une exposition et un symposium intitulé Architecture After AI.

Organisée par les professeurs de l'UTSoA, Kory Bieg, Daniel Koehler et Clay Odom, l'exposition rassemble environ 2 000 images générées par l'IA et soumises par une soixantaine d'universitaires et de praticiens de l'architecture du monde entier, y compris les conservateurs eux-mêmes. Les images sont présentées dans une série de diaporamas à défilement automatique projetés sur les murs de la galerie Mebane de l'UTSOA. Chaque image apparaît pendant quelques secondes avant d'être remplacée par la suivante dans la file d'attente, un flux vertigineux qui souligne l'énorme quantité de photos que les personnes utilisant ces modèles produisent. En ce qui concerne le contenu, la plupart des images penchent vers des architectures utopiques / dystopiques - il est difficile de faire la différence - festonnées ou intercalées avec des plantes et d'autres caractéristiques naturelles. D'autres sont plus ironiques, dépeignant des vernaculaires gonzo, des juxtapositions bizarres, des allusions littéraires sournoises et d'autres blagues internes. Certains semblent frôler une critique de l'IA texte-image, attirant l'attention sur des détails non résolus, l'impossibilité de réellement construire ces visions architecturales, ou à quel point l'image générée est loin de l'invite. Autant que je sache, le seul trait unificateur était que les co-auteurs de ces images semblaient s'amuser beaucoup à les faire. Il y a clairement un aspect de jeu impliqué et, reconnaissant cela, il est difficile de ne pas être charmé - et encore plus difficile de prendre tout cela au sérieux en tant que prédiction de l'avenir de l'environnement bâti.

Lors du symposium connexe, cependant, les organisateurs ont fait valoir que quelque chose de plus sérieux que le jeu se passait ici. Koehler a proposé que l'avènement de l'IA text-to-image - et des chatbots comme ChatGPT - constitue un moment décisif dans l'histoire de l'architecture qui change fondamentalement l'humanité, "de la même manière que les livres imprimés nous ont changés". Bieg a déclaré que l'architecture a atteint une "singularité" à un moment où elle est également en crise et a cité une ligne du style de Gottfried Semper dans les arts techniques et tectoniques sur les arts connaissant des renaissances de type phénix à travers le processus de leur propre destruction - suggérant que les plateformes d'IA peuvent être à la fois destructrices du statu quo et ancêtre d'un nouvel avenir architectural. Les présentateurs, qui travaillent tous d'une manière ou d'une autre avec l'IA, ont offert une variété de perspectives sur ce qui pourrait se trouver de l'autre côté de ce tournant historique, si tel est le cas.

Andrew Kudless, fondateur de Matsys et professeur à l'Université de Houston, a souligné que la génération actuelle de plateformes d'IA est la première technologie numérique à émerger au cours des 30 dernières années qui se concentre sur l'expansion de l'imagination et de la créativité au lieu d'augmenter l'efficacité de la production. Il a poursuivi en montrant que cette expansion de l'imagination n'est pas illimitée. Étant donné que ces plates-formes sont formées sur des ensembles de données - souvent des images sous-titrées extraites du Web - ce qu'elles produisent oriente vers des associations et une esthétique spécifiques contenues dans les données et la culture qui les produit. Par exemple, demander des résolutions d'image en dehors de ce sur quoi un modèle est formé peut le faire dévier de sa trajectoire, tandis que si vous lui donnez une invite dénuée de sens, il aura tendance à dériver vers ce qu'il sait : dans le cas de Midjourney, des images de jeunes femmes blanches et steampunk, généralement, et de manière inquiétante, avec des coupures et des ecchymoses sur le visage. Lorsque vous demandez la même invite mais que vous demandez à ne pas voir de femmes, cela vous donne des vaisseaux spatiaux et d'autres véhicules de science-fiction. Alors que des bizarreries troublantes comme celles-ci pourraient être corrigées au fil du temps avec plus de données de formation et d'autres ajustements, Kudless a mis en garde contre une volonté de résolution totale et de fidélité à la réalité. "Je pense que la valeur des IA génératives réside dans leur capacité à produire des assemblages ambigus et incohérents de formes et d'atmosphères", a-t-il déclaré, comparant le processus d'utilisation de ces plates-formes dans la conception au processus itératif d'exploration par l'esquisse.

Jenny Sabin, directrice du Jenny Sabin Studio et professeur à Cornell, a soutenu que l'IA est fondamentalement humaine. En tant que tel, il est tout à fait capable de reproduire et de renforcer nos caractéristiques dominantes les plus troublantes, comme la misogynie et le racisme. Elle a déclaré que si l'IA texte-image ouvre de nouvelles possibilités pour la recherche de formes complexes, il existe d'autres domaines de l'IA qui pourraient bénéficier à l'architecture, par exemple, en modifiant radicalement les flux de travail dans la conception et la pédagogie ; analyser les erreurs de construction et improviser des correctifs ; intégrer la durabilité dans les villes ; et, en créant son propre travail, en construisant une architecture empathique et curative qui peut lire et répondre aux utilisateurs. Sabin a présenté l'un de ses projets qui explore comment l'architecture, en collaboration avec l'IA, peut être empathique et sensible aux humains. Nommé Ada, d'après le polymathe et premier programmeur informatique Ada Lovelace, il a été conçu en collaboration avec Microsoft Research. Comprenant un cadre cellulaire blobby et des tubes tricotés équipés de capteurs, de fibres optiques et de LED, Ada utilise des algorithmes d'intelligence artificielle pour traiter les "données de sentiment" - sourires, froncements de sourcils, etc. - en couleur et en lumière qui ondulent dans son volume translucide comme un céphalopode ou une méduse. C'est amusant de penser à une architecture qui vous sourit en retour, mais aussi un peu troublant de contempler la même architecture diffusant votre humeur merdique à tous ceux qui se trouvent à proximité.

Le designer, professeur, écrivain, musicien et artiste multimédia Ed Keller, qui enseigne à l'Institut polytechnique de Rensselaer et à Parsons, a prononcé un discours rhapsodique qui portait davantage sur l'expérience - ou la structure du sentiment - de la modernité dans ses derniers vêtements technologiques que sur l'IA en tant qu'outil pour l'architecture en particulier. Il a parlé de l'étrangeté de vivre à une époque où tant de choses issues de la science-fiction deviennent réalité, un épanouissement qu'il a comparé à l'explosion cambrienne, une courbe en J représentée dans son propre travail par le fait qu'au cours des derniers mois de travail avec l'IA générative, il a "créé" plus d'images qu'au cours des 30 années précédentes en tant que designer. Quelle est la valeur de cette éruption de contenu ? Keller a déclaré que toutes les images produites sont précieuses en tant que points de données à réinjecter dans la machine, ce qui signifie que l'ordinateur lui-même peut être le principal public. Il a également pensé que lorsqu'une poignée de concepteurs travaillant avec des outils d'IA peuvent, en quelques mois, dépasser toute l'histoire de la production humaine accumulée jusqu'à ce point, cette sortie devient "comme des larmes sous la pluie". L'éléphant dans la pièce, a déclaré Keller, est la singularité, un moment où les ontologies non humaines deviennent les forces dominantes de notre monde. Notre défi, alors que nous confrontons des outils d'IA qui, bien qu'actuellement moins que conscients, peuvent évoluer vers une certaine forme de conscience, s'apparente à apprendre à parler aux extraterrestres.

Kyle Steinfeld, professeur agrégé d'architecture à l'UC Berkeley, nous a ramenés sur terre avec une histoire socio-technique de l'IA text-to-image. Le premier nuage qu'il a dissipé était l'idée que le sujet de la conférence était l'intelligence artificielle. La véritable IA n'a pas encore été inventée, a-t-il déclaré. La génération actuelle de chatbots et de plates-formes de texte en image peut être décrite plus précisément comme des statistiques génératives ou une algèbre linéaire. (Si cela rend les choses plus claires pour quelqu'un, s'il vous plaît écrivez-moi). Cela dit, Steinfeld voit un certain encouragement dans ces développements car ils peuvent conduire la technologie à tenir les promesses de la CAO, faites depuis 1963, d'être en fait un bon partenaire créatif collaboratif en matière de conception. La génération actuelle d'outils de CAO oblige les gens à adopter leurs propres méthodes de production, tandis que le texte en image offre la possibilité que les outils de conception d'apprentissage automatique commencent à penser davantage comme des concepteurs humains. La recherche sur l'IA a également commencé dans les années 1960, mais n'a vraiment décollé que dans les années 2000, lorsque la puissance de calcul s'est approchée de la puissance nécessaire et que le monde a commencé à produire et à stocker des océans de données. Des modèles d'apprentissage automatique en profondeur du type de ceux qui permettent aux plates-formes de conversion de texte en image ont été développés à cette époque pour traiter le problème du traitement et du stockage de toutes ces données. Ces architectures d'apprentissage automatique ont ensuite été mises dans des générateurs d'images par une communauté d'artistes amateurs qui ont expérimenté les outils et se sont vantés de leurs succès sur Reddit. Quant à savoir si ces plates-formes d'IA vont détruire les cultures créatives existantes, Steinfeld a suggéré que les spécialistes de la visualisation par ordinateur pourraient devoir s'inquiéter car leur métier est devenu accessible à tous. Quelle que soit la perturbation que ces technologies créent sur le marché du travail, cependant, l'IA text-to-image rend sans aucun doute la création d'images architecturales facile, rapide et donc beaucoup moins précieuse que par le passé.

Marta Nowak, fondatrice du studio de design transdisciplinaire AN.ONYMOUS et professeure adjointe à l'Ohio State University, a suivi Steinfeld avec une présentation du travail qu'elle a réalisé avec l'IA dans l'espace architectural. Elle a commencé par une brève histoire des machines construites pour imiter les comportements animaux et humains, une chronologie qui a abouti à la première application de l'IA dans le supercalculateur Deep Blue d'IBM, qui en 1997 a triomphé de Gary Kasparov dans une partie d'échecs (il a perdu contre le grand maître l'année précédente). Elle a ensuite montré le travail qu'elle a produit dans un studio co-enseigné avec Greg Lynn à l'UCLA qui a étudié comment les robots d'aujourd'hui, comme le Roomba, se déplacent dans l'espace, ainsi que la façon dont ils visualisent les objets et les personnes qui les entourent. Cette recherche l'a amenée à des projets sur lesquels elle a travaillé avec Google R&D pour concevoir des espaces de bureau flexibles et hybrides qui utilisent l'IA pour faciliter la connexion en ligne de mire lors de réunions à distance/en personne ; créez des espaces de travail qui s'adaptent aux préférences individuelles des travailleurs en glissant un badge, en ajustant la hauteur du bureau, en affichant des photos de famille et même en ajustant les paramètres CVC ; et programmer des cloisons de séparation robotisées qui se déplacent de manière autonome dans les espaces de bureaux ouverts, se déployant pour assurer l'intimité là où c'est nécessaire. Plutôt que d'utiliser l'IA pour concevoir des bâtiments, Nowak a déclaré que son intérêt était de donner "une intelligence artificielle aux objets, aux composants architecturaux et aux bâtiments et de leur permettre d'interagir et de répondre en permanence à leurs utilisateurs humains, non pas pour créer des espaces conçus intelligemment, mais pour créer un espace intelligent".

La présentation finale a été réalisée par l'artiste Sofia Crespo et son collaborateur au studio Entangled Others, Feileacan McCormack. Ils utilisent l'IA comme outil pour extraire des motifs et les réorganiser pour des effets esthétiques. Leur travail se concentre sur les facettes du monde naturel, en particulier les organismes marins et les insectes, et consiste à alimenter des données sur ces créatures, qui sont soit extraites du Web, soit enregistrées directement à partir de recherches sur le terrain, dans des réseaux génératifs antagonistes qui produisent ensuite des modèles numériques. Les résultats vont de zoos virtuels pour enfants de spécimens individuels à des écosystèmes étoffés avec de multiples "formes de vie" interagissant les unes avec les autres. Les créatures ne sont pas des répliques exactes d'espèces existantes, mais plutôt des golems bizarres dont les formes, les textures et les mouvements sont façonnés autant par le manque de compréhension de la machine de ce qu'elle essaie de modéliser que par les données qu'elle reçoit. "Le manque de données devient une partie de la déclaration artistique", a déclaré Crespo. "L'IA ne peut pas imaginer à quoi ressemblent ces créatures à moins d'obtenir un échantillon… Le projet est façonné par le manque de quelque chose." Bien que fascinante à regarder, l'œuvre passe toujours au second plan par rapport à ce que quiconque veut regarder de près peut trouver à l'extérieur. "Vous ne pouvez presque jamais générer un insecte qui ne soit pas complètement renversé par la diversité et la créativité de la sélection naturelle", a déclaré McCormack. "Ce que nous pouvons faire, c'est utiliser cela comme un moyen de cartographier les données dont nous disposons sur le monde des insectes, dans ce cas très peu, mais toujours dans ce minuscule fragment, nous pouvons trouver tant de formes fantastiques et curieuses à explorer."

Si c'est l'aube d'une nouvelle ère d'expérience humaine basée sur l'IA, c'est un moment plutôt curieux. Nous sommes, semble-t-il, à la fois stupéfaits par l'immensité de la puissance de calcul désormais entre les mains des gens ordinaires, tout en étant un peu déconcertés par les résultats. J'identifie déjà un sentiment de fatigue avec la prévisibilité et l'homogénéité des images jaillissant des générateurs de texte en image, comme autant de saucisses du fabricant de saucisses ; et les incursions actuelles dans les architectures autonomes, mobiles et même réactives ne semblent guère plus que des extensions IRL excessives et ennuyeuses de la technologie de surveillance robuste d'Internet. Nous avons déjà des ordinateurs portables et des smartphones qui suivent chacun de nos mouvements, de notre humeur et de nos désirs, avons-nous vraiment besoin de chaises pour se précipiter sous nos fesses avant de nous asseoir ou d'auvents qui pleurent quand nous nous sentons bleus ? L'IA semble avoir le potentiel de nous aider à faire face à bon nombre des crises épineuses de notre époque - atténuer le changement climatique, réparer les infrastructures en décomposition, planifier des villes durables - mais nous permettre de pomper fébrilement des images psychédéliques avec les invites les plus élémentaires ne semble pas être l'une d'entre elles. Peut-être que la modélisation texte-image n'est rien de plus qu'une tentative d'un autre technicien pour s'accaparer un marché, et donc peut-être que nous pouvons nous en passer. Bien sûr, les penseurs depuis le XIXe siècle nous disent que la trajectoire du modernisme nous mènera inexorablement dans la gueule de la singularité, que cela nous profite ou non. Nous pouvons aussi profiter de la balade.