banner
Casa / Notizia / FRIDA, un robot AI, può dipingere. Ma è fare arte?
Notizia

FRIDA, un robot AI, può dipingere. Ma è fare arte?

Aug 14, 2023Aug 14, 2023

Annuncio

Sostenuto da

mente

I ricercatori della Carnegie Mellon University hanno sviluppato un braccio alimentato dall’intelligenza artificiale in grado di dipingere un acrilico astratto. È arte?

Di Oliver Whang

Per ulteriore giornalismo audio e narrazione, scarica New York Times Audio, una nuova app iOS disponibile per gli abbonati alle notizie.

Un giorno di recente, su un tavolo nel laboratorio di Jean Oh nel quartiere di Squirrel Hill a Pittsburgh, un braccio robotico era impegnato su una tela. Lentamente, come se l'aria fosse viscosa, immerse un pennello in una pozza di vernice grigio chiaro su una tavolozza, girò su se stesso e accarezzò la tela, lasciando un segno lungo un pollice in mezzo a un grappolo di altre pennellate. Poi si tirò indietro e si fermò, come per valutare il suo lavoro.

I tratti, per lo più diverse sfumature di grigio, suggerivano qualcosa di astratto: forse un formicaio. Il dottor Oh, capo del roBot Intelligence Group della Carnegie Mellon University, vestito con una felpa con la scritta "Ci sono artisti tra noi", guardava con approvazione. Il suo studente di dottorato, Peter Schaldenbrand, era accanto.

Il lavoro del Dr. Oh, che comprende la visione robotica e argomenti relativi all'aviazione autonoma, tocca spesso quello che è noto come il divario tra simulazione e realtà: come le macchine addestrate in un ambiente simulato possono agire nel mondo reale. Negli ultimi anni, Schaldenbrand ha guidato uno sforzo per colmare il divario tra simulazione e realtà tra sofisticati programmi di generazione di immagini come Stable Diffusion e opere d'arte fisiche come disegni e dipinti. Ciò si è manifestato principalmente nel progetto noto come FRIDA, la cui ultima iterazione ronzava ritmicamente in un angolo del laboratorio. (FRIDA è l'acronimo di Framework and Robotics Initiative for Developing Arts, anche se i ricercatori hanno scelto l'acronimo, ispirato da Frida Kahlo, prima di decidere cosa rappresentasse.)

Il processo di passaggio dalle istruzioni linguistiche alle immagini pixelate alle pennellate può essere complicato, poiché il robot deve tenere conto del “rumore del mondo reale”, ha affermato il dottor Oh. Ma lei, Schaldenbrand e Jim McCann, un robotista della Carnegie Mellon che ha anche contribuito a sviluppare FRIDA, credono che valga la pena portare avanti la ricerca per due ragioni: potrebbe migliorare l’interfaccia tra uomo e macchina e potrebbe, attraverso l’arte, aiutare connettere le persone tra loro.

"Questi modelli vengono addestrati sulla base dei dati di tutti", ha affermato il dottor McCann, riferendosi ai grandi modelli linguistici che alimentano strumenti come ChatGPT e DALL-E. "E quindi penso ancora che stiamo cercando di capire come progetti come questo, che utilizzano tali modelli, possano restituire valore alle persone."

Il divario tra simulazione e realtà rappresenta un problema sorprendentemente complicato per gli esperti di robotica e gli ingegneri informatici. Alcuni sistemi di intelligenza artificiale possono elencare i passaggi necessari per camminare (contrarre i quadricipiti e flettere le tibie posteriori, inclinare il peso all'indietro e contrarre il massimo gluteo) e possono far camminare un corpo simulato in un mondo virtuale. Quindi è forte la tentazione di pensare che questi sistemi possano facilmente far camminare un corpo fisico nel mondo reale.

Non così. Negli anni ’80, l’informatico Hans Moravec notò che l’intelligenza artificiale era brava a impegnarsi in ragionamenti complicati e ad analizzare grandi quantità di dati, ma era pessima nelle attività fisiche semplici, come prendere una bottiglia d’acqua. Questo è noto come il paradosso di Moravec. (La superiorità fisica degli esseri umani potrebbe essere spiegata dalla lunga storia evolutiva del nostro corpo; i compiti che sono semplici per noi sono supportati da milioni di anni di sperimentazione darwiniana.)

La pittura, che spesso mescola idee di alto livello e azioni fisiche basilari, mette in risalto il paradosso: come riusciamo a catturare l'assurdità della coscienza umana con i movimenti di un braccio?

Gli strumenti di generazione di immagini AI come Midjourney, DALL-E e Stable Diffusion vengono addestrati alimentando le reti neurali con enormi database di immagini e corrispondenti descrizioni di testo. L'obiettivo del programma è modellare le relazioni tra i significati delle parole e le caratteristiche delle immagini, e quindi utilizzare queste relazioni in un “modello di diffusione” per creare immagini originali che mantengano il significato di descrizioni particolari. (Il messaggio “Una famiglia che fa un picnic nel parco” genererà una nuova immagine ogni volta che viene utilizzato; ognuna sarà comprensibile come una famiglia che fa un picnic nel parco.)