L’arte dell’intelligenza artificiale è una propaganda morbida per il nord globale

Sono le 8:06 e sto fissando le immagini che scorrono sullo schermo del mio telefono a una frequenza di cinque secondi: “Vichingo, castello, festa, sala”; “Banksi [sic], potenziato”; “Un aereo commerciale che va verso un grande portale temporale di forma rotonda che si presenta come un salto temporale, ad alto numero di ottani, realistico, hdr – sfondo.” È il mio tempo quotidiano di ricerca sulla cosiddetta “AI art”. Le immagini vengono prodotte sul server Discord di Metàjnostro, un “generatore di immagini AI”. L’ultima tendenza nella corsa all’IA in corso, questi tipi di generatori, inclusi Dall-E da OpenAI e Diffusione stabile di StabilityAI, sono sistemi algoritmici basati sul deep learning e sull’apprendimento probabilistico. Combinano modelli computazionali per l’elaborazione del linguaggio naturale (GPT-3 di OpenAI e suoi derivati), visione artificiale e sintesi di immagini in sistemi simili a Frankenstein che producono artefatti visivi bidimensionali che corrispondono alla richiesta dell’utente. Sono notevolmente popolari e, certamente, un’impresa tecnica impressionante. Ma, mi chiedo, al di là del facile appeal estetico, cosa fanno questi modelli a livello culturale?

In qualità di artista e studioso che lavora con la tecnologia open source dal 2004 e con l’apprendimento automatico e l’intelligenza artificiale dal 2012, sono tanto affascinato quanto stanco dei potenziali creativi e delle implicazioni culturali dell’apprendimento automatico. Il deep learning e, per estensione, i generatori di intelligenza artificiale sono particolarmente problematici perché la loro efficienza dipende dalle risorse esclusive di alcuni agenti straordinariamente ricchi del settore. Hanno un’enorme potenza di calcolo, immensi set di dati, capitale da investire nella ricerca accademica e capacità di addestrare modelli in continua crescita (Dall-E ha 12 miliardi di parametri e altri devono essere aggiunti). L’open sourcing di un modello, come ha fatto StabilityAI con il proprio, può aprire in una certa misura la ricerca ma non pregiudica la dipendenza dell’intero progetto (sviluppo, manutenzione, campagna promozionale, investimenti, ricavi) dal flusso costante di denaro del suo fondatore — un ex gestore di hedge fund. Non sorprende che le carenze artistiche ed etiche dei generatori di IA siano legate alla loro dipendenza dal capitale e dal capitalismo.

Contrariamente all’opinione popolare, questi sistemi non creano immagini dal nulla, ma piuttosto amalgamano elementi astratti di opere d’arte esistenti in pastiches. A causa della loro natura matematica, il modo in cui creano artefatti manca di intenti di base ed è guidato, invece, da complicate approssimazioni di probabilità. Il loro funzionamento sembra essere così oscuro che David Holz, fondatore di Midjourney, ha dichiarato: “In realtà non è chiaro cosa stia facendo funzionare bene i modelli di intelligenza artificiale […] Non è chiaro quali parti dei dati stiano effettivamente fornendo [the model] quali capacità”.

Altre cose sono abbastanza chiare, però. Il primo è lo sfruttamento del capitale culturale. Questi modelli sfruttano enormi set di dati di immagini prelevate dal web senza il consenso degli autori e molte di queste immagini sono opere d’arte originali di artisti vivi e morti. LAION5, un database di ricerca accademica finanziato da StabilityAI e utilizzato per addestrare il suo modello Stable Diffusion, è costituito da 5,85 miliardi di coppie immagine-testo. LAION-Aesthetics, un sottoinsieme di questo database, contiene una raccolta di 600 milioni di immagini selezionate algoritmicamente per essere “immagini esteticamente gradevoli”, come se il piacere estetico fosse universale. Un recente indagine di un sottoinsieme di quest’ultima raccolta ha rilevato che gran parte delle immagini vengono raschiate da Pinterest (8,5%) e da siti Web ospitati da WordPress (6,8%), mentre il resto proviene da varie località, comprese piattaforme orientate agli artisti come DeviantArt, Flickr, Tumblr, nonché siti di shopping artistico, tra cui Fine Art America (5,8%), Shopify, Squarespace ed Etsy. Gli artisti contemporanei il cui lavoro viene sfruttato si sono espressi sul problema e le piattaforme di arte digitale hanno iniziato a vietare i contenuti generati dall’IA in seguito alle pressioni delle loro comunità.

La seconda preoccupazione è la propagazione dell’idea che la creatività possa essere isolata dall’incarnazione, dalle relazioni e dai contesti socio-culturali in modo da essere modellata statisticamente. In effetti, lungi dall’essere “creative”, le immagini generate dall’IA sono approssimazioni probabilistiche delle caratteristiche delle opere d’arte esistenti. In senso figurato, i generatori di immagini AI creano una cartografia di un set di dati, in cui le caratteristiche di immagini e testi (sotto forma di astrazioni matematiche) sono distribuite in luoghi particolari secondo calcoli di probabilità. La cartografia è chiamata “collettore” e contiene tutte le combinazioni di immagini possibili con i dati a portata di mano. Quando un utente richiede un generatore, questo naviga nel collettore per trovare la posizione in cui si trovano le caratteristiche di campionamento rilevanti. Per capirlo un po’ meglio, anche se grossolanamente, si consideri il seguente esempio, che illustrerò usando Stable Diffusion: Immagini multiple di un cane di Francis Bacon sono raggruppate in un punto del collettore; più immagini di un fiore di Georgia O’Keefe sono raggruppate in un’altra posizione. Ma esiste un punto nel molteplice in cui i cani di Bacon ei fiori di O’Keefe si incontrano. Quindi, quando viene richiesto di generare “un cane di Francis Bacon in un fiore di Georgia O’Keefe”, il modello usa il testo come indicazioni per trovare quel luogo particolare in cui cani e fiori vivono uno accanto all’altro. Quindi campiona alcune delle caratteristiche visive memorizzate in questa posizione e le usa per filtrare il rumore del segnale sotto forma di un’immagine coerente (tecnicamente, Rumore gaussiano viene usato). Il campionamento delle caratteristiche è stocastico, il che significa che i campioni sono selezionati casualmente dai dati rilevanti; questo è il motivo per cui un modello richiesto con lo stesso testo genererà sempre un risultato diverso. È intelligente, funziona bene e non hai bisogno di un dottorato di ricerca per vedere che un tale processo ha ben poco a che fare con qualsiasi tipo di creatività, comunque tu possa definirlo.

Ma al di là della stanca questione della creatività c’è qualcosa di più cruciale. I generatori di immagini AI non meriterebbero molte critiche se facessero affidamento sul consenso degli artisti e fossero commercializzati come plug-in software. Dopotutto, sono punti di ingresso giocosi e accessibili nell’arte computazionale e, se la monotona omogeneità della loro produzione è diversificata, possono persino diventare strumenti utili per alcuni artisti. È la pretesa di una nuova forma d’arte da parte del motore di pubbliche relazioni dell’industria e del mercato dell’arte ad essere estremamente problematica, soprattutto quando viene utilizzata per motivare affermazioni iperboliche sull’intelligenza generale delle macchine. Tali affermazioni sfruttano la cultura e l’arte per rafforzare quella che io chiamo un’ideologia della predizione, la convinzione che qualsiasi cosa possa essere prevista e, per estensione, controllata. L’ideologia della previsione è il sistema operativo del Nord globale. Le aziende e gli individui facoltosi stanno investendo freneticamente in ricerche di apprendimento approfondite e probabilistiche. Dato che la maggior parte del Nord del mondo è strutturata attorno a sistemi algoritmici (dal welfare, alla giustizia e all’occupazione alla guerra, alla finanza e alle politiche nazionali e internazionali), l’implementazione del deep learning su larga scala offre un potenziale enorme guadagno finanziario a coloro che gestiscono l’attività. Tuttavia, mentre il deep learning si è dimostrato utile in casi specifici, come la modellazione del ripiegamento delle proteine ​​o della perdita di biodiversità, la sua firma sulla società è stata finora terribile. Considera il ruolo di Cambridge Analytica negli inglesi Campagna Leave.EU e L’elezione di Donald Trump; il coinvolgimento di Google e dell’esercito americano nel Project Maven, dove la libreria di apprendimento automatico di Google, TensorFlow, è stata utilizzata per potenziare i droni da guerra e analizzare i dati di sorveglianza; il sfruttamento automatizzato del lavoro da Amazon e Netflix a Uber, Spotify e Airbnb; la capacità di trading algoritmico per destabilizzare mercati finanziari già volatili, come in un lampo crollo del 2010; e il quotidiano violenza psicologica sui bambiniit dall’Instagram di Meta.

L’arte dell’IA è, a mio avviso, una propaganda morbida per l’ideologia della previsione. Finché rimarrà legato al paradigma e alla politica di modelli sempre più grandi, capitali crescenti e iperboli di marketing, il suo contributo alla pratica artistica avrà scarso significato, se non nullo. Laddove l’ideologia della previsione vede il futuro dell’arte in un modello sa tutto che genera arte on-demand, o in un equalizzatore di creatività che lotta per l’intento artistico da opere d’arte rubate, io vedo piuttosto qualcos’altro: strumenti di apprendimento automatico imprevedibili, opere d’arte come valori anomali delle tendenze, perversioni affermative della tecnologia e sviluppo dal basso di strumenti creativi. Questo è un futuro già in divenire, basta cercare quegli artisti che non vogliono giocare la scommessa del ciclo dell’hype e piuttosto osano immaginare come creare tecnologie inaspettate e linguaggi artistici rischiosi.

Leave a Comment

Your email address will not be published. Required fields are marked *