approfondimenti
OPINIONI
Technic and magic: animismo di piattaforma e svolta linguistica 2.0 – seconda parte
A volte osannata come tecnologia rivoluzionaria, altre volte accompagnata da dubbi e paure, l’intelligenza artificiale è stata negli ultimi mesi al centro del dibattito, purtroppo spesso inquinato da mitologie turbocapitaliste o da incomprensioni sulle sue effettive potenzialità. Partendo dallo stato della ricerca, passando per le conseguenze nel mondo del lavoro, nei rapporti geopolitici e nell’immaginario comune, proviamo a delineare un quadro realistico sul ruolo di questa tecnologia
Nel breve racconto di Fredric Brown, La risposta, il protagonista Dwar Ev porta finalmente a compimento la sua realizzazione di una supercalcolatrice, che collegando tutte le calcolatrici di tutti i novantasei miliardi di pianeti dell’universo potrebbe racchiudere tutto il sapere dell’universo in un’unica macchina. Dopo aver saldato gli ultimi due fili, Dwar abbassa la leva, attivando la creazione e ponendogli una prima domanda: «Esiste Dio?». Senza esitazione la macchina risponde: «Sì: adesso Dio esiste». Colto dal terrore e pentitosi della propria creazione, Dwar prova a lanciarsi sul quadro di comando per spegnere la macchina, ma un fulmine dal cielo lo incenerisce, inchiodando la leva per sempre al suo posto.
A fine marzo sul sito del Future of Life Institute è stata pubblicata una lettera firmata da imprenditori, autori ed esperti di settore tra cui Elon Musk, Yoshua Bengio, Steve Wozniak e Noah Harari, nella quale si chiede la sospensione di almeno sei mesi della ricerca avanzata nel campo dell’intelligenza artificiale, al fine di consentire all’ambito legislativo di adeguarsi alla regolamentazione di queste tecnologie, mentre lo sviluppo dovrebbe garantire trasparenza e affidabilità. La lettera nasconde non troppo velatamente il vero scopo: generare hype. «Guardateci, noi siamo i Victor Frankenstein del XXI secolo, i Dottor Faust che hanno venduto l’anima al Nuovo Mefistofele», questa è la parafrasi della lettera.
Non a caso, il linguaggio della lettera così rimanda a una serie di ideologie che tra i piani alti della Silicon Valley si stanno sedimentando, espresse da un acronimo sempre più diffuso: TESCREAL (Transumanesimo, Estropianesimo, Singolaritanismo, Cosmismo, Razionalismo, Altruismo Efficace e Lungotermismo”). Termine coniato con spirito critico da Timnit Gebru (ex-dipendente di Google e autrice del paper sui pappagalli di cui sopra), nel giro di tre anni la dirigenza hi-tech si è appropriata della parola, come l’imprenditore Marc Andreessen che nella sua biografia su twitter si definisce “TESCREALista” (oltre che “accelerazionista AI”, “suprematista GPU” e “attivista cyberpunk”).
I termini dell’acronimo fanno riferimento a una serie di filosofie e correnti nate attorno al transumanesimo e alle sue declinazioni: profondo entusiasmo per la tecnologia come mezzo per superare i limiti dell’essere umano (malattia, invecchiamento e morte), corsa verso lo spazio, realizzazione di IA forte come missioni dell’umanità, impiego dello sviluppo e della razionalità per trascendere la condizione materiale e corporea, quindi tendere alla condizione divina tramite la tecnica. Qualcuno ha fatto giustamente riferimento al concetto di animismo per descrivere la concezione che in questi ambienti sta assumendo l’idea di intelligenza artificiale. In un suo tweet del febbraio scorso il CEO di OpenAI (la compagnia di ChatGPT) ha suggerito come utilizzo del suo prodotto quello di sostituire l’assistenza sanitaria per chi non se la può permettere. Al di là del classismo becero di una simile affermazione, è evidente che la comunicazione da parte di questi colossi è indirizzata verso un entusiasmo completamente svincolato dalla realtà. E ha poco senso recriminare l’utente medio se questo non capisce il corretto utilizzo delle tecnologie, se dall’alto arrivano messaggi del genere.
A febbraio 2023 è stato lanciato Bard, il chatbot AI con il quale Google prometteva di scalzare il posto a ChatGPT di OpenAI. Ma a poche ore dall’evento di presentazione, in un video promozionale l’assistente di Mountain View dava una risposta sbagliata alla domanda posta, affermando che il telescopio spaziale James Webb sarebbe stato usato per scattare le prime foto nella storia di un pianeta situato fuori dal sistema solare (esopianeta), mentre i primi esopianeti sono stati fotografati grazie a telescopi a terra anche 14 anni prima del lancio di James Webb. Una svista che non è passata inosservata né è stata perdonata soprattutto dal mondo della finanza. Mercoledì 8 febbraio le azioni di Alphabet chiudono in ribasso di quasi l’8%, con un calo di 100 miliardi di dollari dal suo valore di mercato. E l’errore, guarda caso, riguarda proprio una conoscenza specifica più che un errore di composizione linguistica, che è ciò per cui era stato addestrato. I colossi della Silicon Valley, insomma, si sono trovati vittima del loro stesso hype.
Già eravamo abituati al potere del linguaggio nella finanza, come può essere nel caso di una battuta di un amministratore delegato, ma pensare che ora questo potere linguistico spetti anche alle macchine, lascia almeno un senso di preoccupazione. Viene in mente la scena di Douglas Adams nella sua Guida Intergalattica, quando dopo sette milioni e mezzo di anni una folla di spettatori attende con ansia da Pensiero Profondo la risposta alla domanda fondamentale sulla vita, l’universo e tutto quanto. Christian Marazzi scriveva, nel suo Al posto dei calzini: «Quando si dice che, con il postfordismo, la comunicazione entra in produzione, diventa fattore direttamente produttivo, si chiama in causa il linguaggio che, per sua vocazione, sta alla base del comunicare. La coincidenza tra l’atto del produrre e l’atto del comunicare nel nuovo paradigma produttivo, apre un ventaglio di problemi di analisi del linguaggio tanto affascinanti quanto di estrema complessità e densità»
Con il capitalismo avanzato dell’intelligenza artificiale assistiamo a una svolta linguistica 2.0, dove il linguaggio assume un ruolo produttivo ancora più centrale. E’ una sorta di capitalismo magico, dove il linguaggio e le sue formule dettate dall’oracolo sono in grado di agire sempre di più sul reale. Un magico che si autoracconta come astratto e immateriale, ma sappiamo essere incarnato nei processi sociali e materiali, nei capricci della Silicon Valley e dell’alta finanza. La sfida è disincantare la tecnologia, liberandola dagli immaginari tescrealisti e costruendone altri oltre l’antropocentrismo e le ambizioni estrattiviste.
Immagine generata con DreamStudio con descrizione “Elon Musk vende l’anima al diavolo per costruire un IA senza niente”
La guerra dei bias
Era il XVII secolo, e Gottfried Leibniz sviluppava il suo sistema di mathesis universalis, un metodo simbolico capace di risolvere qualsiasi controversia tramite processi di calcolo. Era il 2008 e Chris Anderson proclamava su “Wired” la fine della teoria in virtù dell’era dei dati e della correlazione. Da allora di acqua sotto i ponti ne è passata e in parte anche nell’accademia la sbornia per i big data è passata, anche a seguito dei casi noti alla cronaca di problemi sorti a partire da utilizzi delle tecnologie IA senza un adeguato apparato epistemologico: il bot Tay di Twitter, il caso COMPAS e altri casi di cronaca ormai pluricitati in letteratura accademica. Si inizia così a parlare di bias, la ricerca sull’IA si ramifica nei campi della explainability, cercando di aprire la scatola nera delle decisioni e capire i meccanismi di decisione. Rispetto ai LLMs, in particolare, si fa riferimento a stereotipi trasmessi col linguaggio, o addirittura c’è chi parla di “distorsioni” e “vulnerabilità” nel caso in cui si ottengano risposte del chatbot non in linea con le policy. Il sogno dell’intelligenza artificiale corretta è quella di una tecnologia che pensa e comunica come gli umani ma senza mentire, senza avere giudizi e senza dire fesserie, praticamente che non pensa e comunica come gli umani. Tuttavia anche nella letteratura accademica si riconosce che ormai il termine stesso di bias viene utilizzato con significati e intenzioni diverse, rendendo il dibattito sul tema sempre più confuso. In sociologia il termine bias ha un significato ben preciso e indica un eventuale errore nella valutazione o misurazione di un fenomeno dovuto alle tecniche di ricerca,. una distanza tra il fenomeno studiato e la sua misurazione. Potremmo allora stabilire, che il bias per le AI è una differenza, tra un benchmark considerato caso standard o nullo e un modello artificiale. E qui si arriva al punto: quando parliamo di bias razzista o sessista di un IA, o addirittura di una distorsione dovuta ad un linguaggio volgare, rispetto a cosa stiamo affermando che c’è una distanza? Qual è il modello nullo?
Se consideriamo che i testi maggiormente utilizzati per l’addestramento provengono da grosse piattaforme web, ci accorgiamo che stiamo già compiendo una scelta ben specifica di tipologia di linguaggio e di paradigma interpretativo.Secondo una ricerca di Pwe Internet Research del 2016 gli utenti di Reddit sono per il 67% uomini degli Stati Uniti, con il 64% tra i 18 e i 29 anni. Altri studi riguardo la composizione della comunità di Wikipedia riscontrano tra 8-15% la percentuale di donne. Cosa pensa o penserà un IA addestrata su queste piattaforme dell’espansione coloniale? Cosa risponderà quando qualcun_ proverà a chiedere consigli e informazioni sull’aborto o la transizione di genere, a seconda del Paese a cui farà riferimento? La risposta dipenderà sempre e comunque da quali informazioni, testi e materiali sono stati utilizzati per addestrare la macchina. Il punto non è migliorare o correggere il modello, il punto è che qualunque rappresentazione del mondo e qualunque forma di espressione è situata, è posizionata in un contesto specifico sociale, storico e quindi in una specifica situazione di privilegio. Eliminare il bias è una richiesta priva di senso, dal momento che un discorso neutrale non esiste. La ricerca di una fantomatica fairness dell’IA, allineata ai canoni sociali e di costume, non può che fare i conti che canoni e norme sono situate geograficamente, socialmente, storicamente.
Nel 2008 in Nuova Zelanda una stazione radio māori senza scopo di lucro, Te Hiku Media, ha avviato un progetto allo scopo di addestrare algoritmi su 300 ore di conversazione nel linguaggio maori, mantenendo il controllo dei dati della loro comunità.
Dopo che nel 1840 Aotearoa, il nome māori della Nuova Zelanda, divenne una colonia britannica l’inglese prese il sopravvento come lingua locale, per poi essere imposto come unica lingua nelle scuole 30 anni dopo. Già dal 1970 abitanti e attivisti māori hanno creato scuole per la conservazione della loro lingua, ma a causa di spopolamento e urbanizzazione la percentuale di parlanti era crollata dal 90 al 12%. Solo nel 1987 il Te Reo viene riconosciuto lingua ufficiale. Con l’avvento delle tecnologie digitali, la comunità si trova di nuovo a un bivio. «Se queste nuove tecnologie “parlano” solo lingue occidentali, è inevitabile essere esclusi dall’economia digitale», afferma Michael Running Wolf, sviluppatore cheyenne impegnato in progetti di IA per conservazione linguistica. «I dati sono l’ultima frontiera della colonizzazione». Te Hiku Media non vuole caricare dati e informazioni su Facebook e Youtube né lasciarli sotto licenze che non consentano un controllo da parte della comunità. «I dati sono l’ultima frontiera della colonizzazione […] I nostri dati sarebbero stati utilizzati dalle stesse persone che ci hanno privati di quel linguaggio per rivendercelo come servizio […] È come quando ti prendono la terra e poi te la rivendono», dichiarano i membri del progetto. Anche in questo caso, la cultura open source si scontra con un problema di decisionalità sull’utilizzo dei dati, così che Te Hiku ha creato una licenza specifica che esplicita le regole di base per future collaborazioni, basate sul principio māori di kaitiakitanga, o tutela, concedendo l’accesso ai dati solo alle organizzazioni che accettano di trasmettere tutti i benefici derivati dal loro utilizzo al popolo māori.
Ovviamente grosse compagnie, anche osservando questo e altri esperimenti, stanno già costruendo i loro archivi di dati linguistici locali e nativi e a costruire modelli di business in questa prospettiva. A fare la differenza in questo processo saranno i rapporti di forze tra le parti in gioco.
Geopolitica, regolamentazioni e microchip
L’idea eterea e disincarnata dell’IA si scontra non solo con la materialità del lavoro ma anche con l’impatto che questa tecnologia sta avendo nelle dinamiche internazionali. Per la Cina la corsa all’IA ha assunto un ruolo di fondamentale importanza, sia per lo sviluppo dell’industria nazionale che sul piano del confronto geopolitico, soprattutto con gli Stati Uniti, tanto che, lo stesso Xi Jinping ha citato più volte il tema nei suoi discorsi. Durante il periodo Covid è stato evidente l’utilizzo di tecnologie digitali e intelligenti come strumenti di controllo della popolazione, tra misurazione di temperature e screening facciale automatico in seno al progetto di credito sociale. Tra gli obiettivi dell’IA c’è il concetto di smart city, quindi di infrastrutture interconnesse ad alta velocità (5G e IoT), una piena integrazione della sfera digitale nella pianificazione economica e produttiva. L’importanza delle AI in Cina è dimostrata dal fatto cheil motore di ricerca Baidu ha creato a marzo un’alternativa in lingua cinese a ChatGPT, chiamata Ernie.
Ovviamente in un contesto di confronto internazionale, si fa sempre più pressante la necessità di tecnologie intelligenti in campo bellico. Nella guerra in Ucraina la superiorità tecnologica della Nato ha permesso alle forze di Kiev un ventaglio di performance sul campo di battaglia non indifferente agli occhi delle altre nazioni. L’esercito cinese ha identificato vari campi di interesse dell’IA, dai veicoli automatici senza conducente ai droni a distanza, con tutte le implicazioni etiche che queste tecnologie comportano. Il Pentagono stima che la Repubblica Popolare sia a un livello di sviluppo dell’IA pari a quello americano tanto che nel rapporto finale della Commissione per la sicurezza nazionale sull’intelligenza artificiale si legge che «i piani, le risorse e i progressi della Cina dovrebbero preoccupare tutti gli americani. In molte aree Pechino ha eguagliato i livelli degli Stati uniti e in alcune è persino in vantaggio».
La guerra dell’IA non si limita allo sviluppo software, si estende anche alla parte fisica delle tecnologie e alle materie prime per realizzarla. Se è infatti difficile controllare i prodotti del lavoro immateriale come gli algoritmi, è invece decisamente più semplice controllare materie prime e microprocessori, la principale ragione di attrito su Taiwan tra USA e Cina. A Taiwan c’è il più grande sistema industriale per la produzione di chip al mondo. Il 60% del mercato globale e il 90% dei microchip più avanzati vengono prodotti su questa isola. La Tmsc (Taiwan Semiconductor Manufacturing Company) è nota come l’industria leader della fabbricazione e assemblaggio di semiconduttori in tutto il mondo. Nel 2020 Donald Trump aveva convinto la Tsmc a investire in Arizona dopo averne bloccato le esportazioni verso Huawei. Tsmc ha da diversi anni impianti nella Cina continentale e il legame con Pechino è sempre stato mantenuto, nonostante abbia da sempre evitato di esportare verso la Cina microchip per utilizzo militare.
La guerra dei semiconduttori tra il protezionismo statunitense e la ricerca di indipendenza cinese rappresenta una delle più importanti sfide del XXI secolo, con possibili conseguenze e ricadute sull’intera politica internazionale.
E l’Unione Europea, che fa? Il 14 giugno scorso il Parlamento Europeo ha dato via libera al “The Ai Act”, che dovrebbe essere approvato a fine anno. Il regolamento stabilisce obblighi per fornitori e utilizzatori di sistema di IA a seconda del livello di rischio, vietando sistemi di social scoring e di riconoscimento facciale in tempo reale. Sarebbero invece possibile l’identificazione biometrica a distanza e a posteriori, e solo per il perseguimento di reati gravi.
Un lavoro consistente del testo è dover specificare cosa si intenda per IA, la cui definizione anche tecnica non è così ovvia. Si considerano quindi varie tipologie: i sistemi di apprendimento automatica, quelli basati sulla logica e quelli sulla conoscenza come ChatGPT. Il campo è vasto, mentre metodi e tempi di adeguamento delle imprese a queste norme saranno da discutere. Per quanto riguarda i modelli generativi, la richiesta della politica è di avere trasparenza nel riconoscimento di materiale prodotto da IA per contrastare deepfake e creazioni automatiche scambiate per umane. Inoltre, Ong e associazioni hanno fatto notare come i limiti imposti, inclusa l’analisi predittiva o riconoscimento automatico, non siano applicati a tutela dei migranti ma solo dei cittadini europei. «Purtroppo, la difesa dei diritti umani al Parlamento europeo non ha incluso anche la protezione dei migranti dagli abusi dell’intelligenza artificiale, che può essere utilizzata per facilitare i respingimenti illegali», ha detto Sarah Chandler, portavoce della rete European Digital Rights che riunisce 47 Ong a difesa dei diritti umani. «L’Ue sta creando un regolamento a due velocità, in cui i migranti sono meno tutelati rispetto al resto della società».
Realismo capitalista e realismo algoritmico
Non ci può essere una vera conclusione a questo testo. La globalizzazione e il turbocapitalismo digitale ci hanno posto negli ultimi anni sempre davanti a iperoggetti sempre più grandi e difficili da capire e contrastare, tali da lasciarci in uno stato di smarrimento e impotenza. Risposte tecnopolitiche e di piattaforme alternative al capitale devono comunque fare i conti con i costi umani e ambientali che queste tecnologie comportano e OpenAI non ha divulgato alcun dato specifico sulle emissioni delle infrastrutture, ma alcuni scienziati hanno stimato che un periodo di addestramento di ChatGPT genera CO2 quanto un’auto che percorre 700mila km, pari al doppio distanza Terra-Luna e che il suo utilizzo costa 3.8 tonnellate di CO2 al giorno. Sempre dal paper dei pappagalli stocastici, «se l’umano medio è responsabile di circa 5 tonnellate di CO2 all’anno, addestrare un modello Transformer ne emette circa 284 tonnellate. Addestrare un singolo modello BERT su GPU è stimato richieda tanta energia quanto un volo transatlantico».
Che fare allora? Alcune linee di azione possono essere suggerite dall’incontro tra tech workers e soggetti marginalizzati e/o oppressi dalle tecnologie, nell’ottica di ripensare le forme della tecnologia e i suoi obiettivi. Sindacati informali come Tech Workers Coalition o l’ondata di rifiuto del lavoro dei Big Quit e ovviamente i movimenti transfemministi ed ecologisti sono sintomi di rottura verso un sistema ormai al collasso, segnali che possono e devono trovare convergenze tempestive. Un’altra considerazione può arrivare dal fatto che l’impianto discorsivo e l’egemonia del realismo capitalista appoggia le fondamenta anche su una presunta superiorità e inaccessibilità della tecnica e della tecnologia: redistribuire conoscenze critiche diventa allora non solo un mezzo per rendere comprensibile il mondo in cui viviamo ma anche una questione politica. Gli ambienti accademici e dell’istruzione sono sempre più intrisi di retorica imprenditoriale e neoliberale, e in particolare modo i settori tecnici, dove si sta osservando anche un’intensificazione delle collaborazioni tra scienza e capitale nel settore militare (un sodalizio che Nolan ci ricorda essere di vecchia data…). Ripensare una cultura e una formazione tecnica e scientifica svincolata dalle logiche estrattive risulta allora un altro strumento fondamentale sulla strada della giustizia climatica e sociale.