A chi serve l’intelligenza artificiale

Di Daniela Tafani Lunedì 15 Gennaio 2024 11:16
A chi serve l’intelligenza artificiale Google DeepMind on Pexels

 

1.Nella famiglia di tecnologie denominata “intelligenza artificiale” – volta a realizzare strumenti in grado di eseguire compiti normalmente associati all’intelligenza umana – l’originario approccio simbolico, che deriva dalla logica e procede attraverso la manipolazione di simboli, non consente di trattare funzioni, quali il riconoscimento delle immagini, delle quali non siamo in grado di esplicitare le regole, enumerando esaustivamente i fattori di volta in volta rilevanti (nessuno di noi, ad esempio, è in grado di elencare le caratteristiche che ci consentono di distinguere un cane da un gatto, malgrado abbiamo imparato facilmente a farlo, fin da bambini, in modo istantaneo e infallibile).

I sistemi sub-simbolici quali i sistemi di apprendimento automatico (machine learning) non richiedono invece simili istruzioni; sono sistemi di natura sostanzialmente statistica, che consentono di costruire modelli a partire da esempi, in un processo iterativo di minimizzazione della distanza rispetto ai risultati attesi. Anziché essere “istruiti” dal programmatore, “imparano” – o, più propriamente, sono calibrati statisticamente – a partire dai dati (nell’esempio dei cani e dei gatti, a partire da milioni di immagini di cani e di gatti, etichettate come tali da esseri umani).

È all’intelligenza artificiale sub-simbolica che si devono i più recenti progressi nello svolgimento di compiti quali la traduzione automatica, il riconoscimento facciale, la ricerca per immagini o l’identificazione di contenuti musicali. Si tratta di sistemi di intelligenza artificiale debole o ristretta, ossia sistemi in grado di eseguire uno o pochi compiti specifici, che funzionano per i compiti particolari per i quali sono stati programmati, a condizione che ciò che incontrano non sia troppo diverso da quello che hanno sperimentato in precedenza (i sistemi di apprendimento automatico non sono capaci di generalizzazioni che vadano oltre i dati di partenza). Non esiste oggi alcun sistema di intelligenza artificiale generale o forte, in grado di eseguire, in modo integrato, la maggior parte delle azioni che gli esseri umani possono compiere.

Quando vediamo che un sistema informatico svolge, con maggiore velocità e potenza delle nostre, una singola funzione, tendiamo a dimenticare che ciò che è facile per gli esseri umani è spesso assai difficile per i sistemi informatici. Nessuno, ad esempio, è riuscito finora a dotare un sistema di intelligenza artificiale di tutte le conoscenze intuitive e le procedure di ragionamento incluse nel senso comune degli esseri umani. Sulla base dell’assunto che le persone siano dotate di senso comune, possiamo, ad esempio, impartire un comando presupponendone migliaia che non occorre esplicitare: se lascio mio figlio alla babysitter – per riprendere un esempio di Wittgenstein – con l’indicazione che lo faccia divertire, non capita, normalmente, che al ritorno io trovi il bambino che sta incendiando le tende, lanciando coltelli contro il gatto o gettandosi dalla finestra vestito da supereroe, malgrado egli trovi divertenti queste attività e malgrado io non abbia impartito alla babysitter il corrispondente elenco di divieti. Se qualcosa del genere dovesse invece capitare, certo non riterrei sensate eventuali autodifese della babysitter quali “ma tu non mi avevi detto di non fargli incendiare le tende” o “mi aveva assicurato che quel costume gli avrebbe dato il superpotere di volare”, perché degli esseri umani si assume in genere tacitamente che condividano con noi, tra le altre, conoscenze intuitive di fisica e di biologia e la capacità di ordinare gerarchicamente, di volta in volta, le molte architetture normative che regolano le nostre vite.

In virtù della loro natura probabilistica, i sistemi di apprendimento automatico sono fragili e opachi: tracciando correlazioni statistiche di ogni genere – senza una comprensione del loro significato o contesto e senza la capacità di distinguere un nesso causale da una correlazione spuria – sono, per gli esseri umani che li utilizzano, sensibili a elementi irrilevanti e soggetti a esiti imprevedibili e assurdi, oltre che vulnerabili a attacchi avversari non rilevabili. Non si tratta, in senso stretto, di errori. Un sistema di apprendimento automatico per la “visione” fa la stessa cosa (costruisce modelli tracciando correlazioni tra gruppi di pixel) sia quando classifica correttamente l’immagine di un aereo, sia quando, in virtù dell’alterazione di un singolo pixel, classifica la medesima immagine dell’aereo come “gatto”: in entrambi i casi, fa qualcosa di completamente diverso da ciò che facciamo noi quando riconosciamo un aereo in una foto. A differenza dei sistemi simbolici, inoltre, i sistemi di apprendimento automatico non sono trasparenti: non è possibile, dunque, ottenere spiegazioni dei risultati che essi producono.

2.La costruzione di sistemi di apprendimento automatico richiede ingenti risorse: sono necessarie, anzitutto, potenti infrastrutture di calcolo e enormi quantità di dati. Tra i soggetti privati, tali risorse sono nella disponibilità delle sole grandi aziende tecnologiche transnazionali che, in virtù di un modello di business fondato sulla sorveglianza, detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture computazionali per la raccolta e l’elaborazione di tali dati.

I sistemi di apprendimento automatico richiedono anche terre rare, energia e lavoro: i primi due elementi sono decisivi nei conflitti geopolitici legati all’intelligenza artificiale e danno luogo a costi ambientali elevatissimi, che le aziende esternalizzano, in genere, con pratiche di impostazione coloniale. Il silenzio su tali elementi induce a concepire l’intelligenza artificiale come immateriale: a chi cerchi “intelligenza artificiale” in un motore di ricerca, appaiono robot antropomorfi e numeri e lettere che fluttuano nel blu, anziché cavi sottomarini, datacenter che competono con le popolazioni locali per l’accesso all’acqua, e laghi resi neri e sulfurei dalle centinaia di milioni di tonnellate di scarti tossici dell’estrazione delle terre rare.

Quanto al lavoro, l’intelligenza artificiale è, come ha scritto Antonio Casilli, “fatta a mano”: occorrono milioni di lavoratori (la Banca mondiale stima in 400 milioni il numero di lavoratori, per lo più privi di qualsiasi forma di diritti o tutele, delle piattaforme digitali) per attività quali l’etichettatura dei dati o le fasi di apprendimento per rinforzo attraverso l’interazione con esseri umani, nelle quali i lavoratori assegnano punteggi alle risposte di un sistema. Rientrano tra i lavori umani utilizzati per il funzionamento dei sistemi di intelligenza artificiale anche quelli che consentono di simulare un’autonomia, o un livello di affidabilità, che tali sistemi costitutivamente non possiedono e che sono tuttavia dichiarati dai produttori: le auto commercializzate da Cruise come “a guida autonoma”, ad esempio, richiedono in realtà la silenziosa assistenza di tre lavoratori ogni due auto, i quali intervengono costantemente, al ricevimento di specifici segnali, per controllare a distanza i veicoli.

L’intelligenza artificiale è dunque “artificiale”, come ha dichiarato il CEO di Amazon, Jeff Bezos, il quale ha dato il nome di “Turco Meccanico” alla piattaforma di Amazon di intermediazione del lavoro digitale, in memoria di quell’automa – esibito presso le corti europee dal suo inventore, Wolfgang von Kempelen, come capace di giocare a scacchi – che nascondeva in realtà, al proprio interno, un minuto maestro di scacchi umano. Proprio come il settecentesco Turco meccanico, infatti, la piattaforma di Amazon fa sì che si attribuiscano a una macchina prestazioni che sono possibili solo in virtù del lavoro di esseri umani sottratti alla vista.

3. Un impiego ragionevole dei sistemi di apprendimento automatico dovrebbe essere coerente con le loro caratteristiche strutturali; trattandosi di sistemi statistici, in nessun caso dovrebbero essere utilizzati per compiti con una scarsa tolleranza al rischio o che richiedano il senso comune, la capacità di comprendere la rilevanza dei diversi contesti o competenze sociali. Le auto a guida autonoma, ad esempio, nelle comuni strade urbane danno luogo a incidenti in virtù di errori che nessun essere umano commetterebbe: vanno sistematicamente a sbattere contro i veicoli di emergenza accorsi nelle scene di incidenti, non identificano correttamente né i bambini, né le buche dei cantieri, generano tamponamenti frenando senza cause apparenti (perché, ad esempio, scambiano la luna, nel cielo, per un semaforo giallo) e capita che trascinino per metri un pedone, dopo averlo investito, o che si schiantino contro un camion bianco, computandolo come una porzione di cielo. Negli Stati Uniti, in cui – con una sorta di beta test nelle strade ordinarie – veicoli a guida autonoma sono stati introdotti e commercializzati, Tesla ha di recente ritirato due milioni di veicoli a presunta guida autonoma e Cruise ha sospeso le operazioni di guida senza conducente in tutto il paese, dopo che le autorità californiane le hanno dichiarate un pericolo per la sicurezza pubblica.

Il caso dei veicoli a guida autonoma non è isolato: le grandi aziende tecnologiche hanno immesso sul mercato, presentandoli come “intelligenti”, prodotti e servizi basati su tecnologie immature, che costituiscono genuini progressi, ma che dovrebbero essere oggetto, al momento, di sola ricerca, non di distribuzione generalizzata e commercio. Si tratta di sistemi che non sono in grado di svolgere le funzioni per le quali sono venduti, o perché queste richiedono un’intelligenza generale, che nessun sistema oggi possiede, o perché si tratta di attività che sono impossibili tout court. Tra questi, hanno oggi una vasta diffusione i generatori di linguaggio, costruiti a partire da grandi modelli del linguaggio naturale, e i sistemi di ottimizzazione predittiva.

4. I grandi modelli del linguaggio naturale sono sistemi informatici di natura statistica, che trasformano le stringhe di testo in vettori e predicono sequenze di forme linguistiche, sulla base di informazioni probabilistiche sul modo in cui le sequenze di parole umane si combinano nei testi di partenza. In tali sistemi, si assiste, per la prima volta, a una dissociazione tra linguaggio e pensiero; essi sono infatti, al tempo stesso, capaci di produrre linguaggio e incapaci di pensare (non sanno ciò che scrivono, non ragionano, non sono capaci di astrazione e generalizzazione, non hanno il senso comune e la conoscenza sociale alla base della competenza linguistica umana). Sono stati qualificati da Emily Bender come “pappagalli stocastici” proprio in virtù della caratteristica di produrre parole senza conoscerne il significato: riproducono le relazioni semantiche che si trovano riflesse nelle caratteristiche formali del linguaggio, ma non hanno accesso al significato in senso proprio, ossia alla relazione tra le forme linguistiche e qualcosa di esterno ad esse. Sulla base di un calcolo delle probabilità, producono testi lessicalmente e sintatticamente corretti, che – come ha osservato Iris van Rooij– costituiscono, anziché l’espressione di un pensiero, il risultato di un “plagio automatizzato”.

I generatori di linguaggio, quali chatGPT o GPT-4, sono grandi modelli del linguaggio, ulteriormente programmati, attraverso interazioni con esseri umani, per produrre output che somiglino a quelle che tali esseri umani qualificano come risposte plausibili, pertinenti e appropriati. Tali output non sono, in senso proprio, risposte alle nostre domande, ma sequenze di testo programmate per apparire plausibili, ossia molto simili a come una risposta alla nostra domanda potrebbe apparire. Si tratta di testi convincenti e, al tempo stesso, del tutto privi di valore informativo, oltre che di intenti comunicativi: in quanto fondati su meri modelli del linguaggio, i generatori di linguaggio non sono in grado di fornire alcuna informazione, non contenendo alcun riferimento al vero e al falso, né alcun criterio per distinguerli.

Nella vita quotidiana, un sistema che produca testo convincente e inaffidabile è utile soprattutto per frodi, truffe, manipolazioni e diffusione di propaganda politica su larghissima scala. Una sua diffusione generalizzata si trova perciò in contrasto con l’utilità collettiva. I monopoli della tecnologia che, in virtù della loro posizione dominante e della concentrazione di risorse e potere, sono in grado di dettare le linee di progettazione e sviluppo dei generatori di linguaggio, vi hanno tuttavia individuato uno strumento utile alla tutela del loro modello di business e al consolidamento del loro vantaggio competitivo. Con l’inserimento dei generatori di linguaggio in tutte le applicazioni esistenti – dai motori di ricerca ai software per la scrittura – ritengono infatti di poter trattenere gli utenti nelle loro piattaforme, avendo così indefinitamente a disposizione l’attenzione degli utenti, oltre ai dati e ai metadati relativi a tutte le loro attività, e la possibilità di fornire loro risposte e suggerimenti intrisi di annunci pubblicitari.

I testi prodotti dai generatori di linguaggio (di cui non è ad oggi possibile ottenere l’indicazione delle fonti) riproducono talvolta integralmente testi protetti dal diritto d’autore; per questo, di recente, il New York Times ha citato in giudizio OpenAI e Microsoft, le aziende produttrici di chatGPT: esse svolgono infatti un’attività in concorrenza con quella del New York Times, utilizzando gli articoli dello stesso New York Times (prelevati senza autorizzazione per addestrare il sistema e riprodotti da chatGPT con variazioni insignificanti e senza citare la fonte).

Sui generatori di linguaggio si concentrano oggi gli investimenti di capitali ad alto rischio. A simili investitori non serve che una tecnologia sia utile o che funzioni; serve soltanto che le persone credano che funzioni, per un tempo sufficientemente lungo da rendere possibile un ritorno sugli investimenti. Per questo, si assiste a una corsa alla sostituzione di lavoratori umani con meri chatbot, con esiti che hanno riempito la cronaca di casi tragici e ridicoli ad un tempo: quando si è deciso di licenziare i lavoratori addetti a fornire una consulenza telefonica alle persone con disturbi alimentari e di sostituirli con un chatbot, questo ha suggerito agli utenti di ridurre le calorie e pesarsi con frequenza; quando, in un giornale online, si è affidata a un chatbot la funzione di costruire, per i lettori, un sondaggio basato sugli articoli del giorno, il chatbot ha invitato gli utenti a indovinare le cause della morte della giovane allenatrice di cui si parlava nell’articolo a fianco; quando un avvocato statunitense ha affidato a chatGPT la redazione di un documento giudiziario, ha consegnato al giudice un documento che invocava, quali precedenti, un elenco di casi inesistenti. Gli annunci delle automazioni possibili consentono in ogni caso, nei rapporti tra capitale e lavoro, di rafforzare il primo a danno del secondo: per il tramite di una narrazione fondata sulla fantascienza, la forza contrattuale dei lavoratori è schiacciata dalla prospettiva di una loro generale sostituibilità con macchine e robot.

5. Nei sistemi di ottimizzazione predittiva, si utilizza l’apprendimento automatico per prevedere il futuro di singoli individui e prendere decisioni conseguenti: gli studenti vengono valutati sulla base del voto che si prevede riceverebbero se sostenessero l’esame, i candidati a un posto di lavoro vengono assunti o scartati sulla base di una previsione della loro futura produttività e la polizia si affida a statistiche automatizzate per prevedere chi commetterà un crimine o dove un crimine verrà commesso, e agire di conseguenza. Tali sistemi non sono in realtà in grado di prevedere il futuro di singole persone, per la semplice ragione che ciò non è possibile. La decisione produce ciò che si pretende di prevedere: se il genere predice una paga più bassa e il colore della pelle predice la probabilità di essere arrestati, con il passaggio dalla previsione alla decisione tale profilazione sociale si autoavvera, legittimando così i pregiudizi incorporati nella descrizione statistica iniziale.

L’impiego dei sistemi di ottimizzazione predittiva comporta un abbandono dello Stato di diritto: possiamo prevedere che il latte nel frigorifero andrà a male entro una settimana; assumere di poter prevedere il comportamento umano con la stessa precisione equivale a trattare le persone come cose, anziché come soggetti capaci di autodeterminarsi. L'applicazione di sistemi di ottimizzazione predittiva a settori come la giustizia, l'istruzione o i servizi sociali equivale a una rinuncia alla certezza del diritto e all’irretroattività della legge: queste implicano infatti la possibilità, in linea di principio, di prevedere quali decisioni, nei nostri riguardi, saranno prese in futuro dai poteri dello Stato; non è invece possibile sapere in anticipo quali aspetti del nostro comportamento, delle nostre caratteristiche o della nostra identità faranno sì che un sistema ci associ a una certa categoria o etichetta. Sebbene la polizia e i cittadini possano condividere una concezione comune della definizione di “crimine”, “ragionevole sospetto” e “criminale”, con l'uso dei sistemi di polizia predittiva le persone sono fermate dalla polizia per motivi che non conoscono in anticipo e che non possono essere spiegati in alcun modo, dal momento che ogni possibile correlazione spuria può generare l’output di “sospetto”. In un altro senso, la categoria dei “sospetti”, ossia delle persone da tenere sotto stretta osservazione, comprende sempre l'intera cittadinanza: i sistemi di ottimizzazione predittiva si basano infatti su un regime di sorveglianza (ne sono un'emanazione e non sarebbero possibili senza di esso). In questo senso, come scrive Meredith Whittaker, l’intelligenza artificiale è un derivato della sorveglianza.

6. Dalle infrastrutture digitali a quelle fisiche, dai termostati ai televisori alle automobili, tutto ciò che è “smart” è utilizzato per spiare ed etichettare gli individui in base a centinaia di migliaia di variabili (almeno 650.000, secondo un recente documento) e raccogliere i cosiddetti “dati”. La sorveglianza è il cuore del modello di business delle grandi aziende tecnologiche: è infatti necessaria per vendere agli inserzionisti pubblicitari la promessa di una profilazione algoritmica. Nei paesi in cui tale sorveglianza è illegale, la si legittima con l’invocazione di un consenso fittizio. Come ha osservato Cory Doctorow, le aziende tecnologiche violano, tra le altre, le leggi sulla privacy, sostenendo che “la legge non si applica quando chi la viola usa un’app”. Se entro in negozio di mobili e compro una sedia, al negoziante non è lecito seguirmi, venire a casa mia, sedersi in salotto con me e prendere appunti su ciò che dico ai miei familiari, per poi vendere a tutti gli interessati le informazioni raccolte; non può dire che, varcando la soglia del suo negozio, ho dato il consenso al pedinamento e allo spionaggio. Online accade invece esattamente questo.

Una tale sorveglianza resta di fatto consentita, malgrado violi diritti giuridicamente tutelati, perché la percezione pubblica del rapporto tra politica, diritto e tecnologia è plasmata da una famiglia di narrazioni, che le grandi aziende interessate sono in grado di diffondere, in quanto detengono, come ha scritto Carlo Galli, il “potere mediatico-narrativo”. Si tratta di narrazioni esibite come ovvietà, che costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Tra queste, il principio di inevitabilità tecnologica (“se non lo faremo noi, lo farà qualcun altro”), i miti dell’eccezionalismo tecnologico e del vuoto giuridico, il soluzionismo tecnologico e l’idea di un’“etica dell’intelligenza artificiale”, ossia la tesi che sia sensata e possibile una moralizzazione degli algoritmi. La stessa espressione “rivoluzione dell’intelligenza artificiale” implica l’assunto, antidemocratico, che il futuro sia già scritto e che si possa al massimo chiedere qualche anticipazione, agli esperti, su cosa la nuova tecnologia abbia in serbo per noi. Simili forme di cattura culturale non sono nuove: in passato hanno riguardato, tra gli altri, il tabacco e i combustibili fossili. Alla sorveglianza, però, sono interessati anche gli Stati nazionali.

7. Lo sviluppo dei sistemi di apprendimento automatico ha luogo entro una relazione, originaria e costitutiva, con l’apparato militare e i sistemi statali di sorveglianza: i primi sistemi di computer vision sono stati realizzati per automatizzare la fotointerpretazione delle immagini aeree, alla ricerca di oggetti di interesse militare, e alla filiera della sorveglianza il settore resta intimamente legato (la maggioranza degli articoli e dei brevetti di sistemi di computer vision è rivolta all’individuazione e al riconoscimento di corpi di esseri umani o di parti del corpo umano, quali i volti). Esprimere tale relazione con l’espressione “dual use” è fuorviante: i sistemi concepiti per fini militari conservano l’impostazione, la concettualizzazione degli oggetti di interesse, gli assunti normativi e la logica originari. Con la polizia predittiva, ad esempio, si trasforma la totalità dei cittadini in persone oggetto di sorveglianza, estendendo all’ambito civile la logica militare dell’intelligence e sopprimendo il diritto individuale a non essere oggetto di sorveglianza senza fondate ragioni.

La relazione tra l’apparato statale di sorveglianza e i giganti della tecnologia è di dipendenza reciproca: più del 98% dei finanziamenti ottenuti da Microsoft, Amazon e Alphabet dal governo federale degli Stati Uniti dal 2018 al 2022, ad esempio, provengono da contratti militari, di intelligence o delle forze dell'ordine. Le grandi aziende tecnologiche ottengono, con ciò, che il governo ritenga necessario tutelarne – per i suoi stessi interessi militari e di sicurezza – le infrastrutture e il modello di business.

8. Non è dunque realistico, in questo momento, attendersi dalle aziende o dagli Stati una progettazione e uno sviluppo dei sistemi di intelligenza artificiale che creino valore, anziché estrarlo, che valorizzino il lavoro umano, anziché parcellizzarne l’esecuzione a fini di controllo, e che non incarnino un modello di business basato sulla sorveglianza e sul controllo sociale. Questi, naturalmente, restano possibili. Tale possibilità sembra tuttavia affidata oggi, come già in altre epoche di cambiamento tecnologico, alle sole lotte di quei lavoratori che – come di recente gli sceneggiatori di Hollywood – respingono le nuove forme di sfruttamento e espropriazione, ne smascherano le narrazioni e mostrano concretamente come, senza il loro consenso e il loro lavoro, i sistemi di “intelligenza artificiale” non siano in grado di produrre alcunché.

 


 

Bibliografia minima

Daron Acemoglu, Simon Johnson, Potere e progresso. La nostra lotta millenaria per la tecnologia e la prosperità, traduzione di Fabio Galimberti e Paola Marangon, Milano, Il Saggiatore, 2023.

Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021.

Melanie Mitchell, L’intelligenza artificiale. Una guida per esseri umani pensanti, traduzione di Silvio Ferraresi, Torino, Einaudi, 2022.