Di Silvia Sorrentino*

Sulla tecnologia e il futuro del pianeta si è parlato tantissimo, in accademia come nel pubblico; sono stati pubblicati libri, girati film e serie tv, spesso in ambientazioni post-apocalittiche. Anche il mondo editoriale è pieno di articoli, di stampo conservatore e non, sui pericoli della modernità digitale e vige una confusione generale sull’argomento; ma quali sono i reali rischi a cui stiamo andando incontro?

Il ragionamento di questo articolo parte dalla concezione del ricordo, di cui le tecnologie sono spesso destinatarie: prendiamo, ad esempio, una fotografia che ci ritrae durante la nostra prima infanzia; non sperimentiamo quel ricordo in maniera diretta, eppure ci appartiene e ce ne appropriamo tramite il supporto fotografico. La tecnologia, dunque, contribuisce alla creazione del nostro soggetto, individuale ma anche collettivo. Gli sviluppi tecnologici rappresentano, così, un portale verso un mondo di nuovi rischi e possibilità, contribuendo alla nascita di un nuovo corpo sociale e alla sua riorganizzazione. Dal punto di vista politico si può dire che la rivoluzione scientifica dell’epoca moderna sia stata un supporto fondamentale ai processi di liberazione: si pensi, ad esempio, al contributo delle scienze nella lotta all’assolutismo conoscitivo della Chiesa.

L’avvento delle nuove intelligenze artificiali rischia, invece, di contribuire ad un processo in senso opposto.
L’AI Index Report 2024, sviluppato dall’Università di Stanford sui dati relativi all’intelligenza artificiale, mostra che la ricerca in materia è appannaggio del settore privato: nel 2023 sono stati 51 i modelli di machine learning sviluppati dalle aziende contro i 15 prodotti dal mondo accademico. Il machine learning, tradotto in italiano con “apprendimento automatico”, è una tipologia di intelligenza artificiale il cui scopo è quello di imitare il pensiero umano tramite lo sviluppo di algoritmi che si basano sui dati raccolti. Essendo sviluppati per le grandi multinazionali, tali modelli tendono a rispondere agli interessi di queste ultime, i cui processi di ricerca e creazione avvengono in ambienti privati e non sono di dominio pubblico. È qui che è fondamentale riprendere il concetto iniziale di costruzione del ricordo e del soggetto: i dati su cui si basano gli algoritmi dell’apprendimento automatico mostrano delle regolarità, le quali vengono apprese dall’intelligenza artificiale e riprodotte nel tempo.

Quello che può sembrare un processo del tutto neutrale è in realtà profondamente politico: molti dati descrivono situazioni di persone che si trovano, nel momento in cui quei dati sono prelevati, in condizioni di svantaggio; si può pensare, ad esempio, alle condizioni di discriminazione in cui si trovano le persone razzializzate, le soggettività queer, i membri più poveri della società, e tante altre minoranze contemporanee. Le regolarità apprese dalla macchina, quindi, rispecchiano uno stato di profonda disuguaglianza che l’AI finisce per riprodurre nel tempo, costringendo le vittime di discriminazione ad una “discriminazione al quadrato”: non solo subiscono le disparità “storiche” date dalle violenze strutturali del sistema capitalistico, come il razzismo, il classismo o il sessismo, ma saranno costrette a viverle anche nel futuro.

Si può dire che il machine learning renda fissa nel tempo la condizione del presente, trasformando una situazione di contingenza in ineluttabilità.
Ciò che rende questo ragionamento particolarmente spaventoso è il fatto che le intelligenze artificiali risultano, fondamentalmente, inattaccabili. Pensiamo, ad esempio, ad un algoritmo che prevede le condizioni metereologiche: è possibile che, in un dato giorno, l’algoritmo preveda che all’80% il pomeriggio sarà soleggiato. Nel caso in cui dovesse piovere, l’algoritmo non risulterebbe comunque impreciso, avendo previsto che al 20% avrebbe piovuto. Prima di poter giudicare l’algoritmo come inesatto bisognerebbe riscontrare l’errore in tempi ben più lunghi.

Traslando questo ragionamento in un altro tipo di previsione, il discorso appare ben più problematico: consideriamo, ad esempio, l’uso di un algoritmo per scartare o accettare i curricula che arrivano per la candidatura ad un posto di lavoro. Un curriculum giudicato inadatto a quel lavoro all’80% viene certamente scartato, poiché il 20% di probabilità che quella persona sia adatta a quelle mansioni è decisamente inferiore. In questo caso, però, è ben più difficile riscontrare l’errore nel lungo periodo e, in più, il giudizio non è neutrale, ma si basa su dataset collezionati in un periodo di profonda disparità che un’intelligenza artificiale ritiene sia la norma.

Inoltre, l’ipotesi che gli algoritmi lavorino in maniera inesatta non è affatto inverosimile: si pensi, ad esempio, al crollo finanziario del maggio 2010, il famoso Flash Crash, causato da errori di previsione delle intelligenze artificiali. Per concludere, è evidente che ci aspetti un futuro in cui la gestione delle AI avrà un portato politico significativo, e non è mai stata tanto importante come oggi la necessità di noi cittadine e cittadini di riappropriarci dei nostri dati e utilizzarli per scopi realmente utili ai soggetti collettivi.

Ph : Pixabay senza royalty

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.