Se ci governerà l’algoritmo: i rischi dell’Intelligenza Artificiale

PRIMA PARTE – A dicembre 2022 ha fatto irruzione nel dibattito sul futuro dell’informazione e del giornalismo il caso di chatGPT, un software conversazionale ideato e commercializzato da Open AI, organizzazione no-profit nata nel 2015 con l’obiettivo auto-dichiarato di promuovere una intelligenza artificiale trasparente, accessibile e open source (en passant, tra i suoi fondatori figura Elon Musk). ChatGPT è in grado di produrre contenuti di ogni tipo, candidandosi ad esempio a sostituire, più di quanto già non accada, il classico lavoro di redazione dei giornalisti grazie all’utilizzo sempre più perfezionato dei tre pilastri su cui si fonda l’intelligenza artificiale: l’immensa e crescente disponibilità di dati; l’adozione diffusa di algoritmi in grado di leggere, incrociare e combinare tali dati; una capacità di calcolo impensabile su scala umana. Si legge in giro che in pochissimi giorni il software, nella sua versione premium, sia stato acquistato da qualche milione di clienti, in poche settimane cresciuti ad un ritmo esponenziale. A gennaio 2023 è giunta sul mercato una versione aggiornata e di più facile uso. Tutto ciò (oltre ad alimentare mille altri spunti di riflessione) fa balenare nel dibattito sul futuro dell’informazione l’inedito scenario di un giornalismo – la professione, i suoi strumenti di indagine, la sua deontologia e la sua etica – definitivamente sotto scacco di dispositivi automatici di creazione di testi, affidati al controllo di proprietà opache e con dichiarate finalità di eterodirezione delle opinioni pubbliche.

Non c’è che l’imbarazzo della scelta

Chi volesse approfondire funzionalità e caratteristiche di ChatGPT ha solo l’imbarazzo della scelta. Una sua versione free è facilmente scaricabile previa registrazione. I giornali ne hanno parlato diffusamente. Cresce anche una simpatica aneddotica sui bachi del sistema (chat sarebbe un po’ scarsuccia con l’aritmetica e l’algebra) e sulla sua straordinaria capacità di costruire, se interrogata in certo modo, teoremi di strampalata e lunare assurdità, in tutto simili alle teorie terrapiattiste. Prevale tuttavia la sorpresa circa la capacità di questo sistema di elaborare letture e tesi di senso compiuto sui più svariati argomenti.

Che il tema sia attualissimo e di promettente profittabilità lo dimostra sia l’investimento iniziale promosso da Microsoft  (secondo Wired dei trenta miliardi di dollari che rappresentano l’investimento di partenza di Open AI, dieci li avrebbe messi proprio Microsoft), sia la rapidità della reazione di Google che, dopo il libro bianco del settembre 2020, ha velocizzato l’allestimento della sua risposta (nome del software concorrente: Sparrow) dichiarando al Time che a primavera il chatbot sarà pronto per il mercato, peraltro col vantaggio competitivo di poter contare in prospettiva sulla proprietà e l’uso esclusivo del motore di ricerca largamente dominante.

Il lancio di ChatGPT e l’allestimento di Sparrow come reazione di Google, hanno ravvivato il dibattito sull’intelligenza artificiale e su come essa cambierà le nostre vite, in particolare in virtù delle applicazioni “ad altro rischio”. La Commissione europea ad aprile 2021 ha avviato, con una proposta di regolamento, il percorso che condurrà ad una disciplina comunitaria in materia. Il 6 dicembre 2022 il Consiglio dell’UE ha adottato il proprio orientamento generale sulla proposta della Commissione, condizione per avviare l’interlocuzione col Parlamento, il cui voto chiuderà l’iter legislativo. La proposta di regolamento, nelle sue riformulazioni più recenti, va nella direzione dell’imposizione di maggiori oneri di responsabilità in capo ai fornitori di sistemi di intelligenza artificiale ad alto rischio (ad esempio i sistemi di identificazione biometrica remota; quelli dedicati al funzionamento di infrastrutture digitali critiche, della mobilità e della fornitura di servizi essenziali; tutti i sistemi di selezione a vario titolo impiegati nella sfera dei diritti personali, ad esempio nella scuola, sul lavoro o nell’accesso ai servizi). Tali maggiori oneri riguardano in particolare la funzionalità dei sistemi a garanzia della qualità dei prodotti e della loro rispondenza ai requisiti tipici di una società democratica (tutela dei principi fondamentali e garanzia dei diritti della persona, non discriminazione, trasparenza dei meccanismi decisionali). Chi volesse approfondire l’argomento, trova sul sito della Commissione il documento “strategia europea per l’IA” dell’aprile 2018, il Libro bianco sull’IA del febbraio 2020 e la versione più aggiornata della Proposta di Regolamento. Si tratta di documenti da cui traspare la sostanziale accettazione di processi tecnologici considerati ormai irreversibili, unita alla preoccupazione che questi processi finiscano per diventare ingovernabili. Non è un caso che tutti i documenti di parte pubblica sull’argomento insistano sui requisiti di trasparenza, fiducia, affidabilità, etica dei meccanismi di IA e richiedano che i dati su cui l’IA lavora per definire parametri, condotte e soluzioni siano “reperibili, accessibili, interoperabili, riadoperabili” (Piano d’azione della Commissione sui “dati fair” – 2018).

Le preoccupazioni

Che le preoccupazioni ci siano, numerose e strutturate, è un bene. Perché l’IA avrà certamente un impatto positivo in molteplici ambiti e settori dell’attività umana, ma persistono molte incognite – ad esempio sulla governance e sulla accountability – e imponenti interrogativi – ad esempio sul tema della sicurezza dei sistemi e sulle travolgenti conseguenze che si produrranno sul mercato del lavoro. Su questi ultimi due temi merita di spendere una breve riflessione.

Sulla sicurezza. Attacchi di phishing sempre più sofisticati, tecniche innovative di furto di credenziali, metodologie avanzate di offuscamento dei malware, crescente e pervasiva penetrazione nei sistemi delle piattaforme mobili. Secondo l’Agenzia europea per la sicurezza informatica “se i criminali informatici inizieranno a combinare questi progressi con l’intelligenza artificiale e l’apprendimento automatico, assisteremo in futuro a un aumento di attacchi andati a buon fine” (ENISA, Treath landscape. The year in review, 20 ottobre 2020, pag. 9).

Il Rapporto Clusit 2022 curato dalla Società italiana per la sicurezza informatica fornisce piena conferma dell’espansione del cyber-crime: aumento degli attacchi informatici su scala mondiale (+10% rispetto all’anno precedente); incremento del fenomeno nell’area europea, dove oggi si verificano un quinto del totale degli attacchi (21%, rispetto al 16% dell’anno precedente); finalità criminale degli attacchi in ulteriore espansione (rappresenta l’86% del complesso degli episodi rilevati). Una novità rilevante rispetto al Rapporto 2021 è l’incremento forte degli attacchi contro obiettivi governativi e militari, cresciuti di oltre un terzo su scala planetaria, certamente quale effetto del conflitto russo-ucraino; nonché l’ulteriore espansione degli attacchi a istituzioni e istituti sanitari (+25% rispetto all’anno 2020) spiegabile sull’onda del persistere della emergenza pandemica. Nell’ultimo quinquennio il trend di crescita si è mantenuto pressoché costante, facendo segnare un aumento degli attacchi gravi del 66% rispetto al 2017 (Rapporto Clusit 2022, 15 marzo). Non c’è studio o analisi che, oltre all’aumento quantitativo del fenomeno, non fotografi il crescente perfezionamento della qualità e della sofisticatezza degli attacchi. La permeabilità dei sistemi è un’esca troppo appetibile per il cybercrime internazionale, sia quello mosso da motivazioni di lucro, sia quello agitato da finalità terroristiche e di destabilizzazione. E abbiamo già testimonianza dell’uso che il dark-web e il crimine informatico si accinge a fare anche di chat-GPT, ad esempio attraverso la strutturazione di più sofisticati sistemi di phishing.

Come i minatori del Galles

Sul lavoro. L’irruzione a dosi massicce dell’IA sconvolgerà, letteralmente, il mondo del lavoro, e dunque le economie familiari e l’organizzazione sociale di milioni e milioni di persone. Il «pensiero breve» che abbiamo imparato a frequentare e respirare nell’ultimo mezzo secolo, non solo rende immemori, ma riduce persino la capacità di discernere. La fine dei minatori del Galles, decretata dalla storia a metà degli anni ’80 del secolo scorso, e suggellata però con un fitto corollario di arresti, processi e detenzioni, è esattamente ciò che si ripeterà su scala globale nei prossimi tre decenni. Il lavoro e la sua organizzazione, così come ancora oggi la conosciamo, saranno infatti travolti dai processi di innovazione, che non sono affatto neutrali. Spariranno intere categorie di lavori – e di lavoratori – e il fenomeno investirà molteplici attività libero professionali (commercialisti, notai, ingegneri, broker, designer, per dirne solo alcuni) e impieghi di concetto (si pensi solo al settore bancario, assicurativo e finanziario), oltre che innumerevoli categorie di lavoro manuale. Non ci sarà un nuovo lavoro per tutti. Ci saranno sussidi, catene di prepensionamenti, espulsioni traumatiche. Nella migliore delle ipotesi faticosi percorsi di aggiornamento. Tutto questo per molte persone significherà la perdita del senso di appartenenza ad una comunità. Assisteremo all’acuirsi di un problema di coesione sociale, con quanto ne discende in termini di esplosione del dissenso, frammentazione delle rivendicazioni, tenuta del tessuto democratico. Per chi volesse approfondire ecco di seguito quattro suggerimenti di lettura: OECD, The impact of Artificial Intelligence on the labour market: What do we know so far? (a cura di Marguerita Lane e Ann Saint-Martin), 21 gennaio 2021; Luis Jorge Cevasco, Juan Gustavo Corvalán e Enzo Maria Le Fevre Cervini, Intelligenza artificiale e lavoro, Ivrea, Edizioni di Comunità, 2019; Jerry Kaplan, Le persone non servono.  Lavoro e ricchezza nell’epoca dell’intelligenza artificiale, Luiss University Press, 2021; Marco Frey e Corrado Cerruti, Innovazione, sostenibilità e trasformazione digitale, Padova, Cedam, 2021).

Sui nefasti della giustizia predittiva, fondata sugli algoritmi e intelligenza artificiale, e sui rischi di gravi discriminazioni in danno dei diritti e della dignità delle persone, c’è ormai una copiosa letteratura. Vale per l’amministrazione della giustizia ciò che Susanna Camusso, da segretario CGIL disse 5 anni fa a proposito dei contratti di lavoro: occorre negoziare l’algoritmo e renderlo trasparente e accessibile.

E poi c’è, naturalmente, il caso dell’informazione e della comunicazione. Ma di questo, assieme ad alcune considerazioni conclusive di natura più specificamente di carattere politico-culturale, parleremo nella seconda e conclusiva parte di questa riflessione.

 

La seconda parte dell’articolo verrà pubblicata nei prossimi giorni