Intelligenze artificiali: l’intervento del vescovo Mario al seminario dell’Ordine dei giornalisti svolto a Faenza

Faenza, Aula magna 26 gennaio 2024.

L’intelligenza artificiale o le intelligenze artificiali con il loro sviluppo rigoglioso e molteplice, mentre da un lato suscitano un grande interesse e mobilitano ingenti capitali volti al loro impiego in diversi campi, ed anche alla creazione di sistemi ancor più complessi, dall’altra parte obbligano a porre attenzione sugli effetti sociali e sulle questioni etiche sollevate dalle loro applicazioni.

  1. Sviluppi ed effetti sociali

L’Intelligenza Artificiale (=IA) o, meglio, le intelligenze artificiali sono una famiglia di tecnologie molto diverse tra di loro con applicazioni distinte. Un approccio realistico induce a considerare non solo la tecnologia in sé ma anche gli effetti che questa ha sulla società civile.

Il 2023 verrà ricordato come l’anno in cui l’intelligenza artificiale ha fatto irruzione nella coscienza collettiva e ha dirottato miliardi verso lo sviluppo di sistemi più complessi, ribaltando strategie e fortune di giganti tecnologici e attirato l’attenzione di politici e regolatori.

Il 2024 potrebbe non essere da meno. Più diventa evidente il potenziale di questa tecnologia, più gli Stati guardano a essa attraverso la lente dell’interesse nazionale. Il potenziale di questa tecnologia abilitante, che sia declinato nella sfera militare o in quella economica, sociale, giuridica, culturale, accademica e tutte le loro intersezioni, sta portando una serie di aziende e Paesi a lanciarsi nel tentativo di disporre di una propria tecnologia senza doversi affidare ai prodotti stranieri.

Si è così scatenata una corsa e una competizione internazionale nel cui ambito ogni Paese cerca di arrivare per primo e di essere più avanzato e performante in vista della supremazia nei mercati.

Il presidente francese Macron   mediante gli investimenti del suo Paese sulla startup Mistral si ripropone di sviluppare risposte europee ai giganti statunitensi. Analogamente Krutrim, una nuova startup indiana, ha presentato il primo Llm multilingue della nazione,[1] appena una settimana dopo che la rivale Sarvam ha raccolto 41 milioni di dollari con lo stesso obiettivo.

A Emirati, Francia e India si affiancano Arabia Saudita, Germania e Regno Unito per livello di dedizione: insieme questi sei Paesi hanno promesso di finanziare lo sviluppo dell’IA per una cifra complessiva di 40 miliardi di dollari. Cifre da capogiro che però non reggono il confronto con gli sforzi di Stati Uniti e Cina, che da soli hanno promesso di mobilitare cifre anche superiori. Il grosso dei fondi andrà nell’acquisto del tipo di chip necessari per addestrare Llm più potenti, quelli che hanno fatto la fortuna di Nvidia nel 2023 e che il governo statunitense lavora, in accordo con gli alleati, per tenere fuori dalla portata di Pechino. Che da parte sua sta versando centinaia di miliardi di dollari nella propria autonomia tecnologica, per non dover dipendere dai prodotti stranieri, e sostiene i campioni nazionali come Baidu (l’equivalente di Google) che ha presentato il proprio chatbot “Made in China” Ernie a poche settimane dall’avvento di ChatGPT.

La competizione tra Washington e Pechino sta già impattando lo sviluppo di altre alternative nazionali, specie considerando il controllo statunitense sull’ecosistema dei chip e la chiara intenzione dell’amministrazione di Joe Biden di stringere le maglie sul settore dell’IA.

Tuttavia, non è detto che i miliardi mobilitati dai Paesi si traducano in Llm efficaci, potenti e competitivi. Anzitutto c’è il tema della disponibilità dei dati e del vantaggio congenito dei Paesi anglofoni, che possono rifarsi a quantità immense di contenuti qualitativamente validi su internet. Se è vero che i governi nazionali potrebbero mettere al servizio della causa i propri dati (come quelli sanitari, fiscali e non solo, ammesso e non concesso che al pubblico vada giù) i loro modelli “nazionalizzati” potrebbero non reggere il passo con lo sviluppo di quelli anglofoni. Per non parlare di come il controllo delle autocrazie sui contenuti, sia quelli su cui si addestrano i sistemi sia quelli che possono generare, può finire per inibire la loro utilità.

C’è di più. Se i governi come quello statunitense limitassero l’accesso agli Llm open source i rivali potrebbero vedersi tagliare l’accesso a strumenti utili per sviluppare i propri sistemi IA. Biden, da parte sua, ha sollevato questa prospettiva verso fine 2023. Ed è difficile che Washington vorrà ridurre volontariamente il vantaggio che il sistema accademico-industriale statunitense continua ad accumulare.

Sta, dunque, sorgendo tra i popoli una gara a chi arriva prima ad acquisire sistemi di intelligenze artificiali, potenti e competitivi, in grado di difendersi da attacchi che violano la loro sicurezza, come anche la loro privacy.

In questo scenario l’Italia, peraltro anch’essa impegnata a mettere a punto nuovi sistemi di intelligenza artificiale, sarebbe in grado, in forza della sua storia culturale e religiosa, di dare un suo apporto peculiare. L’Italia è un Paese con una lunghissima tradizione umanistica, e proprio perché la questione dell’intelligenza artificiale non ha a che fare solo con la tecnica o con le frontiere della tecnologia, ma anche e soprattutto con la necessità di rendere queste tecnologie compatibili con la coesistenza sociale, per la nostra Nazione si apre un ruolo profondamente sintonico con la sua tradizione passata. Essa si ripropone l’obiettivo di mettere la persona al centro e di sviluppare così un modello, che potrebbe essere considerato rinascimentale, di riscoperta dell’umano e del suo valore nella relazione con le macchine.

L’idea, espressa da padre Paolo Benanti (diventato presidente della Commissione Algoritmi del Dipartimento per l’informazione e l’editoria di Palazzo Chigi, che si occupa di Intelligenza artificiale), è di inserire dei guard rail etici alla macchina facendo riferimento all’algoretica, cioè un’etica computata dagli uomini ma che dovrebbe divenire computabile dalle stesse macchine. Affiancare etica e tecnologia per un’intelligenza artificiale che ponga sempre al centro l’uomo e sia al servizio di un autentico sviluppo: ecco l’obiettivo. Ma servono nuovi criteri, categorie e linguaggi.

L’Italia è al lavoro per trovarli, avvalendosi della presidenza del G7, partendo dall’Hiroshima AI process e cercando soluzioni innovative per sfruttare al meglio le potenzialità della tecnologia, senza dimenticare i suoi rischi. Se la società civile saprà porsi come ente intermedio di questo processo, sarà più facile portarlo a termine.

  1. Verso dove?

Ponendo al centro dell’attenzione proprio l’intelligenza artificiale e le sue applicazioni diventa, in particolare, necessario fermarsi sui possibili effetti sociali di questa tecnologia, che si possono suddividere sommariamente in tre diversi ambiti: a) le potenzialità della ricerca scientifica per l’innovazione; b) l’impatto sul mondo del lavoro; c) l’impatto sociale sulla formazione dell’opinione pubblica e sulla coesione sociale.

Per quanto concerne l’ambito della ricerca scientifica è sufficiente evidenziare alla luce dell’esperienza, come quella della recente pandemia, gli strumenti tecnologici si sono dimostrati fondamentali. Non solo. Anche con riferimento ad altre aree, come quella della transizione ecologica, dell’economia circolare, della green economy,  del miglioramento delle condizioni usuranti nel mondo del lavoro, della produttività, della rapidità delle comunicazioni, della competitività economica, della capacità di fronteggiare i problemi della siccità, dei cambiamenti climatici, delle attività estrattive, produttive e distributive, come anche di welfare sociale, è sempre più evidente  che solo grazie alla condivisione dei dati digitali e all’utilizzo di nuovi algoritmi e di nuove tecnologie che i Paesi del mondo possono meglio fronteggiare sfide globali e mantenersi al passo con i tempi, per poter dare meglio il loro apporto nella costruzione del bene comune nazionale e mondiale. Specie la vita dei popoli più poveri esige di essere migliorata non solo dal punto di vista della disponibilità dei beni economici e tecnologici ma anche dal punto di vista della disponibilità di capacità intellettuali, morali, culturali, che consentono di poter cogliere le opportunità di scelta circa uno sviluppo integrale, solidale, comunitario, aperto ad umanesimo trascendente, mantenendosi quindi anche competitivi su tutti i livelli di esistenza: non solo economici, ma anche sociali, culturali, religiosi.

Ma per poter valorizzare nel miglior modo le varie opportunità di scelta o le varie chance di vita, per usare il linguaggio di Ral Dahrendorf, offerte dal progresso della nuova tecnologia, secondo l’Insegnamento sociale della Chiesa è fondamentale disporre di un parametro interiore ed etico, atto ad offrire la nozione di bene umano integrale. In mancanza del riferimento al bene umano integrale le capacità di scelta non possono tradursi in azioni morali, in scelte giuste. In definitiva, il mondo delle intelligenze artificiali per poter essere a servizio non solo del progresso delle Nazioni, singole o associate, ma del bene umano universale, necessita di superare il transumanesimo – avente come obiettivo di sostituire l’umano con le macchine dell’intelligenze artificiali, andando oltre l’umano, sostituendo la coscienza umana con una coscienza artificiale – e di scegliere un neoumanesimo.

Sul fronte degli impatti sul mondo del lavoro è già constatabile che le nuove tecnologie legate al digitale e all’IA hanno e avranno un’influenza maggiore su una determinata fascia di impieghi che, normalmente, appartengono alla cosiddetta classe media. Ma l’impatto non è mai un dato precostituito o predeterminato. Occorre valutare tutta una serie di fattori, come la situazione storica, territoriale, demografica della popolazione ed altro ancora. All’atto pratico, l’impatto lavorativo su una certa classe sociale dovrà essere messo in relazione, per esempio, con la crisi demografica. Per cui se da un lato è vero che si verificherà probabilmente una perdita di posti di lavoro, dall’altro è altresì vero che con i numeri demografici disponibili nel nostro Paese – una nazione in cui in quaranta province ci sono più pensionati che lavoratori – volendo mantenere la competitività sarà ovviamente necessario aumentare la produttività dei singoli, cosa che sarà possibile con un maggior investimento nell’intelligenza artificiale. Ma, evidentemente, non è che si dovrà guardare solo sul versante dell’investimento nell’intelligenza artificiale. Bisognerà anche considerare il versante delle politiche famigliari, della riduzione dell’inverno demografico, della valorizzazione dei migranti e altro ancora.

Infine, sono da considerare gli impatti dell’IA sull’utilizzo dello spazio pubblico, soprattutto in relazione alla formazione dell’opinione pubblica. Si tratta di un ambito molto sensibile, ove si registra un forte rischio. Infatti, gli strumenti tecnologici applicati alle piattaforme sociali e ai mezzi di comunicazione di massa possono di fatto cambiare la percezione dell’opinione pubblica, diffondendo disinformazione o informazioni inesatte, distanti dai fatti realmente accaduti.

  1. La questione delle questioni: crescere in umanità anche nel campo delle comunicazioni sociali

Se occorre porre attenzione all’impatto sulla vita democratica da parte di chi può influenzare l’opinione pubblica è pure giusto porre attenzione all’impatto dell’IA sulle comunicazioni sociali, tra le quali sta l’editoria.

Ogni prolungamento tecnico dell’uomo può essere strumento di servizio amorevole o di dominio ostile.

«I sistemi di intelligenza artificiale possono contribuire al processo di liberazione dall’ignoranza e facilitare lo scambio di informazioni tra popoli e generazioni diverse. Possono ad esempio rendere raggiungibile e comprensibile un enorme patrimonio di conoscenze scritto in epoche passate o far comunicare le persone in lingue per loro sconosciute. Ma possono al tempo stesso essere strumenti di “inquinamento cognitivo”, di alterazione della realtà tramite narrazioni parzialmente o totalmente false eppure credute – e condivise – come se fossero vere. Basti pensare al problema della disinformazione che stiamo affrontando da anni nella fattispecie delle fake news e che oggi si avvale del deep fake, cioè della creazione e diffusione di immagini che sembrano perfettamente verosimili ma sono false (è capitato anche a me di esserne oggetto), o di messaggi audio che usano la voce di una persona dicendo cose che la stessa non ha mai detto. La simulazione, che è alla base di questi programmi, può essere utile in alcuni campi specifici, ma diventa perversa là dove distorce il rapporto con gli altri e la realtà».[2]

Dall’uso etico dell’intelligenza artificiale, che ascolta i molteplici bisogni delle persone e dei popoli, ossia da un sistema di informazione articolato e pluralista, democratico, potranno derivare maggiore libertà, uguaglianza e giustizia sociale per la famiglia umana. Da un uso non etico dell’intelligenze artificiali potranno, invece, derivare nuove caste basate sul dominio informativo, con conseguenti forme di sfruttamento e di diseguaglianza.

Come scrive papa Francesco nel suo Messaggio «Siamo chiamati a crescere insieme, in umanità e come umanità. La sfida che ci è posta dinanzi è di fare un salto di qualità per essere all’altezza di una società complessa, multietnica, pluralista, multireligiosa e multiculturale. Sta a noi interrogarci sullo sviluppo teorico e sull’uso pratico di questi nuovi strumenti di comunicazione e di conoscenza. Grandi possibilità di beneaccompagnano il rischio che tutto si trasformi in un calcolo astratto, che riduce le persone a dati, il pensiero a uno schema, l’esperienza a un caso, il bene al profitto, e soprattutto che si finisca col negare l’unicità di ogni persona e della sua storia, col dissolvere la concretezza della realtà in una serie di dati statistici.

La rivoluzione digitale può renderci più liberi, ma non certo se ci imprigiona nei modelli oggi noti come echo chamber. In questi casi, anziché accrescere il pluralismo dell’informazione, si rischia di trovarsi sperduti in una palude anonima, assecondando gli interessi del mercato o del potere. Non è accettabile che l’uso dell’intelligenza artificiale conduca a un pensiero anonimo, a un assemblaggio di dati non certificati, a una deresponsabilizzazione editoriale collettiva. La rappresentazione della realtà in big data, per quanto funzionale alla gestione delle macchine, implica infatti una perdita sostanziale della verità delle cose, che ostacola la comunicazione interpersonale e rischia di danneggiare la nostra stessa umanità. L’informazione non può essere separata dalla relazione esistenziale: implica il corpo, lo stare nella realtà; chiede di mettere in relazione non solo dati, ma esperienze; esige il volto, lo sguardo, la compassione oltre che la condivisione».[3]

  1. Per una conclusione

«Della prima ondata di intelligenza artificiale, quella dei social media, abbiamo già compreso l’ambivalenza toccandone con mano, accanto alle opportunità, anche i rischi e le patologie. Il secondo livello di intelligenze artificiali generative segna un indiscutibile salto qualitativo. È importante quindi avere la possibilità di comprendere, capire e regolamentare strumenti che nelle mani sbagliate potrebbero aprire scenari negativi. Come ogni altra cosa uscita dalla mente e dalle mani dell’uomo, anche gli algoritmi non sono neutri. Perciò è necessario agire preventivamente, proponendo modelli di regolamentazione etica per arginare i risvolti dannosi e discriminatori, socialmente ingiusti, dei sistemi di intelligenza artificiale e per contrastare il loro utilizzo nella riduzione del pluralismo, nella polarizzazione dell’opinione pubblica o nella costruzione di un pensiero unico. Rinnovo dunque il mio appello esortando «la Comunità delle nazioni a lavorare unita al fine di adottare un trattato internazionale vincolante, che regoli lo sviluppo e l’uso dell’intelligenza artificiale nelle sue molteplici forme» [4]. Tuttavia, come in ogni ambito umano, la regolamentazione non basta».[4]

Sarebbe giusto, pertanto, creare un’Agenzia internazionale come quella sull’energia atomica.

                                                 + Mario Toso

[1] Un LLM (Large Language Model) serve a comprendere e generare testo in modo sofisticato ed è utilizzato per vari scopi, come rispondere a domande, tradurre lingue, redigere documenti o assistere nella formazione, migliorando l’interazione tra umani e computer.

[2] Francesco, Messaggio per la 58.a Giornata mondiale delle comunicazioni sociali (24 gennaio 2024).

[3] Ib.

[4] Ib