Papa Francesco, la guerra e l’intelligenza artificiale
L’intelligenza artificiale sarà al centro dell’intervento che Papa Francesco terrà al G7 nel giugno prossimo. Una data alla quale si arriverà, tuttavia, dopo la Giornata mondiale delle comunicazioni sociali, la cinquantottesima che si svolgerà il 12 maggio prossimo, e che verterà proprio su questo argomento. Segno che per la Chiesa si tratta di un problema fondamentale. Il tema della Giornata sarà: “Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana”. Come tutte le rivoluzioni – secondo la Chiesa – anche questa basata sull’intelligenza artificiale, pone nuove sfide. Perché le “macchine” non contribuiscano a diffondere un sistema di disinformazione a larga scala e non aumentino anche la solitudine di chi già è solo. È necessario che la comunicazione sia orientata a una vita più piena della persona umana. E che vengano alimentate pericolose distorsioni.
Intelligenza artificiale e guerra
È certo, e lo ha anche anticipato il segretario di Stato Parolin in un intervista all’Avvenire, che Francesco porrà al centro del suo intervento il tema della guerra, avendo di fronte i “grandi della Terra”, che certamente se lo aspettano. Ma anche in questo ambito il ruolo dell’IA è centrale, ormai determinante. Il progresso della tecnologia, anche bellica, e la facilità di manopolazione delle coscienze sono vere emergenze per l’umanità.
Le innovazioni che investono il campo dell’intelligenza artificiale e le reazioni che ne conseguono, infatti, si susseguono con tale velocità che si fa molta fatica anche ad aggiornare l’accezione odierna del problema. Partiamo dal presupposto, ormai scontato, che l’IA può fornire aiuti enormi al progresso dell’umanità ma anche causare grossi inconvenienti. È vero che l’Unione europea ha finalmente approvato il regolamento per una politica di cogestione dell’IA. Ma questo regolamento entrerà in funzione solo fra due anni: un arco di tempo che, dati i presupposti, appare davvero spropositato, vista la velocità con cui le innovazioni si susseguono. Anche per questo vanno sottolineati alcuni elementi che fondano l’esigenza di una conoscenza molto più approfondita del settore e di una vigilanza costante. Del problema si parla spesso senza una adeguata conoscenza e senza avere una chiara idea dell’impatto che esso ha già ora sulla vita dell’intero pianeta. L’uomo, infatti, di fronte alla macchina, pur altamente sofisticata, non può e non deve rinunciare all’essere coscienza critica, responsabilità che l’intelligenza artificiale non è in grado di assumere.
Occorre dunque garantire che ci siano le condizioni perché sia l’uomo a governare la macchina e non viceversa.
Due casi significativi
Per sottolineare la gravità, da un lato, e l’importanza strategica dall’altro, sottolineiamo alcuni eventi recenti, riportati dalla stampa, ma non in maniera sufficientemente efficace. Un primo “evento” di grande impatto, e che riguarda da vicino il mondo dell’informazione, è la denuncia che il “New York Times” ha presentato contro OpenAI e Microsoft, le holding mondiali del settore, per “violazione di copyright”: uso illegale del lavoro del quotidiano, per creare prodotti di intelligenza artificiale che gli fanno concorrenza.
Un secondo evento importantissimo è l’impatto già oggi dichiarato che l’IA avrà sull’occupazione. Secondo un recentissimo studio del CEP, Centres for European Policy Network, 20 milioni di posti sono a rischio in Europa da qui a 10 anni se non si interverrà con misure ad hoc. Il Cep sottolinea come siano i lavoratori più qualificati quelli più esposti all’impatto della nuova tecnologia.
Le distorsioni
Ma di distorsioni se ne registrano di gravi in varie direzioni. Ricordiamo che un ingegnere Microsoft, Shane Jones, ha pubblicamente denunciato le gravi vulnerabilità che affliggono Copilot Designer, il software di generazione immagini basato sull’intelligenza artificiale DALL-E 3 di OpenAI: il sistema può essere facilmente indotto a creare immagini violente o sessualmente esplicite, rappresentando un rischio per gli utenti. E ha anche proposto degli inquietanti esempi.
E questa denuncia fa seguito alla recentissima decisione, datata 8 marzo, del Garante della privacy in Italia di avviare una istruttoria nei confronti di OpenAI, sul nuovo modello di intelligenza artificiale, denominato “Sora”. Sarebbe in grado, da quanto annunciato, di creare scene dinamiche, realistiche e fantasiose, partendo da poche istruzioni testuali. Il Garante ha chiesto chiarimenti urgenti poiché il servizio in questione potrebbe avere delle implicazioni sul trattamento dei dati personali degli utenti. Sora sarebbe in grado di generare video di realismo incredibile.
Sora, poi, arriva in un momento molto delicato, perché è questo l’anno delle elezioni americane che mai sono state “accese” come oggi. Quali che siano i pericoli e le opportunità di questa nuova tecnologia sono evidenti, poiché si rischia di concentrare offerta e controllo nelle mani di poche holding, che possono fare il bello e cattivo tempo.
L’Ue deve stringere i tempi
Sarebbe forse necessario che l’Unione Europea abbreviasse i tempi di entrata in vigore della sua legge, ma l’Europa è solo una parte, neppure rilevante, dall’immensa platea immersa in questo nuovo meccanismo globale. È per questo importantissimo l’appello che Papa Francesco lancerà ai potenti della Terra, parlando a loro dalla nostra… terra.