La Santa Sede: IA opportunit¨¤, ma l¡¯uomo pu¨° diventare schiavo delle macchine
Salvatore Cernuzio ¨C Città del Vaticano
Non va considerata come una persona l¡¯Intelligenza Artificiale, non va divinizzata, non deve sostituire le relazioni umane, ma deve essere utilizzata ¡°solo come strumento complementare all¡¯intelligenza umana¡±. I moniti del Papa sull¡¯IA di questi ultimi anni fanno da traccia ad Antiqua et Nova, la nota sul rapporto tra Intelligenza Artificiale e Intelligenza umana frutto della mutua riflessione tra Dicastero per la Dottrina della Fede e Dicastero per la Cultura e l¡¯Educazione. Un documento rivolto a genitori, insegnanti, preti, vescovi e quanti sono chiamati a educare e trasmettere la fede, ma anche a coloro che condividono l¡¯esigenza di uno sviluppo scientifico e tecnologico ¡°al servizio della persona e del bene comune¡± [5]. Pubblicata oggi, 28 gennaio, la Nota è stata approvata dal Papa.
In 117 paragrafi, Antiqua et Nova (in riferimento alla ¡°sapienza¡±, antica e nuova) mette in luce sfide e opportunità dello sviluppo dell¡¯Intelligenza Artificiale (IA) nei campi di educazione, economia, lavoro, sanità, relazioni internazionali e interpersonali, contesti di guerra. In quest¡¯ultimo ambito, ad esempio, le potenzialità dell¡¯IA ¨C avverte la Nota - potrebbero accrescere le risorse belliche ¡°ben oltre la portata del controllo umano¡±, accelerando ¡°una corsa destabilizzante agli armamenti con conseguenze devastanti per i diritti umani¡± [99].
Pericoli e progressi
Più nel dettaglio, il documento elenca con ragionato equilibrio i pericoli dell¡¯IA ma anche i progressi, che anzi incoraggia come ¡°parte della collaborazione¡± dell¡¯uomo con Dio ¡°nel portare a perfezione la creazione visibile¡± [2]. La preoccupazione, tuttavia, è grande ed è quella data da tutte le innovazioni i cui effetti sono ancora imprevedibili, anche per ciò che al momento appare innocuo come la generazione di testi e immagini che rischiano di avere un influsso sulla ¡°crescente crisi di veritࡱ [3].
Distinguere tra IA e intelligenza umana
Dunque sono considerazioni etiche e antropologiche quelle al centro della riflessione dei due Dicasteri che dedicano diversi paragrafi della Nota alla distinzione ¡°decisiva¡± tra Intelligenza Artificiale e intelligenza umana. Quella che ¡°si esercita nelle relazioni¡± [18], che è modellata da Dio ed ¡°è plasmata da una miriade di esperienze vissute nella corporeitࡱ. L¡¯IA ¡°manca della capacità di evolversi in questo senso¡± [31]. E la sua è ¡°una visione funzionalista¡±, con le persone valutate solo in base a lavori e risultati, laddove la dignità umana è imprescindibile e rimane intatta sempre. Anche in ¡°un bambino non ancora nato¡±, in ¡°una persona in stato non cosciente¡± o in ¡°un anziano sofferente¡± [34]. ¡°Fuorviante¡±, allora, usare la parola stessa ¡°intelligenza¡± in riferimento all¡¯IA: non è ¡°una forma artificiale dell¡¯intelligenza¡±, ma ¡°uno dei suoi prodotti¡± [35].
Potere in mano di pochi
E come ogni prodotto dell¡¯ingegno umano, anche l¡¯IA può essere diretta verso ¡°fini positivi o negativi¡±, sottolinea Antiqua et Nova. Non nega, il documento, che l¡¯Intelligenza Artificiale possa introdurre ¡°importanti innovazioni¡± in vari campi [48] ma avverte dal rischio che essa possa aggravare situazioni di marginalizzazione, discriminazione, povertà, ¡°divario digitale¡±, disuguaglianze sociali [52]. A sollevare ¡°preoccupazioni etiche¡± è soprattutto il fatto che ¡°la maggior parte del potere sulle principali applicazioni dell¡¯IA sia concentrato nelle mani di poche potenti aziende¡± [53], così che questa tecnologia finisca ad essere manipolata per ¡°guadagni personali o aziendali¡± o ad ¡°orientare l¡¯opinione pubblica verso l¡¯interesse di un settore¡± [53].
Guerra
La Nota passa al vaglio i vari ambiti del vivere in relazione all¡¯IA. Immancabile il riferimento alla guerra. Mentre le ¡°capacità analitiche¡± dell¡¯IA potrebbero essere impiegate per aiutare le nazioni a ricercare pace e sicurezza, sono ¡°grave motivo di preoccupazione etica¡± i sistemi di armi autonome e letali, in grado di ¡°identificare e colpire obiettivi senza intervento umano diretto¡± [100] e senza alcun tipo di "giudizio morale". Il Papa ha invitato con urgenza a bandirne l¡¯uso, perché come ha detto al G7 in Puglia: ¡°Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano¡±. Le macchine in grado di uccidere con precisione in modo autonomo e altre capaci di distruzione di massa sono una minaccia vera e propria per ¡°la sopravvivenza dell¡¯umanità o di intere regioni¡± [101]. Queste tecnologie ¡°danno alla guerra un potere distruttivo incontrollabile, che colpisce molti civili innocenti, senza risparmiare nemmeno i bambini¡±, denuncia Antiqua et Nova. Per evitare che l¡¯umanità precipiti in ¡°spirali di autodistruzione¡±, è necessario allora ¡°assumere una posizione netta contro tutte le applicazioni della tecnologia che minacciano intrinsecamente la vita e la dignità della persona umana¡±.
Relazioni umane
Sulle relazioni umane il documento osserva che l¡¯IA può, sì, ¡°favorire le connessioni¡± ma, al contempo, portare a ¡°un dannoso isolamento¡± [58]. ¡°L¡¯antropomorfizzazione dell¡¯IA¡±, pure, pone particolari problemi per la crescita dei bambini, incoraggiati a intendere ¡°le relazioni umane in modo utilitaristico¡±, come avviene con i chatbot [60]. ¡°Erroneo¡±, poi, rappresentare l¡¯IA come una persona ed è ¡°una grave violazione etica¡± attuare ciò per scopi fraudolenti. Così come ¡°utilizzare l¡¯IA per ingannare in altri contesti ¨C quali l¡¯educazione o le relazioni umane, compresa la sfera della sessualità ¨C è profondamente immorale e richiede un¡¯attenta vigilanza¡± [62].
Economia e lavoro
La stessa vigilanza viene domandata in ambito economico-finanziario. In particolare nel campo del lavoro si rileva che se, da una parte, l¡¯IA ha ¡°potenzialitࡱ per accrescere competenze e produttività o per creare nuovi posti di lavoro, dall¡¯altra, può ¡°dequalificare i lavoratori, sottoporli a una sorveglianza automatizzata e relegarli a funzioni rigide e ripetitive¡± [67], al punto da ¡°soffocare¡± ogni capacità innovativa. ¡°Non si deve cercare di sostituire sempre più il lavoro umano con il progresso tecnologico: così facendo l¡¯umanità danneggerebbe sé stessa¡±, sottolinea la Nota [70].
Sanità
Ampio spazio viene dedicato al tema della sanità. Pur detenendo un enorme potenziale in svariate applicazioni in campo medico (ad esempio l¡¯aiuto all¡¯attività diagnostica), l¡¯IA qualora andasse a sostituire la relazione medico-paziente lasciando l¡¯interazione solo alle macchine, rischierebbe di ¡°peggiorare quella solitudine che frequentemente accompagna la malattia¡±. Pure l¡¯ottimizzazione delle risorse non deve ¡°penalizzare i più fragili¡± o creare ¡°forme di pregiudizio e discriminazione¡± [75] che portino a rafforzare una ¡°medicina per i ricchi¡±, in cui le persone provviste di mezzi finanziari traggono beneficio da strumenti avanzati di prevenzione e informazioni mediche personalizzate, mentre altri faticano ad avere accesso persino ai servizi di base.
Educazione
Rischi vengono evidenziati anche nel campo dell¡¯educazione. Se usata in maniera prudente, l¡¯IA può migliorare l¡¯accesso all¡¯istruzione e offrire ¡°riscontri immediati¡± agli studenti [80]. Il problema è che molti programmi ¡°si limitano a fornire risposte invece di spingere gli studenti a reperirle da sé, oppure a scrivere essi stessi dei testi¡±; questo porta a perdere l¡¯allenamento nell¡¯accumulare informazioni o nello sviluppare un pensiero critico [82]. Senza dimenticare quante ¡°informazioni distorte o artefatte¡± o ¡°contenuti inesatti¡± alcuni programmi possono generare, andando così a legittimare le fake news [84].
Fake News e Deepfake
A proposito di fake news il documento rammenta il serio rischio che l¡¯IA ¡°generi contenuti manipolati e informazioni false¡± [85] così da alimentare una ¡°allucinazione¡± da IA, con contenuti non veritieri che sembrano reali. Ancora più preoccupante è quando tali contenuti fittizi sono usati intenzionalmente a fini di manipolazione. Ad esempio, quando si divulgano intenzionalmente immagini, video e audio deepfake (rappresentazioni modificate o generate da algoritmo) per ¡°ingannare o danneggiare¡± [87]. L¡¯appello è quindi ad avere sempre ¡°cura di controllare la veridicitࡱ di quanto divulgato e a evitare, in ogni caso, ¡°la condivisione di parole e immagini degradanti per l¡¯essere umano¡±, escludendo ¡°ciò che alimenta l¡¯odio e l¡¯intolleranza, svilisce la bellezza e l¡¯intimità della sessualità umana, sfrutta i deboli e gli indifesi¡± [89].
Privacy, controllo, libertà religiosa
Su privacy e controllo, la Nota evidenzia che alcuni tipi di dati possono arrivare a toccare l¡¯intimità della persona, ¡°forse persino la sua coscienza¡± [90]. I dati ormai si acquisiscono con una minima quantità di informazioni e il pericolo è di far diventare tutto ¡°una specie di spettacolo che può essere spiato, vigilato¡± [92]. Inoltre, si avverte, ¡°la sorveglianza digitale può essere usata per esercitare un controllo sulla vita dei credenti e sull¡¯espressione della loro fede¡± [90].
Casa comune
Sul tema Creato vengono giudicate ¡°promettenti¡± le applicazioni dell¡¯IA per migliorare il rapporto con la casa comune. Basti pensare ai modelli per la previsione di eventi climatici estremi, la gestione dei soccorsi o il supporto all¡¯agricoltura sostenibile [95]. Al contempo, gli attuali modelli di IA e il sistema hardware che li supporta richiedono ¡°ingenti quantità di energia e di acqua e contribuiscono in modo significativo alle emissioni di CO2, oltre a consumare risorse in modo intensivo¡±. È quindi un tributo ¡°pesante¡± quello si esige dall¡¯ambiente: ¡°Lo sviluppo di soluzioni sostenibili è vitale per ridurre il loro impatto sulla casa comune¡±.
Il rapporto con Dio
¡°La presunzione di sostituire Dio con un¡¯opera delle proprie mani è idolatria¡±: la Nota cita le Sacre Scritture per mettere in guardia dal fatto che l¡¯IA può risultare ¡°più seducente rispetto agli idoli tradizionali¡± [105]. Ricorda pertanto che essa non è altro che ¡°un pallido riflesso¡± dell¡¯umanità: ¡°Non è l¡¯IA a essere divinizzata e adorata, ma l¡¯essere umano, per diventare, in questo modo, schiavo della propria stessa opera¡±. Da qui, una raccomandazione conclusiva: ¡°L¡¯IA dovrebbe essere utilizzata solo come uno strumento complementare all¡¯intelligenza umana e non sostituire la sua ricchezza¡± [112].
Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui