Heliga Stolen om framstegen och farorna med AI
Salvatore Cernuzio - Vatikanstaten
Artificiell intelligens bör inte betraktas som en person, den bör inte avgudas, den bör inte ersätta mänskliga relationer, utan användas ”endast som ett kompletterande redskap till mänsklig intelligens”. Påvens varningar om AI under de senaste åren utgör konturerna av Antiqua et Nova, skrivelsen om förhållandet mellan artificiell intelligens och mänsklig intelligens som är resultatet av den ömsesidiga reflektionen mellan Dikasteriet för Trosläran och Dikasteriet för Kultur och Utbildning. Dokumentet riktar sig till föräldrar, lärare, präster, biskopar och de som är kallade att utbilda och förmedla tron, men också till de som ser behovet av att vetenskaplig och teknisk utveckling står ”till tjänst för personen och det gemensamma bästa” [5]. Skrivelsen publicerades i dag, den 28 januari, och godkändes av påven.
I 117 punkter belyser Antiqua et Nova (som hänvisar till ”visdom”, forntida och ny) utmaningar och möjligheter med utvecklingen av artificiell intelligens (AI) inom områdena utbildning, ekonomi, arbete, hälsa, internationella och mellanmänskliga relationer samt krigföring. Inom det sistnämnda området, till exempel, kan AI:s potential - varnar skrivelsen - öka krigsresurserna ”långt bortom mänsklig kontroll” och påskynda ”en destabiliserande kapprustning med förödande konsekvenser för de mänskliga rättigheterna” [99].
Nedan följer en sammanfattning om huvudpunkterna i det nya dokumentet om artificiell intelligens från Dikasterierna för Trosläran och för Kultur och Utbildning.
Faror och framsteg
Mer i detalj listar dokumentet med väl avvägd balans, farorna med AI men också framstegen, som uppmuntras som ”en del av människans samarbete” med Gud ”för att föra den synliga skapelsen till fulländning” [2]. Oron är dock stor för alla innovationer, vars effekter fortfarande är oförutsägbara, även för det som för tillfället verkar så oskyldigt som genereringen av texter och bilder där risken är att den ”växande sanningskrisen” påverkas[3].
Att skilja mellan AI och mänsklig intelligens
Det är alltså etiska och antropologiska tankar som ligger till grund för de två dikasteriernas reflektion som ägnar flera stycken i skrivelsen åt den ”avgörande” distinktionen mellan artificiell intelligens och mänsklig intelligens - som ”utövas i relationer” [18], som formas av Gud och ”formas av en myriad av erfarenheter som levs i kroppslighet”. AI ”saknar förmåga att utvecklas i denna bemärkelse” [31]. Och det är ”en funktionalistisk syn”, där människor endast utvärderas utifrån prestationer. Men människans värde förblir alltid intakt: även hos ”ett ofött barn”, hos ”en person i medvetslöst tillstånd” eller hos ”en lidande äldre person” [34]. ”Det är därför ”missvisande” att använda själva ordet ”intelligens” i samband med AI: det är inte ”enartificiell form av intelligens”, utan ”en av dess produkter” [35].
Makt i händerna på ett fåtal
Och som alla produkter av mänsklig uppfinningsrikedom kan AI också användas i ”positiva eller negativa syften”, påpekar Antiqua et Nova. I dokumentet förnekar man inte att artificiell intelligens kan leda till ”viktiga innovationer” inom olika områden [48], men man varnar för risken att den kan förvärra situationer med marginalisering, diskriminering, fattigdom, den ”digitala klyftan” och sociala orättvisor [52]. Det som väcker ”etisk oro” är framför allt det faktum att ”den största delen av makten över de viktigaste tillämpningarna av AI är koncentrerad till ett fåtal mäktiga företag” [53], så att denna teknik i slutändan manipuleras för ”personlig eller företagsmässig vinning” eller för att ”styra den allmänna opinionen mot en sektors intressen” [53].
Krig
I skrivelsen granskas de olika områdena i förhållande till AI. Hänvisningen till krig är oundviklig. Medan AI:s ”analytiska kapacitet” kan användas för att hjälpa nationer att söka fred och säkerhet, är autonoma och dödliga vapensystem, som kan ”identifiera och slå till mot mål utan direkt mänsklig inblandning” [100] och utan någon form av ”moralisk bedömning”, en ”allvarlig anledning till etisk oro”. Påven uppmanade till ett förbud mot deras användning, för som han sa vid G7-mötet i Puglia: ”Ingen maskin bör någonsin välja att ta livet av en människa”. Maskiner som kan utföra autonomt precisionsdödande och andra som kan utföra massförstörelse utgör ett verkligt hot mot ”mänsklighetens eller hela regioners överlevnad” [101]. Dessa tekniker ”ger krig en okontrollerbar destruktiv kraft som drabbar många oskyldiga civila, utan att skona ens barn”, fördömer Antiqua et Nova. För att förhindra att mänskligheten hamnar i ”spiraler av självförstörelse” är det därför nödvändigt att ”tydligt ta ställning mot alla tillämpningar av teknik som i sig hotar människans liv och värdighet”.
Mänskliga relationer
När det gäller mänskliga relationer konstateras i dokumentet att AI visserligen kan ”främja kontakter”, men samtidigt leda till ”skadlig isolering” [58]. ”Antropomorfiseringen av AI” innebär också särskilda problem för barns uppväxt, eftersom de uppmuntras att förstå ”mänskliga relationer på ett utilitaristiskt sätt”, vilket är fallet med chatbots [60]. Det är alltså ”fel” att framställa AI:n som en person och det är ”ett allvarligt etiskt brott” att göra det i bedrägligt syfte. Precis som ”att använda AI för att bedra i andra sammanhang- t.ex. inom utbildning eller mänskliga relationer, inklusive sexualitet - är djupt oetiskt och kräver noggrann vaksamhet” [62].
Ekonomi och arbete
Samma vaksamhet krävs inom det ekonomisk-finansiella området. Särskilt när det gäller arbetslivet konstateras att AI å ena sidan har ”potential” att öka kompetensen och produktiviteten eller skapa nya arbetstillfällen, men att den å andra sidan kan ”göra arbetstagare mindre kompetenta, utsätta dem för automatiserad övervakning och förpassa dem till stela och repetitiva funktioner” [67], vilket i sin tur kan ”kväva” all innovationsförmåga. ”Man får inte sträva efter att i allt högre grad ersätta mänskligt arbete med tekniska framsteg, för det skulle skada mänskligheten själv”, betonas det i skrivelsen [70].
Hälso- och sjukvård
Ett stort utrymme ägnas åt ämnet hälso- och sjukvård. Även om AI har en enorm potential i tillämpning inom det medicinska området (t.ex. för att underlätta diagnostisk verksamhet), skulle det, om AI skulle ersätta förhållandet mellan läkare och patient och lämna interaktionen enbart till maskiner, riskera att ”förvärra den ensamhet som ofta följer med sjukdom”. Optimeringen av resurserna får inte heller ”drabba de mest utsatta” eller skapa ”fördomar och diskriminering” [75] som skulle leda till en förstärkning av en ”medicin för de rika”, där människor med ekonomiska medel drar nytta av avancerade förebyggande verktyg och personlig medicinsk information, medan andra kämpar för att få tillgång till grundläggande tjänster.
Utbildning
Riskerna lyfts också fram inom utbildningsområdet. Om AI används på ett klokt sätt kan det förbättra tillgången till utbildning och erbjuda ”omedelbar feedback” till studenter [80]. Problemet är att många program ”bara ger svar i stället för att uppmana studenterna att hitta dem själva eller att skriva texter själva”, vilket leder till att man förlorar träning i att samla information eller utveckla kritiskt tänkande [82]. För att inte tala om hur mycket ”förvrängd eller fabricerad information” eller ”felaktigt innehåll” som vissa program kan generera och därmed legitimera falska nyheter [84].
Falska nyheter och Deepfake
När det gäller falska nyheter påminner skrivelsen om den allvarliga risken att AI ”genererar manipulerat innehåll och falsk information” [85] för att på så sätt mata en AI med ”hallucinationer”, med osant innehåll som verkar verkligt. Ännu mer oroande är det när sådant fiktivt innehåll avsiktligt används för manipulationsändamål. Till exempel när deepfake-bilder, -videor och -ljud (modifierade eller algoritmiskt genererade representationer) avsiktligt sprids för att ”lura eller skada” [87]. Uppmaningen är därför att alltid ”vara noga med att kontrollera sanningshalten” i det som sprids och att under alla omständigheter undvika att ”dela ord och bilder som är förnedrande för människor”- det ”som underblåser hat och intolerans, förringar skönheten och intimiteten i den mänskliga sexualiteten och utnyttjar de svaga och försvarslösa” [89].
Privatliv, kontroll, religionsfrihet
När det gäller integritet och kontroll påpekas i skrivelsen att vissa typer av data kan beröra en persons intimitet, ”kanske till och med dennes samvete” [90]. Data samlas nu in med ett minimum av information och risken är att allt blir ”ett slags skådespel som man kan spionera med, och övervaka” [92]. Dessutom varnas det för att ”digital övervakning kan användas för att utöva kontroll över troendes liv och uttryck för deras tro” [90].
Gemensamt hem
När det gäller skapelsen anses tillämpningar av AI kunna förbättra förhållandet till det gemensamma hemmet vilket är ”lovande”. Man behöver bara tänka på modeller för att förutse extrema väderhändelser, hantera nödhjälp eller stödja ett hållbart jordbruk [95]. Samtidigt kräver de nuvarande AI-modellerna och den hårdvara som stöder dem ”stora mängder energi och vatten och bidrar avsevärt till koldioxidutsläppen, samtidigt som de är resurskrävande”. Det är därför en ”tung” belastning på miljön: ”Utvecklingen av hållbara lösningar är avgörande för att minska deras inverkan på det gemensamma hemmet”.
Förhållandet till Gud
”Antagandet att ersätta Gud med ett verk av ens egna händer är avgudadyrkan": skrivelsen citerar de heliga skrifterna för att varna för att AI kan vara ’mer förföriskt än traditionella avgudar’ [105]. Man påminner därför om att AI inte är mer än ”en blek avspegling” av mänskligheten: ”Det är inte AI som gudomliggörs och dyrkas, utan människan, som på detta sätt blir slav under sitt eget arbete”. Därav en avslutande rekommendation: ”AI bör endast användas som ett kompletterande redskap till den mänskliga intelligensen och inte ersätta dess rikedom” [112].