Sveta Stolica: Tehnologija bi trebala poboljšati ljudski život, a ne oduzimati ga
Za Svetu je Stolicu hitno potrebno osigurati čvrsti pravno obvezujući instrument koji zabranjuje uporabu takozvanog smrtonosnog autonomnog oružja, te u međuvremenu uspostaviti trenutni moratorij na njihov razvoj i uporabu. Istaknuo je to nadbiskup Ettore Balestrero, stalni promatrač Svete Stolice pri Ujedinjenim narodima i međunarodnim organizacijama u Ženevi, u govoru na drugom zasjedanju Skupine vladinih stručnjaka (GGE) 2024. o novim tehnologijama u sektoru sustavā autonomnog smrtonosnog oružja (LAWS), koje se održava od 26. do 30. kolovoza.
Papin govor skupini G7 o umjetnoj inteligenciji
侱پć pape Franje o umjetnoj inteligenciji pred čelnicima skupine G7 okupljenima 14. lipnja u mjestu Borgo Egnazia, u Italiji, nadbiskup Balestrero je podsjetio da ih je Papa potaknuo da preispitaju razvoj i uporabu uređaja kao što je tzv. 'smrtonosno autonomno oružje' i, konačno, zabrane njihovu uporabu. To polazi od učinkovitoga i konkretnoga zauzimanja za uvođenje sve većega i primjerenijega ljudskog nadzora. Nijedan stroj ne bi nikada trebao odlučiti oduzeti život ljudskom biću. Međutim – prema riječima nadbiskupa Balestrera – današnja bojišta postaju također poligoni za testiranje sve sofisticiranijega oružja.
Autonomna oružja nisu moralno odgovorni entiteti
Sveta Stolica odobrava i podupire pristup Skupine stručnjaka analizi potencijalnih funkcija i tehnoloških aspekata autonomnih oružanih sustava – napomenuo je nadbiskup te objasnio – jer bi identificiranje sustava nespojivih s međunarodnim humanitarnim pravom i drugim postojećim međunarodnim obvezama, moglo biti od velike koristi u uspostavljanju zabrana i ograničenja, uzimajući u obzir šira etička razmatranja.
Po mišljenju Svete Stolice – pojasnio je stalni promatrač – autonomni oružani sustavi ne mogu se smatrati moralno odgovornim subjektima. Naime, ljudska osoba, obdarena razumom, posjeduje jedinstvenu sposobnost moralnoga prosuđivanja i etičkog odlučivanja koju nije moguće ponoviti nijednim skupom algoritama, bez obzira koliko su kompleksni. Izaslanstvo Svete Stolice stoga cijeni upućivanje na odgovarajući nadzor i na ljudsku prosudbu u tekstu koji je sastavljen kao temelj rasprave na zasjedanju, iako traži veću jasnoću i zajedničko razumijevanje tih pojmova.
Stroj bira, čovjek odlučuje srcem
Zbog toga je stalni promatrač Svete Stolice pri Ujedinjenim narodima i međunarodnim organizacijama podsjetio na razliku između 'izbora' i 'odluke'. U govoru skupini G7 u lipnju ove godine, Papa je, ističući da se strojevi ograničavaju na proizvodnju algoritamskih tehničkih izbora, podsjetio da ljudsko biće, međutim, ne samo da bira, nego je u svom srcu sposobno odlučiti. To je više strateški element izbora, jer zahtijeva praktičnu procjenu. Osim toga – nastavio je papa Franjo – etička odluka uzima u obzir ne samo rezultate nekog postupka, nego i vrijednosti koje su u pitanju i dužnosti koje on podrazumijeva. Zbog toga je, i dalje citirajući Papin govor, nadbiskup ponovno istaknuo kako je po mišljenju Svete Stolice potrebno osigurati i zaštititi prostor za primjerenu ljudsku kontrolu nad izborima koje čine programi umjetne inteligencije, jer o tomu ovisi sâmo ljudsko dostojanstvo.
Tehnološki napredak treba služiti općem dobru
Vatikanski je predstavnik potom istaknuo da je u svijetu sve veća svijest o etičkim problemima potaknutima uporabom umjetne inteligencije kao oružje. To pokazuje također istaknuta uloga koja je dana etičkim razmatranjima na nedavnoj konferenciji o temi „Čovječanstvo na raskrižju: sustavi autonomnoga oružja i izazov regulacije“, održanoj u Beču 29. i 30. travnja 2024. godine.
Nadbiskup je na kraju podsjetio kako razvoj sve sofisticiranijega oružja sigurno nije rješenje. Korist koju će čovječanstvo moći izvući iz sadašnjega tehnološkog napretka ovisit će – kako piše papa Franjo u enciklici – o tomu u kojoj će mjeri taj napredak biti popraćen primjerenim razvojem odgovornosti i vrijednosti koje tehnološki napredak stavljaju u službu cjelovitoga ljudskog razvoja i općega dobra.
(Pope - adb; aa)