Popiežiaus žinia Pasaulinės taikos dienos proga
Dirbtinis intelektas ir taika
Prasidėjus Naujiesiems metams, malonės laikui, kurį Viešpats suteikia kiekvienam iš mūsų, norėčiau kreiptis į Dievo tautą, į tautas, valstybių bei vyriausybių vadovus, įvairių religijų ir pilietinės visuomenės atstovus, į visus mūsų laikų vyrus bei moteris su geriausiais taikos linkėjimais.
1. Mokslo ir technologijų pažanga kaip kelias į taiką
Šventasis Raštas liudija, jog Dievas davė žmonėms savo Dvasią, kad jie įgytų išminties, „išmonės ir visų amatų pažinimo“ (Iš 35, 31). Žmogiškoji išmonė išreiškia vertumą, kurį mums suteikė Kūrėjas, sukūręs mus pagal savo paveikslą ir panašumą (plg. Pr 1, 26) ir įgalinęs laisvai ir sąmoningai atsiliepti į jo meilę. Mokslas ir technologijos ypatingu būdu atskleidžia šią iš esmės į santykį orientuotą žmogaus intelekto savybę: tai yra nepaprasti jo kūrybinio potencialo produktai.
Vatikano II Susirinkimo pastoracinėje konstitucijoje Gaudium et spes dar kartą patvirtinama ši tiesa: „žmogus savo darbu ir talentu visada stengėsi plačiau išskleisti savo gyvenimą“ [1]. Kai žmonės, pasitelkę „technikos priemones“, stengiasi paversti žemę „verta buveine visai žmonijos šeimai“ [2], jie veikia pagal Dievo planą ir bendradarbiauja su jo valia, siekdami kūrinijos pilnatvės ir skleisdami taiką tarp tautų. Mokslo ir technikos pažanga, kiek ji padeda gerinti žmonių visuomenės tvarką, plėtoti laisvę ir brolišką bendrystę, prisideda prie žmogaus tobulėjimo ir pasaulio perkeitimo.
Mes pagrįstai džiaugiamės ypatingais mokslo bei technikos laimėjimais ir esame dėkingi už juos, nes jų dėka buvo pašalinta daugybė anksčiau žmonių gyvenimą kamavusių ir dideles kančias kėlusių blogybių. Kartu mokslo ir technikos pažanga, suteikdama galimybę iki šiol neregėtu mastu kontroliuoti tikrovę, į žmogaus rankas atiduoda daugybę galimybių, tarp jų ir tokių, kurios gali kelti pavojų žmonijos išlikimui ir grėsmę bendriems namams [3].
Ypatinga naujųjų informacinių technologijų, ypač skaitmeninės srities, pažanga suteikia nuostabių galimybių ir kelia rimtą pavojų, susijusį su rimtomis implikacijomis teisingumo bei darnos tarp tautų siekiui. Todėl būtina užduoti keletą neatidėliotinų klausimų. Kokios bus vidutinės trukmės ir ilgalaikės naujųjų skaitmeninių technologijų pasekmės? Ir kokį poveikį jos turės individų ir visuomenės gyvenimui, tarptautiniam stabilumui bei taikai?
2. Dirbtinio intelekto ateitis – tarp pažadų ir grėsmių
Pastaraisiais dešimtmečiais informacinių technologijų pažanga ir skaitmeninių technologijų vystymasis jau pradėjo lemti esmines globaliosios visuomenės ir jos dinamikos permainas. Naujos skaitmeninės priemonės keičia komunikacijos, viešojo administravimo, švietimo, vartojimo, asmeninio bendravimo ir daugybę kitų kasdienio gyvenimo aspektų.
Be to, technologijomis, pasitelkiant įvairius algoritmus, iš internete paskidusių skaitmeninių pėdsakų galima išgauti duomenis, leidžiančius komerciniais ar politiniais tikslais kontroliuoti žmonių mąstymo bei santykių įpročius, dažnai be jų žinios, apribojant jų sąmoningą pasirinkimo laisvę. Interneto erdvėje, kuriai būdingas informacijos perteklius, technologijos gali struktūrizuoti duomenų srautą pagal vartotojui ne visada suvokiamus atrankos kriterijus.
Turime nepamiršti, kad moksliniai tyrimai ir technologinės naujovės nėra atsieti nuo tikrovės ir „neutralūs“ [4], bet veikiami kultūrinės įtakos. Tai visiškai žmogiškos veiklos sritys, jų kryptys kiekvienoje epochoje atspindi asmeninių, socialinių ir kultūrinių vertybių sąlygojamus pasirinkimus. Tas pats pasakytina ir apie jų siekiamus rezultatus: būtent dėl to, kad juos lemia specifinis žmogiškasis požiūris į aplinkinį pasaulį, rezultatai visada apima etinį aspektą, glaudžiai susijusį su sprendimais tų, kurie vykdo eksperimentus ir vadovauja gamybai siekdami konkrečių tikslų.
Tai taikoma ir dirbtinio intelekto formoms. Iki šiol mokslo ir technologijų pasaulyje nėra vienaprasmio jo apibrėžimo. Pati sąvoka, kuri jau tapo įprasta, apima įvairius mokslus, teorijas ir metodus, kuriais siekiama, kad mašinos savo veikimu atkurtų arba imituotų žmogaus pažintinius gebėjimus. Daugiskaita „intelekto formos“ visų pirma nurodo, kad šias sistemas, kad ir kokios nuostabios bei galingos jos būtų, nuo žmogaus skiria neįveikiama praraja: galiausiai jos yra „fragmentiškos“ ta prasme, jog gali imituoti arba atkartoti tik tam tikras žmogaus intelekto funkcijas. Taip pat vartojant daugiskaitą pabrėžiama, kad šios labai skirtingos priemonės visada turi būti laikomos „sociotechninėmis sistemomis“. Mat jų poveikis, nepaisant jų pagrindinės technologijos, priklauso ne tik nuo jų projektinės koncepcijos, bet ir nuo jų savininkų bei plėtotojų tikslų ir interesų, taip pat nuo situacijų, kuriose jos naudojamos.
Taigi dirbtinį intelektą dera suvokti kaip skirtingų tikrovių galaktiką, ir negalime a priori manyti, kad jo vystymas pozityviai prisidės prie žmonijos ateities ir taikos tarp tautų. Toks teigiamas rezultatas bus įmanomas tik tuo atveju, jei parodysime, jog gebame veikti atsakingai ir gerbti pagrindines žmogiškąsias vertybes, tokias kaip „įtrauktis, skaidrumas, saugumas, teisingumas, konfidencialumas ir patikimumas“ [5].
Taip pat nepakanka pasikliauti prielaida, kad algoritmų ir skaitmeninių technologijų kūrėjai įsipareigos elgtis etiškai ir atsakingai. Reikia stiprinti arba, jei reikia, steigti institucijas, kurios nagrinėtų kylančias etines problemas ir gintų teises tų, kurie naudojasi dirbtinio intelekto formomis arba yra jų veikiami [6].
Todėl didžiulę technologijų plėtrą turi lydėti tinkamas ugdymas siekiant atsakomybės už jų plėtrą. Laisvei ir taikiam sambūviui kyla grėsmė, kai žmonės pasiduoda egoizmo, asmeninių interesų, pelno siekimo ir valdžios troškimo pagundai. Todėl mums tenka pareiga išplėsti žvilgsnį ir nukreipti techninius bei mokslinius tyrimus į taikos ir bendrojo gėrio siekį, tarnaujantį integraliam žmogaus ir bendruomenės vystymuisi [7].
Kiekvieno asmens prigimtinis orumas ir brolybė, siejanti mus kaip vienos žmonių šeimos narius, turi būti naujų technologijų kūrimo pagrindas ir sudaryti neginčijamus jų vertinimo kriterijus dar prieš pradedant jas naudoti, kad skaitmeninė pažanga būtų pasiekta gerbiant teisingumą ir prisidėtų prie taikos siekio. Technologijų plėtra, kuri nepadeda gerinti visos žmonijos gyvenimo kokybės, bet, priešingai, didina nelygybę ir konfliktus, niekada negali būti laikoma tikra pažanga [8].
Dirbtinis intelektas taps vis svarbesnis. Jis kelia ne vien techninius, bet ir antropologinius, švietimo, socialinius ir politinius iššūkius. Jis žada, pavyzdžiui, išlaisvinimą nuo sunkaus darbo, efektyvesnę gamybą, lengvesnį transportavimą ir dinamiškesnes rinkas, taip pat revoliuciją duomenų kaupimo, organizavimo ir tikrinimo procesuose. Turime suvokti sparčiai vykstančias permainas ir jas valdyti taip, kad būtų garantuotos pagrindinės žmogaus teisės, gerbiamos institucijos bei įstatymai, skatinantys visapusišką žmogaus vystymąsi. Dirbtinis intelektas turėtų tarnauti geriausiam žmogaus potencialui ir mūsų aukščiausiems siekiams, o ne su jais konkuruoti.
3. Ateities technologija: mašinos, kurios pačios mokosi
Įvairių formų dirbtinis intelektas, grindžiamas mašininio mokymosi (machine learning) metodais, nors dar tik pradedamas kurti, jau dabar įneša didelių pokyčių į visuomenių struktūrą ir daro reikšmingą įtaką kultūroms, socialinei elgsenai ir taikos kūrimui.
Tokie pasiekimai kaip mašininis mokymasis ar gilusis mokymasis (deep learning) kelia klausimų kurie pranoksta technologijų ar inžinerijos sritis ir yra glaudžiai susiję su žmogaus gyvenimo prasmės, pamatinių pažinimo procesų ir proto gebėjimo siekti tiesos supratimu.
Pavyzdžiui, tam tikrų įrenginių gebėjimas kurti sintaksiškai ir semantiškai nuoseklius tekstus dar negarantuoja tų tekstų patikimumo. Sakoma, kad jie gali „haliucinuoti“, t. y. generuoti teiginius, kurie iš pirmo žvilgsnio atrodo tikėtini, bet iš tikrųjų yra nepagrįsti arba perteikia išankstines nuostatas. Tai kelia rimtą problemą, kai dirbtinis intelektas naudojamas dezinformacijos kampanijose, kurios skleidžia melagingas naujienas ir didina nepasitikėjimą komunikavimo priemonėmis. Aptariamos technologijos kelia rimtą pavojų taip pat konfidencialumo, duomenų valdymo ir intelektinės nuosavybės srityse; prie to prisideda ir kiti neigiami netinkamo jų naudojimo padariniai, pavyzdžiui, diskriminacija, kišimasis į rinkimų procesus, visuomenėje įsigalintis žmonių sekimas bei kontroliavimas, skaitmeninė atskirtis ir nuo bendruomenės vis labiau atitrūkstančio individualizmo stiprėjimas. Visi šie veiksniai gali pakurstyti konfliktus ir trukdyti siekti taikaos.
4. Ribų suvokimas technokratinėje paradigmoje
Mūsų pasaulis yra pernelyg platus, įvairus ir sudėtingas, kad jį būtų galima iki galo pažinti ir suklasifikuoti. Žmogaus protas niekada negalės išsemti jo turtingumo, net ir pasitelkęs pažangiausius algoritmus. Iš esmės jie pateikia ne garantuotas ateities prognozes, o tik statistinius apytikslius vertinimus. Ne viską galima nuspėti, ne viską galima apskaičiuoti; galiausiai „tikrovė viršesnė už idėją“ [9] ir, kad ir kokie nuostabūs būtų mūsų skaičiavimo gebėjimai, visada egzistuoja nepasiekiama liekana, kurios kiekybiškai neįmanoma apskaičiuoti.
Be to, didžiulis dirbtinių intelektų analizuojamų duomenų kiekis savaime neužtikrina nešališkumo. Kai algoritmai ekstrapoliuoja informaciją, visada yra rizika ją iškraipyti atkartojant aplinkos, kurioje algoritmai atsirado, neteisybę bei išankstines nuostatas. Kuo greitesni ir sudėtingesni jie tampa, tuo sunkiau suprasti, kodėl jie pateikė tam tikrą rezultatą.
„Protingos“ mašinos gali vis efektyviau atlikti joms pavestas užduotis, tačiau jų veiklos tikslą bei prasmingumą ir toliau nustatys arba įgalins žmonės, turintys savo vertybių visatą. Kyla pavojus, kad tam tikrų pasirinkimų kriterijai taps ne tokie aiškūs, atsakomybė už sprendimų priėmimą bus paslėpta, o gamintojai galės išvengti pareigos veikti bendruomenės labui. Tam tikra prasme tam palanki technokratinė sistema, kurioje ekonomika siejama su technologijomis ir teikiama pirmenybė efektyvumo kriterijui bei linkstama ignoruoti viską, kas nesusiję su jos tiesioginiais interesais [10].
Tai turėtų paskatinti mus susimąstyti apie tai, kas dažnai nepastebima dabartiniame technokratiniame ir į efektyvumą orientuotame mentalitete, tačiau nepaprastai svarbu asmeniniam ir socialiniam vystymuisi: tai „ribos suvokimas“. Žmogus, kuris apibrėžiamas kaip mirtinga būtybė, manydamas, kad pasitelkęs technologijas pranoks visas ribas, dėl obsesinio noro viską kontroliuoti rizikuoja prarasti kontrolę savo paties atžvilgiu; siekdamas absoliučios laisvės, jis gali pakliūti į technologijų diktatūros spiralę. Pripažinti ir priimti savo, kaip kūrinio, ribotumą yra būtina sąlyga, kad žmogus pasiektų, tiksliau, priimtų pilnatvę kaip dovaną. Technokratinės paradigmos ideologiniame kontekste, kuriame vadovaujamasi prometėjiška savipakankamumo prielaida, gali neproporcingai išaugti nelygybė, o žinios ir turtai kauptis nedaugelio rankose, ir tai kelia rimtą pavojų demokratinėms visuomenėms ir taikiam sambūviui[11].
5. Aktualios etikos temos
Ateityje dirbtinio intelekto sistemos galėtų nustatyti paskolos prašytojo patikimumą, asmens tinkamumą darbui, nuteistojo recidyvo tikimybę arba asmens teisę gauti politinį prieglobstį ar socialinę paramą. Kadangi šiose sistemose trūksta įvairių tarpininkavimo lygmenų, jos ypač jautrios įvairių šališkumo ir diskriminacijos apraiškų poveikiui: sisteminės klaidos gali nesunkiai daugintis ir generuoti ne tik atskirus neteisingumo atvejus, bet ir, pagal domino efektą, paskatinti socialinės nelygybės formų atsiradimą.
Be to, kartais atrodo, kad dirbtinio intelekto formos gali daryti įtaką asmenų sprendimams per iš anksto nustatytus pasirinkimo variantus, susijusius su paskatinimu ir atkalbinimu, arba per asmeninių pasirinkimų, grindžiamų informacijos organizavimu, reguliavimo sistemas. Tokios manipuliacijos ar socialinės kontrolės formos reikalauja atidaus dėmesio ir priežiūros, o šių sistemų gamintojai, diegėjai ir valdžios institucijos turi prisiimti aiškią teisinę atsakomybę.
Pasikliovimas automatiniais žmonių klasifikavimo procesais, pavyzdžiui, plačiai naudojant stebėjimo sistemas arba pritaikant socialinio kredito sistemas, taip pat gali turėti rimtų pasekmių pilietinei struktūrai nustatant nederamą piliečių reitingavimą. Be to, šie dirbtiniai klasifikavimo procesai taip pat gali sukelti valdžios konfliktus, nes jie susiję ne tik su virtualiais adresatais, bet ir su realiais žmonėmis tiesiogiai. Pamatinė pagarba žmogaus orumui reikalauja neleisti, kad asmens unikalumas būtų tapatinamas su duomenų rinkiniu. Negalima leisti, kad algoritmai nulemtų, kaip mes suprantame žmogaus teises, kad būtų nustumtos į šalį esminės vertybės – užuojauta, gailestingumas ir atleidimas ir panaikinta galimybė žmogui pasikeisti bei palikti savo praeitį praeičiai.
Šiame kontekste negalime neatsižvelgti į naujųjų technologijų poveikį darbo aplinkai: užduotys, kurios anksčiau buvo išimtinai žmogaus darbo sritis, sparčiai perimamos pramoniniu būdu taikant dirbtinį intelektą. Ir šiuo atveju kyla didelis pavojus, kad nedaugelis gaus neproporcingai didelę naudą, o daugybė žmonių bus nuskurdinti. Pagarba darbuotojų orumui ir užimtumo svarba asmenų, šeimų ir visuomenių ekonominei gerovei, darbo vietų saugumas ir teisingas darbo užmokestis turėtų būti vienas svarbiausių tarptautinės bendruomenės prioritetų, nes šios technologijų formos vis labiau skverbiasi į darbo aplinką.
6. Ar perkalsime kalavijus į arklus?
Šiomis dienomis žvelgdami į mus supantį pasaulį negalime išvengti rimtų etinių klausimų, susijusių su ginklų pramone. Galimybė vykdyti karines operacijas nuotoliniu valdomomis sistemomis lėmė tai, kad menkiau suvokiamas jų sukeliamas niokojimas ir atsakomybė už jų naudojimą, o tai prisidėjo prie dar šaltesnio ir atsainesnio požiūrio į didžiulę karo tragediją. Rimtą etinį susirūpinimą kelia naujų technologijų tyrimai vadinamųjų „autonominių letalinių ginklų sistemų“ srityje, įskaitant dirbtinio intelekto naudojimą karo metu. Autonominės ginklų sistemos niekada negali būti moraliai atsakingi subjektai: unikalus žmogaus gebėjimas moraliai vertinti ir priimti etinius sprendimus yra daugiau nei sudėtingas algoritmų rinkinys, ir šis gebėjimas negali būti paverstas mašinos, kuri, kad ir kokia „protinga“, vis tiek yra mašina, programavimu. Dėl šios priežasties būtina užtikrinti tinkamą, prasmingą ir nuoseklią žmogiškąją ginklų sistemų priežiūrą.
Taip pat negalime ignoruoti galimybės, kad sudėtingi ginklai gali patekti į netinkamas rankas ir būti panaudoti, pavyzdžiui, per teroristinius išpuolius arba intervencijas, kuriomis siekiama destabilizuoti teisėtas valdžios institucijas. Trumpai tariant, pasauliui tikrai nereikia, kad naujos technologijos prisidėtų prie neteisingos ginklų rinkos bei prekybos plėtros ir skatintų karo beprotybę. Einant tokiu keliu kiltų grėsmė, kad ne tik intelektas, bet ir pati žmogaus širdis taps vis labiau „dirbtinė“. Pažangiausios techninės priemonės turėtų būti naudojamos ne tam, kad palengvintų smurtinį konfliktų sprendimą, bet tam, kad nutiestų kelią taikai.
Žvelgiant pozityviau, jei dirbtinis intelektas būtų naudojamas integraliam žmogaus vystymuisi skatinti, jis galėtų įnešti esminių naujovių į žemės ūkį, švietimą ir kultūrą, pagerinti ištisų šalių ir tautų gyvenimo lygį, ugdyti žmonių brolybę ir socialinę draugystę. Tai, kaip naudojamės dirbtiniu intelektu, siekdami įtraukti pačius mažiausius, t. y. silpniausius ir labiausiai stokojančius brolius ir seseris, galiausiai rodo mūsų žmogiškumo mastą.
Žmogiškasis požiūris ir geresnės mūsų pasaulio ateities troškimas rodo, jog reikia tarpdisciplininio dialogo siekiant etinės algoritmų plėtros – algor-etikos, pagal kurią vertybės formuotų naujųjų technologijų kryptis [12]. Į etinius aspektus turėtų būti atsižvelgiama nuo pat mokslinių tyrimų pradžios, taip pat eksperimentavimo, projektavimo, gamybos, platinimo ir rinkodaros etapuose. Vadovaujantis tokia projektavimo etikos (ethics by design) prieiga, esminis vaidmuo tenka ugdymo įstaigoms ir sprendimų priėmėjams.
7. Iššūkiai ugdymui
Žmogaus orumą gerbiančių ir jam tarnaujančių technologijų kūrimas turi aiškią įtaką ugdymo institucijoms ir visai kultūrai. Skaitmeninės technologijos praplečia bendravimo galimybes ir suteikia erdvę susitikti naujais būdais. Tačiau išlieka poreikis nuolat apmąstyti, į kokius santykius jos mus nukreipia. Jaunimas auga technologijų persmelktoje kultūrinėje aplinkoje, ir tai negali nekelti klausimų dėl mokymo ir ugdymo metodų.
Mokant naudotis dirbtinio intelekto formomis visų pirma turėtų būti siekiama skatinti kritinį mąstymą. Būtina, kad įvairaus amžiaus vartotojai, ypač jaunimas, ugdytųsi gebėjimą įžvalgiai naudoti internete surinktus ar dirbtinio intelekto sistemų sukurtus duomenis bei turinį. Mokyklos, universitetai bei mokslo draugijos raginamos padėti studentams ir specialistams suvokti socialinius bei etinius technologijų kūrimo ir naudojimo aspektus.
Mokant naudotis naujomis komunikavimo priemonėmis reikėtų atsižvelgti ne tik į dezinformaciją, melagienas (fake news), bet ir į nerimą dėl atgimstančių „pirmykščių baimių, kurių technologinė pažanga neįveikė“ [13]. Deja, vėl tenka kovoti su „pagunda kurti sienų kultūrą, statyti sienas, [...] kad užkirstume kelią susitikimui su kitomis kultūromis, kitais žmonėmis“ [14], ir plėtoti taikų bei brolišką sambūvį.
8. Iššūkiai tarptautinės teisės raidai
Globali dirbtinio intelekto aprėptis aiškiai rodo, kad, greta suverenių valstybių atsakomybės reguliuoti jo naudojimą savo šalyje, tarptautinėms organizacijoms gali tekti lemiamas vaidmuo sudarant daugiašalius susitarimus ir koordinuojant jų taikymą bei įgyvendinimą [15]. Todėl raginu tautų bendriją bendradarbiauti ir priimti privalomą tarptautinę sutartį, reglamentuojančią įvairių formų dirbtinio intelekto kūrimą ir naudojimą. Žinoma, reguliavimo tikslas turėtų būti ne tik preventyviai užkardyti blogas praktikas, bet ir palaikyti gerąsias, skatinti naujas, kūrybingas prieigas ir palengvinti asmenines bei kolektyvines iniciatyvas [16].
Ieškant norminio reguliavimo modelių, kurie galėtų suteikti etinių gairių skaitmeninių technologijų kūrėjams, būtina nustatyti žmogiškąsias vertybes, kuriomis turėtų būti grindžiamos visuomenės pastangos suformuluoti, priimti ir taikyti reikiamas įstatymų normas. Rengiant etines gaires dirbtinio intelekto formų kūrėjams negalima neatsižvelgti į gilesnius klausimus, susijusius su žmogaus egzistencijos prasme, pagrindinių žmogaus teisių apsauga ir teisingumo bei taikos siekiu. Šis etinės ir teisinės įžvalgos procesas gali tapti vertinga proga bendrai apmąstyti, kokį vaidmenį technologijos turėtų atlikti mūsų asmeniniame ir bendruomenės gyvenime, ir kaip jų naudojimas gali prisidėti prie teisingesnio ir humaniškesnio pasaulio kūrimo. Todėl diskusijose dėl dirbtinio intelekto reguliavimo reikėtų atsižvelgti į visų suinteresuotų šalių, taip pat į vargšų, marginalizuotų ir kitų pasauliniuose sprendimų priėmimo procesuose dažnai neišklausomų žmonių balsus.
* * *
Tikiuosi, kad šis apmąstymas paskatins pasirūpinti, kad dirbtinio intelekto kūrimo pažanga galiausiai pasitarnautų žmonių brolybei ir taikai. Tai ne keleto, o visos žmonijos šeimos atsakomybė. Juk taika yra vaisius, kylantis iš santykių, kuriais pripažįstamas ir priimamas kito žmogaus neatimamas orumas, taip pat iš bendradarbiavimo bei įsipareigojimo siekiant integralaus visų žmonių ir tautų vystymosi.
Naujųjų metų pradžioje meldžiuosi, kad spartus dirbtinio intelekto formų vystymasis nepadidintų pasaulyje jau esančios nelygybės ir neteisybės, bet padėtų nutraukti karus bei konfliktus ir palengvintų daugybę žmonijos šeimą kamuojančių kančių. Tegul tikintieji krikščionys, įvairių religijų išpažinėjai, geros valios vyrai bei moterys darniai bendradarbiauja, siekdami pasinaudoti skaitmeninės revoliucijos teikiamomis galimybėmis ir įveikti jos keliamus iššūkius, kad ateities kartoms perduotų solidaresnį, teisingesnį ir taikesnį pasaulį.
Iš Vatikano, 2023 m. gruodžio 8 d.
ʰԳšܲ
[1] Nr. 33.
[2] Ten pat, 57.
[3] Plg. Enciklika Laudato si' (2015 m. gegužės 24 d.), 104.
[4] Plg. ten pat, 114.
[5] Kalba „Minervos dialogų“ dalyviams (2023 m. kovo 27 d.).
[6] Plg. ten pat.
[7] Plg. Žinia Davoso „Pasaulio ekonomikos forumo“ vykdomajam pirmininkui (2018 m. sausio 12 d.).
[8] Plg. Enciklika Laudato si' (2015 m. gegužės 24 d.), 194; Kalba seminaro „Bendrasis gėris skaitmeniniame amžiuje“ dalyviams (2019 m. rugsėjo 27 d.).
[9] Apaštališkasis paraginimas Evangelii gaudium (2013 m. lapkričio 24 d.), 233.
[10] Plg. Enciklika Laudato si', 54.
[11] Plg. Kalba Popiežiškosios gyvybės akademijos plenarinės asamblėjos dalyviams (2020 m. vasario 28 d.).
[12] Plg. ten pat.
[13] Enciklika Fratelli tutti (2020 m. spalio 3 d.), 27.
[14] Ten pat.
[15] Plg. ten pat, 170–175.
[16] Plg. Enciklika Laudato si', 177.