Umělá inteligence a lidsk? faktor
Andrea Tornielli
?Autonomní zbraňové systémy nemohou být nikdy morálně odpovědnými subjekty: výlu?ná lidská schopnost morálního úsudku a etického rozhodování je více ne? slo?itý soubor algoritm? a tuto schopnost nelze redukovat na naprogramování stroje, který, jakkoli je "inteligentní", je stále strojem. Z tohoto d?vodu je nezbytné zajistit odpovídající, smysluplný a d?sledný lidský dohled nad zbraňovými systémy“. Toto napsal pape? Franti?ek ve svém poselství k leto?nímu 厂惫ě迟ovému dni míru.
Existuje epizoda, která se odehrála p?ed ?ty?iceti lety a která by se měla stát paradigmatem, kdykoli budeme hovo?it o umělé inteligenci aplikované na válku, na zbraně, na nástroje smrti. Jde o p?íběh sovětského d?stojníka, jeho? rozhodnutí v rozporu s protokolem zachránilo svět p?ed jaderným konfliktem, který by měl katastrofální následky. Ten mu? se jmenoval Stanislav Jevgrafovi? Petrov, byl podplukovníkem ruské armády a 26. zá?í 1983 měl no?ní slu?bu v bunkru "Serpuchov 15", kde sledoval aktivitu amerických raket. Studená válka se nacházela v rozhodujícím bodu zlomu, americký prezident Ronald Reagan investoval obrovské ?ástky do zbrojení a právě ozna?il SSSR za "?í?i zla", NATO se ú?astnilo vojenských cvi?ení, která rekonstruovala scéná?e jaderné války. V Kremlu seděl Jurij Andropov, který krátce p?edtím hovo?il o "bezprecedentní eskalaci" krize, a 1. zá?í Sověti sest?elili nad Kam?atkou dopravní letadlo Korean Air Lines, p?i?em? zahynulo 269 lidí.
Té noci 26. zá?í Petrov viděl, ?e po?íta? Krokus, mozkový trust pova?ovaný za neomylný p?i sledování nep?átelské aktivity, ohlásil ze základny v Montaně odlet rakety mí?ící na Sovětský svaz. Podle protokolu měl d?stojník okam?itě upozornit své nad?ízené, kte?í by dali pokyn k odpovědi odpálením raket směrem na Spojené státy. Petrov si v?ak dal na ?as, v neposlední ?adě proto, ?e - jak mu bylo ?e?eno - p?ípadný útok by byl masivní. Proto pova?oval onu osamocenou raketu za planý poplach. Stejně se zachoval i k dal?ím ?ty?em, které se na jeho monitorech objevily krátce poté, a divil se, pro? se neobjevilo ?ádné potvrzení z pozemního radaru. Dob?e věděl, ?e mezikontinentálním raketám trvá méně ne? p?l hodiny, ne? dosáhnou svého cíle, ale rozhodl se nevyvolat poplach a ponechal ostatní p?ítomný vojenský personál úplně ochromený.
Ve skute?nosti se elektronický mozek mýlil; k ?ádnému raketovému útoku nedo?lo. Krokus se nechal zmást jevem lomu slune?ního světla p?i kontaktu s mraky ve velké vý?ce. Lidská inteligence zkrátka viděla dál ne? stroj. Proz?etelné rozhodnutí neu?init rozhodnutí u?inil ?lověk, jeho? úsudek dokázal nahlédnout za hranice dat a protokol?.
Jaderné katastrofě se poda?ilo zabránit, a?koli o tom tehdy nikdo nevěděl a? do za?átku devadesátých let. Petrov, který zem?el v zá?í 2017, o oné noci v bunkru "Serpuchov 15" ?ekl toto: "Co jsem udělal? Nic zvlá?tního, jen svou práci. Byl jsem správný ?lověk na správném místě ve správný ?as". Byl ?lověkem schopným posoudit mo?nou chybu stroje pova?ovaného za neomylný, ?lověkem schopným - abychom se vrátili k pape?ovým slov?m - "morálního úsudku a etického rozhodování", proto?e stroj, jakkoli "inteligentní", je stále stroj.
Válka, opakuje Franti?ek, je ?ílenství, porá?ka lidskosti. Válka je vá?ným poru?ením lidské d?stojnosti. Vést válku schováváním se za algoritmy, spoléháním se na umělou inteligenci p?i ur?ování cíl? a zp?sobu jejich zasa?ení, a tím o?i??ovat své svědomí, proto?e si nakonec vybral stroj, je je?tě záva?něj?í. Nezapomínejme na Stanislava Jevgrafovi?e Petrova.