K pape?ově ú?asti na G7: Umělá inteligence jako smrtonosná inovace
Roberto Cetera
Záměr pape?e Franti?ka zú?astnit se zasedání G7 věnovaného umělé inteligenci vzbudil zvědavost. Pape?i zjevně není neznámé nebezpe?í některých aplikací umělé inteligence, které ?asto z?stávají v pozadí.
Nejde toti? jen o problém s vnit?ními vlastnostmi umělé inteligence a o otázky, které její budoucí vývoj otevírá pro formy komunikace a vztah?. Existuje také problém oblastí jejího uplatnění, které, stejně jako v p?ípadě mnoha jiných vědeckých a technologických inovací, je? jí p?edcházely, z?ejmě dávají p?ednost vojenské oblasti.
To, co se stalo v pr?běhu krvavé války, která v sou?asnosti probíhá v Gaze, tak p?edstavuje dramatickou výstrahu. Podle dvou autoritativních médií, jako je britský deník "The Guardian" a on-line noviny "+972 magazine" a "Local call magazine", vydávané v Tel Avivu, jsou izrael?tí vojáci bojující v Gaze po 7. ?íjnu údajně ?ízeni, ne-li "ovládáni", dvěma programy umělé inteligence, kterým je mimo jiné p?i?ítán vysoký po?et civilních obětí izraelského bombardování Pásma.
Podle zmíněných t?í médií, která získala informace p?ímo od izraelských zpravodajských d?stojník?, měly IDF (izraelské obranné síly) zejména v prvních měsících konfliktu k dispozici software umělé inteligence nazvaný Lavender, obsahující databázi asi 37 000 potenciálních cíl?, identifikovaných na základě p?edpokládaného spojení s teroristy z Hamásu. Jinými slovy, velitelské struktury izraelských jednotek měly p?i ur?ování cíl?, které měly být zasa?eny, up?ednostnit chladné indicie umělé inteligence p?ed pozorováním a hodnocením voják? v terénu. Během pouhých 20 sekund byl program schopen rozpoznat cíl ji? zadaný v databázi, identifikovat jej i prost?ednictvím rozpoznání obli?eje a na?ídit jeho provedení poskytnutím sou?adnic. Na tom, ?e se ve stejné budově nacházeli dal?í nevinní civilisté, p?íli? nezále?í. Podle izraelských zdroj?, které shromá?dily dva izraelské ?asopisy a které zprost?edkovaly londýnské noviny, byl vysoký po?et obětí, tj. civilist?, kte?í se stali obětí bombardování, zp?soben právě plo?ným pou?itím umělé inteligence.
Lidský zásah se měl omezit na pouhou validaci na konci celého postupu. Zdá se dokonce, ?e program byl naopak schopen p?edem vypo?ítat i odhad po?tu civilist?, kte?í budou zasa?eni p?i ka?dé jednotlivé operaci, a ?e v prvních týdnech konfliktu se d?íve uvedená hranice a schválené oběti pohybovaly v ?ádu 15 a? 20 civilních obětí na ka?dý zásah teroristy. Pru?né ?íslo v závislosti na kontextu: v některých p?ípadech ?lo a? o 5, ale v p?ípadě vrcholných ?len? vojenského k?ídla Hamásu nebo Islámského d?ihádu mohlo dosáhnout i 100 obětí. Izraelské vojenské vedení odhalení deníku The Guardian o vyu?ívání umělé inteligence v konfliktu nepop?elo, prohlásilo v?ak, ?e nikdy nejednalo mimo rámec mezinárodních pravidel p?imě?enosti vedlej?ích ?kod a ?e Lavender je v podstatě databáze, která prochází nap?í? r?znými zpravodajskými zdroji, aby měla aktuální informace o agentech teroristických skupin, a nikoli seznam těch, kte?í mají být fyzicky zlikvidováni. Program Lavender - opět podle anonymních svědectví izraelských zpravodajských d?stojník? - prý fungoval soubě?ně s jiným systémem umělé inteligence s ne??astným názvem Evangelium. Zatímco první z nich je zalo?en na databázi lidských cíl?, druhý se věnuje cíl?m sestávajícím z budov a staveb. Je z?ejmé, ?e struktura databáze Lavender závisí na lidském vstupu, pokud jde o pojem "terorista", tj. parametry, které jej definují. ?ím ?ir?í nebo podrobněj?í je definice poskytnutá stroj?m, tím ?ir?í nebo u??í je seznam cíl? poskytovaný programem Lavender. Panují obavy, ?e po krveprolití spáchaném Hamásem 7. ?íjna, kdy p?evládl duch pomsty, byly po?adavky na za?azení na seznamy "roz?í?eny". V d?sledku toho zvý?ený po?et cíl? mohl vy?adovat urychlení postup?, které mohlo umo?nit pouze nasazení umělé inteligence.
Také v dal?ím velkém vále?ném konfliktu těchto tě?kých ?as? se na boji?ti poprvé objevila umělá inteligence. Ukrajinské ozbrojené síly za?aly pou?ívat bezpilotní letouny ?ízené umělou inteligencí. Obecně platí, ?e dron má pilota, který jej na dálku navádí na cíl, v p?ípadě pot?eby upravuje kurz a zva?uje mo?ná rizika vedlej?ích ú?ink?. Na bohatý a perspektivní trh vojenské robotiky nyní vstupuje nová generace dron?, u nich? ji? není pilot, ale pouze operátor, který na geolokátoru uká?e na cíl a stiskne tla?ítko. Nejméně deset ukrajinských a několik západních spole?ností vyu?ívá rusko-ukrajinskou válku jako testovací prostor pro své smrtící vynálezy. Umělá inteligence těchto dron? plánuje trasu i s ohledem na morfologické vlastnosti terénu, koordinuje let celého roje, a po splnění mise vydává potvrzení o ?kodách zp?sobených nep?íteli. Jediný operátor m??e p?edev?ím sledovat let několika dron?, co? ?et?í ?as a lidské zdroje. Pro Ukrajince se tak vyu?ití umělé inteligence stává rozhodujícím nástrojem k vyrovnání po?etní nerovnováhy sil v poli. Rusové zase vyvinuli rozsáhlou linii rádiového ru?ení podél celé frontové linie, která slou?í k izolaci dron? od jejich vzdálených pilot?. Rusové k útok?m vyu?ívají také umělou inteligenci, která v?ak p?sobí p?edev?ím v oblasti kybernetických pr?nik?, aby automaticky reagovala na nep?átelské vpády a dokonce identifikovala potenciální zranitelná místa v síti. Západní pozorovatelé se domnívají, ?e ruský vývoj v oblasti vojenského vyu?ití umělé inteligence a realizace program? Emerging and disruptive technology (Edt) mohl být zpomalen uplatněním sankcí, nicméně Putin (který opakovaně zd?razňoval strategickou povahu vojenské umělé inteligence tím, ?e ji z hlediska ú?innosti p?irovnával k tomu, co v minulosti p?edstavovala jaderná síla) mohl v?dy vsadit na pokro?ilej?í úroveň, které v této oblasti dosáhli ?íňané.
Ukrajinské ministerstvo obrany vytvo?ilo specializovanou jednotku s názvem Bravel, která podporuje a usnadňuje práci desítkám za?ínajících firem, je? vznikly za ú?elem implementace umělé inteligence ve vojenské oblasti. Desítky západních vojenských sil pozorně sledují (jak odhaluje autoritativní internetový magazín Politico.eu v dlouhém a podrobném zkoumání tohoto fenoménu) vývoj automatických zbraňových systém?, které se testují na Ukrajině. Také v tomto p?ípadě, stejně jako v Gaze, je podle analytik? největ?ím rizikem, ?e up?ednostňování rychlosti provedení útoku skon?í sní?ením schopnosti kontroly těchto autonomních zbraní, co? otev?e mo?nost masového vra?dění. Na rozdíl od kli?é, které rusko-ukrajinský konflikt vnímá jako návrat k tradi?nímu vedení války, je tedy východ Ukrajiny dnes ve skute?nosti laborato?í pro experimentování s tím, jak se budou vést války v blízké budoucnosti. Bylo by d?le?ité, aby zasedání G7 zahájilo diskusi na toto téma a aby se zamyslelo nad mezinárodní úmluvou, která by - podobně jako tomu bylo v minulosti v p?ípadě jaderných arzenál? - stanovila limity pro pou?ití umělé inteligence ve vojenské oblasti. I kdy? se dnes zdá obtí?né regulovat fenomén, který je stále v raném stádiu vývoje, zatímco probíhají závody o to, kdo d?ív vyrobí nejsmrtonosněj?í zbraně.
Bylo by d?le?ité, aby zasedání G7 zahájilo diskusi nad mezinárodní úmluvou, která by stanovila limity pro pou?ití umělé inteligence ve vojenské oblasti.