“Keď som bola na začiatku tohto roka na zasadnutí výboru OSN venovanému systémom smrtiacich autonómnych zbraní (inými slovami robotom-vrahom), šokovalo ma tvrdenia amerických delegátov o tom, že automatické zbrane s umelou inteligenciou môžu byť bezpečné a spoľahlivé. Podobná myšlienka nielen nezodpovedá skutočnosti, ale ohrozuje nás všetkých. Presne rovnaká logika viedla k studenej vojne, k jadrovému zbrojeniu a vzniku hodiniek Súdneho dňa,” píše Liz O’Sullivanová v článku pre NBC News.
Autorka príspevku pracovala v jednej mladej, rozvojovej spoločnosti a na vlastnej skúsenosti sa presvedčila o nebezpečenstve “nespoľahlivých, ale výkonných technológií”.
O’Sullivanová sa obávala, že jej práca môže prispieť k potenciálnym plánom Pentagonu ohľadom použitia umelej inteligencie na vojenské účely, a preto túto spoločnosť opustila.
Následne sa stala členkou Medzinárodného výboru pre kontrolu nad robotizovanými zbrojnými systémami (ICRAC) a pripojila sa ku kampani “Zastavme bojové roboty,” aby sa presvedčila, že sa umelá inteligencia používa zodpovedne, dokonca aj v prípade ozbrojeného konfliktu.
“S ohľadom na to, že Rusko sa usiluje o zmarenie medzinárodných rokovaní o kontrolu nad systémami smrtiacich autonómnych zbraní (LAWS) a Čína sériovo vyrába stále modernejšie bezpilotné stroje s umelou inteligenciou, dajú sa pochopiť obavy týkajúce sa toho, že tieto dve krajiny môžu nasadiť vraždiace roboty. Ale najlepší spôsob pre USA, ako prekonať tento problém, je nestimulovať preteky v zbrojení, nevyrábať vlastné stroje, ktoré budú väčšie, rýchlejšie a smrteľnejšie. Najlepší spôsob je zabrániť tomuto horúčkovitému zbrojeniu,” zdôrazňuje expertka.
Pripomenula, že Američania už vyhrotili napätie. Je preto potrebné schváliť v rámci OSN medzinárodné zákony, ktoré zakážu vývoj podobných systémov a uznajú ich použitie za neprípustné.
Ak majú USA za cieľ zmiernenie napätia, ak chcú dosiahnuť, aby Rusko a Čína prísne tento zákaz dodržiavali, musia obmedziť bojové kvality tejto technológie.
“Technické obmedzenia LAWS poskytujú zjavnú možnosť držať túto Pandorinu skrinku zatvorenú. Našich výborných odborníkov na vysoké technológie a naše zdroje musíme využiť na vývoj spoľahlivých obranných a nie útočných strojov. Keď naši nepriatelia konštruujú terminátorov, môžeme bojovať ako John Connor, ktorý statočne bránil ľudstvo pred terminátormi, ktorí chceli vládnuť ľuďom,” domnieva sa Liz O’Sullivanová.
Modely umelej inteligencie môžu podľa jej mienky zhodnotiť len objekty, s ktorými mali do činenia skôr, a preto sa nedajú odhadnúť všetky scenáre. Uhol kamery, svetlo, vzdialenosť objektu, kvalita natočenia, počasie, to nie je zďaleka úplný zoznam faktorov, ktoré môžu ovplyvniť presnosť počítačového modelu, ktorý sa snaží nájsť cieľ.
“Keď výskumníci hovoria týmto modelom ‘krehké’ majú na mysli, že ‘prasknú’ v prípade nejakej zmeny scenára, ktorý bol do nich vložený pri konštruovaní. Je to obzvlášť správne v prípade vojnových akcií, pretože sa situácia na bojisku nedá presne predpovedať, a nepriateľ sa bude vždy snažiť, aby túto slabosť využil,” upozornila technická odborníčka.
Pentagon bude musieť vybaviť svojich robotov-vrahov počítačovým videním, aby dokázali nájsť cieľ. Lenže žiadny dnešný model počítačového videnia nie je to isté, ako čeliť takzvaným pretekárskym útokom, ktoré majú za cieľ oklamať umelú ingeligenciu.
Stačí, napríklad pridať k zobrazeniu trochu digitálneho hluku, aby bol model počítačového videnia oklamaný. Rovnaký účinok bude mať, napríklad ak dáme tankový oddiel pod sieť z rôznofarebných lesklých konfiet, alebo z niečoho rovnako nevhodného. Keď robot nebol naučený, aby konal v podobnej situácii, budú vojaci v tejto kamufláži prakticky nezraniteľní, tvrdí Liz O’Sullivanová.
Prieskum tiež ukázal, že nie tvar alebo farba, ale textúra umožňuje modelom počítačového videnia stanoviť terč pred útokom. Pretože, ak hľadá terminátor kožu, dá sa pred ním ukryť do kožušiny. Ak je naprogramovaný na púšť, dá sa umiestniť na bojisku umelý trávnik, myslí si autorka článku.
“Ak si prajeme mať niečo s vyššou technológiou, dá sa vyrobiť živá, meniteľná kamufláž, ktorá generuje rôzne vzory a textúry. Alebo vyzbrojiť našich vojakov nečakanými predmety, napríklad, pripevniť na bojové techniku ružové nafukovanie dikobrazy. Keďže sa tieto objekty nebudú podobať ničomu použiteľnému pre algoritmus zameranie, uskutoční počítač predpoklad, že ľudia, ktorých vidí, sa istým spôsobom líšia od tých, ktorých má zabíjať,” predpokladá Liz O’Sullivanová.
Priznáva sa, že nie je expertka na obranu, a preto prenecháva konkrétne riešenie “Johnom Connorom z rôznych vojenských laboratórií USA.” Zároveň ale varuje s odkazom na vlastné znalosti, že modely počítačového videnia nemusia byť účinné.
“Tvrdenie americkej delegácie o účelnosti vojny, v ktorej stroje môžu útočiť bez ľudskej účasti, bolo pre mňa dôkazom zjavného nedostatku technických znalostí, ktoré sú potrebné pre vážne diskusie na túto tému. To je to hlavné, čoho sa obávam ako ja, tak ostatní účastníci kampane Zastavme roboty-vrahov. Systémy smrtiacich autonómnych zbraní nie sú pôvodne bezpečné, a ak dovolíme krajinám, zvlášť nedemokratickým, aby ich vyvíjali, padneme všetci za obeť ich chýb,” píše na záver Liz O’Sullivanová.