Washington 2. septembra 2019 (HSP/Sputnik/Foto:Flickr)
Vážne nebezpečenstvo vojenského použitia systémov umelej inteligencie, tkvie v jeho účasti na prijatí rozhodnutia o prvom útoku. Píše o tom Breaking Defense s odkazom na bývalého námestníka ministra obrany USA Roberta Warka
Wark si myslí, že sa umelá inteligencia nesmie získať kontrolu nad jadrovými zbraňami, pretože sa odpaľujú podľa určitých parametrov a ukazovateľov. V niektorých situáciách môže umelá inteligencia odhadnúť neohrozujúce faktory ako nebezpečné, čo je “znepokojujúca perspektíva“.
Ako príklad uvádza ruský systém Perimeter, ktorý môže vyhodnotiť seizmickú aktivitu ako jadrové výbuchy, po čom vyšle žiadosť do štábu a ak náhodou nedostane odpoveď, môže dať povel k vypusteniu medzikontinentálnych balistických rakiet.
Wark dodal, že použitie umelej inteligencie na vojenské účely môže mať tragické následky, dokonca bez jeho priamej účasti v ovládaní jadrových zbraní. Môže, napríklad ísť o jeho použitie v rozbore prieskumných dát a rovnako v systémoch včasného varovania.
“Predstavte si, že systém umelej inteligencie na veliteľstve čínskej armády zanalyzoval dáta prieskumu a vyhlásil, že USA chystajú útok na Čínu, preto odporúča preventívny úder,“ povedal Wark.
Avšak, poznamenal, že umelá inteligencia môže byť nepochybne užitočná pre vojakov, jej použitie však má byť obmedzené a nesmie sa týkať jadrových zbraní, pretože to môže mať za následok “katastrofický scenár“.