Praha 31. októbra 2017 (HSP/Foto:TASR/AP-Shizuo Kambayashi)
Moderné technológie, robotika a umelá inteligencia sa pomaly stavajú súčasťou života. Veľký rozmach zaznamenali v posledných rokoch hlavne v oblasti priemyselnej výroby. Stále však neexistuje mnoho štúdií, ktoré by zhodnotili budúci vývoj a možné riziká. Mohol by rýchly vývoj dospieť až ku katastrofickým scenárom známym zo sci-fi filmov?
Donedávna bola prakticky využiteľná umelá inteligencia či samoučenie takmer nepredstaviteľné, pretože sme nemali dostatočne efektívne a výkonné procesory, ktoré by zložité procesy umelých neurónových sietí dokázali v reálnom čase spracovávať. To sa v súčasnosti mení. Vznikajú procesory aj celé výpočtové jednotky optimalizované priamo pre strojové učenie a umelú inteligenciu. Napríklad Fujitsu tento rok predstavilo procesor dl (Deep Learning Unit), Nvidia potom vlani “stolový superpočítač” DGX-1 a tento rok “system on chip” Xavier, ktoré majú na tieto úlohy dostatok výkonu a zároveň rozumne nízku spotrebu energie, informuje český portál iDnes.cz.
Ocitáme sa tak v bode, keď najväčším problémom nebude samotná technika, ale problémy skôr humanitného, filozofického a etického charakteru.
“S umelou inteligenciou sme presne v tej situácii, keď je možné veľmi ľahko definovať problém a zároveň je veľmi ťažké prísť s jeho riešením. Jeden z ťažko riešiteľných problémov sa týka strojového učenia, čo je podstatná súčasť systémov umelej inteligencie. Problém je, že nikdy neviete, na základe čoho sa systém niečo naučil, a na čom sú teda jeho rozhodnutia založené. Celá tá matematika okolo je taká, že nikto nemôže urobiť forenzný rozbor – systém sa nedá otvoriť, pozrieť si ho a zistiť, na základe čoho sa v konkrétnom prípade rozhodol. Systém umelej inteligencie je vlastne umelá neurónová sieť, je to vlastne hrubý model fungovania nášho mozgu. Môžeme si ju predstaviť ako veľkú množinu mozgových buniek a obriu množinu ich vzájomných prepojení, teda synapsií,” objasňuje problematiku Joseph Reger, technický riaditeľ spoločnosti Fujitsu.
V prípade softvéru, ktorý nie je založený na umelej inteligencii a strojovom učení je môžené urobiť audit, ktorý zistí, či softvér nemá chyby – ešte predtým, než problém vznikne, stačí len podozrenie. A ten zistí, prečo sa softvér v daných situáciách chová tak či tak. So strojovým učením toto prakticky nie je možné, pretože to, prečo a ako sa správa, nie je naprogramované. Naprogramované je to, ako sa učí a dáva výsledky. Audit by tak certifikoval kód pre učenie, nie pre rozhodovanie – ten nie je naprogramovaný, ale naučený. A mechanizmy strojového učenia sú známe, tam sa pri audite žiadne prekvapenie neobjaví.
Ako názorný príklad môže slúžiť istá ázijská finančná inštitúcia, ktorá do testovacej prevádzky nasadila systém využívajúci strojové učenie, ktorý určoval kreditné skóre jednotlivých klientov. No a tento systém začal postupne niektorých klientov preukázateľne diskriminovať – na základe pohlavia, náboženstva či rasy.
“Máte možnosť proti tomu protestovať, ale nemáte možnosť zistiť, prečo sa systém takto chová. Kto je zodpovedný? Normálne to je tvorca systému. Ale v tomto prípade, je zodpovedný kto? U koho budete funkčnosť systému reklamovať? Tvorca sa môže ľahko brániť: výsledok učenia je závislý na dátach a metadátach, ktorá ste systému dodali, je to vaša vec. Poskytol niekto falošné dáta? A čo keď bola vstupné dáta počas učenia skreslia napríklad len ich nevhodným zberom a výberom?” zamýšľa sa doktor Reger.