Brusel 15. februára 2017 (HSP/Yahoo/Foto:Pixabay)
Pri hľadaní nových topánok v e-shope, pri vyberaní filmu online alebo pri žiadosti o úver na auto cez internet má výsledok na svedomí pravdepodobne jeden a ten istý algoritmus
Zložité matematické vzorce zohrávajú čoraz väčšiu úlohu vo všetkých oblastiach života: od detekcie rakoviny kože cez návrhy nových priateľov na Facebooku až po rozhodovanie o tom, kto dostane prácu, ako budú nasadené policajné zdroje, kto dostane poistenie a za akú cenu, alebo kto je na “no fly” zozname.
Algoritmy sú používané – experimentálne – aj na písanie novinových článkov z nespracovaných údajov, zatiaľ čo prezidentskej kampani Donalda Trumpa pomáhal marketéri, ktorí používajú algoritmus pre lokalizáciu najvyššej koncentrácie nerozhodných voličov.
Ale zatiaľ čo takéto automatizované procesy dokážu aplikovať určitú mieru objektivity do niekdajších subjektívnych rozhodnutí, rastú obavy rastú z nedostatku transparentnosti algoritmov, s čím rastú aj tlaky na aplikáciu etických štandardov či “zodpovednosti.”
Vedkyňa Cathy O’Neilová varuje pred “slepou dôverou” vo vzorce pre stanovenie spravodlivého riešenia. “Algoritmy nie sú vo svojej podstate spravodlivé, pretože úspech algoritmu zadefinovala opäť len osoba,” povedala.
– Zosilňujúce nevýhody –
O’Neilová tvrdí, že zatiaľ čo niektoré algoritmy môžu byť užitočné, ostatné môžu byť naopak škodlivé. Vo svojej knihe z roku 2016, “Zbrane matematického ničenia” (Weapons of Math Destruction) cituje niektoré znepokojujúce príklady v Spojených štátoch:
– Štátne školy vo Washingtone DC v roku 2010 vyhodili viac ako 200 učiteľov – vrátane niekoľkých uznávaných – podľa skóre v algoritmickom vzorci, ktorý hodnotil ich výkon.
– Muž s diagnózou bipolárna porucha nezískal zamestnanie u siedmich predajcov po tom, čo ho zamietla aplikácia tretej strany, ktorá hodnotila osobnosť, pretože algoritmus ho vyhodnotil ako vysoko rizikového na základe jeho klasifikácie.
– Niektoré súdy sa spoliehajú na počítačové vzorce pre stanovenie výkonu trestu odňatia slobody, čo môže diskriminovať menšiny tým, že algoritmus berie do úvahy aj faktory, ako miesto bydliska vo štvrtiach s vysokou kriminalitou.
– Vo svete financií makléri získavajú dáta z internetových a iných zdrojov novými spôsobmi, pre rozhodnutie o úvere alebo poistení. To však príliš často zosilňuje predsudky voči znevýhodneným osobám.
Výsledky O’Neilovej sa odrazili v správe Bieleho domu vlani s výstrahou, že algoritmické systémy “nie sú neomylné – spoliehajú sa na nedokonalé vstupy, logiku, pravdepodobnosť, a ľudí, ktorí ich navrhnú”.
Správa uvádza, že dátové systémy môžu v ideálnom prípade vyradiť ľudskou zaujatosť, ale zároveň varovala, že algoritmy “systematicky znevýhodňujú niektoré skupiny.”
– Digitálne omrvinky –
Zeynep Tufekciová, profesorka University of North Carolina, ktorá sa zaoberá vzťahom technológie a spoločnosti, povedala, že automatizované rozhodnutia sú často založené na údajoch získaných o ľuďoch, niekedy aj bez ich vedomia.
“Tieto výpočtové systémy dokážu o vás vyvodiť najrôznejšie veci z takzvaných digitálnych omrviniek,” povedala Tufekciová v nedávnej TED prednáške.
“Môžu odvodiť vašu sexuálnu orientáciu, osobnostné rysy, politické sklony. Majú predpovedaciu silu s vysokou mierou presnosti.”
Takéto poznatky môžu byť užitočné v určitých kontextoch – napríklad pomáhajú lekárom diagnostikovať popôrodnú depresiu – ale nespravodlivé v iných krajinách, povedala.
Časť problému pramení z toho, že kladieme počítačom otázky, ktoré nemajú jedinú správnu odpoveď.
“Sú to subjektívne a otvorené otázky, ktorých ľudí by mala spoločnosť najať, novinky od ktorých priateľov na Facebooku sa vám budú zobrazovať, ktorý odsúdený má najväčšiu pravdepodobnosť znovu spáchať trestný čin.”
– Model EÚ? –
Frank Pasquale, profesor práva z University of Maryland a autor knihy “Čierna skrinka spoločnosti: Tajomstvo algoritmov, ktoré kontrolujú peniaze a informácie” (The Black Box Society: The Secret Algorithms That Control Money and Information), zdieľa rovnaké obavy.
Pasquale navrhuje, že jedným spôsobom, ako napraviť nekalé účinky, môže byť presadzovanie existujúcich zákonov na ochranu spotrebiteľa.
Pasquale poukazuje na práva Európskej únie v oblasti ochrany údajov a navrhuje vytvoriť “právo na vysvetlenie” v prípadoch, kedy budú spotrebitelia negatívne ovplyvnení algoritmickým rozhodnutím.
To by “buď prinútilo k transparentnosti, alebo zastavilo používanie algoritmov v určitých kontextoch,” povedal.
Alethea Langeová, politická analytička Centra pre demokraciu a technológiu, povedala, že plán EÚ “znie dobre”, ale “je naozaj náročný” a je pravdepodobné, že bude nepoužiteľný v praxi.
Langeová však verí, že vzdelávanie a diskusia môžu byť dôležitejšie ako vynucovania v rozvoji spravodlivejších algoritmov.
Langeová povedala, že jej organizácia pracovala s Facebookom napríklad na modifikácii kritizovaného vzorca, ktorý umožnil inzerentom používať “etnickú spriaznenosť” v ich zacielení.
– Obetný baránok –
Iní medzitým upozorňujú, že algoritmy by nemali byť obetným baránkom za spoločenské neduhy.
“Ľudia sa hnevajú a hľadajú niečo, čomu by mohli pripísať vinu,” povedal Daniel Castro, viceprezident Nadácie pre informačné technológie a inovácie.
“Obávame sa o predpojatosti, zodpovednosti a etických rozhodnutí, avšak tieto existujú, či používate algoritmy, alebo nie.”