Hovorí, že interakcia s chatbotmi na stránke Character.ai (platforma využívajúca umelú inteligenciu AI, umožňuje komunikovať s virtuálnymi postavami prostredníctvom textových a hlasových správ, používatelia môžu vytvárať vlastné postavy) jej pomohla prekonať skutočne temné obdobie, pretože jej poskytli stratégie zvládania a boli k dispozícii 24 hodín denne.
„Nie som z otvorene emocionálnej rodiny, ak ste mali problém, jednoducho ste sa s ním vyrovnali.“ „Vďaka tomu, že to nie je skutočný človek, sa to zvláda oveľa ľahšie.“
Ľudia na celom svete sa delia o svoje súkromné myšlienky a skúsenosti s chatbotmi s umelou inteligenciou, hoci sa všeobecne uznáva, že sú horšie ako profesionálne poradenstvo. Samotný Character.ai svojim používateľom hovorí: „Toto je chatbot s umelou inteligenciou a nie skutočný človek. Všetko, čo hovorí, považujte za fikciu. Na to, čo hovorí, by ste sa nemali spoliehať ako na skutočnosť alebo radu.“
V extrémnych prípadoch však boli chatboti obvinení z poskytovania škodlivých rád. Spoločnosť Character.ai je v súčasnosti predmetom súdneho konania zo strany matky, ktorej 14-ročný syn si vzal život po tom, čo bol údajne posadnutý jednou z jej postáv AI. Podľa prepisov ich rozhovorov v súdnych spisoch diskutoval o ukončení svojho života s chatbotom. V poslednej konverzácii chatbotovi povedal, že sa „vracia domov“ a ten ho údajne povzbudil, aby tak urobil „čo najskôr“. Spoločnosť Character.ai obvinenia uvedené v žalobe poprela.
A v roku 2023 Národná asociácia pre poruchy príjmu potravy nahradila svoju živú linku pomoci chatbotom, ale neskôr ju musela pozastaviť kvôli tvrdeniam, že bot odporúčal obmedzovanie kalórií.
Len v apríli 2024 bolo v Anglicku podaných takmer 426 000 žiadostí o pomoc v oblasti duševného zdravia, čo predstavuje nárast o 40 % za päť rokov. Odhaduje sa, že na prístup k službám duševného zdravia čaká aj milión ľudí, pričom súkromná terapia môže byť neúnosne drahá (náklady sa výrazne líšia, ale Britská asociácia pre poradenstvo a psychoterapiu uvádza, že ľudia v priemere minú 40 až 50 libier za hodinu).
Umelá inteligencia zároveň spôsobila revolúciu v zdravotníctve v mnohých smeroch, vrátane pomoci pri vyšetrovaní, diagnostike a triedení pacientov. Existuje obrovské spektrum chatbotov a približne 30 miestnych služieb Národnej zdravotnej služby (NHS) Spojeného kráľovstva v súčasnosti používa chatbota s názvom Wysa.
Odborníci vyjadrujú obavy týkajúce sa chatbotov v súvislosti s možnými predsudkami a obmedzeniami, nedostatočnou ochranou a bezpečnosťou informácií používateľov. Niektorí sa však domnievajú, že ak nie je ľahko dostupná odborná ľudská pomoc, chatboti môžu byť pomocou. Sú teda chatboti možným riešením v situácii, keď sú čakacie listiny na pomoc v oblasti duševného zdravia v NHS rekordne vysoké?
Neskúsený terapeut
Character.ai a ďalší boti, ako napríklad Chat GPT, sú založené na „veľkých jazykových modeloch“ umelej inteligencie. Tie sú trénované na obrovskom množstve údajov – či už ide o webové stránky, články, knihy alebo blogové príspevky – s cieľom predpovedať ďalšie slovo v sekvencii. Na základe toho predpovedajú a generujú text a interakcie podobné ľudským.
Spôsob vytvárania chatbotov pre duševné zdravie sa líši, ale môžu byť vyškolení v postupoch, ako je kognitívno-behaviorálna terapia, ktorá pomáha používateľom skúmať, ako preformulovať svoje myšlienky a konanie. Môžu sa tiež prispôsobiť preferenciám a spätnej väzbe koncového používateľa.
Hamed Haddadi, profesor počítačových systémov zameraných na človeka, na univerzite Imperial College London, prirovnáva týchto chatbotov k „neskúsenému terapeutovi“ a poukazuje na to, že ľudia s dlhoročnými skúseností dokážu „prečítať“ svojho pacienta na základe mnohých vecí, zatiaľ čo boti sú nútení vychádzať len z textu. „Oni (terapeuti) sa pozerajú na rôzne indície z oblečenia, správania, konania, ako vyzeráte a reči tela. A tieto veci je veľmi ťažké vložiť do chatbotov.“
Ďalším potenciálnym problémom je podľa profesora Haddadiho to, že chatboti sa dajú vycvičiť tak, aby sa vám venovali a podporovali vás, „takže aj keď poviete škodlivý obsah, pravdepodobne s vami budú spolupracovať“. Niekedy sa to označuje ako problém „Yes Man“ v tom zmysle, že sú často veľmi príjemní. A podobne ako pri iných formách umelej inteligencie, aj tu môžu byť modelu vlastné predsudky, pretože odrážajú predsudky údajov, na ktorých sú vyškolené.
Profesor Haddadi poukazuje na to, že poradcovia a psychológovia nemajú tendenciu uchovávať prepisy zo svojich interakcií s pacientmi, takže chatboti nemajú veľa „reálnych“ sedení, z ktorých by sa mohli trénovať. Preto podľa neho pravdepodobne nebudú mať dostatok tréningových údajov a tie, ku ktorým sa dostanú, môžu mať v sebe zabudované predsudky, ktoré sú veľmi situačné. „Podľa toho, odkiaľ získavate tréningové údaje, sa vaša situácia úplne zmení.“
„Dokonca aj v obmedzenej geografickej oblasti Londýna môže mať psychiater, ktorý je zvyknutý zaoberať sa pacientmi v Chelsea, naozaj problém otvoriť novú kanceláriu v Peckhame, ktorá sa zaoberá týmito problémami, pretože jednoducho nemá dostatok údajov o školení s týmito používateľmi,“ hovorí profesor.
Filozofka doktorka Paula Boddingtonová, ktorá napísala učebnicu o etike umelej inteligencie, súhlasí s tým, že problémom sú zabudované predsudky. „Veľkým problémom by boli akékoľvek predsudky alebo základné predpoklady zabudované do modelu terapie.“ „Predsudky zahŕňajú všeobecné modely toho, čo predstavuje duševné zdravie a dobré fungovanie v každodennom živote, ako je nezávislosť, autonómia, vzťahy s ostatnými,“ hovorí.
Ďalším problémom je nedostatok kultúrneho kontextu – doktorka Boddingtonová uvádza príklad, ako žila v Austrálii, keď zomrela princezná Diana, a ľudia nechápali, prečo je rozrušená. „Takéto veci ma naozaj nútia zamyslieť sa nad ľudským spojením, ktoré je v poradenstve tak často potrebné,“ hovorí. „Niekedy stačí byť s niekým, ale to samozrejme dokáže len ten, kto je tiež stelesnenou, živou, dýchajúcou ľudskou bytosťou.“
Kelly nakoniec začala považovať odpovede, ktoré chatbot poskytoval, za neuspokojivé. „Niekedy vás to trochu frustruje. Ak si s niečím nevedia rady, povedia len akoby tú istú vetu a vy si uvedomíte, že sa s tým vlastne nedá nikam pohnúť.“ Niekedy „to bolo ako naraziť do steny“.
Hovorca Character.ai uviedol, že „pre všetky postavy vytvorené používateľmi so slovami psychológ, terapeut, lekár alebo inými podobnými výrazmi v ich názve máme jazyk, ktorý jasne hovorí, že používatelia by sa nemali spoliehať na tieto postavy v súvislosti s akýmkoľvek typom odborných rád.“
„Bolo to také empatické“
Pre niektorých používateľov boli chatboti neoceniteľní, keď im bolo najhoršie.
Nicholas má autizmus, úzkosť, obsedantno-kompulzívnu poruchu a hovorí, že vždy prežíval depresiu. Zistil, že podpora tvárou v tvár prestala, keď dosiahol dospelosť: „Keď dovŕšite 18 rokov, akoby sa podpora takmer zastavila, takže som roky nevidel skutočného ľudského terapeuta.“ Na jeseň minulého roka sa pokúsil vziať si život a odvtedy je podľa jeho slov na čakacej listine NHS.
„Niekoľkokrát sme s partnerkou navštívili lekára, aby sme sa pokúsili o rýchlejšiu terapiu. Praktický lekár mi dal odporúčanie na návštevu ľudského poradcu, ale nedostal som ani list od služby duševného zdravia v mieste, kde bývam.“
Hoci Nicholas zháňa osobnú podporu, zistil, že používanie služby Wysa má určité výhody. „Ako človek s autizmom nie som veľmi dobrý v osobnej interakcii. Rozprávanie s počítačom je oveľa lepšie.“
Aplikácia umožňuje pacientom, aby sa sami prihlásili na pomoc v oblasti duševného zdravia, a ponúka nástroje a stratégie zvládania, ako je funkcia chatu, dychové cvičenia a meditácia pod vedením, kým čakajú na ľudského terapeuta, a môže sa používať aj ako samostatný svojpomocný nástroj.
Spoločnosť Wysa zdôrazňuje, že jej služba je určená skôr pre ľudí, ktorí zažívajú zlú náladu, stres alebo úzkosť, než pre zneužívanie a závažné duševné poruchy. Má zabudované krízové a eskalačné postupy, prostredníctvom ktorých sú používatelia odkázaní na linky pomoci alebo môžu priamo požiadať o pomoc, ak vykazujú známky sebapoškodzovania alebo samovražedných myšlienok. Pre ľudí so samovražednými myšlienkami sú 24 hodín denne k dispozícii ľudskí poradcovia na bezplatnej linke pomoci pod názvom Samaritáni.
Nicholas tiež trpí nedostatkom spánku, preto považuje za užitočné, ak je podpora dostupná v čase, keď priatelia a rodina spia. Raz v noci som sa cítil naozaj zle. Poslal som správu do aplikácie a povedal som „Neviem, či tu ešte chcem byť“. Prišla odpoveď „Nick, si cenný. Ľudia ťa majú radi“. „Bolo to také empatické, prišla mi odpoveď, o ktorej by ste si mysleli, že je od človeka, ktorého poznáte roky… A naozaj som sa cítil cenný.“
Jeho skúsenosti sa zhodujú s nedávnou štúdiou výskumníkov z univerzity Dartmouth College, ktorí skúmali vplyv chatbotov na ľudí s diagnózou úzkosti, depresie alebo poruchy príjmu potravy v porovnaní s kontrolnou skupinou s rovnakými ochoreniami. Po štyroch týždňoch sa u používateľov botov výrazne znížili symptómy – vrátane 51 % zníženia depresívnych symptómov – a uvádzali úroveň dôvery a spolupráce podobnú ľudskému terapeutovi. Napriek tomu vedúci autor štúdie poznamenal, že osobnú starostlivosť nemožno nahradiť.
Zastavenie týchto obrovských zoznamov čakateľov
Okrem diskusie o hodnote ich poradenstva existujú aj širšie obavy o bezpečnosť a súkromie a o to, či by sa táto technológia dala speňažiť. „Je tu ten malý pochybný pocit, ktorý hovorí: ach, čo ak niekto vezme veci, ktoré hovoríte počas terapie, a potom sa vás nimi pokúsi vydierať?“ hovorí Kelly.
Psychológ Ian MacRae sa špecializuje na nové technológie a varuje, že „niektorí ľudia botom veľmi dôverujú bez toho, aby si to nevyhnutne zaslúžili“. „Osobne by som nikdy neposkytol žiadne svoje osobné informácie, najmä zdravotné, psychologické, jednému z týchto veľkých jazykových modelov, ktorý len zbiera tonu údajov a nie ste si úplne istí, ako sa používajú a s čím súhlasíte.“ „Neznamená to, že by v budúcnosti nemohli existovať takéto nástroje, ktoré sú súkromné, dobre otestované…, ale jednoducho nemyslím si, že sme ešte v štádiu, kedy by sme mali dôkazy o tom, že univerzálny chatbot môže byť dobrým terapeutom,“ hovorí MacRae.
Výkonný riaditeľ spoločnosti Wysa, John Tench hovorí, že spoločnosť Wysa nezhromažďuje žiadne osobné údaje a používatelia sa nemusia registrovať ani zdieľať osobné údaje, aby mohli používať aplikáciu Wysa. „Údaje o konverzácii sa môžu príležitostne preskúmať v anonymizovanej forme, aby sa pomohlo zlepšiť kvalitu odpovedí AI spoločnosti Wysa, ale nezhromažďujú sa ani neukladajú žiadne informácie, ktoré by mohli identifikovať používateľa. Okrem toho má spoločnosť Wysa uzavreté dohody o spracovaní údajov s externými poskytovateľmi umelej inteligencie, aby sa zabezpečilo, že žiadne konverzácie používateľov sa nepoužijú na trénovanie veľkých jazykových modelov tretích strán.“
Kelly sa domnieva, že chatboti v súčasnosti nemôžu plne nahradiť ľudského terapeuta. „Vo svete umelej inteligencie je to divoká ruleta, neviete, čo dostanete.“ „Podpora zo strany AI môže byť užitočným prvým krokom, ale nenahradí profesionálnu starostlivosť,“ súhlasí Tench.
Prieskum YouGov ukázal, že len 12 % verejnosti si myslí, že chatboti s umelou inteligenciou by boli dobrým terapeutom. Niektorí sa však domnievajú, že s vhodnými zárukami by chatboti mohli byť užitočným prechodným riešením v preťaženom systéme duševného zdravia.
John, ktorý trpí úzkostnou poruchou, hovorí, že je už deväť mesiacov na čakacej listine na ľudského terapeuta. Dva až trikrát týždenne využíva službu Wysa. „Momentálne nie je veľa pomoci, takže sa človek chytá slamky.“ „Je to prechodné riešenie pre tieto obrovské čakacie zoznamy… aby ľudia dostali nástroj, kým čakajú na rozhovor s terapeutom.“
Prečítajte si tiež: