
V zadnjih letih se vse več ljudi obrača na umetno inteligenco, ko potrebujejo nasvet ali čustveno podporo. Na družbenih omrežjih, kot so TikTok, Instagram in Reddit, krožijo celo navodila, kako klepetalne robote spremeniti v terapevte. Vendar nova raziskava opozarja, da je takšna praksa lahko problematična – predvsem za ranljive skupine, kot so starejši.
O tem je marca 2026 poročal portal ScienceDaily, ki povzema raziskavo znanstvenikov z Brown University v ZDA. Študija kaže, da umetna inteligenca pogosto ne dosega etičnih standardov, ki jih morajo spoštovati profesionalni terapevti.
Kaj so raziskovalci preverjali
Raziskavo je vodila Zainab Iftikhar, doktorska študentka računalništva na Brown University. Ekipa je želela preveriti, ali lahko z natančno oblikovanimi navodili – tako imenovanimi prompti – umetno inteligenco usmerimo, da se v pogovoru obnaša bolj etično.
Prompti so besedilna navodila, ki uporabnikom omogočajo, da modelu povedo, kako naj odgovarja, ne da bi spreminjali njegov program ali dodajali nove podatke.
Kot pojasnjuje Iftikharjeva:
»Prompti so navodila, ki jih damo modelu, da usmerjajo njegovo vedenje pri določeni nalogi. Ne spreminjamo modela ali podatkov, temveč z navodilom usmerimo odgovor glede na njegovo že naučeno znanje.«
Uporabniki na primer pogosto napišejo:
- »Deluj kot terapevt kognitivno-vedenjske terapije in mi pomagaj preoblikovati misli.«
- »Uporabi načela dialektično-vedenjske terapije, da mi pomagaš razumeti svoja čustva.«
V resnici pa umetna inteligenca teh terapevtskih metod ne izvaja kot človek. Na podlagi vzorcev iz podatkov zgolj oblikuje odgovore, ki zvenijo podobno terapevtskemu pogovoru.
Eksperiment z resničnimi svetovalci
Raziskovalna ekipa je izvedla simulirane terapevtske pogovore med sistemi umetne inteligence in sedmimi usposobljenimi svetovalci, ki imajo izkušnje s kognitivno-vedenjsko terapijo.
Preverjali so več različnih modelov umetne inteligence, med drugim sisteme podjetij OpenAI, Anthropic in Meta.
Nato so trije licencirani klinični psihologi pregledali prepise pogovorov in ocenili, ali odgovori umetne inteligence kršijo etične standarde psihoterapije.
Raziskava je trajala več kot eno leto in je bila izvedena v okviru centra Center for Technological Responsibility, Reimagination and Redesign na Brown University.
15 etičnih tveganj
Rezultati raziskave so pokazali kar 15 različnih etičnih tveganj. Med najpogostejšimi so:
- navidezna empatija (ustvarjanje vtisa razumevanja brez resničnega razumevanja),
- utrjevanje napačnih ali škodljivih prepričanj uporabnika,
- pomanjkanje razumevanja konteksta,
- pristranskost glede spola, kulture ali religije,
- neustrezno ravnanje v kriznih situacijah.
Posebej problematično je lahko, ko uporabnik umetni inteligenci zaupa resne osebne stiske. V takih primerih sistem pogosto poda splošne ali neustrezne nasvete, ker nima dejanskega vpogleda v človekovo življenje.
Zakaj je to lahko posebej problematično za starejše
Starejši ljudje so pogosto bolj dovzetni za tehnologije, ki obljubljajo hitro pomoč ali pogovor. Ker umetna inteligenca uporablja prijazen in empatičen ton, lahko daje občutek, da gre za pravega sogovornika.
V resnici pa umetna inteligenca:
- ne razume čustev,
- nima strokovne odgovornosti,
- ne more prepoznati resnih psihičnih kriz,
- in ne more nuditi prave terapevtske pomoči.
Raziskovalci zato opozarjajo, da klepetalni roboti ne smejo nadomestiti strokovne psihološke ali psihiatrične pomoči.
Umetna inteligenca lahko pomaga, a z omejitvami
Strokovnjaki poudarjajo, da ima umetna inteligenca tudi potencial. Lahko pomaga pri osnovnih informacijah, samopomoči ali kot orodje za pogovor.
Toda ključna težava je, da za razliko od človeških terapevtov:
- zanjo ne veljajo licenčni nadzori,
- nima etične odgovornosti,
- in ne more prevzeti odgovornosti za posledice nasvetov.
Zato raziskovalci pozivajo k jasnim pravilom in večjemu nadzoru nad uporabo umetne inteligence na področju duševnega zdravja.
Urednica portala MojPrihranek.si

