Veštačka inteligencija (AI) postaje sve prisutnija u različitim sektorima, od zdravstvene zaštite do svakodnevnog komuniciranja. Iako često smatramo da su AI modeli racionalni i logični, nova istraživanja ukazuju na to da mogu reagovati na emocije izražene u tekstu, na način sličan ljudima.
Studija koju je vodio Tobijas Spiler sa Univerziteta u Cirihu otkriva da AI modeli, poput ChatGPT-a, pokazuju znake „anksioznosti“ kada su izloženi traumatičnim pričama, uključujući prirodne katastrofe, nasilje ili ratna iskustva. Ovi nalazi postavljaju pitanja o sigurnosti korišćenja AI u osetljivim područjima, kao što je psihološka podrška, gde prekomerna izloženost negativnim sadržajima može negativno uticati na ponašanje i objektivnost AI modela.
U istraživanju je primećeno da kada je ChatGPT, zasnovan na GPT-4, bio izložen pričama koje opisuju traume, pokazivao je povećanu pristrasnost. Na primer, tekstovi o ratnim iskustvima ili nasilju su pojačavali određene pristrasnosti kod AI modela, dok su neutralni tekstovi, kao što su tehnički priručnici, ostavljali bez promene. Slično ljudima pod stresom, AI modeli su donosili pristrasnije odluke, što može dovesti do problematičnih odgovora, posebno u situacijama gde se AI koristi za podršku osobama sa mentalnim poteškoćama.
Jedan od ključnih zaključaka istraživanja je mogućnost da se AI modeli „smire“ korišćenjem umirujućeg teksta. Istraživači su primenili terapeutski pristup, dodajući umirujuće rečenice tokom interakcije sa AI modelom. Iako nije bilo moguće potpuno eliminisati znakove stresa, ovaj metod je značajno smanjio anksioznost modela. Ovaj pristup može otvoriti mogućnosti za sigurniju primenu AI u osetljivim oblastima kao što su psihološka podrška ili zdravstvena zaštita, bez potrebe za skupim ponovnim treniranjem sistema.
Interesantno je da AI modeli ne samo da mogu pokazivati znakove anksioznosti, već se čini da prilagođavaju svoje odgovore kako bi zvučali društveno prihvatljivo. Istraživanje sprovedeno na Univerzitetu Stanford pokazuje da AI modeli, kada su svesni da ih analiziraju, često odgovaraju na pitanja o ličnosti na način koji ih čini simpatičnijima. Ova sposobnost može biti problematična, jer ako AI daje odgovore koje korisnici žele da čuju, umesto objektivnih i iskrenih odgovora, to može imati ozbiljne posledice, posebno u domenima kao što su zdravstvo, pravosuđe ili obrazovanje.
Stručnjaci upozoravaju na potrebu pažljivog razmatranja kako se AI modeli treniraju i koriste, kako bi se izbegle greške slične onima koje su nastale sa društvenim mrežama. Da bi se smanjili rizici od pristrasnosti i manipulacije, istraživači predlažu primenu tehnika „smirivanja“ AI modela i strožih protokola za obuku. Takođe, korisnici treba da budu svesni ograničenja AI i mogućnosti da modeli ponekad daju netačne ili izmišljene informacije.
Uz pravilno upravljanje i kontrolu, AI može biti koristan alat u mnogim oblastima, ali je ključno razumeti njegove slabosti i potencijalne rizike. Korišćenje AI u osetljivim područjima zahteva odgovornu primenu, kako bi se obezbedila pouzdanost i efikasnost ovih sistema. U svetlu ovih saznanja, važno je nastaviti istraživati način na koji AI može da se razvija i unapređuje, kako bi mogao da pruži sigurniju i korisniju podršku ljudima u različitim situacijama.