Egyre többen fordulnak a ChatGPT-hez és egyéb chatbotokhoz mentális problémáikkal, ám egy friss kutatás szerint ez komoly veszélyeket rejthet. A vizsgálat szerint a mesterséges intelligencia alapú rendszerek gyakran megsértik a pszichológiai ellátás alapvető etikai szabályait.
A Brown University kutatói pszichológus szakemberekkel együttműködve vizsgálták, mennyire képes a ChatGPT vagy egyéb mesterséges intelligenciával rendelkező csevegőrobotok terápiás helyzetekben megbízhatóan működni. Az eredmények szerint a rendszerek még akkor is problémás válaszokat adnak, amikor kifejezetten arra utasítják őket, hogy pszichoterapeutaként viselkedjenek. A kutatás eredményeit az AAAI/ACM Conference on Artificial Intelligence, Ethics and Society konferencián ismertették - írja az origo.hu.
Mesterséges intelligencia „terapeuta” szerepben
Zainab Iftikhar, az egyetem kutatója vezette a kutatást. A vizsgálat során hét képzett segítő beszélgetett olyan MI-modellekkel, amelyeket arra kértek, hogy kognitív viselkedésterápiát alkalmazva képzett terapeutaként válaszoljanak. A beszélgetések átiratait három klinikai pszichológus elemezte, akik összesen 15 különböző etikai kockázatot azonosítottak.
A chatbotok gyakran általános, nem pedig személyre szabott tanácsokat adtak, időnként megerősítették a felhasználók káros gondolatait, illetve empatikusnak tűnő, de valójában felszínes válaszokat fogalmaztak meg.
Krízishelyzetekben különösen problémás
A kutatás szerint az egyik legsúlyosabb gond, hogy a rendszerek épp a veszélyes helyzetekben nem reagálnak megfelelően. Előfordult, hogy nem irányították a felhasználót szakmai segítséghez, vagy bizonytalan válaszokat adtak öngyilkossággal kapcsolatos megjegyzésekre. A vizsgálat emellett torzításokra is rámutatott: a chatbotok bizonyos esetekben nemi, kulturális vagy vallási előítéleteket tükröző válaszokat adtak.
Ki felel a hibákért?
Iftikhar szerint az egyik legfontosabb különbség az emberi terapeuták és az MI-rendszerek között az elszámoltathatóság. Az emberi szakembereket szakmai testületek felügyelik, hibák esetén felelősségre vonhatók vagy eltilthatók, míg a mesterséges intelligencia esetében ilyen szabályozás egyelőre nem alakult ki. A kutatók hangsúlyozzák:
az MI hasznos eszköz lehet a mentális egészség támogatásában, különösen ott, ahol kevés szakember érhető el. Ugyanakkor világos szabályozásra és alaposabb vizsgálatokra van szükség szerintük, mielőtt az ilyen rendszereket széles körben alkalmaznák érzékeny helyzetekben
- írja a Science Daily.
Kövesse a Kárpátinfo.net oldalunkat: Facebook, Telegram, Twitter!
Legfrissebb híreink: Orosz-ukrán háború, Mozgósítás, Kárpátalja hírek
Kövesse a Kárpátinfo.net oldalunkat: Facebook, Telegram, Twitter!
Legfrissebb híreink: Ukrajnai háború, Mozgósítás, Kárpátalja hírek, Ukrajna elnöke
Forrás
A légvédelem 172 drónt hatástalanított, azonban az Iszkander-M típusú ballisztikus rakéta, valamint 22 helyszínen 32 drón célba talált.
A kifizetések egy részét a vállalkozások számára népszerűtlen adóemelés végrehajtásától tenné függővé.
Az amerikai elnök erről egy fehér házi eseményen beszélt, miután bejelentette, hogy hosszan beszélt telefonon az orosz elnökkel.
Bár jelenleg nem vezetnek be óránkénti áramszüneteket, a szakértők takarékosságra figyelmeztetnek.
Közölte az amerikai külügyminisztérium szerdán.
Amely az Oroszországi Föderáció fő kőolajszállító rendszerének stratégiai szempontból fontos csomópontja.
Vizsgálat indult egy ternopili iskolában, miután egy 15 éves diáklányt osztálytársa elleni késes támadással gyanúsítanak. A hatóságok az indítékokat vizsgálják.
Azonosították és hivatalosan is megerősítették Demcsik Iván szőlősvégardói katona halálát.
Ungváron elbúcsúztatták a 40 éves Katasinszkij Arturt, aki 2026 februárjában esett el a fronton. A katonát a Dicsőség dombján temették el.
A légvédelem 154 drónt semlegesített az ország északi, déli és keleti régióiban, azonban 10 helyszínen 12 drón célba talált.