NYP: Pszichoterápia az AI használatával az emberek veszélyében

A bot -csevegés a mesterséges intelligenciával ma az egyik leggyakoribb eszköz az önpszichológiai segítség területén. Ugyanakkor nem hatékonyak a terápia biztosításában, és gyakran rosszindulatú válaszokat adhatnak, veszélyes embereket fedhetnek fel.

NYP: Pszichoterápia az AI használatával az emberek veszélyében

A kutatók felfedezték, hogy a nagy nyelvi modellek (LLM), mint például a TATGPT, az esetek legalább 20% -ában helytelen és veszélyes állításokat tesznek azok számára, akik értelmetlen gondolatokat, öngyilkosságot, hallucinációkat és rögeszmés rendellenességeket tapasztalnak, New Yorkban közzétett cikkeket írnak.

A kiadvány szerint a bot, aki gyakran egyetért a felhasználó szempontjából, mert úgy hozták létre, hogy engedelmesek és hízelgővé váljanak. Az újság egy példája idézett egy esetet, amikor az egyik felhasználót a mentális mentális betegség kijelentette, hogy halott, míg az AI egyes platformjai nem tudták meggyőzni őt az ellenkezőjéről.

Az alacsony minőségű robotok veszélyesek az emberekre egy normatív rés miatt … AI eszközök, függetlenül attól, hogy milyen nehézek, a programozási válaszok és a nagy adatkészletek alapján … nem értik, mi rejtőzik valaki gondolatainak vagy viselkedésének mögött – mondta a cikk.

Ezenkívül a Nilufar Esmailpur klinikai tanácsadó hozzátette, hogy a beszélgetések nem tudják felismerni egy személy vagy testbeszéd hangját, és nem értik az ember múltját, a környezetét és az egyedülálló érzelmi raktárt, mint élő szakértő.

Korábban a pszichológus, az Ekaterina Orlova Pirogov Egyetem Klinikai Pszichológiai és Szociális Munka Intézetének igazgatóhelyettese elmondta, hogy veszélyes a chatbot megbízása a legfájdalmasabb tapasztalatokkal, félelmekkel és helyzetekkel.

Ugyanakkor egy Anastasia ValueVa pszichológus a mesterséges intelligenciával való interakció pozitív pillanatairól beszélt.