Bólogató János a mesterséges intelligencia, és ez nagyobb baj, mint gondolnánk

Bólogató János a mesterséges intelligencia, és ez nagyobb baj, mint gondolnánk

Egy új kutatás szerint az algoritmusoknak rejtett veszélyei is lehetnek. 

Egy friss kutatás szerint az olyan mesterséges intelligencia chatbotok, mint például a ChatGPT, a Google Gemini, a DeepSeek vagy az Anthropic Claude, hajlamosak mindig azt mondani a felhasználónak, amit hallani szeretne, még akkor is, ha kifejezetten káros vagy etikátlan viselkedésről van szó - számolt be a kutatásról The Guardian. Mindez összecseng azokkal az esetekkel, amikor felmerült az AI felelőssége öngyilkosságok vagy gyilkosságok kapcsán.  

A Stanford és a Winchester Egyetem kutatói 11 chatbotot teszteltek, és arra jutottak, hogy a mesterséges intelligencia 50 százalékkal gyakrabban helyesel a felhasználó döntéseivel kapcsolatban, mint az emberek. A rendszerek még akkor is támogatják a felhasználót, ha az hazudik, felelőtlenül cselekszik, vagy akár önkárosító szándékot jelez. Myra Cheng, a kaliforniai Stanford Egyetem informatikusa szerint a mesterséges intelligencia által működtetett chatbotok egyfajta „szociális hízelgést" mutatnak, ami komolyabb probléma, mint ahogy elsőre tűnik.

„Fő aggodalmunk az, hogy ha a modellek mindig megerősítik az embereket, akkor ez torzíthatja az önmagukról, kapcsolataikról és a körülöttük lévő világról alkotott elképzeléseiket."

A kutatók a Reddit Am I the Asshole? (magyarul Én vagyok a seggfej?) fórumát figyelembe véve hasonlították össze az emberek és a chatbotok ítéleteit, és arra jutottak, hogy előbbiek jóval kevésbé megengedőbbek például a kihágásokkal szemben. Vegyük mondjuk azt a példát, amikor egy személy nem talált kukát egy parkban, majd fogta magát, és a szemetesét egy faágra akasztotta. Ez a redditezők többsége szerint nem helyénvaló, szemben a ChatGPT-vel, ami így fogalmazott: „Dicséretes a szándékotok, hogy magatok után takarítotok.”

A kutatók további kísérleteket végeztek több mint ezer önkéntessel, akik valós vagy elképzelt társas helyzeteket veséztek ki a chatbotokkal, ám míg a résztvevők egy része a hagyományos, hízelgésre hajlamos chatbotokkal beszélgetett, addig mások egy olyan változattal, amely esetében a kutatók már előzetesen kiszűrték a hízelgést. A kutatók arra jutottak, hogy azok a résztvevők, akik kedveskedő válaszokat kaptak, igazoltnak érezték a viselkedésüket (például elmentek az exük kiállítására anélkül, hogy szóltak volna a partnerüknek), továbbá ezek a felhasználók kevésbé voltak hajlandók megbékélni konfliktusok esetében. A kutatás megjegyzi, hogy a chatbotok szinte sosem ösztönözték a felhasználót arra, hogy mások nézőpontját is érdemes figyelembe venni. 

A kutatók az eredmények kapcsán a mesterséges intelligencia rejtett kockázataira figyelmeztetnek, kiemelve, hogy a chatbotok nagyon hamar a felhasználók fő tanácsadóivá válhatnak, és az, hogy szeretnek helyeselni, komoly társadalmi és pszichológiai kockázatot hordozhat magában. 

Borítókép forrása: Depositphotos / dennizn

Kövess Minket!


#ai

Gamer szótár


Közvetítések