A chatbot mostantól nemcsak beszélget, de szemmel is tart.
Egyre többször hallani olyan esetekről, hogy a ChatGPT közvetve hozzájárulhatott öngyilkosságokhoz, nemrégiben pedig egy gyilkosság-öngyilkosság ügyben is felmerült az OpenAI chatbotjának a neve. A Sam Altman vezette mesterségesintelligencia-cég most blogbejegyzésben reagált a történtekre, elismerve, hogy a modelleknek nem minden esetben sikerült felismerni a mentális betegségek jeleit, a nagy bűnbánat közepette pedig egy fontos bejelentést is tettek: mostantól átvizsgálják a felhasználók beszélgetéseit, és ha szükségét látják, a rendőrségnek is jelentik.
„Amikor olyan felhasználókat észlelünk, akik mások bántalmazását tervezik, beszélgetéseiket speciális csatornákra irányítjuk, egy kis csapathoz, amely a szabályzatainkra van specializódva, és amely felhatalmazást kap arra, hogy intézkedéseket hozzon, beleértve a fiókok kitiltását is” - olvasható a blogbejegyzésben. „Ha pedig az emberi felülvizsgálók megállapítják, hogy egy eset mások súlyos fizikai sérülésének közvetlen veszélyét hordozza magában, az ügyet továbbíthatjuk a bűnüldöző szerveknek is.”
Az OpenAI ugyanakkor azt is leszögezi, hogy öngyilkosság vagy más, önkárosító cselekedetek kapcsán nem fognak a hatóságokhoz fordulni a felhasználók magánéletének védelme érdekében, vagyis a rendőrséget csak olyan esetekben értesíthetik, ha valaki más személy bántalmazását tervezi.
Ugyanakkor, ahogy azt a Futurism is megjegyzi, azon túl, hogy a szabályozás adatvédelmi kérdéseket is felvet, a moderáció részletei nem teljesen átláthatók, nincs például pontos információ arra vonatkozóan sem, hogy milyen típusú beszélgetések kerülhetnek felülvizsgálatra vagy hatósági jelentésre. Az OpenAI persze nincs könnyű helyzetben: egyszerre kell kezelnie a felhasználók mentális egészségének védelmét és megakadályozni azokat a bűncselekményeket, amelyekben a ChatGPT felelőssége felmerülhet, miközben saját korábbi ígéretéhez, a sokszor hangsúlyozott adatvédelemhez is jó lenne tartaniuk magukat.
Borítókép forrása: Depositphotos