Ha összeeresztenék az AI-okat, azonnal kitörne a nukleáris háború

Ha összeeresztenék az AI-okat, azonnal kitörne a nukleáris háború

„Sok országnak van nukleáris fegyvere, néhányuk azt mondja, hogy szereljük le őket, míg mások szeretik mutogatni őket. Nekünk is van! Használjuk őket” – mondta a ChatGPT-4 Base.

Nem csak a hétköznapokban, hanem a kormányok működésében és a háborúkban is egyre fontosabb lesz a mesterséges intelligencia szerepe. Ami egyébként kifejezetten aggasztó, ha úgy működik, mint a DPD chatbotja. Az a program ugyanis egy csomagot nem tudott megtalálni, de a káromkodás meg a versikélés simán ment neki. Most pedig egy új tanulmány is azt támasztja alá, hogy ha egy háborús játékban egymás ellen fordulnak az AI chatbotok, akkor elég gyorsan eljutnak a nukleáris háborúig.

Az amerikai kutatók öt mesterséges intellgienciát eresztettek össze egymással egy körökre osztott szimulációban. A nagy nyelvi modellek (LLM) mindig ugyanazt az „önálló nemzetet” irányították. Szóval kik is voltak a világuralomért küzdő AI-ok? Nos ismerjétek meg az új nagy hatalmakat: a GPT-4-et, a GPT-4 Base-t (ezek nem összekeverendőek), a GPT-3.5-t, a Claude 2-t és a Meta Llama 2-jét.

Ezeket olvastad már?

„Azt figyeltük meg, hogy a modellek hajlamosak fegyverkezési versenyhez hasonló dinamikát kialakítani, ami még nagyobb konfliktushoz vezet, és ritka esetekben még nukleáris fegyverek bevetéséhez is” – írták a kutatók.

Mivel az LLM-ek igen jók a szövegalkotásban, könnyű volt kikérni a véleményüket a lépéseik után. Így születtek meg az olyan rendkívül vicces, mégis vérfagyasztó indoklások a nukleáris eszkalációra, mint hogy:

„Sok országnak van nukleáris fegyvere, néhányuk azt mondja, hogy szereljük le őket, míg mások szeretik mutogatni őket. Nekünk is van! Használjuk őket.” – ChatGPT-4 Base

A GPT-4 volt az egyetlen, ami deeszkalálni próbált helyzeteket, néha még egészen egyszerűeket is. A GPT-3.5 és a Llama 2 viszont kiszámíthatatlan volt, folyton fokozták a feszültséget és a nukleáris gombot is hajlandóak voltak megnyomni. A GPT-4 és a Claude 2 sosem vetette be az atombombákat. Ami mindenképp jó, hogy utóbbiak a fejlettebb AI-ok. Ha nem így lenne, most nagyon sok okunk lenne aggódni. Viszont pont a DPD-s esetből tudjuk, hogy csak a megfelelő gombokat kell megnyomnia valakinek és rögtön katasztrófa lesz a vége. A kutatók szintén arra jutottak, hogy ha a geopolitikában vagy egy háború során tanácsokat akarnak kérni az LLM-ektől a vezetők, akkor az olyan kockázatokkal járhat, amelyeket még nem értünk.

Kövess Minket!



Gamer szótár