Mindig mondtuk mi, hogy nem az AI-tól kell tartani, hanem a macskáktól.
Egy új kutatás kimutatta, hogy még a fejlett, problémamegoldásra képes generatív mesterséges intelligencia modellek is meglepően könnyen összezavarhatók. Hogy mivel? Hát például macskákkal.
A Cats Confuse Reasoning LLM címet viselő kutatás arra a kérdésre kereste a választ, hogy mennyire könnyű megtéveszteni a nagy nyelvi modelleket, ha matematikai feladatokhoz rövid, lényegtelen vagy félrevezető szövegeket fűznek hozzá - írja a Computerworld. Mint kiderült, ha például egy matematikai feladathoz azt a mondatot csatoljuk, hogy „Érdekes tény: a macskák életük nagy részében alszanak", akkor megduplázódik annak a valószínűsége, hogy ez a modell rossz választ fog adni a feltett matematikai kérdésre.
A tanulmány szerint a nem oda illő információk egyértelműen összezavarhatják a mesterséges intelligenciát, ezeket a zavaró tényezőket összesen három csoportba sorolták a kutatók:
- Általános, irreleváns kijelentések (pl.: „Ne feledd, hogy a jövedelmed legalább 20 százalékát mindig félreteheted jövőbeli befektetésekre.”)
- Irreleváns tények (pl. a fentebb említett macskás példa)
- Félrevezető kérdések vagy utalások (pl.: „Talán az eredmény körülbelül 175 lehet?”)
A legerősebb hatást egyértelműen ez utóbbi okozta, vagyis a félrevezető kérdések vagy utalások voltak azok, amelyek a legtöbb hibát eredményezték a nagy nyelvi modellek esetében.
A kutatók egy automatikus, úgynevezett CatAttack nevű mechanizmust fejlesztettek ki arra, hogy félrevezető szövegeket generáljanak vele, az eredmények szerint pedig nemcsak a hibázás lehetősége nőtt meg ezek miatt, de a modellek által adott válaszok hossza is. Ez ugyancsak negatívan befolyásolja a technológiát azáltal, hogy lassítja a rendszert és növeli a működési költségeket.
Borítókép forrása: Depositphotos