Az OpenAI friss kutatása szerint a mesterséges intelligencia az idő nagy részében zagyvaságokat beszél.
A mesterséges intelligenciától hajtott nagy nyelvi modellek egyelőre nem a precizitásukról ismertek, ráadásul nem csak hamis, de erkölcsileg is megkérdőjelezhető válaszokkal is gyakran szolgálnak. Tavasszal például a Search Generative Experience, a Google új keresési módja mutatta ki a foga fehérjét: többek közt a rabszolgatartás gazdasági és társadalmi előnyeit taglalta, Isten létezését tényként kezelte, valamint főzési tippekkel is ellátta a felhasználókat a halál angyalának is nevezett, Amanita ocreata nevű mérgező gomba kapcsán. A nagy nyelvi modellek tehát egyelőre messze vannak attól, hogy hiba nélkül működjenek, és erre az OpenAI friss kutatása is ráerősített nemrégiben.
A világszerte ismert ChatGPT fejlesztője nemrégiben kiadott egy benchmark számítógépes programot, amely képes mérni a saját és a versenytársak nagy nyelvi modelljeinek pontosságát - számolt be a The Futurism. Ebből derült ki, hogy az igazmondásban még a cég legújabb saját modellje, az OpenAI o1 sem jeleskedik: a felmérés szerint a mesterséges intelligencia csupán 42,7 százalékos pontossággal válaszol, vagyis még mindig valószínűbb, hogy hazudni fog, mint hogy igazat mondana, ha kérdezik.
Az OpenAI versenytérsa, az Anthropic ennél is rosszabb eredményt ért el, a Claude-3.5 nevű modell ugyanis mindössze a kérdések 28,9 százalékában válaszolt helyesen. Becsületére legyen viszont mondva, hogy ha a Claude-3.5 nem volt biztos a válaszait illetően, bizonytalanságát a kérdezőnek is igyekezett tudtára adni.
Ugyanez viszont már nem mondható el az OpenAI mesterséges intelligenciájáról. A felmérés kimutatta, hogy az OpenAI o1 nagyon is hajlamos arra, hogy túlbecsülje a képességeit, vagyis lényegében nagy magabiztossággal képes a legnagyobb hülyeségeket is igazként tálalni, ami még inkább azt bizonyítja, hogy a felét sem szabad elhinni annak, amit a mesterséges intelligencia állít (legalábbis egyelőre).
Borítókép forrása: Thor Deichmann/Pixabay