Egyértelműen fejlődik az AI, már csak az a kérdés, meddig fog elérni a jövőben?
Alan Turing brit matematikus alkotta meg azt a kísérletet, amellyel egyszerűen eldönthető, hogy egy gép gondolkodik-e. A Turing-teszt lényege, hogy egy ember két entitással beszélget egy számítógépen keresztül, írásban – egy emberrel és egy géppel. Az alany nem tudja, hogy ki kicsoda, beszélgetőtársai pedig igyekeznek meggyőzni őt, hogy nem ők a gépek, hanem a másik. Amennyiben 5 percnyi beszélgetés után sem egyértelmű az alany számára a felállás, kijelenthető, hogy a gép képes meggyőzni őt arról, hogy ember.
Persze a tesztnek megvannak a maga limitációi. Az egyik ilyen, hogy az emberek hajlamosak emberi tulajdonságokkal felruházni nagyjából bármit, így pedig empátia alakul ki, ami befolyásolja a válaszokat. Az 5 perces időkorlát szintén érdekes problémákkal jár, mert a Kaliforniai Egyetem friss kutatásában – amelyet a HVG foglalt össze – különböző mesterséges intelligenciákat vetettek alá a kísérletnek, és kb. az esetek 50%-ban volt kevés ez az idő arra, hogy az emberi alanyok rájöjjenek az igazságra. Ez nem zárja ki, hogy pár perccel később rájöttek volna-e vagy sem, de szigorúan a teszt szabályaiból kiindulva ez azt jelenti, hogy ilyenkor képes elhitetni a gép magáról azt, hogy ember.
Ezeket olvastad már?
Az AI-os Turing-tesztről szóló tanulmány szerint csak az OpenAI GPT-4 és GPT-3.5 modellje ért el ennyire jó eredményt. Igaz, az 50% még nem feltétlenül annyira meggyőző teljesítmény, mert ezt technikailag a beszélgetés nélkül, tippeléssel is össze lehetett volna hozni. Itt azonban fontos a kontextus: az 1960-as években az MIT Eliza nevű rendszere még csak 22%-ot ért el, mert előre megírt válaszokat használt, míg a mai nagy nyelvi modellek már maguktól írják meg a válaszaikat és képesek a kontextust is „megérteni”. Vagyis egyértelműen fejlődik a technika, már csak az a kérdés, meddig fog elérni a jövőben?