Egyetlen cég és úgy amblokk a világ nem áll készen az AGI-re.
A mesterséges általános intelligencia (AGI) - amit gyakran emberi szintű mesterséges intelligenciának is neveznek - egyelőre a szakértőket is megosztja azzal kapcsolatban, hogy jót vagy rosszat hozna-e az emberiségre, abban azonban a többség egyetért, hogy kormányzati felügyeletre van szükség ahhoz, hogy a technológiát biztonságos, szabályozott keretek között fejleszthessék. Miután a ChatGPT-t is piacra dobó OpenAI a világ egyik legismertebb MI-kutatólaboratóriuma, tagadhatatlanul hatalmas felelőssége van ezen a területen, többek közt azért is, mert valóságos versenyfutás zajlik, hogy melyik cég tudja először megalkotni az AGI-t, pedig az végzetes hiba is lehetne, ha a gyorsaság a biztonság rovására menne.
Bár az OpenAI vezére, Sam Altman szeptemberben azt nyilatkozta, hogy már csak „pár ezer napot" kell várni a mesterséges szuperintelligenciára, ami túlmutat még az AGI-n is, a figyelmeztetés most házon belülről érkezett. Miles Brundage, az OpenAI vezető tanácsadója szerdán súlyos szavakat használt a technológiát illetően, amikor bejelentette távozását a cégtől, szerinte ugyanis senki nincs felkészülve a mesterséges általános intelligenciára, még az OpenAI sem.
„Sem az OpenAI, sem más laboratórium nincs készen [az AGI-re], és a világ sem áll készen” – írta Brundage kollégáinak küldött üzenetében, amit a közösségi médiában is megosztott. Az OpenAI vezető beosztású dolgozója hat évet töltött a cégnél, ahol a mesterséges intelligencia biztonsággal kapcsolatos kérdéseivel foglalkozott.
Az elmúlt időszakban több prominens vezető is távozott a Sam Altman nevével fémjelzett techcégtől. Jan Leike kutató nemrégiben például arra hivatkozva mondott fel, hogy véleménye szerint az eljárások és a biztonság háttérbe szorultak a „csilivili termékek mögött". Ilya Sutskever társalapító szintén hátat fordított a cégnek, és saját vállalkozás elindításába kezdett, amely elmondása szerint a biztonságos AGI fejlesztésére összpontosít.
Borítókép forrása: Digital Artist/Pixabay