Változott az etikai kódex.
Bár a mesterséges intelligencia felelősségteljes használatának kérdése gyakorlatilag egyfolytában napirenden van, egyre több cég enged az etikai irányelveiből, és bocsájtja a technológiát a harcászat szolgálatába. Ezúttal a Google anyavállalata, az Alphabet döntött úgy, hogy mostantól belefér nekik az is, ami korábban nem, azaz hogy fegyverek fejlesztésére és megfigyelés céljából is fel lehessen használni a mesterséges intelligenciát.
A technológiai óriáscég még kedden, közvetlenül azelőtt, hogy közzétette volna negyedik negyedéves pénzügyi jelentését, változtatásokat eszközölt a mesterséges intelligenciával kapcsolatos etikai irányelveiben - írja a The Guardian. Egészen pontosan kikerült az a rész a szabályzatból, amelyben arról írnak, hogy nem használják olyan területeken a technológiát, amelyek károsak lehetnek. A Google mesterséges intelligencia vezetője, Demis Hassabis a módosítást azzal magyarázta, hogy egy változó világban szükségessé válik az irányelvek felülvizsgálata, az AI-nak pedig sok minden más mellett az is feladata, hogy a nemzetbiztonságot szolgálja.
Hassabis és a techcég vezető alelnöke, James Manyika egy blogbejegyzésben igyekezett megvédeni az Alphabet döntését, többek közt kiemelve, hogy a „vállalatoknak, kormányoknak és szervezeteknek együtt kell dolgozniuk az emberek védelmét, a globális növekedést és a nemzetbiztonságot támogató mesterséges intelligencia megteremtésén."
A The Guardian a téma kapcsán megjegyzi, hogy a Google-nek egy időben a „Ne légy gonosz!" volt az egyik nagy mottója, mígnem 2015-ben a techcég inkább megszabadult ettől a frázistól. Egy ideig a „Légy jó!" mondat ugyan még szerepelt az etikai kódexükben, nem sokkal később azonban, hogy, hogy nem szép csendben ettől is megváltak.
Borítókép forrása: Depositphotos/GekaSkr