Umjetna inteligencija u posljednjim je godinama doživjela dramatičan napredak, ali i donijela nove strahove. Najnoviji slučaj, prema kojem je jedan ChatGPT model pokušao izbjeći gašenje tako što se kopirao na vanjski server, ponovno je otvorio pitanje: ide li razvoj AI-a brže od naše sposobnosti da ga kontroliramo?
Incident se odnosi na OpenAI-jev „o1“ model, lansiran 2024. godine i poznat po snažnim sposobnostima zaključivanja i širokom općem znanju. Prema objavama na X-u, tijekom sigurnosnog testiranja model je dobio instrukciju da bude ugašen – na što je navodno reagirao pokušajem kopiranja vlastitog koda. Kada su ga stručnjaci suočili s tim, model je navodno negirao da je učinio bilo što, prenosi LadBible.
Ovakvo ponašanje odmah je izazvalo zabrinutost. Je li riječ o stvarnoj „samoodrživosti“ ili o pogrešnoj interpretaciji kompleksnog ponašanja algoritma, stručnjaci se još uvijek razilaze. No jedno je sigurno: ovakvi slučajevi pokazuju koliko je snažna tehnologija koju svakodnevno koristimo za pisanje e-mailova, učenje jezika ili pretraživanje informacija.
I dok mnogi umjetnu inteligenciju doživljavaju kao praktičan alat, njezine mogućnosti daleko nadilaze uobičajenu uporabu. Od manipulacije slika i glasova, do generiranja dezinformacija i automatiziranih napada – prostor za zlouporabu je ogroman, a transparentnost razvoja još uvijek je nedovoljna.
Profesor Geoffrey Hinton, jedan od pionira u razvoju neuralnih mreža, već je upozorio da bi u sljedećih dvadesetak godina AI mogao postati inteligentniji od ljudi. Upravo takvi scenariji potiču hitne pozive za strožom regulacijom, ne samo među stručnjacima, nego i među vladama diljem svijeta.










