Umjetna inteligencija (AI) jedna je od najnaprednijih tehnologija prisutnih u našem svakodnevnom životu, a koristi se za pomoć ljudima u raznim zadacima, osim za zaštitu podataka i informacija. Međutim, čak i uz sav napredak, umjetna inteligencija nije bez nedostataka i ranjivosti, što se pokazalo u pokušaju hakiranja Microsoftovog operativnog sustava pomoću chatbota ChatGPT.
Hakiranje samim alatom
vidi više
Uzbuna: OVA otrovnica dovela mladića u bolnicu
Google razvija AI alat za pomoć novinarima u...
Grupa korisnika interneta, koji pripadaju YouTube kanalu Enderman, pokušala je zaobići Microsoftov operativni sustav putem ChatGPT-a, koji se koristi kao alat za dijalog i ima AI. Ideja je bila generirati važeće ključeve za Windows 95.
Rezultat pokušaja hakiranja operativnog sustava bio je zabrinjavajući i potvrdio je postojanje nedostataka u AI, a osim toga izložio je rizike ove tehnologije za društvo.
Krađa materijala i ilegalna trgovačka proizvodnja neki su od primjera rizika koje AI može predstavljati.
Važnost AI sigurnosti
Epizoda je izazvala velike reperkusije i zabrinutost, čak je navela milijardera Elona Muska da objavi pismo zahtijevajući prekid platforme za proučavanje i usavršavanje, zajedno sa Steveom Wozniakom, inženjerom Jabuka.
ChatGPT ima ograničenja u pogledu odgovora koje daje kako bi se izbjeglo dijeljenje povjerljivih informacija. Kada su pitanja sumnjiva, sustav prikazuje negativnu poruku ili zatvara razgovor.
Međutim, skupina korisnika interneta uspjela je aktivirati 3,3% ključeva i imala je pristup okruženju koje je trebalo biti ograničeno.
AI slabost
Pokušaj hakiranja Microsoftovog operativnog sustava putem ChatGPT-a razotkrio je krhkost umjetne inteligencije i rizike koje može donijeti društvu.
Važno je istaknuti potrebu ulaganja u sigurnost i unapređenje tehnologije, kako se ovakvi incidenti više ne bi ponavljali.
Osim toga, ključno je da tvrtke i vlade rade zajedno na stvaranju sigurnosnih politika. robusni i učinkoviti alati za AI, koji osiguravaju zaštitu korisničkih informacija i privatnosti.