Kunstig intelligens (AI) er en av de mest avanserte teknologiene som finnes i vårt daglige liv, som brukes til å hjelpe mennesker i ulike oppgaver, i tillegg til å beskytte data og informasjon. Men selv med alle fremskritt er AI ikke uten feil og sårbarheter, som bevist i forsøket på å hacke Microsofts operativsystem ved å bruke chatboten ChatGPT.
Hacking med selve verktøyet
se mer
Varsel: DENNE giftige planten landet en ung mann på sykehuset
Google utvikler AI-verktøy for å hjelpe journalister i...
En gruppe internettbrukere, tilhørende YouTube-kanalen Enderman, forsøkte å omgå Microsofts operativsystem gjennom ChatGPT, som brukes som dialogverktøy og har AI. Tanken var å generere gyldige nøkler for Windows 95.
Resultatet av forsøket på å hacke operativsystemet var bekymringsfullt og bekreftet eksistensen av feil i AI, i tillegg til å utsette risikoen ved denne teknologien for samfunnet.
Materielt tyveri og ulovlig handelsproduksjon er noen av eksemplene på risikoer som AI kan utgjøre.
Viktigheten av AI-sikkerhet
Episoden skapte store konsekvenser og bekymring, og førte til og med til at milliardær Elon Musk publiserte et brev krever avbrudd av plattformen for studier og forbedring, sammen med Steve Wozniak, ingeniør for Eple.
ChatGPT har restriksjoner på svarene den gir for å unngå å dele konfidensiell informasjon. Når spørsmål er mistenkelige, viser systemet en negativ melding eller avslutter samtalen.
Gruppen internettbrukere klarte imidlertid å aktivere 3,3 % av nøklene og hadde tilgang til et miljø som burde vært begrenset.
AI svakhet
Forsøket på å hacke Microsofts operativsystem gjennom ChatGPT avslørte skjørheten til AI og risikoen den kan medføre for samfunnet.
Det er viktig å understreke behovet for investeringer i sikkerhet og forbedring av teknologi, for å hindre at denne typen hendelser skjer igjen.
I tillegg er det avgjørende at selskaper og myndigheter samarbeider for å lage sikkerhetspolitikk. robuste og effektive verktøy for AI, som sikrer beskyttelse av brukerinformasjon og personvern.