Superintelligente systemer blir allerede opprettet og spredt over hele verden på grunn av det teknologiske raset. Av denne grunn dukker det opp noen spørsmål: er det mulig kontrollere kunstig intelligens hvor langt? Hvor klare er vi til å kjempe en AI som fungerer utover menneskelig kapasitet? Hvor etisk er det å lage et program hvis konsekvenser og virkninger ennå ikke kan måles? Se nå mer informasjon om disse spørsmålene stilt av forskere.
Les mer: 7 anvendelser av kunstig intelligens: noen erstatter allerede menneskelig arbeidskraft
se mer
Varsel: DENNE giftige planten landet en ung mann på sykehuset
Google utvikler AI-verktøy for å hjelpe journalister i...
Kunstig intelligens med superintelligens
Det høres ut som et science fiction-filmplott, men sannheten er at en kunstig intelligens faktisk kan skape autonomi for å lære kommandoer som senere kan vende seg mot mennesker. Det er for eksempel ikke garantert at de vil følge regler som "ikke påføre menneskeheten skade", siden at de vil bli programmert til å ha autonomi og kan omgå grensene pålagt av programmerere.
Alan Turing stopper problem
Kalt "stoppeproblemet", gir dette problemet to alternativer for en kommando gitt til en datamaskin: enten vil den komme til en konklusjon og enten svare på den ved å stoppe, eller så fortsetter den i en sløyfe og prøver å finne en løsning – til Finn henne. Av denne grunn er det umulig å vite om den kunstige intelligensen vil stoppe, eller om den vil finne og lagre alle mulige konklusjoner i minnet.
Problemet med dette er at det ikke er mulig å måle, etter en stund, hvilken løsning eller alternativ maskinen vil ta for et gitt problem. På denne måten vil oppførselen være uforutsigbar, og det vil være meningsløst å lage en inneslutningsalgoritme.
Avvik mellom vitenskapsmenns meninger
Noen forskere hevder at alle fremskritt innen teknologi må utformes for å fremme fellesskapet på en trygg og kontrollert måte. På denne måten virker en supermaskin som er i stand til å lagre alle typer intelligens, med ineffektive inneslutningskrefter og en fortsatt umålt kapasitet for ødeleggelse, som noe farlig.
Med det i tankene hevder dataforskere at superintelligente maskiner kan ha skader som oppveier fordelene, og konstruksjonen deres bør unngås. Mange programmerere håndterer hele tiden det faktum at maskinene deres har lært å gjøre ting de aldri kunne. lærte eller opprettet kommandoer for dem å lære - og dette, avhengig av hva de lærer, kan symbolisere en Fare.
etiske problemstillinger
Å begrense superintelligens evner kan være et levedyktig alternativ. For å gjøre dette er det mulig å kutte den av fra deler av internett eller fra visse nettverk. Dette vil være eksempler på inneslutningsmekanismer. Det er imidlertid foreløpig ikke kjent om disse alternativene er levedyktige – eller om maskinen vil ha tilgang til dette innholdet på en måte som ennå ikke er avslørt.
Derfor, hvis menneskeheten fortsetter å utvikle seg med kunstig intelligens, er det nødvendig å være veldig forsiktig med i hvilken grad den må være autonom.