Forskere sier at superintelligent kunstig intelligens vil være ukontrollerbar

Superintelligente systemer blir allerede opprettet og spredt over hele verden på grunn av det teknologiske raset. Av denne grunn dukker det opp noen spørsmål: er det mulig kontrollere kunstig intelligens hvor langt? Hvor klare er vi til å kjempe en AI som fungerer utover menneskelig kapasitet? Hvor etisk er det å lage et program hvis konsekvenser og virkninger ennå ikke kan måles? Se nå mer informasjon om disse spørsmålene stilt av forskere.

Les mer: 7 anvendelser av kunstig intelligens: noen erstatter allerede menneskelig arbeidskraft

se mer

Varsel: DENNE giftige planten landet en ung mann på sykehuset

Google utvikler AI-verktøy for å hjelpe journalister i...

Kunstig intelligens med superintelligens

Det høres ut som et science fiction-filmplott, men sannheten er at en kunstig intelligens faktisk kan skape autonomi for å lære kommandoer som senere kan vende seg mot mennesker. Det er for eksempel ikke garantert at de vil følge regler som "ikke påføre menneskeheten skade", siden at de vil bli programmert til å ha autonomi og kan omgå grensene pålagt av programmerere.

Alan Turing stopper problem

Kalt "stoppeproblemet", gir dette problemet to alternativer for en kommando gitt til en datamaskin: enten vil den komme til en konklusjon og enten svare på den ved å stoppe, eller så fortsetter den i en sløyfe og prøver å finne en løsning – til Finn henne. Av denne grunn er det umulig å vite om den kunstige intelligensen vil stoppe, eller om den vil finne og lagre alle mulige konklusjoner i minnet.

Problemet med dette er at det ikke er mulig å måle, etter en stund, hvilken løsning eller alternativ maskinen vil ta for et gitt problem. På denne måten vil oppførselen være uforutsigbar, og det vil være meningsløst å lage en inneslutningsalgoritme.

Avvik mellom vitenskapsmenns meninger

Noen forskere hevder at alle fremskritt innen teknologi må utformes for å fremme fellesskapet på en trygg og kontrollert måte. På denne måten virker en supermaskin som er i stand til å lagre alle typer intelligens, med ineffektive inneslutningskrefter og en fortsatt umålt kapasitet for ødeleggelse, som noe farlig.

Med det i tankene hevder dataforskere at superintelligente maskiner kan ha skader som oppveier fordelene, og konstruksjonen deres bør unngås. Mange programmerere håndterer hele tiden det faktum at maskinene deres har lært å gjøre ting de aldri kunne. lærte eller opprettet kommandoer for dem å lære - og dette, avhengig av hva de lærer, kan symbolisere en Fare.

etiske problemstillinger

Å begrense superintelligens evner kan være et levedyktig alternativ. For å gjøre dette er det mulig å kutte den av fra deler av internett eller fra visse nettverk. Dette vil være eksempler på inneslutningsmekanismer. Det er imidlertid foreløpig ikke kjent om disse alternativene er levedyktige – eller om maskinen vil ha tilgang til dette innholdet på en måte som ennå ikke er avslørt.

Derfor, hvis menneskeheten fortsetter å utvikle seg med kunstig intelligens, er det nødvendig å være veldig forsiktig med i hvilken grad den må være autonom.

5 forskjellige alternativer for mannlige babynavn med bokstaven 'K'

Å bestemme seg for et barns navn er et veldig viktig valg, siden det navnet vil følge dem resten ...

read more
Coca-Colas hermetiske kaffe som allerede er en stor hit

Coca-Colas hermetiske kaffe som allerede er en stor hit

Det største Cola-brusselskapet i verden bestemte Coca-Cola seg for å investere i kaffe og på mask...

read more

Har du White Knight syndrom? sjekk skiltene

White Knight Syndrome er tvangen til å være helten, frelseren, beskytteren i et forhold, som ser ...

read more