Forskere sier at superintelligent kunstig intelligens vil være ukontrollerbar

Superintelligente systemer blir allerede opprettet og spredt over hele verden på grunn av det teknologiske raset. Av denne grunn dukker det opp noen spørsmål: er det mulig kontrollere kunstig intelligens hvor langt? Hvor klare er vi til å kjempe en AI som fungerer utover menneskelig kapasitet? Hvor etisk er det å lage et program hvis konsekvenser og virkninger ennå ikke kan måles? Se nå mer informasjon om disse spørsmålene stilt av forskere.

Les mer: 7 anvendelser av kunstig intelligens: noen erstatter allerede menneskelig arbeidskraft

se mer

Varsel: DENNE giftige planten landet en ung mann på sykehuset

Google utvikler AI-verktøy for å hjelpe journalister i...

Kunstig intelligens med superintelligens

Det høres ut som et science fiction-filmplott, men sannheten er at en kunstig intelligens faktisk kan skape autonomi for å lære kommandoer som senere kan vende seg mot mennesker. Det er for eksempel ikke garantert at de vil følge regler som "ikke påføre menneskeheten skade", siden at de vil bli programmert til å ha autonomi og kan omgå grensene pålagt av programmerere.

Alan Turing stopper problem

Kalt "stoppeproblemet", gir dette problemet to alternativer for en kommando gitt til en datamaskin: enten vil den komme til en konklusjon og enten svare på den ved å stoppe, eller så fortsetter den i en sløyfe og prøver å finne en løsning – til Finn henne. Av denne grunn er det umulig å vite om den kunstige intelligensen vil stoppe, eller om den vil finne og lagre alle mulige konklusjoner i minnet.

Problemet med dette er at det ikke er mulig å måle, etter en stund, hvilken løsning eller alternativ maskinen vil ta for et gitt problem. På denne måten vil oppførselen være uforutsigbar, og det vil være meningsløst å lage en inneslutningsalgoritme.

Avvik mellom vitenskapsmenns meninger

Noen forskere hevder at alle fremskritt innen teknologi må utformes for å fremme fellesskapet på en trygg og kontrollert måte. På denne måten virker en supermaskin som er i stand til å lagre alle typer intelligens, med ineffektive inneslutningskrefter og en fortsatt umålt kapasitet for ødeleggelse, som noe farlig.

Med det i tankene hevder dataforskere at superintelligente maskiner kan ha skader som oppveier fordelene, og konstruksjonen deres bør unngås. Mange programmerere håndterer hele tiden det faktum at maskinene deres har lært å gjøre ting de aldri kunne. lærte eller opprettet kommandoer for dem å lære - og dette, avhengig av hva de lærer, kan symbolisere en Fare.

etiske problemstillinger

Å begrense superintelligens evner kan være et levedyktig alternativ. For å gjøre dette er det mulig å kutte den av fra deler av internett eller fra visse nettverk. Dette vil være eksempler på inneslutningsmekanismer. Det er imidlertid foreløpig ikke kjent om disse alternativene er levedyktige – eller om maskinen vil ha tilgang til dette innholdet på en måte som ennå ikke er avslørt.

Derfor, hvis menneskeheten fortsetter å utvikle seg med kunstig intelligens, er det nødvendig å være veldig forsiktig med i hvilken grad den må være autonom.

Se hvem som har rett på arbeidsledighetstrygd og hvordan ytelsen fungerer

En av fordelene med å være INSS forsikret er muligheten for å motta arbeidsledighetsforsikring. G...

read more
Harry Potter-spesialen på HBO Max vil gjenforene den originale rollebesetningen

Harry Potter-spesialen på HBO Max vil gjenforene den originale rollebesetningen

franchisen Harry Potter spiller hovedrollen Daniel Radcliffe, Emma Watson Det er Rupert Grint. De...

read more

Vil du ha en sunn hjerne? Spis B-vitaminer!

Hver dag kommer nye tips om hvordan du kan holde hjernen sunn til publikum. De spenner fra utøvel...

read more