Superintelligente systemer bliver allerede skabt og spredt over hele kloden på grund af det teknologiske kapløb. Af denne grund opstår nogle spørgsmål: er det muligt kontrollere kunstig intelligens hvor langt? Hvor klar er vi til at kæmpe en AI der virker ud over menneskelig kapacitet? Hvor etisk er det at skabe et program, hvis konsekvenser og virkninger endnu ikke kan måles? Se nu mere information om disse spørgsmål stillet af forskere.
Læs mere: 7 anvendelser af kunstig intelligens: nogle erstatter allerede menneskelig arbejdskraft
se mere
Advarsel: DENNE giftige plante landede en ung mand på hospitalet
Google udvikler AI-værktøj til at hjælpe journalister i...
Kunstig intelligens med superintelligens
Det lyder som et science fiction-filmplot, men sandheden er, at en kunstig intelligens faktisk kan skabe autonomi til at lære kommandoer, der senere kan vende sig mod mennesker. Det er ikke garanteret, for eksempel, at de vil følge regler som "ikke forårsage skade på menneskeheden", siden at de vil blive programmeret til at have autonomi og kan omgå de grænser, der pålægges af programmører.
Alan Turing stopper problem
Kaldet "stoppeproblemet" giver dette problem to alternativer til en kommando givet til en computer: enten vil den komme til en konklusion og enten reagere på den ved at stoppe, eller også vil den fortsætte i en løkke med at forsøge at finde en løsning – indtil finde hende. Af denne grund er det umuligt at vide, om den kunstige intelligens vil stoppe, eller om den vil finde og gemme alle mulige konklusioner i sin hukommelse.
Problemet med dette er, at det efter et stykke tid ikke er muligt at måle, hvilken løsning eller alternativ maskinen vil tage for et givent problem. På denne måde vil dens adfærd være uforudsigelig, og det vil være meningsløst at oprette en indeslutningsalgoritme.
Forskelle mellem videnskabsmænds meninger
Nogle videnskabsmænd hævder, at alle fremskridt inden for teknologi skal designes til at fremme det fælles bedste på en sikker og kontrolleret måde. På denne måde virker en supermaskine, der er i stand til at lagre enhver og alle typer af intelligens, med ineffektive indeslutningskræfter og en stadig umålt kapacitet til ødelæggelse, som noget farligt.
Med det i tankerne hævder computerforskere, at superintelligente maskiner kan have skader, der opvejer fordelene, og deres konstruktion bør undgås. Mange programmører beskæftiger sig konstant med, at deres maskiner har lært at gøre ting, de aldrig kunne. undervist eller oprettet kommandoer for dem at lære - og dette, afhængigt af hvad de lærer, kan symbolisere en risiko.
Etiske problemer
Begrænsning af superintelligens-kapaciteter kan være et levedygtigt alternativ. For at gøre dette er det muligt at afskære det fra dele af internettet eller fra bestemte netværk. Disse ville være eksempler på indeslutningsmekanismer. Det vides dog endnu ikke, om disse alternativer er levedygtige – eller om maskinen ville have adgang til dette indhold på en måde, der endnu ikke er afsløret.
Derfor, hvis menneskeheden fortsætter med at udvikle sig med kunstig intelligens, er det nødvendigt at være meget forsigtig med, i hvilket omfang den skal være autonom.