Forskere siger, at superintelligent kunstig intelligens vil være ukontrollerbar

Superintelligente systemer bliver allerede skabt og spredt over hele kloden på grund af det teknologiske kapløb. Af denne grund opstår nogle spørgsmål: er det muligt kontrollere kunstig intelligens hvor langt? Hvor klar er vi til at kæmpe en AI der virker ud over menneskelig kapacitet? Hvor etisk er det at skabe et program, hvis konsekvenser og virkninger endnu ikke kan måles? Se nu mere information om disse spørgsmål stillet af forskere.

Læs mere: 7 anvendelser af kunstig intelligens: nogle erstatter allerede menneskelig arbejdskraft

se mere

Advarsel: DENNE giftige plante landede en ung mand på hospitalet

Google udvikler AI-værktøj til at hjælpe journalister i...

Kunstig intelligens med superintelligens

Det lyder som et science fiction-filmplot, men sandheden er, at en kunstig intelligens faktisk kan skabe autonomi til at lære kommandoer, der senere kan vende sig mod mennesker. Det er ikke garanteret, for eksempel, at de vil følge regler som "ikke forårsage skade på menneskeheden", siden at de vil blive programmeret til at have autonomi og kan omgå de grænser, der pålægges af programmører.

Alan Turing stopper problem

Kaldet "stoppeproblemet" giver dette problem to alternativer til en kommando givet til en computer: enten vil den komme til en konklusion og enten reagere på den ved at stoppe, eller også vil den fortsætte i en løkke med at forsøge at finde en løsning – indtil finde hende. Af denne grund er det umuligt at vide, om den kunstige intelligens vil stoppe, eller om den vil finde og gemme alle mulige konklusioner i sin hukommelse.

Problemet med dette er, at det efter et stykke tid ikke er muligt at måle, hvilken løsning eller alternativ maskinen vil tage for et givent problem. På denne måde vil dens adfærd være uforudsigelig, og det vil være meningsløst at oprette en indeslutningsalgoritme.

Forskelle mellem videnskabsmænds meninger

Nogle videnskabsmænd hævder, at alle fremskridt inden for teknologi skal designes til at fremme det fælles bedste på en sikker og kontrolleret måde. På denne måde virker en supermaskine, der er i stand til at lagre enhver og alle typer af intelligens, med ineffektive indeslutningskræfter og en stadig umålt kapacitet til ødelæggelse, som noget farligt.

Med det i tankerne hævder computerforskere, at superintelligente maskiner kan have skader, der opvejer fordelene, og deres konstruktion bør undgås. Mange programmører beskæftiger sig konstant med, at deres maskiner har lært at gøre ting, de aldrig kunne. undervist eller oprettet kommandoer for dem at lære - og dette, afhængigt af hvad de lærer, kan symbolisere en risiko.

Etiske problemer

Begrænsning af superintelligens-kapaciteter kan være et levedygtigt alternativ. For at gøre dette er det muligt at afskære det fra dele af internettet eller fra bestemte netværk. Disse ville være eksempler på indeslutningsmekanismer. Det vides dog endnu ikke, om disse alternativer er levedygtige – eller om maskinen ville have adgang til dette indhold på en måde, der endnu ikke er afsløret.

Derfor, hvis menneskeheden fortsætter med at udvikle sig med kunstig intelligens, er det nødvendigt at være meget forsigtig med, i hvilket omfang den skal være autonom.

Kend vigtigheden af ​​fysisk træning i dit daglige liv

Der er mennesker, der mener, at vigtigheden af fysiske øvelser det er kun knyttet til æstetik, me...

read more

Omkring 40 % af tyske mænd tisser, mens de sidder på toilettet

Vidste du, at vandladning siddende er en almindelig gestus blandt mænd i Tyskland?Ifølge en under...

read more

Hold op! Kassér IKKE citrusskaller

Det er lige meget, hvilken årstid frugten er, hvis du er en person, der altid har hjemmelavet sir...

read more
instagram viewer