Forskare säger att superintelligent artificiell intelligens kommer att vara okontrollerbar

Superintelligenta system skapas redan och sprids över hela världen på grund av den tekniska kapplöpningen. Av denna anledning uppstår några frågor: är det möjligt kontrollera artificiell intelligens hur långt? Hur redo är vi att slåss en AI som fungerar bortom mänsklig kapacitet? Hur etiskt är det att skapa ett program vars konsekvenser och effekter ännu inte kan mätas? Se nu mer information om dessa frågor som ställs av forskare.

Läs mer: 7 tillämpningar av artificiell intelligens: vissa ersätter redan mänskligt arbete

se mer

Varning: DENNA giftiga växt landade en ung man på sjukhuset

Google utvecklar AI-verktyg för att hjälpa journalister i...

Artificiell intelligens med superintelligens

Det låter som en science fiction-filmintrig, men sanningen är att en artificiell intelligens verkligen kan skapa autonomi för att lära sig kommandon som senare kan vända sig mot människor. Det är inte garanterat, till exempel, att de kommer att följa regler som "inte orsaka skada på mänskligheten", sedan att de kommer att programmeras att ha autonomi och kan kringgå de gränser som ställs av programmerare.

Alan Turing stoppproblem

Detta problem, som kallas "stoppproblem", ger två alternativ för ett kommando som ges till en dator: antingen kommer det att göra det komma till en slutsats och antingen svara på den genom att stanna, eller så fortsätter den i en slinga för att försöka hitta en lösning – tills hitta henne. Av denna anledning är det omöjligt att veta om den artificiella intelligensen kommer att sluta, eller om den kommer att hitta och lagra alla möjliga slutsatser i sitt minne.

Problemet med detta är att det inte går att mäta, efter ett tag, vilken lösning eller alternativ maskinen kommer att ta för ett givet problem. På så sätt kommer dess beteende att vara oförutsägbart och det kommer att vara meningslöst att skapa en inneslutningsalgoritm.

Skillnader mellan åsikter från forskare

Vissa forskare hävdar att alla framsteg inom teknik måste utformas för att främja det gemensamma bästa på ett säkert och kontrollerat sätt. På så sätt verkar en supermaskin som kan lagra alla typer av intelligens, med ineffektiva inneslutningsförmåga och en fortfarande omättad kapacitet för förstörelse, vara något farligt.

Med det i åtanke hävdar dataforskare att superintelligenta maskiner kan ha skador som överväger fördelarna, och deras konstruktion bör undvikas. Många programmerare hanterar ständigt det faktum att deras maskiner har lärt sig att göra saker de aldrig kunde. lärt ut eller skapat kommandon för dem att lära sig - och detta, beroende på vad de lär sig, kan symbolisera en risk.

etiska problem

Att begränsa superintelligens kapacitet kan vara ett gångbart alternativ. För att göra detta är det möjligt att stänga av den från delar av internet eller från vissa nätverk. Dessa skulle vara exempel på inneslutningsmekanismer. Det är dock ännu inte känt om dessa alternativ är genomförbara – eller om maskinen skulle ha tillgång till detta innehåll på ett sätt som ännu inte har avslöjats.

Därför, om mänskligheten fortsätter att utvecklas med artificiell intelligens, är det nödvändigt att vara mycket försiktig med i vilken utsträckning den måste vara autonom.

Överför din bil bara med appen Digital Wallet

Vi vet redan att tekniken går framåt för att ge oss komfort, men att handla med dokument när du k...

read more

Capes erbjuder 30 specialiseringsstipendier i Irland med betalda kostnader

Capes har öppnat registreringen för att tävla om specialiseringsstipendier inom utbildning. Kurse...

read more

Outback Restaurant: Hur mycket kostar det att öppna en och hur mycket kostar det?

Utan tvekan är Outback en av de mest kända restaurangkedjorna över hela landet, med garanterad fr...

read more