Vanwege de technologische race worden er al superintelligente systemen gecreëerd en over de hele wereld verspreid. Om deze reden rijzen er enkele vragen: is het mogelijk controle over kunstmatige intelligentie hoe ver? Hoe klaar zijn we om te vechten a AI dat werkt boven de menselijke capaciteit? Hoe ethisch is het om een programma te maken waarvan de gevolgen en effecten nog niet kunnen worden gemeten? Zie nu meer informatie over deze vragen gesteld door wetenschappers.
Lees verder: 7 toepassingen van kunstmatige intelligentie: sommige vervangen al menselijke arbeid
Bekijk meer
Alert: DEZE giftige plant heeft een jonge man in het ziekenhuis gebracht
Google ontwikkelt AI-tool om journalisten te helpen bij…
Kunstmatige intelligentie met superintelligentie
Het klinkt als een plot uit een sciencefictionfilm, maar de waarheid is dat kunstmatige intelligentie inderdaad autonomie kan creëren om commando's te leren die zich later tegen mensen kunnen keren. Het is bijvoorbeeld niet gegarandeerd dat ze zich zullen houden aan regels als "breng geen schade toe aan de mensheid", aangezien dat ze zullen worden geprogrammeerd om autonomie te hebben en de opgelegde limieten kunnen omzeilen programmeurs.
Alan Turing stopprobleem
Dit probleem, het "halting-probleem" genoemd, geeft twee alternatieven voor een commando dat aan een computer wordt gegeven: het zal het doen kom tot een conclusie en reageer erop door te stoppen, of het zal in een lus doorgaan om een oplossing te vinden - totdat vind haar. Om deze reden is het onmogelijk om te weten of de kunstmatige intelligentie zal stoppen, of dat ze alle mogelijke conclusies zal vinden en opslaan in haar geheugen.
Het probleem hiermee is dat het na verloop van tijd niet mogelijk is om te meten welke oplossing of alternatief de machine zal kiezen voor een bepaald probleem. Op deze manier zal zijn gedrag onvoorspelbaar zijn en heeft het geen zin om een inperkingsalgoritme te maken.
Verschillen tussen meningen van wetenschappers
Sommige wetenschappers beweren dat alle technologische vooruitgang moet worden ontworpen om het algemeen welzijn op een veilige en gecontroleerde manier te bevorderen. Op deze manier lijkt een supermachine die in staat is om alle soorten intelligentie op te slaan, met inefficiënte beheersingskrachten en een nog steeds ongekend vermogen tot vernietiging, iets gevaarlijks.
Met dat in gedachten beweren computeronderzoekers dat superintelligente machines nadelen kunnen hebben die opwegen tegen de voordelen, en dat hun constructie moet worden vermeden. Veel programmeurs hebben voortdurend te maken met het feit dat hun machines hebben geleerd dingen te doen die ze nooit zouden kunnen. geleerd of gecreëerde commando's voor hen om te leren - en dit, afhankelijk van wat ze leren, kan een symboliseren risico.
ethische problemen
Het beperken van superintelligentiemogelijkheden kan een levensvatbaar alternatief zijn. Om dit te doen, is het mogelijk om het af te sluiten van delen van internet of van bepaalde netwerken. Dit zijn voorbeelden van inperkingsmechanismen. Het is echter nog niet bekend of deze alternatieven levensvatbaar zijn – of dat de machine toegang zou hebben tot deze inhoud op een manier die nog moet worden onthuld.
Daarom, als de mensheid vooruit blijft gaan met kunstmatige intelligentie, is het noodzakelijk om heel voorzichtig te zijn met de mate waarin ze autonoom moet zijn.