I sistemi superintelligenti sono già stati creati e diffusi in tutto il mondo a causa della corsa tecnologica. Per questo motivo, sorgono alcune domande: è possibile controllare l'intelligenza artificiale quanto lontano? Quanto siamo pronti a combattere a AI che funziona oltre le capacità umane? Quanto è etico creare un programma le cui conseguenze e impatti non possono ancora essere misurati? Vedi ora maggiori informazioni su queste domande poste dagli scienziati.
Per saperne di più: 7 applicazioni dell'intelligenza artificiale: alcune già sostituiscono il lavoro umano
Vedi altro
Avviso: QUESTA pianta velenosa ha portato un giovane in ospedale
Google sviluppa uno strumento AI per aiutare i giornalisti in...
Intelligenza artificiale con superintelligenza
Sembra la trama di un film di fantascienza, ma la verità è che un'intelligenza artificiale può davvero creare autonomia per apprendere comandi che possono poi rivoltarsi contro gli umani. Non è garantito, ad esempio, che seguiranno regole come "non causare danni all'umanità", poiché che saranno programmati per avere autonomia e potranno aggirare i limiti imposti dall'art programmatori.
Problema di arresto di Alan Turing
Chiamato il "problema dell'arresto", questo problema offre due alternative per un comando dato a un computer: o lo farà giungi a una conclusione e rispondi fermandoti, oppure continuerà in un ciclo cercando di trovare una soluzione - fino a quando Trovala. Per questo motivo è impossibile sapere se l'intelligenza artificiale si fermerà o se troverà e memorizzerà tutte le possibili conclusioni.
Il problema con questo è che non è possibile misurare, dopo un po', quale soluzione o alternativa la macchina prenderà per un dato problema. In questo modo il suo comportamento sarà imprevedibile e sarà inutile creare un algoritmo di contenimento.
Divergenze tra le opinioni degli scienziati
Alcuni scienziati sostengono che tutti i progressi tecnologici debbano essere progettati per promuovere il bene comune in modo sicuro e controllato. In questo modo, una supermacchina in grado di immagazzinare qualsiasi tipo di intelligenza, con poteri di contenimento inefficienti e una capacità di distruzione ancora smisurata, sembra qualcosa di pericoloso.
Con questo in mente, i ricercatori informatici affermano che le macchine superintelligenti possono avere danni che superano i benefici e la loro costruzione dovrebbe essere evitata. Molti programmatori affrontano costantemente il fatto che le loro macchine hanno imparato a fare cose che non avrebbero mai potuto fare. insegnava o creava loro dei comandi da imparare - e questo, a seconda di ciò che imparano, può simboleggiare a rischio.
problemi etici
Limitare le capacità della superintelligenza può essere una valida alternativa. Per fare ciò, è possibile tagliarlo da parti di Internet o da determinate reti. Questi sarebbero esempi di meccanismi di contenimento. Tuttavia, non è ancora noto se queste alternative siano praticabili o se la macchina avrebbe accesso a questi contenuti in un modo che deve ancora essere rivelato.
Pertanto, se l'umanità continua ad avanzare con l'intelligenza artificiale, è necessario stare molto attenti alla misura in cui deve essere autonoma.