Sistemele superinteligente sunt deja create și diseminate pe tot globul datorită cursei tehnologice. Din acest motiv, apar câteva întrebări: este posibil controlează inteligența artificială cat de departe? Cât de pregătiți suntem să luptăm cu a AI care funcționează dincolo de capacitatea umană? Cât de etic este să creezi un program ale cărui consecințe și impact nu pot fi încă măsurate? Vedeți acum mai multe informații despre aceste întrebări puse de oamenii de știință.
Citeşte mai mult: 7 aplicații ale inteligenței artificiale: unele înlocuiesc deja munca umană
Vezi mai mult
Alertă: ACEASTA plantă otrăvitoare a aterizat un tânăr în spital
Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...
Inteligență artificială cu superinteligență
Sună ca un film științifico-fantastic, dar adevărul este că o inteligență artificială poate crea într-adevăr autonomie pentru a învăța comenzi care se pot întoarce ulterior împotriva oamenilor. Nu este garantat, de exemplu, că vor respecta reguli precum „nu provocați rău umanității”, deoarece că vor fi programaţi să aibă autonomie şi să poată ocoli limitele impuse de programatori.
Problemă de oprire a lui Alan Turing
Denumită „problema opririi”, această problemă oferă două alternative pentru o comandă dată unui computer: fie o va face ajunge la o concluzie și fie răspunde la ea prin oprire, fie va continua într-o buclă încercând să găsească o soluție – până când gaseste-o. Din acest motiv, este imposibil de știut dacă inteligența artificială se va opri, sau dacă va găsi și stoca toate concluziile posibile în memoria sa.
Problema cu aceasta este că nu este posibil să se măsoare, după un timp, ce soluție sau alternativă va lua mașina pentru o anumită problemă. În acest fel, comportamentul său va fi imprevizibil și va fi inutil să se creeze un algoritm de izolare.
Divergențele între opiniile oamenilor de știință
Unii oameni de știință susțin că toate progresele tehnologice trebuie concepute pentru a promova binele comun într-un mod sigur și controlat. În acest fel, o supermașină capabilă să stocheze orice și toate tipurile de inteligență, cu puteri de izolare ineficiente și o capacitate încă nemăsurată de distrugere, pare ceva periculos.
Având în vedere acest lucru, cercetătorii în calcul susțin că mașinile superinteligente pot avea daune care depășesc beneficiile, iar construcția lor ar trebui evitată. Mulți programatori se confruntă în mod constant cu faptul că mașinile lor au învățat să facă lucruri pe care nu le-ar fi putut niciodată. a predat sau creat comenzi pentru ca ei să învețe – iar asta, în funcție de ceea ce învață, poate simboliza a risc.
probleme etice
Limitarea capacităților de superintelligence poate fi o alternativă viabilă. Pentru a face acest lucru, este posibil să-l tăiați din părți ale internetului sau din anumite rețele. Acestea ar fi exemple de mecanisme de izolare. Cu toate acestea, nu se știe încă dacă aceste alternative sunt viabile sau dacă mașina ar avea acces la aceste conținuturi într-un mod care nu a fost încă dezvăluit.
Prin urmare, dacă omenirea continuă să avanseze cu inteligența artificială, este necesar să fim foarte atenți la măsura în care trebuie să fie autonomă.