Oamenii de știință spun că inteligența artificială super-inteligentă va fi incontrolabilă

Sistemele superinteligente sunt deja create și diseminate pe tot globul datorită cursei tehnologice. Din acest motiv, apar câteva întrebări: este posibil controlează inteligența artificială cat de departe? Cât de pregătiți suntem să luptăm cu a AI care funcționează dincolo de capacitatea umană? Cât de etic este să creezi un program ale cărui consecințe și impact nu pot fi încă măsurate? Vedeți acum mai multe informații despre aceste întrebări puse de oamenii de știință.

Citeşte mai mult: 7 aplicații ale inteligenței artificiale: unele înlocuiesc deja munca umană

Vezi mai mult

Alertă: ACEASTA plantă otrăvitoare a aterizat un tânăr în spital

Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...

Inteligență artificială cu superinteligență

Sună ca un film științifico-fantastic, dar adevărul este că o inteligență artificială poate crea într-adevăr autonomie pentru a învăța comenzi care se pot întoarce ulterior împotriva oamenilor. Nu este garantat, de exemplu, că vor respecta reguli precum „nu provocați rău umanității”, deoarece că vor fi programaţi să aibă autonomie şi să poată ocoli limitele impuse de programatori.

Problemă de oprire a lui Alan Turing

Denumită „problema opririi”, această problemă oferă două alternative pentru o comandă dată unui computer: fie o va face ajunge la o concluzie și fie răspunde la ea prin oprire, fie va continua într-o buclă încercând să găsească o soluție – până când gaseste-o. Din acest motiv, este imposibil de știut dacă inteligența artificială se va opri, sau dacă va găsi și stoca toate concluziile posibile în memoria sa.

Problema cu aceasta este că nu este posibil să se măsoare, după un timp, ce soluție sau alternativă va lua mașina pentru o anumită problemă. În acest fel, comportamentul său va fi imprevizibil și va fi inutil să se creeze un algoritm de izolare.

Divergențele între opiniile oamenilor de știință

Unii oameni de știință susțin că toate progresele tehnologice trebuie concepute pentru a promova binele comun într-un mod sigur și controlat. În acest fel, o supermașină capabilă să stocheze orice și toate tipurile de inteligență, cu puteri de izolare ineficiente și o capacitate încă nemăsurată de distrugere, pare ceva periculos.

Având în vedere acest lucru, cercetătorii în calcul susțin că mașinile superinteligente pot avea daune care depășesc beneficiile, iar construcția lor ar trebui evitată. Mulți programatori se confruntă în mod constant cu faptul că mașinile lor au învățat să facă lucruri pe care nu le-ar fi putut niciodată. a predat sau creat comenzi pentru ca ei să învețe – iar asta, în funcție de ceea ce învață, poate simboliza a risc.

probleme etice

Limitarea capacităților de superintelligence poate fi o alternativă viabilă. Pentru a face acest lucru, este posibil să-l tăiați din părți ale internetului sau din anumite rețele. Acestea ar fi exemple de mecanisme de izolare. Cu toate acestea, nu se știe încă dacă aceste alternative sunt viabile sau dacă mașina ar avea acces la aceste conținuturi într-un mod care nu a fost încă dezvăluit.

Prin urmare, dacă omenirea continuă să avanseze cu inteligența artificială, este necesar să fim foarte atenți la măsura în care trebuie să fie autonomă.

Compoziția chimică a ciocolatei. Constituție de ciocolată

Compoziția chimică a ciocolatei. Constituție de ciocolată

Ciocolata este un aliment iubit de majoritatea oamenilor, iar pentru mulți, în special pentru fe...

read more
Capilare sanguine: caracteristici și importanță

Capilare sanguine: caracteristici și importanță

capilare sunt vase de sânge acel prezent perete subțire și calibru mic. Adăugați la artere și ven...

read more

Passato Prossimo: verbi irregolari

Este important pentru dvs. să rețineți că verbele cu participiul trecut neregulat apar foarte des...

read more