Inteligența artificială este instrumentul momentului. Odată cu evoluția sa rapidă, recordurile au fost doborâte în scurt timp cu fenomenul ChatGPT. Cu toate acestea, liderii săi cred că este nevoie de un organism internațional de reglementare, similar celui care guvernează energia nucleară. Există o mare îngrijorare cu privire la utilizarea rău intenționată a instrumentului pentru a crea dezinformare și deepfakes.
Într-o postare pe blogul companiei, fondatorul OpenAI Sam Altman, președintele Greg Brockman și cercetătorul șef Ilya Sutskever s-au reunit pentru a oferi mai multe detalii despre ceea ce se poate face.
Vezi mai mult
Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...
iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...
Ce spune postarea de blog OpenAI?
Oamenii care conduc OpenAI cred că acum este cel mai bun moment pentru a reflecta la așa-numita „guvernare a superinformațiilor”. Compania crede cu tărie că superintelligence – sistemele AI în următorii 10 ani – vor fi mult mai puternice decât alte tehnologii cu care s-a confruntat omenirea.
Se spune că putem avea un viitor dramatic mai prosper, dar că trebuie să știm să gestionăm riscurile pentru a ajunge acolo. Autorii comentează că, „având în vedere posibilitatea riscului existențial, nu putem fi doar reactivi. A energie nuclearăeste un exemplu istoric folosit în mod obișnuit al unei tehnologii cu această proprietate; biologia sintetică este un alt exemplu.”
Acesta își încheie primele secțiuni afirmând că trebuie să atenuăm riscurile tehnologiei AI de astăzi, dar că superintelligence va necesita un tratament și o coordonare speciale.
El continuă să vorbească despre această relație a necesității unui organism de reglementare, precum și a Agenției Internaționale pentru Energie Atomică deja existentă, a Națiunilor Unite, ONU.
„Avem nevoie de un anumit grad de coordonare între eforturile majore de dezvoltare pentru a ne asigura că dezvoltarea superinteligența are loc într-un mod care ne permite să menținem securitatea și să asistăm la integrarea fără probleme a acestor sisteme cu societate."
„Este probabil ca în cele din urmă să avem nevoie de ceva de genul unei [Agenția Internațională pentru Energie Atomică] pentru eforturile de superintelligence; orice efort peste un anumit prag de capacitate (sau resurse precum calculul) va trebui să fie supus unei autorități internaționale care poate inspectează sistemele, solicită audituri, testează conformitatea cu standardele de securitate, impun restricții asupra gradelor de implementare și nivelurilor de securitate, etc”.
Compania vede contribuția publică ca fiind importantă în acest proces
Se spune că guvernarea sistemelor puternice trebuie să însoțească supravegherea publică. Cred că oamenii din întreaga lume ar trebui să fie împuterniciți să decidă în mod democratic care sunt limitele și standardele sisteme AI Compania arată că încă nu știu să proiecteze un astfel de mecanism, dar că dezvoltarea lui este în desfășurare. planificare.
În cele din urmă, se subliniază că este riscant să prevină crearea unei superinteligențe. Evidențiază avantajele acestora și faptul că numărul de actori care le construiesc crește rapid și face parte în mod inerent din calea tehnologică. Compania solicită ca măsurile să fie corecte.
Pentru a accesa publicația originală, faceți clic Aici.