Casa Albă a confirmat, săptămâna trecută, că Adobe, IBM, Palantir, Nvidia și Salesforce, împreună cu alte trei companii Inteligență artificială (AI), a adoptat standarde voluntare de securitate și fiabilitate.
Aceste companii se alătură numelor deja recunoscute în segment, cum ar fi Amazon, Anthropic, Google, Inflection AI, Microsoft și OpenAI, care s-au angajat în această inițiativă în iulie.
Vezi mai mult
Gas Aid și Bolsa Família din septembrie încep să fie plătite acest...
Sosește sfârșitul iernii, aducând temperaturi peste 40°C în toată țara;...
Deși aceste standarde sunt nereglementate și nu sunt sub supraveghere guvernamentală, ele reprezintă un efort concertat de a crește încrederea în evoluția tehnologiei.
Relevanța tot mai mare a AI, amplificată de lansarea de către OpenAI a ChatGPT anul precedent, a plasat tehnologia în centrul atenție, cu impact notabil asupra forței de muncă, răspândirea informațiilor incorecte și preocupări legate de evoluții autonom.
Din cauza unor astfel de provocări, Washingtonul a asistat la dezbateri intense în rândul legiuitorilor, autorităților de reglementare și antreprenorilor din domeniu cu privire la modul de gestionare și ghidare a progresului AI.
Giganții tehnologiei vor depune mărturie în fața Senatului cu privire la reglementările AI
Într-o serie de evenimente care vizează reglementarea AI, Brad Smith de la Microsoft și William Dally de Nvidia, urmează să depună mărturie la o audiere în fața subcomisiei Senatului pentru confidențialitate, tehnologie și lege.
În câteva zile, va avea loc o întâlnire la nivel înalt între parlamentari la un eveniment AI găzduit de senatorul democrat de la New York Chuck Schumer și următorii antreprenori:
Elon Musk (SpaceX, Tesla, printre altele);
Mark Zuckerberg (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, șeful de personal al Casei Albe, a răspuns angajamentului tot mai mare din partea companiilor de tehnologie, afirmând că „președintele a fost clar: valorificați beneficiile AI, gestionați riscurile și mergeți mai departe repede. Și este acest angajament pe care îl demonstrăm în parteneriat cu sectorul privat.”
(Imagine: dezvăluire)
Companiile, recunoscându-și responsabilitatea, au convenit să:
Evaluați produsele viitoare pentru potențiale riscuri de siguranță;
Introduceți filigrane pentru a identifica conținutul generat de AI;
Partajați informații despre amenințările de securitate;
Raportați tendințele observate în sistemele dvs.
Supravegherea guvernului SUA în fața provocărilor de securitate
Creșterea accelerată a IA în ultimele decenii a provocat o serie de dezbateri la scară globală.
În epicentrul acestor discuții, Statele Unite, o putere tehnologică, și-au arătat îngrijorarea cu privire la impactul acestei tehnologii.
Guvernul american, la identificarea potențialului de transformare al inteligenței artificiale, și-a îndreptat atenția mai îndeaproape asupra implicațiilor de securitate care decurg dintr-o astfel de revoluție tehnologică.
Preocuparea nu se limitează doar la protecția datelor și a confidențialității, ci se extinde la integritatea sistemelor probleme critice, potențiale amenințări la adresa infrastructurii naționale și posibilitatea utilizării greșite a IA în scenarii conflictual.
O astfel de recunoaștere reflectă urgența de a stabili linii directoare clare și reglementări solide care să garanteze dezvoltarea sigură și etică a Inteligenţă artificială.