Vita huset bekräftade förra veckan att Adobe, IBM, Palantir, Nvidia och Salesforce, tillsammans med tre andra företag Artificiell intelligens (AI), antog frivilliga säkerhets- och tillförlitlighetsstandarder.
Dessa företag ansluter sig till redan erkända namn inom segmentet, såsom Amazon, Anthropic, Google, Inflection AI, Microsoft och OpenAI, som åtog sig detta initiativ i juli.
se mer
Gas Aid och Bolsa Família från september börjar betalas ut detta...
Slutet av vintern närmar sig, vilket ger temperaturer över 40ºC över hela landet;...
Även om dessa standarder är oreglerade och inte under statlig tillsyn, representerar de en samlad ansträngning för att öka förtroendet för teknikens utveckling.
Den växande relevansen av AI, förstärkt av OpenAI: s lansering av ChatGPT föregående år, har placerat tekniken i centrum för uppmärksamhet, med anmärkningsvärda effekter på arbetskraften, spridning av felaktig information och oro över utvecklingen autonom.
På grund av sådana utmaningar har Washington sett intensiva debatter bland lagstiftare, tillsynsmyndigheter och entreprenörer på området om hur man hanterar och styr utvecklingen av AI.
Tekniska jättar kommer att vittna inför senaten om AI-regler
I en serie evenemang som syftar till att reglera AI, Brad Smith från Microsoft och William Dally från Nvidia, är planerade att vittna vid en utfrågning inför senatens underkommitté för integritet, teknik och lag.
Om några dagar kommer ett möte på hög nivå att äga rum mellan lagstiftare vid ett AI-evenemang som arrangeras av New Yorks demokratiske senator Chuck Schumer och följande entreprenörer:
Elon Musk (SpaceX, Tesla, bland andra);
Mark Zuckerberg (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, Vita husets stabschef, svarade på det växande engagemanget från teknikföretag, sade att "presidenten var tydlig: utnyttja fördelarna med AI, hantera riskerna och gå framåt snabbt. Och det är detta engagemang som vi visar i partnerskap med den privata sektorn.”
(Bild: avslöjande)
Företagen erkände sitt ansvar och gick med på att:
Utvärdera framtida produkter för potentiella säkerhetsrisker;
Introducera vattenstämplar för att identifiera AI-genererat innehåll;
Dela information om säkerhetshot;
Rapportera trender som observerats i dina system.
USA: s regerings övervakning inför säkerhetsutmaningar
Den accelererade tillväxten av AI under de senaste decennierna har framkallat en rad debatter på global nivå.
I centrum för dessa diskussioner har USA, ett tekniskt kraftpaket, visat oro över effekterna av denna teknik.
Den amerikanska regeringen, efter att ha identifierat den transformativa potentialen hos AI, har riktat sin uppmärksamhet närmare mot de säkerhetskonsekvenser som en sådan teknisk revolution uppstår.
Oron är inte bara begränsad till dataskydd och integritet, utan sträcker sig till systemens integritet kritiska frågor, potentiella hot mot nationell infrastruktur och möjligheten till missbruk av AI i scenarier konfliktfyllda.
Ett sådant erkännande återspeglar behovet av att fastställa tydliga riktlinjer och robusta bestämmelser som garanterar en säker och etisk utveckling av Artificiell intelligens.