Det hvite hus bekreftet forrige uke at Adobe, IBM, Palantir, Nvidia og Salesforce, sammen med tre andre selskaper Kunstig intelligens (AI), vedtatt frivillige sikkerhets- og pålitelighetsstandarder.
Disse selskapene slutter seg til allerede anerkjente navn i segmentet, som Amazon, Anthropic, Google, Inflection AI, Microsoft og OpenAI, som forpliktet seg til dette initiativet i juli.
se mer
Gas Aid og Bolsa Família fra september begynner å bli betalt denne...
Slutten av vinteren kommer, og bringer temperaturer over 40ºC over hele landet;...
Selv om disse standardene er uregulerte og ikke under statlig tilsyn, representerer de en samlet innsats for å øke tilliten til utviklingen av teknologi.
Den økende relevansen til AI, forsterket av OpenAIs lansering av ChatGPT året før, har plassert teknologien i sentrum av oppmerksomhet, med bemerkelsesverdige konsekvenser for arbeidsstyrken, spredning av feil informasjon og bekymringer om utviklingen autonome.
På grunn av slike utfordringer har Washington sett intense debatter blant lovgivere, regulatorer og entreprenører på feltet om hvordan man skal styre og veilede fremdriften til AI.
Tekniske giganter vil vitne for senatet om AI-forskrifter
I en serie hendelser rettet mot å regulere AI, Brad Smith fra Microsoft og William Dally fra Nvidia, skal etter planen vitne i en høring for Senatets underutvalg for personvern, teknologi og lov.
Om noen dager vil et møte på høyt nivå finne sted mellom lovgivere på et AI-arrangement arrangert av New Yorks demokratiske senator Chuck Schumer og følgende gründere:
Elon Musk (SpaceX, Tesla, blant andre);
Mark Zuckerberg (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, stabssjef i Det hvite hus, reagerte på det økende engasjementet fra teknologiselskaper, uttalte at "presidenten var tydelig: dra nytte av fordelene med AI, administrer risikoen og kom deg videre raskt. Og det er denne forpliktelsen vi viser i samarbeid med privat sektor.»
(Bilde: avsløring)
Selskapene, som anerkjente sitt ansvar, ble enige om å:
Vurder fremtidige produkter for potensielle sikkerhetsrisikoer;
Introduser vannmerker for å identifisere AI-generert innhold;
Del informasjon om sikkerhetstrusler;
Rapporter trender observert i systemene dine.
Amerikanske myndigheters overvåking i møte med sikkerhetsutfordringer
Den akselererte veksten av AI de siste tiårene har provosert en rekke debatter på global skala.
I episenteret for disse diskusjonene har USA, et teknologisk kraftsenter, vist bekymring for virkningene av denne teknologien.
Den amerikanske regjeringen, etter å ha identifisert det transformative potensialet til AI, har rettet oppmerksomheten nærmere mot sikkerhetsimplikasjonene som oppstår fra en slik teknologisk revolusjon.
Bekymringen er ikke bare begrenset til databeskyttelse og personvern, men strekker seg til systemenes integritet kritiske problemer, potensielle trusler mot nasjonal infrastruktur og muligheten for misbruk av AI i scenarier konfliktfylt.
En slik anerkjennelse reflekterer at det haster med å etablere klare retningslinjer og robuste regelverk som garanterer en sikker og etisk utvikling av Kunstig intelligens.