Det Hvide Hus bekræftede i sidste uge, at Adobe, IBM, Palantir, Nvidia og Salesforce sammen med tre andre virksomheder Kunstig intelligens (AI), vedtaget frivillige sikkerheds- og pålidelighedsstandarder.
Disse virksomheder slutter sig til allerede anerkendte navne i segmentet, såsom Amazon, Anthropic, Google, Inflection AI, Microsoft og OpenAI, som forpligtede sig til dette initiativ i juli.
se mere
Gas Aid og Bolsa Família fra september begynder at blive betalt denne...
Slutningen af vinteren nærmer sig, og bringer temperaturer over 40ºC over hele landet;...
Selvom disse standarder er uregulerede og ikke under offentligt tilsyn, repræsenterer de en fælles indsats for at øge tilliden til teknologiens udvikling.
Den voksende relevans af AI, forstærket af OpenAI's lancering af ChatGPT det foregående år, har placeret teknologien i centrum af opmærksomhed, med bemærkelsesværdige konsekvenser for arbejdsstyrken, spredning af ukorrekte oplysninger og bekymringer om udviklingen autonom.
På grund af sådanne udfordringer har Washington oplevet intense debatter blandt lovgivere, regulatorer og iværksættere på området om, hvordan man administrerer og guider udviklingen af kunstig intelligens.
Tech-giganter vil vidne for Senatet om AI-regler
I en række begivenheder med det formål at regulere kunstig intelligens, Brad Smith fra Microsoft og William Dally fra Nvidia, er planlagt til at vidne ved en høring for Senatets underudvalg for privatliv, teknologi og lov.
Om et par dage vil et møde på højt niveau finde sted mellem lovgivere ved en AI-begivenhed arrangeret af New Yorks demokratiske senator Chuck Schumer og følgende iværksættere:
Elon Musk (SpaceX, Tesla, blandt andre);
Mark Zuckerberg (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, stabschef i Det Hvide Hus, reagerede på det voksende engagement fra teknologivirksomheder, udtalte, at "præsidenten var klar: Udnyt fordelene ved kunstig intelligens, administrer risiciene og kom videre hurtigt. Og det er denne forpligtelse, vi viser i partnerskab med den private sektor."
(Billede: afsløring)
Virksomhederne anerkendte deres ansvar og indvilligede i at:
Vurder fremtidige produkter for potentielle sikkerhedsrisici;
Introducer vandmærker for at identificere AI-genereret indhold;
Del information om sikkerhedstrusler;
Rapporter tendenser observeret i dine systemer.
Den amerikanske regerings overvågning i lyset af sikkerhedsmæssige udfordringer
Den accelererede vækst af kunstig intelligens i de seneste årtier har fremkaldt en række debatter på globalt plan.
I epicentret for disse diskussioner har USA, et teknologisk kraftcenter, vist bekymring over virkningerne af denne teknologi.
Den amerikanske regering har, efter at have identificeret AI's transformative potentiale, rettet sin opmærksomhed mere mod de sikkerhedsmæssige implikationer som følge af en sådan teknologisk revolution.
Bekymringen er ikke kun begrænset til databeskyttelse og privatliv, men strækker sig til systemernes integritet kritiske problemer, potentielle trusler mod national infrastruktur og muligheden for misbrug af kunstig intelligens i scenarier konfliktfyldte.
En sådan anerkendelse afspejler, at det haster med at etablere klare retningslinjer og robuste regler, der garanterer en sikker og etisk udvikling af Kunstig intelligens.