La Casa Bianca ha confermato, la settimana scorsa, che Adobe, IBM, Palantir, Nvidia e Salesforce, insieme ad altre tre società Intelligenza Artificiale (AI), ha adottato standard volontari di sicurezza e affidabilità.
Queste aziende si uniscono a nomi già riconosciuti nel segmento, come Amazon, Anthropic, Google, Inflection AI, Microsoft e OpenAI, che si sono impegnati in questa iniziativa a luglio.
Vedi altro
Gli aiuti per il gas e la Bolsa Família da settembre iniziano a essere pagati questo...
Arriva la fine dell'inverno, portando le temperature sopra i 40ºC in tutto il paese;...
Sebbene questi standard non siano regolamentati e non siano soggetti al controllo del governo, rappresentano uno sforzo concertato per aumentare la fiducia nell’evoluzione della tecnologia.
La crescente rilevanza dell'intelligenza artificiale, amplificata dal lancio di ChatGPT da parte di OpenAI l'anno precedente, ha posto la tecnologia al centro di attenzione, con notevoli ricadute sulla forza lavoro, alla diffusione di informazioni errate e alle preoccupazioni sugli sviluppi autonomo.
A causa di tali sfide, Washington ha visto intensi dibattiti tra legislatori, regolatori e imprenditori del settore su come gestire e guidare il progresso dell’IA.
I giganti della tecnologia testimonieranno davanti al Senato sulle normative sull’IA
In una serie di eventi volti a regolamentare l'intelligenza artificiale, Brad Smith di Microsoft e William Dally di Nvidia testimonierà in un'audizione davanti alla sottocommissione del Senato su privacy, tecnologia e legge.
Tra pochi giorni si svolgerà un incontro ad alto livello tra i legislatori in occasione di un evento sull'intelligenza artificiale ospitato dal senatore democratico di New York Chuck Schumer e i seguenti imprenditori:
Elon Musk (SpaceX, Tesla, tra gli altri);
Mark Zuckerberg (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, capo dello staff della Casa Bianca, ha risposto al crescente impegno delle aziende tecnologiche, affermando che “il presidente è stato chiaro: sfruttare i vantaggi dell’intelligenza artificiale, gestire i rischi e andare avanti velocemente. Ed è questo impegno che stiamo dimostrando in collaborazione con il settore privato”.
(Immagine: divulgazione)
Le aziende, riconoscendo le proprie responsabilità, hanno convenuto di:
Valutare i prodotti futuri per potenziali rischi per la sicurezza;
Introdurre filigrane per identificare i contenuti generati dall'intelligenza artificiale;
Condividere informazioni sulle minacce alla sicurezza;
Segnala le tendenze osservate nei tuoi sistemi.
Sorveglianza del governo statunitense di fronte alle sfide alla sicurezza
La crescita accelerata dell’intelligenza artificiale negli ultimi decenni ha provocato una serie di dibattiti su scala globale.
Al centro di queste discussioni, gli Stati Uniti, una potenza tecnologica, hanno mostrato preoccupazione per l’impatto di questa tecnologia.
Il governo americano, dopo aver individuato il potenziale trasformativo dell’intelligenza artificiale, ha rivolto più da vicino la sua attenzione alle implicazioni sulla sicurezza derivanti da una simile rivoluzione tecnologica.
La preoccupazione non si limita solo alla protezione dei dati e alla privacy, ma si estende all’integrità dei sistemi criticità, potenziali minacce alle infrastrutture nazionali e possibilità di uso improprio dell’IA negli scenari conflittuale.
Tale riconoscimento riflette l’urgenza di stabilire linee guida chiare e normative solide che garantiscano lo sviluppo sicuro ed etico del mondo Intelligenza artificiale.