Le principali aziende diIntelligenza artificiale(AI) dagli Stati Uniti, Google, Microsoft e OpenAI stanno facendo passi da gigante verso uno sviluppo tecnologico responsabile.
In risposta a una chiamata della Casa Bianca, queste aziende si stanno impegnando volontariamente ad adottare misure di salvaguardia essenziali nelle loro soluzioni di intelligenza artificiale.
Vedi altro
Kit dalla Cina promette di trasformare il classico Maggiolino in un'auto elettrica
iPhone che non hanno avuto successo: 5 lanci rifiutati dal pubblico!
La direzione del presidente Biden ha fortemente sottolineato l'importanza di garantire che le aziende di intelligenza artificiale sviluppino il proprio tecnologia etica a beneficio della società senza compromettere la sicurezza, i diritti individuali o i valori democratico.
Sia il vicepresidente Kamala Harris che il presidente Joe Biden hanno partecipato attivamente discussioni con i leader del settore dell'IA, evidenziando l'urgenza di promuovere la responsabilità in questo campo.
La crescita responsabile dell'IA viene promossa dalle aziende più grandi
Secondo le informazioni tratte da una bozza del documento ottenuta da Bloomberg, alle aziende tecnologiche viene chiesto di rispettare otto misure suggerite relative a sicurezza, protezione e responsabilità sociale. Tali azioni mirano a garantire un approccio più consapevole durante lo sviluppo e l'applicazione dell'IA.
Alcuni di questi includono consentire a esperti indipendenti di testare modelli di intelligenza artificiale per rilevare possibili comportamento inappropriato, investire nella sicurezza informatica e incoraggiare terze parti a identificare scappatoie nel sicurezza.
(Immagine: divulgazione)
Come modo per affrontare i rischi per la società, compresi i pregiudizi e gli usi inappropriati dell'intelligenza artificiale, le aziende stanno dirigendo i loro sforzi per condurre ricerche approfondite e approfondite sulle implicazioni di tale tecnologia.
Inoltre, si impegnano a condividere con altri informazioni affidabili e relative alla sicurezza aziende ed enti pubblici, promuovendo un approccio collaborativo allo sviluppo responsabile di AI.
Effettuando ricerche dettagliate, le aziende cercano di identificare e mitigare possibili problemi etici e sociali legati all'uso di questo strumento.
Tale approccio proattivo ha lo scopo di garantire che l'IA sia applicata in modo da proteggere i diritti individuali, evitare pregiudizi e prevenire conseguenze negative indesiderate.
L'approccio volontario di questo accordo chiarisce le sfide che i responsabili politici devono affrontare per stare al passo con il rapido ritmo dei progressi dell'IA.
Diversi disegni di legge sono stati proposti nel Congressocon l'obiettivo di regolamentare la tecnologia, cercando di impedire alle aziende di trarne vantaggio Sezione 230 protezioni e responsabilità di fuga per contenuti dannosi generati da algoritmi dell'IA.
Inoltre, queste iniziative mirano anche a richiedere informazioni specifiche nelle pubblicità politiche che utilizzano l'IA generativa.
In Trezeme Digital, comprendiamo l'importanza di una comunicazione efficace. Sappiamo che ogni parola è importante, quindi ci sforziamo di fornire contenuti pertinenti, coinvolgenti e personalizzati per soddisfare le tue esigenze.