La Maison Blanche a confirmé la semaine dernière qu'Adobe, IBM, Palantir, Nvidia et Salesforce, ainsi que trois autres sociétés Intelligence artificielle (IA), a adopté des normes volontaires de sécurité et de fiabilité.
Ces entreprises rejoignent des noms déjà reconnus dans le segment, tels qu'Amazon, Anthropic, Google, Inflection AI, Microsoft et OpenAI, qui s'est engagé dans cette initiative en juillet.
voir plus
Gas Aid et Bolsa Família à partir de septembre commencent à être payés ce…
La fin de l'hiver arrive, apportant des températures supérieures à 40ºC dans tout le pays ;…
Bien que ces normes ne soient pas réglementées et ne soient pas soumises à la surveillance du gouvernement, elles représentent un effort concerté visant à accroître la confiance dans l'évolution de la technologie.
L'importance croissante de l'IA, amplifiée par le lancement de ChatGPT par OpenAI l'année précédente, a placé la technologie au centre de attention, avec des impacts notables sur le personnel, la diffusion d'informations incorrectes et les inquiétudes sur les évolutions autonome.
En raison de ces défis, Washington a été témoin d’intenses débats entre les législateurs, les régulateurs et les entrepreneurs du domaine sur la manière de gérer et d’orienter les progrès de l’IA.
Les géants de la technologie témoigneront devant le Sénat sur la réglementation de l'IA
Dans une série d'événements visant à réglementer l'IA, Brad Smith de Microsoft et William Dally de Nvidia devrait témoigner lors d'une audience devant la sous-commission sénatoriale sur la vie privée, la technologie et loi.
Dans quelques jours, une réunion de haut niveau aura lieu entre les législateurs lors d'un événement sur l'IA organisé par le sénateur démocrate de New York Chuck Schumer et les entrepreneurs suivants :
Elon Musk (SpaceX, Tesla, entre autres) ;
Mark Zuckerberg (Méta) ;
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, chef de cabinet de la Maison Blanche, a répondu à l'engagement croissant des entreprises technologiques: déclarant que « le président a été clair: exploiter les avantages de l’IA, gérer les risques et aller de l’avant » rapidement. Et c’est cet engagement que nous démontrons en partenariat avec le secteur privé.
(Image: divulgation)
Les entreprises, reconnaissant leur responsabilité, ont convenu de :
Évaluer les futurs produits pour détecter les risques potentiels pour la sécurité ;
Introduire des filigranes pour identifier le contenu généré par l'IA ;
Partager des informations sur les menaces de sécurité ;
Signalez les tendances observées dans vos systèmes.
La surveillance du gouvernement américain face aux défis sécuritaires
La croissance accélérée de l’IA au cours des dernières décennies a suscité une série de débats à l’échelle mondiale.
À l’épicentre de ces discussions, les États-Unis, puissance technologique, se sont montrés préoccupés par les impacts de cette technologie.
Le gouvernement américain, après avoir identifié le potentiel de transformation de l’IA, a porté son attention de plus près sur les implications sécuritaires d’une telle révolution technologique.
La préoccupation ne se limite pas à la protection des données et à la vie privée, mais s'étend à l'intégrité des systèmes. problèmes critiques, menaces potentielles pour les infrastructures nationales et possibilité d’utilisation abusive de l’IA dans les scénarios conflictuel.
Une telle reconnaissance reflète l'urgence d'établir des lignes directrices claires et des réglementations solides qui garantissent le développement sûr et éthique des Intelligence artificielle.