Компанії зобов’язуються «захищати» людство від штучного інтелекту; подивіться які

Минулого тижня Білий дім підтвердив, що Adobe, IBM, Palantir, Nvidia та Salesforce разом із трьома іншими компаніями Штучний інтелект (AI), прийняті добровільні стандарти безпеки та надійності.

Ці компанії приєдналися до вже визнаних імен у сегменті, таких як Amazon, Anthropic, Google, Inflection AI, Microsoft і OpenAI, які взяли участь у цій ініціативі в липні.

побачити більше

Gas Aid і Bolsa Família з вересня починають виплачувати цей…

Наближається кінець зими, температура по всій країні перевищує 40ºC;...

Незважаючи на те, що ці стандарти не регулюються та не контролюються урядом, вони являють собою узгоджені зусилля для підвищення довіри до еволюції технологій.

Зростаюча актуальність штучного інтелекту, посилена запуском OpenAI ChatGPT минулого року, поставила цю технологію в центр уваги, що має помітний вплив на робочу силу, поширення невірної інформації та занепокоєння щодо розвитку подій автономний.

Через такі виклики у Вашингтоні відбуваються інтенсивні дебати серед законодавців, регуляторів і підприємців у цій галузі про те, як керувати ШІ та спрямовувати його розвиток.

Технічні гіганти дадуть свідчення перед Сенатом щодо правил ШІ

У серії заходів, спрямованих на регулювання ШІ, Бред Сміт з Microsoft і Вільям Деллі з Nvidia, планується дати свідчення на слуханнях у підкомітеті Сенату з конфіденційності, технологій і закон.

За кілька днів відбудеться зустріч високого рівня між законодавцями на заході AI, організованому сенатором-демократом від Нью-Йорка Чаком Шумером, і такими підприємцями:

  • Ілон Маск (SpaceX, Tesla та інші);

  • Марк Цукерберг (Мета);

  • Сем Альтман (OpenAI);

  • Сундар Пічаї (Google).

Джефф Зіентс, керівник апарату Білого дому, відповів на зростаючу прихильність технологічних компаній, заявивши, що «президент чітко сказав: використовуйте переваги ШІ, керуйте ризиками та рухайтеся вперед швидко. І саме цю відданість ми демонструємо у партнерстві з приватним сектором».

(Зображення: розкриття)

Компанії, усвідомлюючи свою відповідальність, погодилися:

  • Оцінка майбутніх продуктів на потенційні ризики для безпеки;

  • Введіть водяні знаки для ідентифікації створеного ШІ контенту;

  • Діліться інформацією про загрози безпеці;

  • Повідомте про тенденції, які спостерігаються у ваших системах.

Спостереження уряду США перед обличчям викликів безпеці

Прискорене зростання ШІ в останні десятиліття спровокувало низку дискусій у глобальному масштабі.

В епіцентрі цих дискусій Сполучені Штати, технологічна держава, висловили занепокоєння щодо впливу цієї технології.

Американський уряд, виявивши трансформаційний потенціал штучного інтелекту, звернув увагу на наслідки для безпеки, які випливають із такої технологічної революції.

Проблема стосується не тільки захисту даних і конфіденційності, але й цілісності систем критичні проблеми, потенційні загрози національній інфраструктурі та можливість неправильного використання штучного інтелекту в сценаріях конфліктний.

Таке визнання відображає нагальність встановлення чітких вказівок і надійних правил, які гарантуватимуть безпечний і етичний розвиток Штучний інтелект.

Походження різдвяних подарунків

Різдво - це всесвітньо відома вечірка, це коли християни святкують народження Ісуса Христа. Похо...

read more

Климент Олександрійський і захист філософії в християнській релігії

У той час, коли робиться спроба організувати християнську думку, крім різних сект, існують також ...

read more

Що таке психологія? Психологія та поведінка людини

Психологія - це наука, яка вивчає поведінку людини та її психічні процеси. Швидше, психологія ви...

read more
instagram viewer