На прошлой неделе Белый дом подтвердил, что Adobe, IBM, Palantir, Nvidia и Salesforce, а также три другие компании Искусственный интеллект (ИИ), приняла добровольные стандарты безопасности и надежности.
Эти компании присоединяются к уже признанным именам в сегменте, таким как Amazon, Anthropic, Google, Inflection AI, Майкрософт и OpenAI, поддержавшие эту инициативу в июле.
узнать больше
Gas Aid и Bolsa Família с сентября начнут выплачивать эту сумму…
Приближается конец зимы, когда температура по всей стране поднимается выше 40°C;…
Хотя эти стандарты не регулируются и не контролируются правительством, они представляют собой согласованные усилия по повышению доверия к развитию технологий.
Растущая актуальность ИИ, усиленная запуском OpenAI ChatGPT в прошлом году, поставила эту технологию в центр внимание, с заметными последствиями для рабочей силы, распространением неверной информации и опасениями по поводу развития событий. автономный.
Из-за таких проблем в Вашингтоне среди законодателей, регулирующих органов и предпринимателей в этой области идут интенсивные дебаты о том, как управлять развитием ИИ и направлять его.
Технологические гиганты дадут показания перед Сенатом по правилам искусственного интеллекта
В серии мероприятий, направленных на регулирование ИИ, Брэд Смит из Microsoft и Уильям Далли из Nvidia должны дать показания на слушаниях в подкомитете Сената по конфиденциальности, технологиям и закон.
Через несколько дней состоится встреча на высоком уровне между законодателями на мероприятии по искусственному интеллекту, организованном сенатором-демократом от Нью-Йорка Чаком Шумером, и следующими предпринимателями:
Илон Маск (SpaceX, Tesla и другие);
Марк Цукерберг (Мета);
Сэм Альтман (OpenAI);
Сундар Пичаи (Google).
Джефф Зиентс, глава администрации Белого дома, отреагировал на растущую приверженность технологических компаний: заявив, что «президент ясно дал понять: используйте преимущества ИИ, управляйте рисками и двигайтесь вперед». быстро. И именно эту приверженность мы демонстрируем в партнерстве с частным сектором».
(Изображение: раскрытие информации)
Компании, осознавая свою ответственность, согласились:
Оценивать будущие продукты на предмет потенциальных рисков безопасности;
Внедряйте водяные знаки для идентификации контента, созданного ИИ;
Делитесь информацией об угрозах безопасности;
Сообщайте о тенденциях, наблюдаемых в ваших системах.
Слежка правительства США перед лицом угроз безопасности
Ускоренный рост ИИ в последние десятилетия спровоцировал серию дебатов в глобальном масштабе.
В эпицентре этих дискуссий находятся Соединенные Штаты, технологическая держава, которые выразили обеспокоенность по поводу последствий этой технологии.
Американское правительство, осознав преобразующий потенциал ИИ, обратило более пристальное внимание на последствия для безопасности, возникающие в результате такой технологической революции.
Проблема не ограничивается защитой данных и конфиденциальностью, но распространяется и на целостность систем. критические проблемы, потенциальные угрозы национальной инфраструктуре и возможность неправильного использования ИИ в сценариях конфликтный.
Такое признание отражает настоятельную необходимость разработки четких руководящих принципов и надежных правил, гарантирующих безопасное и этичное развитие Искусственный интеллект.