Миналата седмица Белият дом потвърди, че Adobe, IBM, Palantir, Nvidia и Salesforce, заедно с още три компании Изкуствен интелект (AI), прие доброволни стандарти за сигурност и надеждност.
Тези компании се присъединяват към вече признати имена в сегмента, като Amazon, Anthropic, Google, Inflection AI, Microsoft и OpenAI, които се ангажираха с тази инициатива през юли.
виж повече
Gas Aid и Bolsa Família от септември започват да се изплащат това...
Краят на зимата идва, носейки температури над 40ºC в цялата страна;...
Въпреки че тези стандарти не са регулирани и не са под надзора на правителството, те представляват съгласувано усилие за увеличаване на доверието в еволюцията на технологиите.
Нарастващото значение на AI, подсилено от стартирането на ChatGPT от OpenAI през предходната година, постави технологията в центъра на внимание, със забележимо въздействие върху работната сила, разпространението на невярна информация и опасенията относно развитието автономен.
Поради подобни предизвикателства Вашингтон стана свидетел на интензивни дебати между законодатели, регулатори и предприемачи в областта за това как да управляват и насочват напредъка на ИИ.
Технологичните гиганти ще свидетелстват пред Сената относно правилата за ИИ
В поредица от събития, насочени към регулиране на AI, Брад Смит от Microsoft и Уилям Дали от Nvidia са планирани да свидетелстват на изслушване пред подкомисията на Сената по поверителност, технологии и закон.
След няколко дни ще се проведе среща на високо ниво между законодатели на събитие за изкуствен интелект, организирано от сенатора демократ от Ню Йорк Чък Шумър и следните предприемачи:
Илон Мъск (SpaceX, Tesla и др.);
Марк Зукърбърг (Мета);
Сам Алтман (OpenAI);
Сундар Пичай (Google).
Джеф Зиентс, началник на персонала на Белия дом, отговори на нарастващия ангажимент от страна на технологичните компании, заявявайки, че „президентът беше ясен: впрегнете предимствата на ИИ, управлявайте рисковете и продължете напред бързо. И именно този ангажимент ние демонстрираме в партньорство с частния сектор.“
(Изображение: разкриване)
Компаниите, осъзнавайки своята отговорност, се съгласиха да:
Оценете бъдещите продукти за потенциални рискове за безопасността;
Въведете водни знаци за идентифициране на генерирано от AI съдържание;
Споделяйте информация за заплахи за сигурността;
Докладвайте тенденциите, наблюдавани във вашите системи.
Наблюдението на правителството на САЩ пред предизвикателствата за сигурността
Ускореният растеж на ИИ през последните десетилетия провокира серия от дебати в глобален мащаб.
В епицентъра на тези дискусии Съединените щати, технологична сила, показаха загриженост относно въздействието на тази технология.
Американското правителство, след като идентифицира трансформиращия потенциал на ИИ, насочи вниманието си по-отблизо към последиците за сигурността, произтичащи от такава технологична революция.
Загрижеността не се ограничава само до защитата на данните и поверителността, но се простира до целостта на системите критични проблеми, потенциални заплахи за националната инфраструктура и възможността за злоупотреба с AI в сценарии конфликтен.
Такова признаване отразява неотложната необходимост от установяване на ясни насоки и стабилни разпоредби, които гарантират безопасното и етично развитие на Изкуствен интелект.