Основните компании наИзкуствен интелект(AI) от Съединените щати, Google, Microsoft и OpenAI, правят значителни крачки към отговорно технологично развитие.
В отговор на призив от Белия дом, тези корпорации доброволно се ангажират да приемат основни предпазни мерки в своите решения за ИИ.
виж повече
Kit от Китай обещава да превърне класическия Beetle в електрическа кола
iPhone, които не успяха: 5 стартирания, отхвърлени от обществеността!
Ръководството на президента Байдън категорично подчерта важността на това да се гарантира, че компаниите с изкуствен интелект развиват своите етична технология в полза на обществото, без да компрометира безопасността, индивидуалните права или ценности демократичен.
И вицепрезидентът Камала Харис, и президентът Джо Байдън са били активни участници в дискусии с лидери в индустрията на изкуствения интелект, подчертавайки неотложната необходимост от насърчаване на отчетността в това поле.
Отговорният растеж на ИИ се ръководи от най-големите компании
Според информация от черновата на документа, получена от Bloomberg, от технологичните компании се изисква да спазват осем предложени мерки, свързани със сигурността, защитата и
социална отговорност. Подобни действия имат за цел да осигурят по-съзнателен подход при разработването и прилагането на AI.Някои от тях включват позволяване на независими експерти да тестват AI модели, за да открият възможни неподходящо поведение, инвестиране в киберсигурност и насърчаване на трети страни да идентифицират вратички в сигурност.
(Изображение: Разкриване)
Като начин за справяне с обществените рискове, включително пристрастия и неподходящи употреби на изкуствения интелект, компаниите насочват усилията си към провеждане на задълбочени и задълбочени изследвания на последиците от такива технология.
Освен това те се ангажират да споделят надеждна и свързана с безопасността информация с други компании и правителствени агенции, насърчавайки подход на сътрудничество за отговорното развитие на AI.
Чрез извършване на подробно проучване компаниите се стремят да идентифицират и смекчат възможните етични и социални проблеми, свързани с използването на този инструмент.
Такъв проактивен подход има за цел да гарантира, че ИИ се прилага по начин, който защитава индивидуалните права, избягва пристрастия и предотвратява нежелани негативни последици.
Доброволният подход на това споразумение изяснява предизвикателствата, пред които са изправени политиците, за да бъдат в крак с бързия темп на напредъка на ИИ.
Внесени са няколко законопроекта Конгресс цел регулиране на технологиите, като се стреми да попречи на компаниите да се възползват от Раздел 230 защити и освобождаване от отговорност за вредно съдържание, генерирано от алгоритми на AI.
В допълнение, тези инициативи също имат за цел да изискват специфични разкрития в политическите реклами, които използват генеративен AI.
В Trezeme Digital разбираме важността на ефективната комуникация. Знаем, че всяка дума има значение, затова се стремим да предоставяме съдържание, което е подходящо, ангажиращо и персонализирано, за да отговори на вашите нужди.