Минулої суботи, 25 числа, соцмережами поширилося зображення Папи Римського у білому халаті, точніше піджаку.
Однак зображення, незважаючи на те, що викликало обурення в Інтернеті, є фальшивкою та зроблено штучним інтелектом. У цій статті ми докладніше розповімо про фотографію папи Штучний інтелект.
побачити більше
Це 4 знаки зодіаку, які найбільше люблять самотність, на думку...
Є деякі породи собак, які вважаються ідеальними для людей...
Фотографію Папи зробили за допомогою штучного інтелекту
Якщо ви заходили в соціальні мережі 25 березня, ви, ймовірно, колись натрапили на зображення Папи в піджаку.
Зображення викликало бурхливий резонанс у соцмережах, оскільки багато користувачів Інтернету почали хвалити нібито сучасність і стиль Папи Франциска.
Однак правда полягає в тому, що зображення було підробленим і створене штучним інтелектом.
Зображення було не єдиною неправдивою інформацією, поширеною завдяки Штучному інтелекту за останні дні, зрештою, ми також мали неправдиву інформацію про нібито арешт колишнього президента США Дональда Трампа. Трамп.
Штучний інтелект, який використовується для створення цих зображень, називається генеративним штучним інтелектом, адже він здатний постійно створювати нові речі.
У разі розкриття цієї неправдивої інформації створеним контентом були зображення. Однак ще одним прикладом генеративного штучного інтелекту є ChatGPT, який здатний генерувати новий контент за допомогою текстів.
Генеративний штучний інтелект
Існують різні типи штучного інтелекту, і основними назвами в цій галузі є Dall-e (від того ж творця, що й GPT), Stable Diffusion і Midjourney. Зображення папи, наприклад, створила компанія Midjourney, яка опублікувала зображення на своєму офіційному профілі Reddit.
Midjourney обіцяє оновлення з ще більш реалістичними результатами, а створити нове зображення дуже просто, просто опишіть зображення, яке ви хочете створити, наприклад: «сіамська кішка лежить на білому дивані в стилі ренесанс”.
Зображення реалістично побудовано завдяки «генеративній суперницькій мережі», яка є нічим іншим, як моделлю навчання штучного інтелекту.
Він працює з другим штучним інтелектом, який оцінює згенерований вміст, ніби одна машина каже іншій «це було погано, повтори», доки не буде досягнуто задовільний результат.
Небезпека цих зображень
Хоча можна визначити, що зображення створено штучним інтелектом, завдяки деяким помилкам, які машина пропускає непоміченим, як-от спотворені руки на фотографії папи, зображення передає велику достовірність, тому що багато людей не помічають його теж непомітно.
Таким чином, ці зображення стають небезпекою для того, щоб стати потенційним джерелом розповсюдження глибоких фейків.
Навпаки, DARPA (Агентство передових оборонних дослідницьких проектів США) розпочало роботу над технологією виявлення підроблених зображень і боротьби з поширенням глибоких фейків.