Ви, мабуть, використовуєте або принаймні чули про ChatGPT. Інструмент штучного інтелекту пережив «бум» в останні місяці і був «рукою на кермі», щоб відповідати на запитання або навіть виконувати більш складну роботу.
Однак система приховує темну таємницю – і її творці знають це. Вони не тільки знають, але й несуть за це відповідальність.
побачити більше
Google розробляє інструмент ШІ, щоб допомогти журналістам у…
Нерозкритий оригінальний iPhone 2007 року продають майже за 200 000 доларів США; знаю...
Відповідно до OpenAI, компанія, яка створила інструмент, ChatGPT страждає від «галюцинацій». Тобто іноді може давати неправдиву інформацію.
Про цю ситуацію компанія заявила минулої середи, 31 травня. Крім того, вони також анонсували новий і потужніший метод навчання ШІ.
Чому важливо виправити цю неправильну поведінку ChatGPT?
Основне пояснення полягає в тому, що люди часто використовують інструмент у повсякденному житті. Тому вкрай важливо, щоб ChatGPT передавав надійну інформацію тим, хто її використовує.
Наприклад, якщо ви використовуєте ШІщоб удосконалити текст шкільного твору або знайти конкретні рецепти, важливо, щоб інформація була правильною.
Більше того, із зростанням кількості користувачів чат-ботів неправдиву інформацію можна легко поширювати так, ніби це правда.
І це може викликати величезний головний біль наступного року, коли почнуться вибори в Сполучених Штатах – і це також може перекинутися тут, у Бразилії!
«Навіть найсучасніші моделі мають тенденцію створювати неправди — вони демонструють тенденцію вигадувати факти в моменти невизначеності. Ці галюцинації є особливо проблематичними в областях, які вимагають багатоетапного міркування, a оскільки однієї логічної помилки достатньо, щоб зірвати набагато більше рішення», – сказав OpenAI in спілкувалися.
Що робити, щоб виправити?
OpenAI повідомила, що використовуватиме нову стратегію для боротьби з «галюцинаціями». ChatGPT: навчайте моделі штучного інтелекту винагороджувати себе за кожен правильний крок. Замість того, щоб просто винагородити її в кінці повною відповіддю.
«Виявлення та пом’якшення логічних помилок або галюцинацій моделі є критично важливим кроком до створення загального вирівняного ШІ. Мотивація цього дослідження полягає в усуненні галюцинацій, щоб зробити моделі більш здатними розв’язувати складні проблеми міркування», – пояснив Карл Коббе, дослідник математики в компанії.
Закінчив соціальні комунікації у Федеральному університеті Гояс. Захоплюється цифровими медіа, поп-культурою, технологіями, політикою та психоаналізом.