Компанія OpenAl щойно випустила a Версія ChatGPT у відкритому коді. Ця версія представляє себе як загальний вид, здатний виконувати всі функції, які виконує оригінальний текстовий генератор. Однак випущена версія вимагає навчання, яке не по кишені більшості людей.
Текстовий генератор ChatGPT
побачити більше
Попередження: ЦЯ отруйна рослина потрапила до лікарні молодого чоловіка
Google розробляє інструмент ШІ, щоб допомогти журналістам у…
ChatGPT — це не що інше, як інструмент чат-бота, який за допомогою штучного інтелекту спеціалізується на діалогах. Інструмент був створений Філіпом Вангом і має налаштовану мову з об’єднанням моделі техніки навчання під наглядом і закріплення за допомогою відгуків людини (RLHF) і модель, яку використовує Google, PaLM.
Інструмент мав версію з відкритим кодом, випущену наприкінці 2022 року. Версія є загальним видом, і тому вона також може виконувати функції ChatGPT офіційні, такі як чернетки електронної пошти, пропозиції комп’ютерного коду та тексти академіки.
Випущена версія ChatGPT
При поєднанні двох методик, RLHF і PaLM, модель потребує навчання, яке, на жаль, не входить у загальну версію. Тому кожна людина, яка дотримується цього відкритого коду, повинна буде навчати штучний інтелект на власному комп’ютері.
Велика проблема полягає в тому, що для цього потрібне дуже потужне апаратне забезпечення, зрештою, щоб навчити a штучний інтелект і тим не менш, обробка запитів, які прийдуть, не для всіх.
Як навчити цей штучний інтелект?
Шаблон є майже аналогічною версією ChatGPT, який є інструментом Word, і як таким він має бути познайомився з великою кількістю прикладів, таких як публікації в соціальних мережах, опубліковані новини та електронні книги з усіх види.
Крім того, техніка, що використовується в системі, RLHF, пропонує велику кількість відповідей на кожну підказку людини, що означає, що люди відіграють важливу роль у процесі класифікації відповідей у своєрідному рейтингу, щоб система дізналася найкращий спосіб відповідати.
Все це коштує дуже дорого, тому не кожен може мати. Одна компанія підрахувала, що навчання моделі з 1,5 мільярдами параметрів коштує до 1,6 мільйонів доларів. А щоб створити справді хорошу систему, потрібно набагато більше, наприклад, модель Google PaLM використовує близько 540 мільярдів параметрів.