Компанија ОпенАл је управо објавила а ЦхатГПТ верзија у отвореном коду. Ова верзија се представља као генеричка врста, која може да обавља све функције које обавља оригинални генератор текста. Међутим, објављена верзија захтева обуку, која већини људи није доступна.
ЦхатГПТ генератор текста
види више
Упозорење: ОВА отровна биљка довела је младића у болницу
Гоогле развија АИ алат за помоћ новинарима у…
ЦхатГПТ није ништа друго до алатка за ћаскање, која се, кроз вештачку интелигенцију, специјализује за дијалоге. Алат је креирао Филип Ванг и прилагођен је језику, са спојем модела технике учење под надзором и учење уз помоћ људских повратних информација (РЛХФ) и модел који користи Гоогле, Палма.
Алат је имао верзију отвореног кода објављену крајем 2022. Верзија је генеричка врста и стога може да обавља и функције ЦхатГПТ-а званичне као што су нацрти е-поште, предлози компјутерског кода и текстови академика.
Објављена верзија ЦхатГПТ-а
Када се комбинују две технике, РЛХФ и ПаЛМ, моделу је потребна обука, која нажалост не долази у генеричкој верзији. Стога ће свака особа која се придржава овог отвореног кода морати да тренира вештачку интелигенцију на сопственом рачунару.
Велики проблем је што је за то неопходан веома моћан хардвер, уосталом да обучи а вештачка интелигенција па ипак, обрада захтева који ће доћи није за свакога.
Како тренирати ову вештачку интелигенцију?
Шаблон је скоро једнака верзија ЦхатГПТ-а, који је алатка за речи и као такав мора да буде представљен са великим бројем примера, као што су објаве на друштвеним мрежама, објављене вести и е-књиге из свих врсте.
Поред тога, техника која се користи у систему, РЛХФ, нуди велики број одговора за сваки људски упит, што значи да људи су од суштинског значаја у процесу класификовања одговора у неку врсту рангирања, тако да систем научи на најбољи начин да реаговати.
Све ово је веома скупо и стога не може свако да га има. Једна компанија је израчунала да обука модела са 1,5 милијарди параметара кошта до 1,6 милиона долара. А да би се направио заиста добар систем, потребно је много више од тога, Гуглов ПаЛМ модел је, на пример, користио око 540 милијарди параметара.