Вероватно користите – или сте барем чули за – ЦхатГПТ. Алат за вештачку интелигенцију је имао „бум“ последњих месеци и био је „рука на волану“ за одговарање на питања или чак обављање сложенијих послова.
Међутим, систем крије мрачну тајну - и његови креатори то знају. Не само да знају, већ и сносе одговорност за то.
види више
Гоогле развија АИ алат за помоћ новинарима у…
Неотворени оригинални иПхоне из 2007. продаје се за скоро 200.000 долара; знам...
Према ОпенАИ, компанија која је креирала алат, ЦхатГПТ пати од „халуцинација“. То јест, понекад може дати лажне информације.
Ситуацију је компанија објавила прошле среде, 31. маја. Поред тога, најавили су и новију и моћнију методу за обуку АИ.
Зашто је важно исправити ово лоше понашање у ЦхатГПТ-у?
Основно објашњење је да људи често користе алат у свом свакодневном животу. Стога је императив да ЦхатГПТ проследи поуздане информације онима који их користе.
На пример, ако користите АИда бисте побољшали школски радни текст, или да бисте потражили одређене рецепте, неопходно је да су информације тачне.
Више од тога, са све већим бројем корисника цхатбот-а, лажне информације се лако могу ширити као да су истините.
И ово би могло да изазове огромну главобољу следеће године, када почну избори у Сједињеним Државама – а то би се могло прелити и овде у Бразил!
„Чак и најсавременији модели имају тенденцију да произведу неистине — они показују тенденцију да измишљају чињенице у тренуцима неизвесности. Ове халуцинације су посебно проблематичне у доменима који захтевају размишљање у више корака, а пошто је једна логичка грешка довољна да избаци из колосека много веће решење“, рекао је ОпенАИ у комуницирао.
Шта учинити да се поправи?
ОпенАИ је известио да ће користити нову стратегију за борбу против „халуцинација“ код људи ЦхатГПТ: обучите АИ моделе да се награђују за сваки исправан корак. Уместо да је на крају само наградите потпуним одговором.
„Откривање и ублажавање логичких грешака или халуцинација модела је критичан корак ка изградњи свеукупне усклађене АИ. Мотивација иза овог истраживања је да се позабави халуцинацијама како би модели били способнији за њих решавају сложене проблеме закључивања“, објаснио је Карл Коб, истраживач математике у компанија.
Дипломирао је друштвене комуникације на Федералном универзитету у Гојасу. Страствени су за дигиталне медије, поп културу, технологију, политику и психоанализу.