Pravdepodobne používate – alebo ste o ňom aspoň počuli – ChatGPT. Nástroj umelej inteligencie zaznamenal v posledných mesiacoch „boom“ a bol „rukou na volante“ pri odpovedaní na otázky alebo dokonca pri vykonávaní zložitejších úloh.
Systém však skrýva temné tajomstvo – a jeho tvorcovia to vedia. Nielenže to vedia, ale nesú za to aj zodpovednosť.
pozrieť viac
Google vyvíja nástroj AI na pomoc novinárom v…
Neotvorený pôvodný iPhone z roku 2007 sa predáva za takmer 200 000 dolárov; vedieť...
Podľa OpenAI, spoločnosť, ktorá vytvorila nástroj, ChatGPT trpí „halucináciami“. To znamená, že občas môže poskytnúť nepravdivé informácie.
Situáciu oznámila spoločnosť minulú stredu 31. mája. Okrem toho ohlásili aj novšiu a výkonnejšiu metódu výcviku AI.
Prečo je dôležité opraviť toto nesprávne správanie ChatGPT?
Základným vysvetlením je, že ľudia používajú tento nástroj vo svojom každodennom živote veľa. Preto je nevyhnutné, aby ChatGPT odovzdával spoľahlivé informácie tým, ktorí ho používajú.
Napríklad, ak používate
AIna zlepšenie školského pracovného textu, alebo na hľadanie konkrétnych receptov je nevyhnutné, aby tam boli informácie správne.Navyše s rastúcim počtom používateľov chatbotov sa nepravdivé informácie môžu ľahko šíriť, ako keby to bola pravda.
A to by mohlo spôsobiť obrovskú bolesť hlavy budúci rok, keď sa začnú voľby v Spojených štátoch – a mohlo by sa to preniesť aj sem do Brazílie!
„Dokonca aj najmodernejšie modely majú tendenciu vytvárať nepravdy – prejavujú tendenciu vymýšľať si fakty vo chvíľach neistoty. Tieto halucinácie sú obzvlášť problematické v oblastiach, ktoré vyžadujú viacstupňové uvažovanie, a pretože jediná logická chyba stačí na vykoľajenie oveľa väčšieho riešenia,“ povedal OpenAI v komunikoval.
Čo robiť na opravu?
OpenAI oznámilo, že použije novú stratégiu na boj proti „halucináciám“. ChatGPT: trénujte modely AI, aby sa odmenili za každý správny krok. Namiesto toho, aby ste ju na konci len odmenili úplnou odpoveďou.
„Detekcia a zmiernenie logických chýb alebo halucinácií modelu je kritickým krokom k vybudovaniu celkovo zosúladenej AI. Motiváciou tohto výskumu je riešiť halucinácie, aby boli modelky schopnejšie vyriešiť zložité problémy s uvažovaním,“ vysvetlil Karl Cobbe, výskumník v oblasti matematiky spoločnosti.
Vyštudoval sociálnu komunikáciu na Federálnej univerzite v Goiás. Vášnivý pre digitálne médiá, popkultúru, technológiu, politiku a psychoanalýzu.