Valószínűleg használja – vagy legalábbis hallott róla – a ChatGPT-t. A mesterséges intelligencia eszköz az elmúlt hónapokban „fellendülést” produkált, és „kéz a kormányon” volt a kérdések megválaszolásához, vagy akár bonyolultabb munkák elvégzéséhez.
A rendszer azonban egy sötét titkot rejt – és ezt az alkotók is tudják. Nemcsak tudják, de vállalják a felelősséget is.
többet látni
A Google mesterséges intelligencia eszközt fejleszt, hogy segítse az újságírókat…
A bontatlan eredeti 2007-es iPhone közel 200 000 dollárért kel el; tud...
Szerint a OpenAI, az eszközt létrehozó cég, a ChatGPT „hallucinációktól” szenved. Vagyis időnként hamis információkat adhat.
A helyzetet a társaság múlt szerdán, május 31-én jelentette be. Emellett egy újabb és hatékonyabb módszert is bejelentettek az AI képzésére.
Miért fontos kijavítani ezt a ChatGPT helytelen viselkedést?
Az alapvető magyarázat az, hogy az emberek sokat használják az eszközt a mindennapi életükben. Ezért elengedhetetlen, hogy a ChatGPT megbízható információkat adjon át azoknak, akik használják.
Például, ha használja a AIiskolai munkaszöveg javításához, vagy konkrét receptek kereséséhez elengedhetetlen, hogy az ott található információk helyesek legyenek.
Ráadásul a chatbot-felhasználók számának növekedésével a hamis információk könnyen terjeszthetők, mintha az igazság lenne.
Ez pedig óriási fejtörést okozhat jövőre, amikor elkezdődnek az egyesült államokbeli választások – és ez ide, Brazíliába is átterjedhet!
„Még a legmodernebb modellek is hajlamosak hamisságokat produkálni – hajlamosak tényeket kitalálni a bizonytalanság pillanataiban. Ezek a hallucinációk különösen problematikusak azokon a területeken, amelyek többlépcsős érvelést igényelnek, a mivel egyetlen logikai hiba is elég egy sokkal nagyobb megoldás kisiklásához” – mondta az OpenAI közölték.
Mit kell tenni a javításhoz?
Az OpenAI arról számolt be, hogy új stratégiát fog alkalmazni a „hallucinációk” leküzdésére ChatGPT: képezze ki az AI-modelleket, hogy megjutalmazzák magukat minden helyes lépésért. Ahelyett, hogy a végén megjutalmazná a teljes válasszal.
„A modell logikai hibáinak vagy hallucinációinak észlelése és enyhítése kritikus lépés egy átfogóan összehangolt mesterséges intelligencia kialakítása felé. Ennek a kutatásnak a motivációja a hallucinációk kezelése, hogy a modellek alkalmasabbak legyenek összetett érvelési problémák megoldására” – magyarázta Karl Cobbe, a matematika kutatója vállalat.
Szociális kommunikáció szakon szerzett diplomát a Goiás Szövetségi Egyetemen. Szenvedélyes a digitális média, a popkultúra, a technológia, a politika és a pszichoanalízis iránt.