ChatGPT: Az alkotók felfednek egy sötét titkot

Valószínűleg használja – vagy legalábbis hallott róla – a ChatGPT-t. A mesterséges intelligencia eszköz az elmúlt hónapokban „fellendülést” produkált, és „kéz a kormányon” volt a kérdések megválaszolásához, vagy akár bonyolultabb munkák elvégzéséhez.

A rendszer azonban egy sötét titkot rejt – és ezt az alkotók is tudják. Nemcsak tudják, de vállalják a felelősséget is.

többet látni

A Google mesterséges intelligencia eszközt fejleszt, hogy segítse az újságírókat…

A bontatlan eredeti 2007-es iPhone közel 200 000 dollárért kel el; tud...

Szerint a OpenAI, az eszközt létrehozó cég, a ChatGPT „hallucinációktól” szenved. Vagyis időnként hamis információkat adhat.

A helyzetet a társaság múlt szerdán, május 31-én jelentette be. Emellett egy újabb és hatékonyabb módszert is bejelentettek az AI képzésére.

Miért fontos kijavítani ezt a ChatGPT helytelen viselkedést?

Az alapvető magyarázat az, hogy az emberek sokat használják az eszközt a mindennapi életükben. Ezért elengedhetetlen, hogy a ChatGPT megbízható információkat adjon át azoknak, akik használják.

Például, ha használja a AIiskolai munkaszöveg javításához, vagy konkrét receptek kereséséhez elengedhetetlen, hogy az ott található információk helyesek legyenek.

Ráadásul a chatbot-felhasználók számának növekedésével a hamis információk könnyen terjeszthetők, mintha az igazság lenne.

Ez pedig óriási fejtörést okozhat jövőre, amikor elkezdődnek az egyesült államokbeli választások – és ez ide, Brazíliába is átterjedhet!

„Még a legmodernebb modellek is hajlamosak hamisságokat produkálni – hajlamosak tényeket kitalálni a bizonytalanság pillanataiban. Ezek a hallucinációk különösen problematikusak azokon a területeken, amelyek többlépcsős érvelést igényelnek, a mivel egyetlen logikai hiba is elég egy sokkal nagyobb megoldás kisiklásához” – mondta az OpenAI közölték.

Mit kell tenni a javításhoz?

Az OpenAI arról számolt be, hogy új stratégiát fog alkalmazni a „hallucinációk” leküzdésére ChatGPT: képezze ki az AI-modelleket, hogy megjutalmazzák magukat minden helyes lépésért. Ahelyett, hogy a végén megjutalmazná a teljes válasszal.

„A modell logikai hibáinak vagy hallucinációinak észlelése és enyhítése kritikus lépés egy átfogóan összehangolt mesterséges intelligencia kialakítása felé. Ennek a kutatásnak a motivációja a hallucinációk kezelése, hogy a modellek alkalmasabbak legyenek összetett érvelési problémák megoldására” – magyarázta Karl Cobbe, a matematika kutatója vállalat.

Szociális kommunikáció szakon szerzett diplomát a Goiás Szövetségi Egyetemen. Szenvedélyes a digitális média, a popkultúra, a technológia, a politika és a pszichoanalízis iránt.

Extra óvatosság: Az Inmet országszerte heves esőzésekre figyelmeztet!

Az esőzések tavaly év vége óta igen intenzívek. Az Országos Meteorológiai Intézet (Inmet) szerint...

read more

3 snack, ami egészségesnek tűnik, de nem az

A kívánt test megszerzéséhez szabályozott étrendet kell fenntartani, amely gyümölcsöket, szénhidr...

read more
Éles a tekinteted? Ha igen, akkor könnyen megtalálhatja a 'HEAT' és 'COLD' szavakat

Éles a tekinteted? Ha igen, akkor könnyen megtalálhatja a 'HEAT' és 'COLD' szavakat

A játék neveVadászszavak”, vagyis a „betűleves”, egyiptomi eredetű régen. Gyakorlatát azonban fri...

read more
instagram viewer