ChatGPT: Ustvarjalci razkrivajo temno skrivnost

Verjetno uporabljate – ali ste vsaj slišali za – ChatGPT. Orodje umetne inteligence je v zadnjih mesecih doživelo »razcvet« in je bilo »roka na volanu« za odgovarjanje na vprašanja ali celo opravljanje zahtevnejših del.

Vendar pa sistem skriva temno skrivnost – in njegovi ustvarjalci to vedo. Ne le da vedo, ampak za to nosijo tudi odgovornost.

Poglej več

Google razvija orodje AI za pomoč novinarjem pri...

Neodprt originalni iPhone iz leta 2007 se prodaja za skoraj 200.000 $; vedeti...

Glede na OpenAI, podjetje, ki je ustvarilo orodje, ChatGPT trpi za "halucinacijami". To pomeni, da lahko včasih daje napačne informacije.

Situacijo je družba objavila prejšnjo sredo, 31. maja. Poleg tega so napovedali tudi novejšo in zmogljivejšo metodo za usposabljanje AI.

Zakaj je pomembno popraviti to napačno vedenje ChatGPT?

Osnovna razlaga je, da ljudje orodje veliko uporabljajo v vsakdanjem življenju. Zato je nujno, da ChatGPT posreduje zanesljive informacije tistim, ki ga uporabljajo.

Na primer, če uporabljate

AIče želite izboljšati besedilo šolskega dela ali poiskati posebne recepte, je bistveno, da so informacije pravilne.

Še več, z naraščajočim številom uporabnikov klepetalnic se lažne informacije zlahka širijo, kot da bi bile resnice.

In to bi lahko povzročilo velik glavobol naslednje leto, ko se bodo začele volitve v Združenih državah – in to bi se lahko prelilo tudi tukaj v Braziliji!

»Celo najsodobnejši modeli so nagnjeni k ustvarjanju laži – v trenutkih negotovosti so nagnjeni k izmišljevanju dejstev. Te halucinacije so še posebej problematične na področjih, ki zahtevajo sklepanje v več korakih, a saj je ena sama logična napaka dovolj, da iztiri veliko večjo rešitev,« je dejal OpenAI in sporočili.

Kaj storiti, da se popravi?

OpenAI je poročal, da bo uporabil novo strategijo za boj proti "halucinacijam" ChatGPT: usposobite modele AI, da se nagradijo za vsak pravilen korak. Namesto da bi jo na koncu le nagradili s popolnim odgovorom.

»Odkrivanje in ublažitev logičnih napak ali halucinacij modela je ključni korak k izdelavi celovito usklajene umetne inteligence. Motivacija te raziskave je obravnavanje halucinacij, da bi bili modeli bolj sposobni rešiti zapletene probleme sklepanja,« je pojasnil Karl Cobbe, raziskovalec matematike pri podjetje.

Diplomiral iz družbenih komunikacij na Zvezni univerzi Goiás. Navdušen nad digitalnimi mediji, pop kulturo, tehnologijo, politiko in psihoanalizo.

Netflix preseneti s 'skrivnim' filmom, ki osvoji javnost in izstopa leta 2023

V zadnjih letih je Netflix presenetil javnost z nesporno kinematografsko kakovostjo nekaterih izv...

read more

Izvedite več o projektu, katerega cilj je pomagati kmetom s 300 R$ na mesec

Program za podporo ohranjanju okolja in Program za spodbujanje podeželskih proizvodnih dejavnosti...

read more

Pisanje v Enem: preverite 25 tem, ki so že padle v prejšnjih testih

Državni izpit (In bodisi) se v Braziliji uporablja od leta 1988. Odkar je bil nameščen v brazilsk...

read more
instagram viewer