ChatGPT: Ustvarjalci razkrivajo temno skrivnost

Verjetno uporabljate – ali ste vsaj slišali za – ChatGPT. Orodje umetne inteligence je v zadnjih mesecih doživelo »razcvet« in je bilo »roka na volanu« za odgovarjanje na vprašanja ali celo opravljanje zahtevnejših del.

Vendar pa sistem skriva temno skrivnost – in njegovi ustvarjalci to vedo. Ne le da vedo, ampak za to nosijo tudi odgovornost.

Poglej več

Google razvija orodje AI za pomoč novinarjem pri...

Neodprt originalni iPhone iz leta 2007 se prodaja za skoraj 200.000 $; vedeti...

Glede na OpenAI, podjetje, ki je ustvarilo orodje, ChatGPT trpi za "halucinacijami". To pomeni, da lahko včasih daje napačne informacije.

Situacijo je družba objavila prejšnjo sredo, 31. maja. Poleg tega so napovedali tudi novejšo in zmogljivejšo metodo za usposabljanje AI.

Zakaj je pomembno popraviti to napačno vedenje ChatGPT?

Osnovna razlaga je, da ljudje orodje veliko uporabljajo v vsakdanjem življenju. Zato je nujno, da ChatGPT posreduje zanesljive informacije tistim, ki ga uporabljajo.

Na primer, če uporabljate

AIče želite izboljšati besedilo šolskega dela ali poiskati posebne recepte, je bistveno, da so informacije pravilne.

Še več, z naraščajočim številom uporabnikov klepetalnic se lažne informacije zlahka širijo, kot da bi bile resnice.

In to bi lahko povzročilo velik glavobol naslednje leto, ko se bodo začele volitve v Združenih državah – in to bi se lahko prelilo tudi tukaj v Braziliji!

»Celo najsodobnejši modeli so nagnjeni k ustvarjanju laži – v trenutkih negotovosti so nagnjeni k izmišljevanju dejstev. Te halucinacije so še posebej problematične na področjih, ki zahtevajo sklepanje v več korakih, a saj je ena sama logična napaka dovolj, da iztiri veliko večjo rešitev,« je dejal OpenAI in sporočili.

Kaj storiti, da se popravi?

OpenAI je poročal, da bo uporabil novo strategijo za boj proti "halucinacijam" ChatGPT: usposobite modele AI, da se nagradijo za vsak pravilen korak. Namesto da bi jo na koncu le nagradili s popolnim odgovorom.

»Odkrivanje in ublažitev logičnih napak ali halucinacij modela je ključni korak k izdelavi celovito usklajene umetne inteligence. Motivacija te raziskave je obravnavanje halucinacij, da bi bili modeli bolj sposobni rešiti zapletene probleme sklepanja,« je pojasnil Karl Cobbe, raziskovalec matematike pri podjetje.

Diplomiral iz družbenih komunikacij na Zvezni univerzi Goiás. Navdušen nad digitalnimi mediji, pop kulturo, tehnologijo, politiko in psihoanalizo.

Rizotonične in arizotonične oblike

Rizotonične oblike so opredeljene kot tiste besedne oblike, katerih poudarek pade na radikal, to...

read more

Jacob Ludwig Carl in Wilhelm Carl Grimm

Nemški pisatelji, rojeni v Hanauu, ustvarjalci očarljivih klasik univerzalne otroške literature, ...

read more

Kaj so neposredno in obratno sorazmerne količine?

Veličino je tisto, kar je mogoče izmeriti. THE veličino ni mogoče izmeriti predmeta, temveč ukrep...

read more