V zadnjih tednih se vrstijo razprave o tem, kakšno mesto bo v prihodnosti zasedla produkcija besedil, po nastanku ChatGPT. V tem primeru je to orodje, ki lahko pripravi besedila iz predhodnih informacij z uporabo umetne inteligence. Ker lahko ChatGPT omogoči plagiatorstvo, je bilo treba ustvariti detektor besedila, ki ga ustvari AI.
ChatGPT 'Classifier'
Poglej več
Raziskava razkriva, da so najstniški možgani 'navezani' na...
PicPay bo zdaj zaračunal pristojbino za nedejavnost; poglej kako bo delovalo
Programska oprema, ki jo je razvil OpenAI, se imenuje "Classifier" in njen glavni cilj je zaznati, kdaj je besedilo ustvarila umetna inteligenca. Za to so programerji razvili mehanizem, usposobljen iz besedil, ki so jih ustvarili ljudje in tudi roboti, ki uporabljajo umetno inteligenco.
Na ta način bo lahko prepoznal umetne jezikovne vzorce in nato prepoznal primer prepisovanja. Kljub temu OpenAI poroča, da je motor še vedno nov in vsebuje številne omejitve glede njegove uporabe. To pomeni, da obstaja možnost, da se programska oprema zmoti pri presoji pristnosti.
Da bi se izognili tem napakam, je nujno, da se Klasifikator vsaj za zdaj uporablja samo za besedila v angleščini. Poleg tega je večja verjetnost, da bo zadel razsodbo pri analizi dolgih besedil, saj je v kratkih besedilih izguba analitične sposobnosti. Končno, klasifikator tudi ne more biti edino merilo, ki kaže na uporabo AI.
Polemike, ki vključujejo ChatGPT
Od svoje ustanovitve je ChatGPT sprožil vroče razprave o prihodnosti proizvodnje besedil po orodjih AI. To je zato, ker že obstajajo potrjeni primeri uporabe programa za izogibanje pravilom izobraževalnih ustanov. Navsezadnje je mogoče uporabiti ChatGPT za ustvarjanje dolgih besedil disertacije v skladu s pravili akademske produkcije.
Vendar to še ni vse, saj lahko ChatGPT ustvari različne vrste besedil, kot so pesmi, šale, pesmi in celo leposlovne knjige. Na ta način je bila že poudarjena potreba po izgradnji mehanizma, ki bo sposoben prepoznati, kdaj je za produkcijo besedila uporabljena umetna inteligenca.