ChatGPT: veidotāji atklāj tumšu noslēpumu

protection click fraud

Jūs droši vien izmantojat vai vismaz esat dzirdējuši par ChatGPT. Mākslīgā intelekta rīks pēdējos mēnešos ir piedzīvojis "uzplaukumu", un tas ir bijis "roka pie stūres", lai atbildētu uz jautājumiem vai pat veiktu sarežģītākus darbus.

Tomēr sistēma slēpj tumšu noslēpumu – un tās radītāji to zina. Viņi ne tikai zina, bet arī uzņemas par to atbildību.

redzēt vairāk

Google izstrādā AI rīku, lai palīdzētu žurnālistiem…

Neatvērts oriģinālais 2007. gada iPhone tiek pārdots par gandrīz 200 000 USD; zini...

Saskaņā ar OpenAI, uzņēmums, kas izveidoja rīku, ChatGPT cieš no “halucinācijām”. Tas nozīmē, ka tas dažkārt var sniegt nepatiesu informāciju.

Par situāciju uzņēmums paziņoja pagājušajā trešdienā, 31.maijā. Turklāt viņi ir arī paziņojuši par jaunāku un jaudīgāku metodi AI apmācībai.

Kāpēc ir svarīgi novērst šo ChatGPT nepareizo darbību?

Pamata skaidrojums ir tāds, ka cilvēki ikdienā bieži izmanto rīku. Tāpēc ChatGPT ir obligāti jānodod uzticama informācija tiem, kas to izmanto.

Piemēram, ja izmantojat

instagram story viewer
AIlai uzlabotu skolas darba tekstu vai meklētu konkrētas receptes, ir svarīgi, lai informācija tajā būtu pareiza.

Turklāt, pieaugot tērzēšanas robotu lietotāju skaitam, nepatiesu informāciju var viegli izplatīt tā, it kā tā būtu patiesība.

Un tas varētu radīt milzīgas galvassāpes nākamgad, kad sāksies Amerikas Savienoto Valstu vēlēšanas — un tas varētu pārņemt arī šeit, Brazīlijā!

“Pat vismodernākajiem modeļiem ir tendence radīt nepatiesības — tiem ir tendence izdomāt faktus nenoteiktības brīžos. Šīs halucinācijas ir īpaši problemātiskas jomās, kurās nepieciešama daudzpakāpju argumentācija, a jo pietiek ar vienu loģikas kļūdu, lai izjauktu no sliedēm daudz plašāku risinājumu," sacīja OpenAI sazinājās.

Ko darīt, lai labotu?

OpenAI ziņoja, ka tā izmantos jaunu stratēģiju, lai cīnītos pret "halucinācijām". ChatGPT: apmāciet AI modeļus, lai viņi apbalvotu sevi par katru pareizo soli. Tā vietā, lai beigās viņu vienkārši apbalvotu ar pilnīgu atbildi.

“Modeļa loģisko kļūdu vai halucināciju noteikšana un mazināšana ir būtisks solis ceļā uz vispārēju saskaņotu AI izveidi. Šī pētījuma motivācija ir pievērsties halucinācijām, lai padarītu modeļus spējīgākus atrisināt sarežģītas spriešanas problēmas,” skaidroja Karls Kobs, matemātikas pētnieks uzņēmums.

Beidzis sociālās komunikācijas specialitāti Gojasas Federālajā universitātē. Aizraujas ar digitālajiem medijiem, popkultūru, tehnoloģijām, politiku un psihoanalīzi.

Teachs.ru
Praktiskums: atklājiet AI, kas AUTOMĀTISKI apkopo YouTube videoklipus

Praktiskums: atklājiet AI, kas AUTOMĀTISKI apkopo YouTube videoklipus

Vai jūs zināt, kad skatāties videoklipu pakalpojumā YouTube, un vēlaties ātri apkopot saturu? Zin...

read more
Vai Faustao “izlaida rindu” sirds transplantācijai? Saproti, kā process notiek!

Vai Faustao “izlaida rindu” sirds transplantācijai? Saproti, kā process notiek!

Vadītājs Fausto Silva, “73 gadus vecais Faustão saņēma jaunu sirdi pagājušajā svētdienā (27) pēc ...

read more

Vai emulatori pazudīs? Nintendo Switch saņem SVARĪGU atjauninājumu; Skaties

Nozīmīgs jauninājums nāk Nintendo Switch, sniedzot sev iespēju ierobežot spēles emulāciju.Šī tehn...

read more
instagram viewer