ChatGPT: Skabere afslører mørk hemmelighed

Du bruger sikkert – eller har i det mindste hørt om – ChatGPT. Værktøjet til kunstig intelligens har haft et "boom" i de seneste måneder og har været en "hånd på rattet" for at besvare spørgsmål eller endda udføre mere komplekse opgaver.

Systemet gemmer dog på en mørk hemmelighed - og dets skabere ved det. Ikke alene ved de det, men de påtager sig ansvaret for det.

se mere

Google udvikler AI-værktøj til at hjælpe journalister i...

Uåbnet original 2007 iPhone sælges for næsten $200.000; ved godt...

Ifølge OpenAI, firma, der har skabt værktøjet, lider ChatGPT af "hallucinationer". Det vil sige, at den til tider kan give falske oplysninger.

Situationen blev annonceret af selskabet sidste onsdag den 31. maj. Derudover har de også annonceret en nyere og mere kraftfuld metode til træning af AI.

Hvorfor er det vigtigt at rette denne ChatGPT-fejl opførsel?

Den grundlæggende forklaring er, at folk bruger værktøjet meget i deres dagligdag. Derfor er det bydende nødvendigt, at ChatGPT videregiver pålidelige oplysninger til dem, der bruger dem.

For eksempel, hvis du bruger AIfor at forbedre en skolearbejdstekst, eller for at lede efter specifikke opskrifter, er det væsentligt, at oplysningerne der er korrekte.

Mere end det, med det voksende antal chatbot-brugere, kan falsk information let spredes, som om det var sandheden.

Og det kan give en kæmpe hovedpine næste år, når valget i USA begynder – og det kan også smitte af på her i Brasilien!

"Selv state-of-the-art modeller har en tendens til at producere løgne - de udviser en tendens til at finde på fakta i øjeblikke af usikkerhed. Disse hallucinationer er særligt problematiske i domæner, der kræver flertrins-ræsonnement, en da en enkelt logisk fejl er nok til at afspore en meget større løsning," sagde OpenAI i kommunikeret.

Hvad skal man gøre for at rette?

OpenAI rapporterede, at det vil bruge en ny strategi til at bekæmpe "hallucinationerne" af ChatGPT: Træn AI-modeller til at belønne sig selv for hvert korrekt trin. I stedet for bare at belønne hende til sidst med det komplette svar.

“At opdage og afhjælpe en models logiske fejl eller hallucinationer er et kritisk skridt i retning af at opbygge en overordnet tilpasset AI. Motivationen bag denne forskning er at adressere hallucinationer for at gøre modeller mere i stand til løse komplekse ræsonnementproblemer,” forklarede Karl Cobbe, en matematikforsker ved Selskab.

Uddannet i social kommunikation ved Federal University of Goiás. Brænder for digitale medier, popkultur, teknologi, politik og psykoanalyse.

Find ud af om nogle højtbetalende erhverv, der ikke har meget fremtrædende plads

Mange mennesker ved ikke, hvor de skal søge jobmuligheder. job når de overvejer at skifte karrier...

read more
Når alt kommer til alt, har koffeinfri kaffe koffein eller ej?

Når alt kommer til alt, har koffeinfri kaffe koffein eller ej?

I det øjeblik vi stopper til kaffe, om dagen, om morgenen eller om natten, og vi har en præferenc...

read more

Warren Buffetts liste: 5 vigtige bøger for rigdomsøgende

På Forbes-listen over personer med den højeste kapital i verden fremstår Warren Buffett som en st...

read more