ChatGPT: Skapere avslører mørk hemmelighet

Du bruker sannsynligvis – eller i det minste har hørt om – ChatGPT. Verktøyet for kunstig intelligens har hatt en "boom" de siste månedene og har vært en "hånd på rattet" for å svare på spørsmål eller til og med utføre mer komplekse jobber.

Systemet skjuler imidlertid en mørk hemmelighet – og skaperne vet det. Ikke bare vet de, men de påtar seg ansvaret for det.

se mer

Google utvikler AI-verktøy for å hjelpe journalister i...

Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...

Ifølge OpenAI, selskapet som laget verktøyet, ChatGPT lider av "hallusinasjoner". Det vil si at den til tider kan gi falsk informasjon.

Situasjonen ble kunngjort av selskapet sist onsdag 31. mai. I tillegg har de også annonsert en nyere og kraftigere metode for å trene AI.

Hvorfor er det viktig å fikse denne upassende ChatGPT-oppførselen?

Den grunnleggende forklaringen er at folk bruker verktøyet mye i hverdagen. Derfor er det viktig at ChatGPT gir pålitelig informasjon til de som bruker den.

For eksempel, hvis du bruker

AIfor å forbedre en skolearbeidstekst, eller for å se etter spesifikke oppskrifter, er det vesentlig at informasjonen der er korrekt.

Mer enn det, med det økende antallet chatbot-brukere, kan falsk informasjon enkelt spres som om det var sannheten.

Og dette kan forårsake en enorm hodepine neste år, når valget i USA begynner – og dette kan også smitte over her i Brasil!

"Selv state-of-the-art modeller har en tendens til å produsere usannheter - de viser en tendens til å gjøre opp fakta i øyeblikk av usikkerhet. Disse hallusinasjonene er spesielt problematiske i domener som krever flertrinns resonnement, en siden en enkelt logisk feil er nok til å avspore en mye større løsning," sa OpenAI i kommunisert.

Hva skal jeg gjøre for å fikse?

OpenAI rapporterte at de vil bruke en ny strategi for å bekjempe "hallusinasjonene" til ChatGPT: tren AI-modeller til å belønne seg selv for hvert riktig trinn. I stedet for bare å belønne henne på slutten med det fullstendige svaret.

«Å oppdage og redusere en modells logiske feil eller hallusinasjoner er et kritisk skritt mot å bygge en overordnet justert AI. Motivasjonen bak denne forskningen er å adressere hallusinasjoner for å gjøre modeller mer i stand til løse komplekse resonneringsproblemer," forklarte Karl Cobbe, en matematikkforsker ved selskap.

Uteksaminert i sosial kommunikasjon ved Federal University of Goiás. Lidenskapelig opptatt av digitale medier, popkultur, teknologi, politikk og psykoanalyse.

Sjekk ut denne enkle og praktiske espressopastaoppskriften

Denne deilige kremete pastaoppskriften kalles også lat pasta fordi den er så enkel å lage. Det er...

read more

Mer enn halvparten av folk foretrekker å bruke DENNE pastamerket

Med en god pastadeig, den typen som selges i markedet, kan vi lage forskjellige retter i forskjel...

read more

Lag en deilig pudding med bare to ingredienser

Puddingen er en deilig dessert, som passer godt til mange retter, men krever noen ingredienser so...

read more