ChatGPT: Skapere avslører mørk hemmelighet

Du bruker sannsynligvis – eller i det minste har hørt om – ChatGPT. Verktøyet for kunstig intelligens har hatt en "boom" de siste månedene og har vært en "hånd på rattet" for å svare på spørsmål eller til og med utføre mer komplekse jobber.

Systemet skjuler imidlertid en mørk hemmelighet – og skaperne vet det. Ikke bare vet de, men de påtar seg ansvaret for det.

se mer

Google utvikler AI-verktøy for å hjelpe journalister i...

Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...

Ifølge OpenAI, selskapet som laget verktøyet, ChatGPT lider av "hallusinasjoner". Det vil si at den til tider kan gi falsk informasjon.

Situasjonen ble kunngjort av selskapet sist onsdag 31. mai. I tillegg har de også annonsert en nyere og kraftigere metode for å trene AI.

Hvorfor er det viktig å fikse denne upassende ChatGPT-oppførselen?

Den grunnleggende forklaringen er at folk bruker verktøyet mye i hverdagen. Derfor er det viktig at ChatGPT gir pålitelig informasjon til de som bruker den.

For eksempel, hvis du bruker

AIfor å forbedre en skolearbeidstekst, eller for å se etter spesifikke oppskrifter, er det vesentlig at informasjonen der er korrekt.

Mer enn det, med det økende antallet chatbot-brukere, kan falsk informasjon enkelt spres som om det var sannheten.

Og dette kan forårsake en enorm hodepine neste år, når valget i USA begynner – og dette kan også smitte over her i Brasil!

"Selv state-of-the-art modeller har en tendens til å produsere usannheter - de viser en tendens til å gjøre opp fakta i øyeblikk av usikkerhet. Disse hallusinasjonene er spesielt problematiske i domener som krever flertrinns resonnement, en siden en enkelt logisk feil er nok til å avspore en mye større løsning," sa OpenAI i kommunisert.

Hva skal jeg gjøre for å fikse?

OpenAI rapporterte at de vil bruke en ny strategi for å bekjempe "hallusinasjonene" til ChatGPT: tren AI-modeller til å belønne seg selv for hvert riktig trinn. I stedet for bare å belønne henne på slutten med det fullstendige svaret.

«Å oppdage og redusere en modells logiske feil eller hallusinasjoner er et kritisk skritt mot å bygge en overordnet justert AI. Motivasjonen bak denne forskningen er å adressere hallusinasjoner for å gjøre modeller mer i stand til løse komplekse resonneringsproblemer," forklarte Karl Cobbe, en matematikkforsker ved selskap.

Uteksaminert i sosial kommunikasjon ved Federal University of Goiás. Lidenskapelig opptatt av digitale medier, popkultur, teknologi, politikk og psykoanalyse.

De 10 beste byene i verden å bo og jobbe i i 2022

Mange drømmer om et bedre liv, både for jobb og bolig. Derfor har det å bo utenfor Brasil blitt e...

read more

Finn ut hvilke er de 3 tegnene som vil være heldige i slutten av året

Duallerederealisert hva vi ser ut somå ha mer flaks i Ikke santårstider årets? Ifaktumat det skje...

read more

Egenskaper ved introverte som kan øke sjansene dine for suksess

Mennesker introverte de er per definisjon individer som viser ensom og reservert atferd. De har e...

read more