Du bruker sannsynligvis – eller i det minste har hørt om – ChatGPT. Verktøyet for kunstig intelligens har hatt en "boom" de siste månedene og har vært en "hånd på rattet" for å svare på spørsmål eller til og med utføre mer komplekse jobber.
Systemet skjuler imidlertid en mørk hemmelighet – og skaperne vet det. Ikke bare vet de, men de påtar seg ansvaret for det.
se mer
Google utvikler AI-verktøy for å hjelpe journalister i...
Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...
Ifølge OpenAI, selskapet som laget verktøyet, ChatGPT lider av "hallusinasjoner". Det vil si at den til tider kan gi falsk informasjon.
Situasjonen ble kunngjort av selskapet sist onsdag 31. mai. I tillegg har de også annonsert en nyere og kraftigere metode for å trene AI.
Hvorfor er det viktig å fikse denne upassende ChatGPT-oppførselen?
Den grunnleggende forklaringen er at folk bruker verktøyet mye i hverdagen. Derfor er det viktig at ChatGPT gir pålitelig informasjon til de som bruker den.
For eksempel, hvis du bruker
AIfor å forbedre en skolearbeidstekst, eller for å se etter spesifikke oppskrifter, er det vesentlig at informasjonen der er korrekt.Mer enn det, med det økende antallet chatbot-brukere, kan falsk informasjon enkelt spres som om det var sannheten.
Og dette kan forårsake en enorm hodepine neste år, når valget i USA begynner – og dette kan også smitte over her i Brasil!
"Selv state-of-the-art modeller har en tendens til å produsere usannheter - de viser en tendens til å gjøre opp fakta i øyeblikk av usikkerhet. Disse hallusinasjonene er spesielt problematiske i domener som krever flertrinns resonnement, en siden en enkelt logisk feil er nok til å avspore en mye større løsning," sa OpenAI i kommunisert.
Hva skal jeg gjøre for å fikse?
OpenAI rapporterte at de vil bruke en ny strategi for å bekjempe "hallusinasjonene" til ChatGPT: tren AI-modeller til å belønne seg selv for hvert riktig trinn. I stedet for bare å belønne henne på slutten med det fullstendige svaret.
«Å oppdage og redusere en modells logiske feil eller hallusinasjoner er et kritisk skritt mot å bygge en overordnet justert AI. Motivasjonen bak denne forskningen er å adressere hallusinasjoner for å gjøre modeller mer i stand til løse komplekse resonneringsproblemer," forklarte Karl Cobbe, en matematikkforsker ved selskap.
Uteksaminert i sosial kommunikasjon ved Federal University of Goiás. Lidenskapelig opptatt av digitale medier, popkultur, teknologi, politikk og psykoanalyse.