Selskapet OpenAl, har nettopp sluppet en ChatGPT-versjon i åpen kildekode. Denne versjonen presenterer seg selv som en generisk art, og kan utføre alle funksjonene som den originale tekstgeneratoren utfører. Den utgitte versjonen krever imidlertid opplæring, noe som ikke er rimelig for de fleste.
ChatGPT-tekstgeneratoren
se mer
Varsel: DENNE giftige planten landet en ung mann på sykehuset
Google utvikler AI-verktøy for å hjelpe journalister i...
ChatGPT er ikke noe mer enn et chatbot-verktøy, som gjennom kunstig intelligens spesialiserer seg på dialoger. Verktøyet ble laget av Philip Wang og har justert språk, med foreningen av teknikkmodellen av overvåket og forsterkende læring med menneskelig tilbakemelding (RLHF) og modellen brukt av Google, PALM.
Verktøyet hadde en åpen kildekode-versjon utgitt på slutten av 2022. Versjonen er en generisk art, og derfor kan den også utføre funksjonene til ChatGPT offisielle som e-postutkast, forslag til datakoder og tekster akademikere.
Den utgitte versjonen av ChatGPT
Ved å kombinere to teknikker, RLHF og PaLM, trenger modellen opplæring, som dessverre ikke kommer i generisk versjon. Derfor må hver person som følger denne åpne koden trene den kunstige intelligensen på sin egen datamaskin.
Det store problemet er at for det er det nødvendig med en veldig kraftig maskinvare, tross alt å trene en kunstig intelligens og likevel er det ikke for alle å behandle forespørslene som kommer.
Hvordan trene denne kunstige intelligensen?
Malen er en nesten lik versjon av ChatGPT, som er et ordverktøy, og som sådan må være det presentert med et omfattende antall eksempler, som innlegg på sosiale nettverk, publiserte nyheter og e-bøker fra alle typer.
I tillegg tilbyr teknikken som brukes i systemet, RLHF, et stort antall svar for hver menneskelig melding, noe som betyr at mennesker er essensielle i prosessen med å klassifisere svarene i en slags rangering, slik at systemet lærer den beste måten å å svare.
Alt dette ender opp med å bli veldig dyrt og derfor kan ikke alle ha det. Ett selskap beregnet at opplæring av en modell med 1,5 milliarder parametere koster opptil 1,6 millioner dollar. Og for å lage et virkelig godt system, kreves det mye mer enn det, Googles PaLM-modell brukte for eksempel omtrent 540 milliarder parametere.