Företaget OpenAl, har precis släppt en ChatGPT version i öppen källkod. Denna version presenterar sig själv som en generisk art, som kan utföra alla funktioner som den ursprungliga textgeneratorn utför. Den släppta versionen kräver dock utbildning, vilket inte är överkomligt för de flesta.
ChatGPT-textgeneratorn
se mer
Varning: DENNA giftiga växt landade en ung man på sjukhuset
Google utvecklar AI-verktyg för att hjälpa journalister i...
ChatGPT är inget annat än ett chatbot-verktyg, som genom artificiell intelligens är specialiserat på dialoger. Verktyget skapades av Philip Wang och har justerat språket, med föreningen av teknikmodellen av övervakad och förstärkande inlärning med mänsklig feedback (RLHF) och den modell som används av Google, Handflatan.
Verktyget hade en öppen källkodsversion som släpptes i slutet av 2022. Versionen är en generisk art, och därför kan den också utföra funktionerna i ChatGPT officiella som e-postutkast, förslag på datorkod och texter akademiker.
Den släppta versionen av ChatGPT
När man kombinerar två tekniker, RLHF och PaLM, behöver modellen träning, vilket tyvärr inte kommer i den generiska versionen. Därför måste varje person som följer denna öppna kod träna den artificiella intelligensen på sin egen dator.
Det stora problemet är att för det krävs en mycket kraftfull hårdvara, trots allt för att träna en artificiell intelligens och ändå är det inte för alla att behandla förfrågningarna som kommer.
Hur tränar man denna artificiella intelligens?
Mallen är en nästan likvärdig version av ChatGPT, som är ett ordverktyg, och som sådan måste vara det presenteras med ett stort antal exempel, såsom inlägg på sociala nätverk, publicerade nyheter och e-böcker från alla typer.
Dessutom erbjuder tekniken som används i systemet, RLHF, ett stort antal svar för varje mänsklig prompt, vilket innebär att människor är viktiga i processen att klassificera svaren i en sorts rangordning, så att systemet lär sig det bästa sättet att att svara.
Allt detta blir väldigt dyrt och därför kan inte alla ha det. Ett företag beräknade att utbildning av en modell med 1,5 miljarder parametrar kostar upp till 1,6 miljoner dollar. Och för att skapa ett riktigt bra system krävs mycket mer än så, Googles PaLM-modell använde till exempel cirka 540 miljarder parametrar.