Het bedrijf OpenAl heeft zojuist een ChatGPT-versie in open source. Deze versie presenteert zichzelf als een generieke soort en kan alle functies uitvoeren die de originele tekstgenerator uitvoert. De uitgebrachte versie vereist echter training, die voor de meeste mensen niet betaalbaar is.
De ChatGPT-tekstgenerator
Bekijk meer
Alert: DEZE giftige plant heeft een jonge man in het ziekenhuis gebracht
Google ontwikkelt AI-tool om journalisten te helpen bij…
ChatGPT is niets meer dan een chatbot-tool, die zich door middel van kunstmatige intelligentie specialiseert in dialogen. De tool is gemaakt door Philip Wang en heeft de taal aangepast, met de vereniging van het techniekmodel van begeleid en versterkend leren met menselijke feedback (RLHF) en het model dat wordt gebruikt door Google, Palm.
De tool had eind 2022 een open source-versie uitgebracht. De versie is een generieke soort en kan daarom ook de functies van ChatGPT uitvoeren oficial zoals e-mailconcepten, suggesties voor computercodes en teksten academici.
De uitgebrachte versie van ChatGPT
Bij het combineren van twee technieken, RLHF en PaLM, heeft het model training nodig, die helaas niet in de generieke versie zit. Daarom zal elke persoon die zich aan deze open code houdt, de kunstmatige intelligentie op zijn eigen computer moeten trainen.
Het grote probleem is dat daarvoor een zeer krachtige hardware nodig is, immers om een kunstmatige intelligentie en toch is het verwerken van de verzoeken die komen niet voor iedereen weggelegd.
Hoe deze kunstmatige intelligentie te trainen?
De sjabloon is een bijna gelijke versie van ChatGPT, wat een woordtool is, en als zodanig ook moet zijn kennis gemaakt met een uitgebreid aantal voorbeelden, zoals posts op sociale netwerken, gepubliceerd nieuws en e-books van allemaal soorten.
Bovendien biedt de techniek die in het systeem wordt gebruikt, RLHF, een groot aantal reacties voor elke menselijke prompt, wat betekent dat de mensen zijn essentieel in het proces van het classificeren van de antwoorden in een soort Ranking, zodat het systeem leert wat de beste manier is om reageren.
Dit alles wordt uiteindelijk erg duur en daarom kan niet iedereen het hebben. Eén bedrijf berekende dat het trainen van een model met 1,5 miljard parameters tot 1,6 miljoen dollar kost. En om een echt goed systeem te maken, is er veel meer nodig, het PaLM-model van Google gebruikte bijvoorbeeld ongeveer 540 miljard parameters.