Das Unternehmen OpenAl hat gerade eine veröffentlicht ChatGPT-Version in Open Source. Diese Version präsentiert sich als generische Art und kann alle Funktionen ausführen, die der ursprüngliche Textgenerator ausführt. Allerdings erfordert die veröffentlichte Version eine Schulung, die für die meisten Menschen nicht erschwinglich ist.
Der ChatGPT-Textgenerator
Mehr sehen
Alarm: DIESE giftige Pflanze brachte einen jungen Mann ins Krankenhaus
Google entwickelt KI-Tool, um Journalisten bei… zu helfen
ChatGPT ist nichts anderes als ein Chatbot-Tool, das sich durch künstliche Intelligenz auf Dialoge spezialisiert. Das Tool wurde von Philip Wang erstellt und hat die Sprache mit der Vereinigung des Technikmodells von angepasst überwachtes und verstärkendes Lernen mit menschlichem Feedback (RLHF) und dem von Google verwendeten Modell, Palme.
Für das Tool wurde Ende 2022 eine Open-Source-Version veröffentlicht. Die Version ist generisch und kann daher auch die Funktionen von ChatGPT ausführen Beamte wie E-Mail-Entwürfe, Vorschläge für Computercodes und Texte Akademiker.
Die veröffentlichte Version von ChatGPT
Bei der Kombination zweier Techniken, RLHF und PaLM, muss das Modell trainiert werden, was in der generischen Version leider nicht enthalten ist. Daher muss jede Person, die sich an diesen offenen Code hält, die künstliche Intelligenz auf ihrem eigenen Computer trainieren.
Das große Problem ist, dass es dafür eine sehr leistungsfähige Hardware braucht, um schließlich einen auszubilden künstliche Intelligenz Und doch ist die Bearbeitung der kommenden Anfragen nicht jedermanns Sache.
Wie trainiert man diese künstliche Intelligenz?
Die Vorlage ist eine fast gleichwertige Version von ChatGPT, einem Word-Tool und muss es auch sein präsentiert mit einer umfangreichen Anzahl von Beispielen, wie Beiträgen in sozialen Netzwerken, veröffentlichten Nachrichten und E-Books von allen Typen.
Darüber hinaus bietet die im System verwendete Technik, RLHF, eine große Anzahl von Antworten für jede menschliche Eingabeaufforderung, was bedeutet, dass die Der Mensch ist bei der Einordnung der Antworten in eine Art Ranking von entscheidender Bedeutung, damit das System den besten Weg erlernt Antworten.
All dies ist am Ende sehr teuer und daher kann es nicht jeder haben. Ein Unternehmen hat berechnet, dass das Training eines Modells mit 1,5 Milliarden Parametern bis zu 1,6 Millionen US-Dollar kostet. Und um ein wirklich gutes System zu schaffen, braucht es noch viel mehr: Das PaLM-Modell von Google nutzte beispielsweise etwa 540 Milliarden Parameter.