ChatGPT: Schöpfer enthüllen dunkles Geheimnis

Sie verwenden wahrscheinlich ChatGPT – oder haben zumindest davon gehört. Das Tool der künstlichen Intelligenz erlebte in den letzten Monaten einen „Boom“ und war eine „Hand am Steuer“, um Fragen zu beantworten oder sogar komplexere Aufgaben zu erledigen.

Allerdings birgt das System ein dunkles Geheimnis – und seine Schöpfer wissen es. Sie wissen es nicht nur, sie tragen auch die Verantwortung dafür.

Mehr sehen

Google entwickelt KI-Tool, um Journalisten bei… zu helfen

Ungeöffnetes Original-iPhone von 2007 wird für fast 200.000 US-Dollar verkauft; wissen...

Entsprechend der OpenAIChatGPT, das Unternehmen, das das Tool entwickelt hat, leidet unter „Halluzinationen“. Das heißt, es kann manchmal zu falschen Informationen kommen.

Die Situation wurde vom Unternehmen am vergangenen Mittwoch, dem 31. Mai, bekannt gegeben. Darüber hinaus haben sie eine neuere und leistungsfähigere Methode zum Training der KI angekündigt.

Warum ist es wichtig, dieses ChatGPT-Fehlverhalten zu beheben?

Die grundlegende Erklärung ist, dass die Menschen das Tool in ihrem täglichen Leben häufig nutzen. Daher ist es unerlässlich, dass ChatGPT zuverlässige Informationen an diejenigen weitergibt, die es verwenden.

Wenn Sie beispielsweise die verwenden KIUm einen Text für eine Schularbeit zu verbessern oder nach bestimmten Rezepten zu suchen, ist es wichtig, dass die darin enthaltenen Informationen korrekt sind.

Darüber hinaus können mit der wachsenden Zahl von Chatbot-Nutzern leicht falsche Informationen verbreitet werden, als wären sie die Wahrheit.

Und das könnte im nächsten Jahr, wenn die Wahlen in den Vereinigten Staaten beginnen, große Kopfschmerzen bereiten – und das könnte auch hier in Brasilien auf uns zukommen!

„Selbst hochmoderne Modelle neigen dazu, Unwahrheiten zu produzieren – sie neigen dazu, in Momenten der Unsicherheit Fakten zu erfinden.“ Diese Halluzinationen sind besonders problematisch in Bereichen, in denen mehrstufiges Denken erforderlich ist, z da ein einziger Logikfehler ausreicht, um eine viel größere Lösung zum Scheitern zu bringen“, sagte OpenAI in kommuniziert.

Was tun, um das Problem zu beheben?

OpenAI berichtete, dass es eine neue Strategie anwenden wird, um die „Halluzinationen“ der zu bekämpfen ChatGPT: KI-Modelle trainieren, um sich für jeden richtigen Schritt zu belohnen. Anstatt sie am Ende einfach mit der vollständigen Antwort zu belohnen.

„Das Erkennen und Abmildern logischer Fehler oder Halluzinationen eines Modells ist ein entscheidender Schritt zum Aufbau einer insgesamt abgestimmten KI. Die Motivation hinter dieser Forschung besteht darin, Halluzinationen anzugehen, um Modelle leistungsfähiger zu machen komplexe Denkprobleme lösen“, erklärte Karl Cobbe, Mathematikforscher bei Unternehmen.

Abschluss in Sozialkommunikation an der Bundesuniversität Goiás. Leidenschaftlich für digitale Medien, Popkultur, Technologie, Politik und Psychoanalyse.

Niedlichkeitsshow: 9 Hunderassen gelten als die fügsamsten der Welt

Niedlichkeitsshow: 9 Hunderassen gelten als die fügsamsten der Welt

Versteh das Persönlichkeit Bei der Auswahl der Hunderassen ist es wichtig, je nach Familie und Um...

read more
Wenn Sie 5 finden, haben Sie 1.000 R$: Diese 0,50-R$-Münze ist bis zu 200 R$ wert

Wenn Sie 5 finden, haben Sie 1.000 R$: Diese 0,50-R$-Münze ist bis zu 200 R$ wert

Unter den Münzen, die in unseren Geldbörsen und Brieftaschen zirkulieren, hat eine überraschende ...

read more

Der Kongress genehmigt bewaffnete Sicherheitskräfte in Schulen

Unsere tägliche Tragödie, die Gewalt an unseren Schulen, kann jetzt durch einen vom Nationalkongr...

read more