chatgpt
Blockchain

OpenAI reduziert KI-Halluzinationen und stärkt mathematische Fähigkeiten von ChatGPT

OpenAI zielt darauf ab, die Zuverlässigkeit von ChatGPT zu erhöhen, indem KI-Halluzinationen reduziert und die mathematischen Fähigkeiten des Modells verbessert werden. Diese Bemühungen zielen auf die Förderung von Genauigkeit und kohärenten Gesprächen in der Welt der künstlichen Intelligenz ab, wobei OpenAI die Grenzen der KI verschieben und einen verfeinerten Ansatz für die digitale Interaktion finden will.

Bemühungen von OpenAI, KI-Halluzinationen zu reduzieren

Am 31. Mai gab OpenAI bekannt, dass es daran arbeitet, die mathematischen Problemlösungsfähigkeiten von ChatGPT zu verbessern. Ziel dieser Bemühungen ist die Reduzierung von Künstlicher Intelligenz (KI) Halluzinationen. OpenAI betonte, dass die Reduzierung von Halluzinationen ein entscheidender Schritt bei der Entwicklung von KI-Systemen ist, die besser auf die Realität abgestimmt sind.

Mit der Einführung von ChatGPT-4 im März hat sich die KI-Chatbot-Technologie weiter in den Mainstream-Bereich vorgewagt. Generative KI-Chatbots haben jedoch lange damit gekämpft, sachlich korrekte Informationen zu liefern und generieren gelegentlich falsche Informationen, auch bekannt als „Halluzinationen“. Die Bemühungen, diese KI-Halluzinationen zu reduzieren, wurden in einem Beitrag auf der OpenAI-Website angekündigt.

KI-Halluzinationen beziehen sich auf Situationen, in denen Künstliche Intelligenzsysteme sachlich ungenaue Ausgaben erzeugen, die irreführend sind oder nicht durch echte Welt-Daten unterstützt werden. Diese Halluzinationen können verschiedene Formen annehmen, wie das Bereitstellen von falschen Informationen, das Erfinden von nicht existierenden Ereignissen oder Personen oder das Geben von ungenauen Details zu bestimmten Themen.

Ergebnisse der Forschung zur Prozessbegleitung als effektive Feedbackmethode

OpenAI hat die Wirksamkeit von zwei Arten von Feedback untersucht: „Ergebnisbegleitung“ und „Prozessbegleitung“. Bei der Ergebnisbegleitung wird Feedback auf Basis des Endergebnisses gegeben, während die Prozessbegleitung Feedback für jeden Schritt im Denkprozess liefert. OpenAI hat diese Modelle mit Hilfe von mathematischen Problemen evaluiert, bei denen mehrere Lösungen generiert und die bestplatzierte Lösung basierend auf jedem Feedbackmodell ausgewählt wurde.

Nach gründlicher Analyse stellte das Forschungsteam fest, dass die Prozessbegleitung bessere Ergebnisse erzielte, da das Modell dazu angehalten wurde, einem von Menschen genehmigten Prozess zu folgen. Die Ergebnisbegleitung hingegen erwies sich als schwieriger, um sie konsequent zu überwachen.

OpenAI erkannte an, dass die Implikationen der Prozessbegleitung über die Mathematik hinausgehen und dass weitere Forschung notwendig ist, um ihre Auswirkungen in anderen Bereichen zu verstehen. Sie argumentierten, dass, wenn die beobachteten Ergebnisse auch in breiteren Kontexten gelten, die Prozessbegleitung im Vergleich zur Ergebnisbegleitung eine günstige Kombination aus Leistung und Ausrichtung bieten könnte. Um die Forschung zu erleichtern, hat OpenAI den vollständigen Prozessbegleitung-Datensatz öffentlich gemacht und lädt andere Forscher ein, diesen Bereich weiter zu erforschen.

Jüngste Vorfälle enthüllen Risiken von Halluzinationen in KI-Systemen

Obwohl OpenAI keine spezifischen Beispiele angeführt hat, die zur Untersuchung von Halluzinationen geführt haben, gibt es zwei jüngste Vorfälle, die das Problem in realen Szenarien veranschaulichen.

In einem jüngsten Vorfall gab der Anwalt Steven Schwartz in der Rechtssache Mata vs. Avianca Airlines zu, dass er sich für seine Forschung auf den Chatbot verlassen hatte. Leider stellte sich heraus, dass die von ChatGPT bereitgestellten Informationen völlig gefälscht waren, was das Problem deutlich macht.

Der Vorfall mit ChatGPT ist nicht das einzige Beispiel für Künstliche Intelligenzsysteme, die mit Halluzinationen konfrontiert sind. Bei einer Demonstration seiner Chatbot-Technologie im März untersuchte Microsofts Bing AI-Chatbot Gewinnberichte und generierte falsche Zahlen für Unternehmen wie Gap und Lululemon. Diese Fälle unterstreichen die Herausforderungen, mit denen KI-Systeme konfrontiert sind, wenn sie zuverlässige und faktische Informationen produzieren sollen.

Blockchain News

Der Niederländische Bankenverband: „Behalten Sie Bargeld zu Hause, um sich auf Cyberangriffe vorzubereiten“
WikiLeaks nutzt die Bitcoin-Blockchain, um die Afghan War Logs zu schützen
Forbes 30 Under 30: Fast ein Drittel besteht aus Krypto-Unternehmern
Mehr News

Meist gelesen

Dies ist der Grund, warum der Bitcoin Kurs stark gefallen ist
Krypto-Analyst: XRP-Investoren werden „unschätzbar reich“
Ripples Stablecoin RLUSD erreicht nach Einführung einen ungewöhnlichen Wert von 1.200 $
Newsbit
Im Store anzeigen
Siehe