OpenAI zielt darauf ab, die Zuverlässigkeit von ChatGPT zu erhöhen, indem KI-Halluzinationen reduziert und die mathematischen Fähigkeiten des Modells verbessert werden. Diese Bemühungen zielen auf die Förderung von Genauigkeit und kohärenten Gesprächen in der Welt der künstlichen Intelligenz ab, wobei OpenAI die Grenzen der KI verschieben und einen verfeinerten Ansatz für die digitale Interaktion finden will.
Bemühungen von OpenAI, KI-Halluzinationen zu reduzieren
Am 31. Mai gab OpenAI bekannt, dass es daran arbeitet, die mathematischen Problemlösungsfähigkeiten von ChatGPT zu verbessern. Ziel dieser Bemühungen ist die Reduzierung von Künstlicher Intelligenz (KI) Halluzinationen. OpenAI betonte, dass die Reduzierung von Halluzinationen ein entscheidender Schritt bei der Entwicklung von KI-Systemen ist, die besser auf die Realität abgestimmt sind.
Mit der Einführung von ChatGPT-4 im März hat sich die KI-Chatbot-Technologie weiter in den Mainstream-Bereich vorgewagt. Generative KI-Chatbots haben jedoch lange damit gekämpft, sachlich korrekte Informationen zu liefern und generieren gelegentlich falsche Informationen, auch bekannt als „Halluzinationen“. Die Bemühungen, diese KI-Halluzinationen zu reduzieren, wurden in einem Beitrag auf der OpenAI-Website angekündigt.
KI-Halluzinationen beziehen sich auf Situationen, in denen Künstliche Intelligenzsysteme sachlich ungenaue Ausgaben erzeugen, die irreführend sind oder nicht durch echte Welt-Daten unterstützt werden. Diese Halluzinationen können verschiedene Formen annehmen, wie das Bereitstellen von falschen Informationen, das Erfinden von nicht existierenden Ereignissen oder Personen oder das Geben von ungenauen Details zu bestimmten Themen.
Ergebnisse der Forschung zur Prozessbegleitung als effektive Feedbackmethode
OpenAI hat die Wirksamkeit von zwei Arten von Feedback untersucht: „Ergebnisbegleitung“ und „Prozessbegleitung“. Bei der Ergebnisbegleitung wird Feedback auf Basis des Endergebnisses gegeben, während die Prozessbegleitung Feedback für jeden Schritt im Denkprozess liefert. OpenAI hat diese Modelle mit Hilfe von mathematischen Problemen evaluiert, bei denen mehrere Lösungen generiert und die bestplatzierte Lösung basierend auf jedem Feedbackmodell ausgewählt wurde.
Nach gründlicher Analyse stellte das Forschungsteam fest, dass die Prozessbegleitung bessere Ergebnisse erzielte, da das Modell dazu angehalten wurde, einem von Menschen genehmigten Prozess zu folgen. Die Ergebnisbegleitung hingegen erwies sich als schwieriger, um sie konsequent zu überwachen.
OpenAI erkannte an, dass die Implikationen der Prozessbegleitung über die Mathematik hinausgehen und dass weitere Forschung notwendig ist, um ihre Auswirkungen in anderen Bereichen zu verstehen. Sie argumentierten, dass, wenn die beobachteten Ergebnisse auch in breiteren Kontexten gelten, die Prozessbegleitung im Vergleich zur Ergebnisbegleitung eine günstige Kombination aus Leistung und Ausrichtung bieten könnte. Um die Forschung zu erleichtern, hat OpenAI den vollständigen Prozessbegleitung-Datensatz öffentlich gemacht und lädt andere Forscher ein, diesen Bereich weiter zu erforschen.
Jüngste Vorfälle enthüllen Risiken von Halluzinationen in KI-Systemen
Obwohl OpenAI keine spezifischen Beispiele angeführt hat, die zur Untersuchung von Halluzinationen geführt haben, gibt es zwei jüngste Vorfälle, die das Problem in realen Szenarien veranschaulichen.
In einem jüngsten Vorfall gab der Anwalt Steven Schwartz in der Rechtssache Mata vs. Avianca Airlines zu, dass er sich für seine Forschung auf den Chatbot verlassen hatte. Leider stellte sich heraus, dass die von ChatGPT bereitgestellten Informationen völlig gefälscht waren, was das Problem deutlich macht.
Der Vorfall mit ChatGPT ist nicht das einzige Beispiel für Künstliche Intelligenzsysteme, die mit Halluzinationen konfrontiert sind. Bei einer Demonstration seiner Chatbot-Technologie im März untersuchte Microsofts Bing AI-Chatbot Gewinnberichte und generierte falsche Zahlen für Unternehmen wie Gap und Lululemon. Diese Fälle unterstreichen die Herausforderungen, mit denen KI-Systeme konfrontiert sind, wenn sie zuverlässige und faktische Informationen produzieren sollen.
Blockchain News
Der Niederländische Bankenverband: „Behalten Sie Bargeld zu Hause, um sich auf Cyberangriffe vorzubereiten“
Auf Cyberangriffe vorbereitet sein? Der NVB rät Haushalten, Bargeld bereitzuhalten. Erfahren Sie warum.
WikiLeaks nutzt die Bitcoin-Blockchain, um die Afghan War Logs zu schützen
Schutz der Afghan War Logs: WikiLeaks verewigt die umstrittenen Dokumente auf der Bitcoin-Blockchain mithilfe des Ordinals-Protokolls.
Forbes 30 Under 30: Fast ein Drittel besteht aus Krypto-Unternehmern
Ein großer Teil der Forbes 30 Under 30 Liste für Finance ist mit Krypto-Unternehmern besetzt. Übernimmt Krypto die Finanzwelt?
Meist gelesen
Dies ist der Grund, warum der Bitcoin Kurs stark gefallen ist
Bitcoin unter 100.000 $ nach Powells Rede: Entdecken Sie, warum der Kryptomarkt stark gefallen ist, mit 800 Millionen $ Liquidationen und Verlusten für XRP und ETH.
Krypto-Analyst: XRP-Investoren werden „unschätzbar reich“
XRP Kurs erreicht 2,52 $ nach RLUSD-Einführung. Analyst prognostiziert Ausbruch auf 5 $ dank Bollinger-Bändern und bullish Flaggenmuster.
Ripples Stablecoin RLUSD erreicht nach Einführung einen ungewöhnlichen Wert von 1.200 $
Ripples RLUSD-Stablecoin steigt nach Einführung unerwartet auf 1.200 $. XRP fällt unter 2 $ aufgrund makroökonomischer Unsicherheit und Fed-Politik.