Warum KI manchmal falsch liegt und was wir dagegen tun können
Künstliche Intelligenz (KI) hat in den letzten Jahren bemerkenswerte Fortschritte gemacht, insbesondere durch die Entwicklung großer Sprachmodelle wie GPT-4. Diese Modelle sind in der Lage, präzise und natürliche Sprache zu erzeugen. Dennoch gibt es Herausforderungen, insbesondere wenn KI-Modelle „halluzinieren“ – also Inhalte generieren, die nicht auf den zugrunde liegenden Trainingsdaten basieren. Diese Halluzinationen können zu Fehlinformationen führen und das Vertrauen in KI-Systeme mindern. In diesem Beitrag werfen wir einen Blick darauf, warum solche Fehler auftreten und welche Maßnahmen ergriffen werden, um sie zu minimieren.
Ursachen von Halluzinationen in KI
Halluzinationen in KI entstehen, wenn Modelle beginnen, Daten zu erfinden oder Informationen zu kombinieren, die in ihren Trainingsdaten nicht existieren. Dies kann aus verschiedenen Gründen geschehen:
- Fehlende oder unzureichende Trainingsdaten: Wenn bestimmte Informationen in den Trainingsdaten fehlen, kann das Modell Lücken mit erfundenen Daten füllen.
- Übermäßige Kreativität der Modelle: Einige KI-Modelle neigen dazu, kreative Lösungen zu finden, was in kreativen Kontexten nützlich sein kann, aber problematisch wird, wenn präzise und faktenbasierte Informationen erforderlich sind.
In kreativen Kontexten mag diese Eigenschaft der KI nützlich sein, doch in Szenarien, in denen es auf Genauigkeit und Zuverlässigkeit ankommt, kann sie problematisch werden. Insbesondere in Bereichen wie der Medizin oder der Bildung, wo verlässliche Informationen entscheidend sind, müssen solche Halluzinationen unbedingt vermieden werden. Um diese Herausforderung zu bewältigen, hat Microsoft eine Reihe von Tools entwickelt, die darauf abzielen, die Verbreitung substanzloser Informationen durch KI zu minimieren.
Microsoft bietet Tools gegen hallizinierende KI an
Um die Verbreitung substanzloser Inhalte durch KI zu minimieren, hat Microsoft eine Reihe fortschrittlicher Tools entwickelt. Diese basieren auf den umfangreichen Erfahrungen aus der Entwicklung eigener KI-Produkte wie Microsoft Copilot.
Ein Schlüsselansatz ist die „Retrieval Augmented Generation“ (RAG), eine Technik, die KI-Modelle mit aktuellen und verlässlichen Daten speist, ohne dass ein komplettes Neutraining erforderlich ist. Die Ingenieur*innen von Microsoft haben Copilot mit Bing-Suchdaten und anderen relevanten Informationen erweitert, um die Genauigkeit und Relevanz der Ergebnisse zu verbessern.
Durch diese Kombination aus Daten und Technologie können die generierten Inhalte fundierter und zuverlässiger gestaltet werden. Nutzer*innen haben zudem die Möglichkeit, die Herkunft der Informationen nachzuvollziehen, was das Vertrauen in die KI-Systeme stärkt.
Sarah Bird betont: „Das Modell ist hervorragend darin, Informationen zu verarbeiten, aber die Daten sollten die Quelle der Antworten sein. Daher war unser erster Schritt, dem Modell frische und genaue Daten zur Verfügung zu stellen.“
Um diesen Ansatz weiter auszubauen und die Zuverlässigkeit von KI-Anwendungen noch stärker zu gewährleisten, hat Microsoft zusätzliche Tools und Funktionen entwickelt. Diese erweiterten Lösungen unterstützen Unternehmen dabei, ihre KI-Modelle sicher und effizient zu nutzen.
Microsoft bietet seinen Kunden nun verschiedene Tools, um die Sicherheit und Effizienz ihrer generativen KI-Anwendungen zu verbessern. Die „On Your Data“-Funktion im Azure OpenAI Service ermöglicht es Unternehmen, ihre KI-Modelle mit eigenen Daten in einer sicheren Umgebung zu betreiben. Weitere Azure AI-Tools unterstützen die Absicherung von KI-Anwendungen über den gesamten Lebenszyklus und ermöglichen es, die Sicherheit anhand vordefinierter Kennzahlen zu messen.
Zusätzlich hat Microsoft ein Echtzeit-Tool entwickelt, das substanzielle Inhalte in Anwendungen erkennt, die auf Unternehmensdaten zugreifen. Dieses Tool verbessert die Leistung von Chat-Assistenten und Dokumentenzusammenfassungen, indem es Antworten anhand von Quelldokumenten bewertet. Microsoft arbeitet außerdem an einer Funktion, die in Echtzeit fehlerhafte Instanzen erkennt und automatisch durch verlässliche Daten korrigiert.
Ken Archer, Principal Product Manager Responsible AI bei Microsoft, unterstreicht die Bedeutung dieser Entwicklungen, um an der Spitze der generativen KI zu bleiben und gleichzeitig sicherere und zuverlässigere Produkte für Kunden bereitzustellen.
Forscher*innen wie Ece Kamar, die Leiterin des AI Frontiers Lab bei Microsoft Research, tragen entscheidend dazu bei, diese Ziele zu erreichen. Sie stellt die zentrale Frage: „Warum neigen KI-Sprachmodelle überhaupt zu Halluzinationen?“ und ergänzt: „Gibt es Möglichkeiten, tiefere Einblicke in die Funktionsweise der Modelle zu gewinnen, um den genauen Moment des Halluzinierens zu identifizieren?“ Diese Fragen werden aus einer wissenschaftlichen Perspektive betrachtet, denn nur durch das Verständnis der Ursachen können neue Architekturen und Modelle entwickelt werden, die solche Fehler vermeiden.
Kamar weist darauf hin, dass große Sprachmodelle (LLMs) besonders dann anfällig für Halluzinationen sind, wenn die benötigten Fakten in den Trainingsdaten aus dem Internet fehlen oder nur unzureichend vorhanden sind. Aus diesem Grund ist die Forschung zur Aufmerksamkeitslenkung der Modelle ein entscheidender Schritt, um die Mechanismen hinter substanzlosen Inhalten besser zu verstehen und ihre Auswirkungen zu minimieren.
„Da KI-Systeme zunehmend in kritischen Aufgaben und beim Austausch von Informationen eingesetzt werden, müssen wir alle potenziellen Risiken sehr ernst nehmen“, betont Kamar. „Unser Ziel ist es, KI-Systeme zu entwickeln, die einen positiven Beitrag für die Gesellschaft leisten.“