Schluss mit Halluzinationen: Wie RAG die Qualität von KI-Ergebnissen verbessert
24. März 2025 / Manuel Blümel
Large Language Models (LLMs) sind fortschrittliche KI-Systeme, die mit umfangreichen Datensätzen trainiert werden, um menschliche Sprache zu verstehen und zu generieren. Ihr Funktionsspektrum ist beeindruckend vielfältig – sie analysieren komplexe Texte, erstellen maßgeschneiderte Inhalte und generieren sogar funktionierenden Code.
Im E-Commerce haben sich LLMs bereits als wertvolle Werkzeuge etabliert. Unternehmen nutzen sie zur effizienten Erstellung ansprechender Produktbeschreibungen, zur Optimierung interner Arbeitsabläufe und zur Automatisierung der Kundenkommunikation.
Allerdings zeigen diese Systeme auch charakteristische Schwächen. Sie neigen zu Halluzinationen, arbeiten mit teilweise veralteten Informationen und stoßen bei Domänenexpertise an ihre Grenzen. Die Retrieval Augmented Generation (RAG) bietet hier einen effektiven Lösungsansatz.
LLMs – Produktivitätshebel der heutigen Zeit
Zahlreiche Unternehmen setzen heute auf KI-Sprachmodelle, um ihre Effizienz zu steigern und automatisierte Services anzubieten:
Use Cases
Die Washington Post setzt Heliograf zur automatisierten Content-Erstellung ein, das je nach Standort personalisierte Inhalte liefert
Der Drogeriemarkt dm optimiert mit dem internen KI-Chatbot dmGPT Arbeitsprozesse der Mitarbeitenden
Der Zalando Assistant bietet Kund:innen eine personalisierte Modeberatung und
Neben diesen erfolgreichen Beispielen, kann insbesondere die Automatisierung von Arbeitsprozessen im After-Sales-Bereich, zu erheblichen Kosten- und Zeiteinsparungen sowie einer verbesserten Nutzererfahrung führen. Die Relevanz, diese Prozesse zeitnah, effizient und qualitativ im Sinne des Kunden abzuwickeln, wird insbesondere im Aftermarket Service Report von Deloitte nochmal deutlich: Der Servicebereich ist der Stabilisator für Umsatz und Gewinn in turbulenten Zeiten.
Die Grenzen der Automatisierung: Warum LLMs nicht immer zuverlässig sind
Der KI Markt wird von diversen Anbietern bedient – von vielseitigen Modellen wie OpenAI (ChatGPT) und Google (Gemini) bis hin zu spezialisierten Lösungen wie Google Translate API oder Microsoft Copilot. Trotz dieser Vielfalt an kommerziellen Optionen stehen Unternehmen bei der Implementierung vor vielen Herausforderungen, besonders in geschäftskritischen Anwendungsbereichen.
Ein zentrales Problem sind sogenannte »Halluzinationen«, bei denen die Modelle falsche oder irreführende Informationen generieren – ein Risiko, das für Unternehmensentscheidungen oder Kundenkommunikation inakzeptabel sein kann. Die Qualität der generierten Informationen entspricht zudem nicht immer den Erwartungen, besonders wenn es um Spezialwissen, vertrauliche Unternehmensdaten oder aktuelle Entwicklungen geht, die nicht im Trainingsdatensatz enthalten sind.
Traditionelle Ansätze zur Verbesserung wie Pre-Training und Fine-Tuning ermöglichen zwar eine thematische Spezialisierung, erfordern jedoch große domänenspezifische Datenmengen, erhebliche Rechenressourcen und regelmäßige Aktualisierungen. Zusätzlich besteht ein Risiko des katastrophalen Vergessens, wobei das Potenzial eines LLM durch Fine-Tuning eingeschränkt werden kann. Dabei werden zuvor erworbene Grundkenntnisse und Konzepte durch neuere Informationen überschrieben, was zu einem Verlust der Gesamtleistung oder Genauigkeit bei der Bearbeitung von Aufgaben führt, die ein breites Verständnis verschiedener Themen erfordern. Dies macht LLMs für viele Unternehmen kostspielig und aufwändig in der Umsetzung.
In diesem Kontext bietet Retrieval Augmented Generation (RAG) einen optimalen Ausgleich zwischen Leistungsfähigkeit und Aufwandskontrolle. RAG kombiniert die Generierungsfähigkeiten von LLMs mit gezieltem Informationsabruf aus vertrauenswürdigen, unternehmenseigenen Quellen und adressiert damit die kritischsten Schwachstellen herkömmlicher LLM-Implementierungen – ohne die Notwendigkeit für aufwändiges Neutraining der Grundmodelle.
Fine-Tuning war gestern, RAG ist heute
Retrieval Augmented Generation (RAG) ist eine modulare Technologie, die die Fähigkeiten von Semantic Search und externer Wissensbasen kombiniert, um als Erweiterung bestehender LLM-Systeme zu fungieren. RAG unterstützt vortrainierte LLMs, indem es relevanten Kontext bereitstellt, damit präzisere und faktisch korrekte Antworten generiert werden können. Dies geschieht durch die Einbindung zusätzlicher Daten aus externen Quellen oder Wissensdatenbanken über das RAG-System. Oft wird RAG mithilfe von Semantic Search realisiert, um den Prozess der Dokumentensuche zu optimieren. Die semantische Suche stellt die relevantesten Daten bereit, während RAG die Ausgabe des Sprachmodells mit den aktuellen Informationen anreichert. Diese Synergie kann zu einer unvergleichlichen Präzision bei KI-gestützten Antworten führen. So kann für spezialisierte Anwendungsfälle relevantes Wissen zur Verfügung gestellt werden, das nicht im Trainingsdatensatz des LLM enthalten ist oder aktueller ist als dessen Wissensbasis.
Workflow eines Retrieval Augmented Generation (RAG) Systems
Wenn Nutzer:innen eine Anfrage an das LLM stellen, sorgt RAG dafür, dass relevante Informationen abgerufen (Retrieve), der Prompt mit diesen Informationen erweitert (Augmented) und schließlich die Antwort mit dem LLM generiert (Generation) wird.
RAG verbessert somit die Genauigkeit, Aktualität und Zuverlässigkeit von LLM-Antworten, insbesondere bei domänenspezifischen oder sich schnell ändernden Informationen. Die Technologie verbindet die Generierungskraft von LLMs mit gezieltem Informationsabruf aus unternehmenseigenen Quellen. Dadurch erschließen sich vielfältige Einsatzmöglichkeiten:
Kontextbasierte Chatbots
Dialogsysteme, die auf Nutzeranfragen mit präzisen, quellengestützten Antworten reagieren und dabei Kontext über mehrere Interaktionen hinweg berücksichtigen können.
Wissensmanagement-Systeme
Zentrale Plattformen, die unternehmensinterne Informationen aus verschiedenen Quellen (Dokumentationen, Wikis, E-Mails, Präsentationen) zugänglich machen und in natürlicher Sprache beantworten.
Content-Erstellung
Unterstützung bei der Texterstellung durch automatische Recherche, Faktenprüfung und Quellenangaben, was die Qualität und Glaubwürdigkeit der Inhalte erhöht.
Kundenservice-Automation
Systeme, die Kundenanfragen personalisiert beantworten können, indem sie auf Produktdatenbanken, Kundenhistorie und Supportdokumentationen zugreifen.
Im geschäftskritischen Einsatz bietet RAG entscheidende Vorteile gegenüber einer Nutzung von LLMs ohne diesen Ansatz. Es sorgt für höhere Genauigkeit und Zuverlässigkeit durch deutliche Reduzierung von Halluzinationen und faktischen Fehlern, da auf verifizierte Quellen zurückgegriffen wird, statt sich ausschließlich auf das trainierte Wissen des Modells zu verlassen. Die Aktualität der Informationen ist gewährleistet, weil die Wissensbasis kontinuierlich aktualisiert werden kann, ohne aufwändiges Neutraining des Grundmodells.
Die Transparenz und Nachvollziehbarkeit wird durch die Möglichkeit von Quellenangaben erhöht, was die Überprüfbarkeit verbessert und das Vertrauen in KI-Systeme fördert – ein besonders wichtiger Aspekt für geschäftskritische Anwendungen. Zudem ermöglicht RAG eine Personalisierung durch maßgeschneiderte Antworten auf Basis nutzerspezifischer Daten, was vor allem im Kundenservice und bei internen Supportanfragen einen echten Mehrwert bietet.
Vorteile von RAG
Höhere Genauigkeit und Zuverlässigkeit
Deutliche Reduzierung von Halluzinationen und faktischen Fehlern durch den Rückgriff auf verifizierte Quellen, anstatt sich ausschließlich auf das trainierte Wissen des Modells zu verlassen.
Aktualität der Informationen
Möglichkeit, stets mit den neuesten Informationen zu arbeiten, da die Wissensbasis kontinuierlich aktualisiert werden kann, ohne dass ein aufwändiges Neutraining des Grundmodells erforderlich ist.
Transparenz und Nachvollziehbarkeit
Generierte Antworten können mit Quellenangaben versehen werden, was die Überprüfbarkeit erhöht und Vertrauen in KI-Systeme fördert – besonders wichtig für geschäftskritische Anwendungen.
Personalisierung
Fähigkeit, maßgeschneiderte Antworten auf Basis nutzerspezifischer Daten zu generieren, was besonders im Kundenservice und bei internen Supportanfragen einen Mehrwert bietet.
RAG erschließt neue Wege, um LLMs auf Bedürfnisse zuzuschneiden und ihr volles Potenzial zu entfalten. Mit den flexiblen Anwendungsoptionen von RAG, können maßgeschneiderte Lösungen entwickelt werden, die perfekt auf LLM-Use Cases zugeschnitten sind. Die Integration eines RAG-Systems schafft signifikanten Mehrwert, der die Investition lohnenswert macht.
Service
AI Semantic Search
Mithilfe der semantischen Suche verbessern wir die Qualität und Relevanz Ihrer Suchergebnisse, sodass Nutzer:innen gezielt finden, wonach sie suchen.
Service
Generative AI & Machine Learning
Generative KI und ML entfesseln wertvolle Ressourcen und lenken den Fokus auf Arbeit, die echten Mehrwert bringt.