LightRAG ist der Gegenentwurf zum teuren GraphRAG von Microsoft — und die radikale Demokratisierung von Wissensgrafen, die vor kurzem noch ein exklusives Tool für Konzerne mit Millionen-Budgets waren. Diese Episode fährt die gesamte Entwicklung in einem Rutsch ab: vom kaputten klassischen RAG über die brillante, aber unbezahlbare GraphRAG-Lösung bis hin zum Hongkonger Durchbruch, der alles umstürzt.
Der Ausgangspunkt ist die fundamentale Schwäche des klassischen „naive“ RAG. Das System häckselt Dokumente in Chunks, übersetzt sie in Vektoren und sucht über Cosine-Similarity. Bei einfachen Stichwortfragen funktioniert das, aber sobald mehrere Kausalitätsstufen verknüpft werden müssen — „wie beeinflusst Regulation X indirekt den Bausektor Y“ — bricht das System zusammen. Der Begriff dafür: fehlendes Multi-Hop-Reasoning.
Microsofts GraphRAG war die erste ernsthafte Antwort. Vorab liest ein LLM den kompletten Text durch, extrahiert Entitäten (Personen, Firmen, Konzepte) als Knotenpunkte und dokumentiert die Beziehungen als Kanten — die berühmte Ermittler-Pinnwand mit roten Fäden. Fragen werden dann nicht mehr in einem Textchunk-Haufen gesucht, sondern über den Graphen traversiert.
Der Haken: GraphRAG ist absurd teuer. Das Paper-Test-Buch „A Christmas Carol“ (ca. 120 Seiten) kostet in der Indexierung rund 4 US-Dollar an reinen API-Gebühren. Hochgerechnet auf ISO-Zertifizierungen und Firmen-Wikis eines Mittelständlers: zehntausende Dollar. Und ein einzelner geänderter Absatz kann den kompletten Graphen zum Neuberechnen zwingen.
Genau hier schlägt LightRAG zu. Das Team der HKUDS (Data Science Lab der Universität Hongkong) hat eine Architektur entworfen, die auf inkrementellen Updates basiert — neues Wissen klingt sich nahtlos in den bestehenden Graphen ein, ohne dass alte Verbindungen neu berechnet werden müssen. Kein Teilabriss, kein Neuberechnen, nur ein sauber angehängter neuer Raum.
Das Herzstück ist das Dual-Level-Retrieval. Bei einer Frage schaltet das System auf zwei Ebenen gleichzeitig: Low-Level (Lupe auf den spezifischen Knotenpunkt plus direkte Nachbarn) und High-Level (Hubschrauberperspektive über die thematischen Cluster des Graphen). Der Hybrid-Modus kombiniert beides und liefert damit sowohl präzise Detailantworten als auch übergeordneten Kontext in einem Schritt.
Die Benchmark-Zahlen aus dem EMNLP-2025-Paper sind verheerend für die Konkurrenz. Im juristischen Bereich — dem ultimativen Multi-Hop-Stresstest — erreicht GraphRAG nur knapp die Hälfte der möglichen Punkte, während LightRAG bei fast 85 Prozent landet. Einzig im Mix-Datensatz hält GraphRAG bei „Comprehensiveness“ einen marginalen Vorsprung.
Aber der eigentliche Paukenschlag sind die Kosten. Die Indexierung desselben Dickens-Buchs kostet mit LightRAG nicht 4 Dollar, sondern 10 bis 15 Cent — eine Reduktion der Tokenkosten um den Faktor 6000. Das ist keine Optimierung, das ist eine Paradigmenverschiebung.
Und weil LightRAG so effizient ist, läuft es komplett lokal. Mit Ollama als lokalem LLM-Server, einem 32-Milliarden-Parameter-Modell (z.B. Qwen 2.5-32b) und einem spezialisierten Embedding-Modell wie Nomic-Embed-Text verlässt keine einzige Zeile deiner Dokumente mehr deinen Rechner. Für Verträge, Forschungsergebnisse oder private Notizen ist das ein Game-Changer.
Die Installation ist erstaunlich entwicklerfreundlich: pip install lightrag-hku für den Kern, pip install "lightrag-hku[api]" für den API-Server, oder ein Docker-Compose für die saubere Systemintegration. Das Repo liefert eine echte Web-UI, in der man den Wissensgraphen visuell erkunden kann, Zoom inklusive.
Die jüngste Erweiterung RAG-Anything reißt die Text-Grenze ein: Architekturpläne, Finanzgrafiken und sogar mathematische Formeln werden als Entitäten in den Graphen integriert und mit den textbasierten Knotenpunkten verwoben. Echte Multimodalität, ohne dass man erklärenden Text daneben braucht.
Zum Abschluss eine wichtige Abgrenzung: LightRAG ist der ultimative Bibliothekar — reaktiv, präzise, schnell. Agentic RAG hingegen ist der autonome Projektmanager, der Teilaufgaben plant und selbstständig Aktionen ausführt. Wer tiefes Dokumentenverständnis will, baut LightRAG. Wer autonome Workflows braucht, baut Agenten.
Die Episode schließt mit einem fast schon philosophischen Gedanken: In zwei Jahren, wenn Smartphone-Chips noch leistungsfähiger sind, könnte dein Handy lautlos und vollkommen lokal einen kontinuierlichen Wissensgrafen deines gesamten Lebens aufbauen — jede E-Mail, jede Notiz, jeder Artikel. Ein zweites Gehirn in der Hosentasche.