Wie Google wirklich seine KI-Antworten generiert
Reverse Engineering bei Google: Die KI-Antworten basieren auf einem komplexen 4-Stufen-System und 7 Ranking-Faktoren.
Die Websuche hat sich in den letzten Jahren rasant verändert. Google liefert nicht mehr nur Linklisten, sondern präsentiert oft eine KI-generierte Zusammenfassung, die sogenannte AI Overview. Doch wie entsteht eine solche Antwort im Detail? Eine technische Analyse der Architektur gibt Ingenieurinnen und Ingenieuren tiefe Einblicke in einen komplexen, mehrstufigen Prozess, der weit über ein einfaches Sprachmodell hinausgeht.
Inhaltsverzeichnis
- Blick in die Blackbox
- Stufe 1: Die Anfrage vorbereiten (Prepare)
- Stufe 2: Relevante Inhalte abrufen (Retrieve)
- Stufe 3: Bewertung und Rangfolge festlegen (Signal)
- Stufe 4: Generierung und Filterung (Serve)
- Der Paradigmenwechsel: Von SEO zu GEO
- Wie die KI "liest": Strategien für die Zitierfähigkeit
- Offpage-GEO: Die Macht der Nennungen
Blick in die Blackbox
Die Algorithmen von Google gelten seit jeher als eine der bestgehüteten technischen Black Boxes der Welt. Mit der Einführung der KI-generierten Zusammenfassungen in den Suchergebnissen, die direkt Antworten auf komplexe Fragen liefern, hat Google die Informationsbeschaffung grundlegend neu definiert. Für alle, die Inhalte im Netz erstellen, und ebenso für technisch interessierte Beobachterinnen und Beobachter stellt sich eine zentrale Frage: Welcher technische Prozess steckt dahinter?
Metehan Yesilyurt hat eine spannende Analyse der zugrundeliegenden Systemarchitektur veröffentlicht. Diese zeigt, dass die KI-Suche kein einzelnes, monolithisches System darstellt. Stattdessen handelt es sich um eine präzise getaktete, vierstufige Verarbeitungspipeline. Diese Architektur verdeutlicht: Die fertigen KI-Antworten entstehen nicht allein durch ein großes Sprachmodell (LLM). Sie sind das Endprodukt eines komplexen, vorgelagerten Rangfolgesystems, das über Jahrzehnte entwickelt wurde.
Der Weg von der Suchanfrage zur fertigen KI-Antwort gliedert sich in vier klar definierte Schritte. Jeder Schritt hat eine eigene Funktion und baut auf dem Ergebnis des vorherigen auf.
Stufe 1: Die Anfrage vorbereiten (Prepare)
Am Anfang steht die Verarbeitung der vom Nutzenden eingegebenen Suchanfrage. Das System muss die Eingabe zuerst verstehen und normalisieren. Ein wichtiger Mechanismus ist hierbei die Nutzung von Synonym-Konfigurationen. Sie stellen sicher, dass die Suche auch Ergebnisse für alternative oder zeitabhängige Begriffe findet.
Anschließend transformiert das System die ursprüngliche Eingabe in eine erweiterte, kontextualisierte Abfrage. Die Suchmaschine konzentriert sich dabei nicht nur auf die eingegebenen Schlüsselwörter. Sie versucht, den eigentlichen Kontext und die wahre Absicht hinter der Anfrage zu erfassen.
Stufe 2: Relevante Inhalte abrufen (Retrieve)
In dieser Phase beginnt das System mit der Auswahl relevanter Dokumente und Inhalte aus dem riesigen Index des Internets. Eine technische Vorarbeit leistet dabei das sogenannte Chunking: Die gesamten Dokumente werden in kleinere, leichter zu handhabende Segmente unterteilt. Diese Abschnitte umfassen oft bis zu 500 Tokens (kleinste Spracheinheiten) pro Segment und berücksichtigen dabei logische Abschnitte oder Überschriften des Originaltextes.
Besonders entscheidend ist der Einsatz des Gemini-Modells zur Inhaltsverarbeitung. Forschende beschreiben dies als „Gemini-Enhanced Document Understanding„. Dies bedeutet, die KI analysiert die Inhalte schon auf einer tiefen Ebene, um beispielsweise Tabellen oder Bilder zu verstehen und deren Layout in die Bewertung einzubeziehen.
Stufe 3: Bewertung und Rangfolge festlegen (Signal)
Dies ist technisch die detailreichste und aufschlussreichste Stufe. Hier werden die abgerufenen Dokumente mithilfe eines sogenannten Multi-Signal-Fusionssystems bewertet und in eine Rangfolge gebracht.
Die Analyse enthüllte sieben spezifische Ranking-Signale, die nun für Content-Ersteller und Entwicklerinnen von größter Relevanz sind:
- Base Ranking: Der Kern-Algorithmus, der für die Standard-Relevanz zuständig ist.
- Keyword Matching (BM25): Die traditionelle Übereinstimmung von Schlüsselwörtern. Sie spielt weiterhin eine Rolle, wird aber von neueren, semantischen Signalen überlagert.
- Embedding Adjustment (Gecko Score): Ein Score, der auf sogenannten Embeddings basiert und die semantische Ähnlichkeit misst. Hier geht es um das Verständnis der Bedeutung.
- Semantic Relevance (Jetstream): Ein komplexeres Cross-Attention-Modell zur noch nuancierteren semantischen Bewertung. Dieses Modell kann komplexere Zusammenhänge und sogar Verneinungen verarbeiten.
- Freshness: Die Aktualität des Dokuments.
- Predicted Conversion (PCTR/PCVR): Engagement-Signale, wie die vorhergesagte Klickrate.
- Boost/Bury: Manuelle Regeln, die bestimmte Inhalte befördern oder herabstufen.
Diese Signale verdeutlichen einen klaren Wandel: Die klassische Suchmaschinenoptimierung (SEO) entwickelt sich zur Generative-Engine-Optimierung (GEO). Semantische Tiefe und Kontext dominieren dabei die reine Keyword-Dichte.
Stufe 4: Generierung und Filterung (Serve)
In der letzten Stufe tritt das Große Sprachmodell (LLM) in Aktion, standardmäßig das effiziente Gemini 2.5 Flash.
Das entscheidende technische Merkmal ist hierbei die Grounded Synthesis (geerdete Synthese). Diese Technik zwingt das LLM dazu, die Antwort ausschließlich auf die im „Signal“-Schritt hoch gerankten und ausgewählten Inhalte zu stützen. Das Sprachmodell darf also keine eigenen Fakten erfinden.
Zusätzlich sorgen Custom Instructions (spezifische Anweisungen) für den gewünschten Stil der KI-Antwort. Am Ende verhindern Safety and Quality Gates die Ausgabe von Zusammenfassungen, wenn die Relevanz der gefundenen Inhalte mangelhaft ist oder bei sogenannten „adversarial queries„, also manipulativen oder irreführenden Anfragen.
Der Paradigmenwechsel: Von SEO zu GEO
Die technische Entwicklung hat direkte Auswirkungen auf die Art und Weise, wie Inhalte im Netz wahrgenommen werden. Mehrere Expertinnen und Experten diskutierten auf der GEO-Konferenz des Rheinwerk-Verlags über diesen Wandel. Der Kern des Themas: Wie bleibt man in Zeiten von KI sichtbar? Andre Alpar beschreibt es als einen Paradigmenwechsel in der Mensch-Maschine-Interaktion. Die Nutzung reiner Suchmaschinen geht zurück, während dialogorientierte KI-Systeme wie ChatGPT oder Perplexity stark wachsen.
Die Generative Engine Optimization (GEO) hat eine große Schnittmenge mit klassischem SEO, wird es aber in Teilen ablösen oder ergänzen. Die Interaktion verlagert sich von Keywords zu Prompts und die Messbarkeit verschiebt sich von Klicks zu Sichtbarkeit und Citations (Zitierungen).
Wie die KI „liest“: Strategien für die Zitierfähigkeit
Um von diesen Systemen zitiert zu werden, muss der Content speziell aufbereitet sein. Die Forschenden und Praktiker sind sich einig, dass die Art und Weise, wie die LLMs Texte „lesen“, eine Anpassung erfordert.
Olaf Kopp untermauerte die Wichtigkeit der Struktur mit empirischen Beobachtungen über das Leseverhalten von KI-Modellen: „KI-Modelle lesen oft nur den Anfang und das Ende des Textes.“ Auch lange Textblöcke – sogenannte Bleiwüsten – sind für KI schwer verarbeitbar, eine Beobachtung, der Theresa Zanker zustimmte. Texte sollten daher spezialisiert sein und eine Länge von 1200 bis 1600 Wörtern nicht überschreiten, um einen Kontextverlust zu vermeiden.
Malte Landwehr lieferte eine Checkliste zur Steigerung der Zitierfähigkeit:
- Listen, Top-Listen, FAQs und Tabellen eignen sich besonders gut.
- Eine korrekte Überschriften-Struktur (nur eine H1, dann H2, H3 usw.) ist notwendig.
- Kurze Zusammenfassungen über längeren Texten sind wichtig.
Zudem ist die Qualität entscheidend. Wer nur wiederholt, was Hunderte andere auch sagen, wird von der KI ignoriert. Spezialisierte, einzigartige Inhalte sind besser. Olaf Kopp und Theresa Zanker betonen, dass Vertrauen (Trust) durch Quellen, Zitate, First-Hand-Content und aktuelle Inhalte aufgebaut werden muss.
Offpage-GEO: Die Macht der Nennungen
Die Strategie außerhalb der eigenen Website, die sogenannte Offpage-Strategie, hat sich ebenfalls verschoben. Matthäus Michalik betonte, dass es nicht primär um Links, sondern um Citations und Mentions (Nennungen) geht. Das Ziel ist es, in der KI-Antwort als Marke genannt und indirekt zitiert zu werden sowie das allgemeine Sentiment (die Wahrnehmung) zu verbessern.
Dies geschieht durch das gezielte Beeinflussen bestehender Quellen und das Schaffen neuer, relevanter Quellen, zum Beispiel durch Mention Outreach (gezieltes Ansprechen von Publishern) oder Digitale PR. Stärkere Domains und Marken werden generell häufiger zitiert.
Ein Beitrag von: