Zum Inhalt springen

AI Decoder

Unterschiede klassisches SEO vs AI SEO (GEO) in vier Ebenen erklärt

Was Google, ChatGPT und Gemini anders machen. Klar, kompakt, anwendbar.

1

Indexierung vs. Modellwissen

Leitfrage: Wer und was ist drin?

Klassisches SEO (Google)Crawling + Speicherung im Index.

AI SEO (LLMs)Verankerung im Modellwissen (komprimiert, gewichtet).

BesonderheitModellwissen = Index + impliziter Linkgraph + EEAT-Gewichtung.

Klassische Indexierung bei Google ist im Kern binär: Ein Dokument ist im Index oder nicht. Der Weg dorthin ist jedoch nicht neutral, sondern durchläuft einen Vorfilter. Inhalte, die Google als hilfreicher einschätzt, haben eine deutlich höhere Chance aufgenommen zu werden. Innerhalb des Index gilt dann wieder das Binärprinzip: gespeichert oder nicht, ohne weitere interne Wertung.

Modellwissen in einem LLM funktioniert anders. Es ist ein komprimiertes, gewichtetes Abbild von Information, das während des Trainings entsteht. Dort gibt es keine fest einprogrammierten Regeln und auch kein vorgegebenes Konzept wie E-E-A-T. Stattdessen entwickeln sich emergente Qualitätsmuster: Verknüpfungen, die in den Daten häufig auftreten und in hochwertigen Kontexten erscheinen, werden statistisch verstärkt. Muster, die selten sind oder in werbelastigen Kontexten vorkommen, verlieren dagegen an Gewicht und verschwinden im Rauschen.

Das Ergebnis ähnelt E-E-A-T, ist aber nicht identisch. Es gibt kein Regelwerk im Modell, sondern implizite Qualitätsbewertungen, die sich aus drei Faktoren ergeben:

  1. Pretraining: statistische Häufigkeit und Ko-Okkurrenzen.
  2. Kontextqualität: Fachquellen, neutrale Sprache und zitierfähige Strukturen verstärken das Signal.
  3. RLHF (Reinforcement Learning from Human Feedback): Menschen bewerten Antworten, wodurch hilfreiche Muster verstärkt und schwache Muster abgewertet werden.

Damit übernimmt RLHF im LLM-Training eine ähnliche Rolle wie Googles Quality Rater Guidelines. Google nutzt explizite Regeln, die Rater anwenden, zum Beispiel das EEAT-Handbuch. Ein LLM hat kein Handbuch, sondern menschliches Feedback, aus dem das Modell emergent Muster ableitet.

So entsteht im Modell ein implizites Qualitätsverständnis, das in Antworten wirkt, obwohl es nie programmiert wurde. Deshalb ist es für Marken wichtig, das Modellwissen gezielt zu analysieren und zu verstehen, wie eine Brand darin positioniert ist. Diese Positionierung wirkt in jeder Antwort als impliziter Qualitätsfilter und beeinflusst, ob eine Marke sichtbar wird oder im Rauschen verschwindet. Das gilt sowohl für Antworten, die ausschließlich aus Modellwissen generiert werden, als auch für die Auswahl und Gewichtung von Quellen, wenn eine Live-Websuche aktiviert ist.

Schlüsselbegriffe definiert:

Index (Google): Eine Datenbank, in der Google gecrawlte Webseiten speichert und organisiert, um sie bei Suchanfragen schnell abrufen zu können. Jeder Eintrag verweist auf ein spezifisches Dokument.

Modellwissen (LLM): Ein internes, komprimiertes Abbild von Informationen, das ein Sprachmodell durch Training entwickelt. Es besteht aus semantischen Mustern und gewichteten Verbindungen, nicht aus einzelnen Dokumenten.

Impliziter Linkgraph: LLMs speichern keine expliziten Links, lernen aber Autoritätsmuster und semantische Verbindungen durch Ko-Okkurrenzen. Die Verlinkungsautorität wandert als statistische Gewichtung ins Modellwissen ein.

Ko-Okkurrenzen: Gemeinsames Auftreten von Wörtern, Entitäten oder Quellen im gleichen Kontext. Häufige und konsistente Ko-Okkurrenzen verstärken semantische Verbindungen und tragen dazu bei, wie Bedeutung und Autorität im Modell entstehen.

EEAT-Gewichtung (emergent): Expertise, Autorität und Vertrauen entstehen emergent. Expertise und Autorität werden durch Häufigkeit und Kontextnähe abgebildet. Trust entsteht durch konsistente, zitierbare Sprache. Das entspricht funktional EEAT, ist aber kein programmiertes EEAT-System.

Monitoring: Modellwissen-Analyse API-Abfragen ohne Websuche (z. B. via rankscale.ai) zeigen, was im Modell verankert ist, unabhängig vom aktuellen Index.

2

Ranking vs. Wahrscheinlichkeit

Leitfrage: Nach welcher Logik wird ausgewählt?

Klassisches SEO (Google)Matching der Suchintention über Keywords, Links, EEAT.

AI SEO (LLMs)Direktes Verständnis der Intention durch Frames und Kontext.

BesonderheitRanking = Abrufwahrscheinlichkeit statt Listenplatz.

Im LLM entsteht kein Listenranking, sondern eine Wahrscheinlichkeit: Welche Tokens oder Passagen haben die höchste Chance, im Output zu erscheinen? Relevanz bleibt das Fundament, wird aber semantisch gemessen, nicht nur über Keyword-Deckung.

Schlüsselbegriffe definiert:

Suchintention: Das eigentliche Ziel oder die Absicht, die ein Nutzer mit seiner Suchanfrage verfolgt. Moderne Systeme versuchen, diese Intention zu erkennen, anstatt nur Keywords abzugleichen.

Frames: Der kontextuelle Rahmen, in dem eine Information präsentiert wird. LLMs erkennen Frames, um die Absicht hinter einer Anfrage zu verstehen.

Abrufwahrscheinlichkeit: Die statistische Wahrscheinlichkeit, mit der ein bestimmtes Konzept, eine Entität oder eine Textpassage aus dem Modellwissen generiert wird, basierend auf dem Prompt und dem Kontext.

Monitoring: Semantische AbdeckungPrüfen, wie oft die Marke/Aussagen in generierten Antworten ohne Websuche erscheinen (z.B. via rankscale.ai).

3

Re-Ranking vs. Grounding

Leitfrage: Wie wird die Antwort auf den neuesten Stand gebracht?

Klassisches SEO (Google)Twiddler, Nutzersignale, Freshness-Re-Ranking.

AI SEO (LLMs)Grounding (≈ Aktualität und Quellenanbindung) wird gegen Modellwissen gewichtet.

BesonderheitGrounding wirkt wie News/Discover: optional, nie allein entscheidend.

Das finale Re-Ranking im LLM entspricht Googles dynamische Ranking-Module (Twiddler) und Nutzersignalen. Grounding-Daten werden nicht ungefiltert übernommen, sondern gegen das Modellwissen gewichtet. Am Ende entscheidet das Modell selbst, was eingebaut wird.

Schlüsselbegriffe definiert:

Re-Ranking: Die Neusortierung einer initialen Ergebnisliste basierend auf Echtzeit-Signalen wie der Nutzerinteraktion oder aktuellen Ereignissen.

Grounding: Der Abgleich von Modellwissen mit externen, aktuellen Quellen (z.B. Live-Websuche), um die Faktizität und Aktualität einer Antwort zu verbessern.

Monitoring: Grounding-PerformanceAPI-Abfragen mit aktivierter Websuche (z.B. via rankscale.ai) analysieren, welche Quellen zitiert werden. Hinweis: Grounding ist konfigurationsabhängig und nicht Standard.

4

Universal Search vs. Blended Response

Leitfrage: Wie sieht die finale Antwortoberfläche aus?

Klassisches SEO (Google)Universal Search: Einbindung von Vertikalsuchen.

AI SEO (LLMs)Blended Response: Kombination von Modellwissen, Grounding und Modulen.

BesonderheitHybride Antwortoberflächen jenseits von 10 blauen Links.

Das Ergebnis ist eine hybride Oberfläche, jenseits der „10 blauen Links“ oder einer reinen Textantwort. LLMs kombinieren Text mit Zitaten, Bildern, Tabellen oder interaktiven Karten zu einer umfassenden Antwort.

Schlüsselbegriffe definiert:

Universal Search: Die Integration verschiedener Medientypen (Bilder, Videos, News) direkt in die traditionelle Liste der Web-Suchergebnisse.

Blended Response: Eine von einem LLM generierte Antwort, die Text, Informationen aus dem Grounding und interaktive Module zu einer einzigen, kohärenten Ausgabe kombiniert.

Hybride Antwortoberfläche: Eine Benutzeroberfläche, die klassische Elemente (wie Links) mit generativen Inhalten (wie Textzusammenfassungen, Karten, Tabellen) zu einer integrierten Nutzererfahrung verbindet.

Monitoring: SERP-Feature TrackingTracking der finalen Antwortoberfläche über eine GUI (z.B. in rankscale.ai), um zu sehen, in welchen Modulen (Zitate, Karten) man erscheint.

Glossar: Die wichtigsten Begriffe

  • GEO (Generative Engine Optimization)Strategische Optimierung von Inhalten, Marke und Daten, damit du in generativen Antworten sichtbar und korrekt genannt wirst, und zwar in AI Suchsystemen und LLMs wie Google AI Overviews, ChatGPT, Gemini, Copilot, Perplexity.
  • AI SEO (Artificial Intelligence Search Engine Optimization)Ist gleichbedeutend mit GEO. Der Begriff beschreibt die Optimierung für generative Antwortoberflächen und KI gestützte Suche, einschließlich Google AI Overviews.
  • AI Overviews (Google)Die generative Antwortschicht in Google Search. Teilmenge von GEO / AI SEO, nicht gleichbedeutend damit.
  • Klassisches SEODie Optimierung von Webseiten für die Sichtbarkeit in den Ergebnislisten von Websuchmaschinen wie Google und beruht auf Crawling, Indexierung und der Bewertung einzelner Dokumente nach Relevanz, Qualität und Nutzererfahrung.

Praxisleitfaden in drei Schritten

  • Modellwissen stärken: Durch klarer Markenführung, konsistenter Terminologie, Zitierungen und vertrauenswürdigen Quellen.
  • Zitierfähigkeit erhöhen: Mit präzisen Sätzen und kanonischen Seiten (d.h. einer zentralen, maßgeblichen Quelle pro Thema).
  • Grounding gewinnen: Mit frischen, vertrauenswürdigen Quellen und sauberer Struktur (im Grunde klassisches SEO).

Häufige Missverständnisse

  • Modellwissen ist nicht nur Index: Es enthält bereits Priorisierung, abgeleitet aus Mustern im Training. Häufig genutzte Formulierungen, typische Antwortstrukturen und stabile Wissensmuster werden vom Modell höher gewichtet und damit wahrscheinlicher ausgespielt.
  • Grounding ersetzt Modellwissen nicht: Es ergänzt das vorhandene Modellwissen durch neue Informationen und wird dabei im Verhältnis zum bestehenden Wissen neu gewichtet. Dadurch entscheidet das Modell, wie stark die frischen Daten das Gesamtbild verschieben dürfen und welche Anteile stabil bleiben.
  • Grounding ist nicht Standard: Der Einsatz hängt von der Konfiguration und der Situation ab. Wenn im Modell wenig Wissen vorhanden ist, etwa bei Nischenthemen oder lokalen Inhalten, wird stärker ergänzt. Bei etablierten Themen mit viel Trainingsmaterial tritt es dagegen in den Hintergrund.
  • Abrufwahrscheinlichkeit ist kein globaler Rang: Sie ist prompt- und kontextabhängig.
  • LLMs speichern keine URLs: Sie generieren sie Token für Token nach Wahrscheinlichkeiten, oft fehlerhaft, da URLs (wie Telefonnummern) exakt sein müssen, nicht nur wahrscheinlich.
  • LLMs folgen keinen 301-Weiterleitungen: Ein Domainumzug muss sprachlich im Web verankert werden, um einen Entitäten-Split zu vermeiden.
  • Klassische SEO-Tools sind für LLMs ungeeignet: Klassische Tools messen kleinteilige Keywords aus statischen Datenbanken. LLMs hingegen arbeiten mit Mustern und semantischen Clustern, die im Modellwissen bereits verdichtet sind. Diese übergeordnete Logik bleibt klassischen Tools verborgen.
  • Nutzererwartung und Rolle: Google agiert wie ein Bibliothekar, der ein allgemein hilfreiches Dokument zeigt. LLMs agieren wie ein Assistent oder Coach, der einen Text nur für den einzelnen Nutzer schreibt, zugeschnitten auf seinen persönlichen Kontext.
  • Suchvolumen Prompts: Neue Logik ersetzt alte SEO-Denkweise: In der Websuche konzentriert sich Nachfrage auf wenige Short und Mid Tail Keywords. In LLMs formulieren Menschen Aufgaben als längere Sätze. Schon ab fünf bis sechs Wörtern werden Prompts sehr variantenreich durch Wortreihenfolge, Synonyme und Zusatzkontext. So wiederholt sich ein einzelner Prompt selten und sein Volumen liegt oft nahe eins. Für Analysen zählt deshalb die Abdeckung von Intent Clustern, dominanten Frames und relevanten Segmenten und nicht die Häufigkeit einzelner Formulierungen.