Warum KI-Sprachmodelle (LLMs) keine URLs speichern – und was das für SEO bedeutet

Zielgruppe: SEOs, Content-Profis und alle, die in Google-Logik denken

1. Einstieg: Zwei Systeme, zwei Prinzipien

Wenn wir über KI-Sprachmodelle oder Large Language Models (LLMs) sprechen, meinen wir eine neue Klasse von Systemen, die Sprache nicht über Indexe und Links verstehen – sondern über Bedeutung. In diesem Beitrag geht es exemplarisch um GPT, das Sprachmodell hinter ChatGPT.

Warum? Weil GPT aktuell das weltweit am weitesten verbreitete LLM ist – und weil seine Mechanik exemplarisch zeigt, wie anders diese Systeme funktionieren als klassische Suchmaschinen wie Google.

SEOs denken in Indexierung: URLs, Dokumente, Linkstruktur, Crawl-Tiefe, Sichtbarkeit in der Google-Suche.

LLMs (wie GPT) funktionieren komplett anders: Sie arbeiten intent-first, nicht index-first. Sie speichern keine Dokumente, keine URLs und keine Autoren. Sie speichern nur Bedeutungsmuster.

2. Was passiert mit einem Dokument im LLM?

Ein Dokument wird beim Training durch den semantischen Fleischwolf gedreht:

  • Es wird in Tokens zerlegt (z. B. „klimaschutz“, „heizungsgesetz“, „iphone“, „preisvergleich“)
  • Diese Tokens werden in Vektoren umgewandelt (mathematische Zahlenarrays mit bis zu 12.288 Dimensionen)
  • Diese Vektoren werden in Modellparameter eingespeist – ohne Text, Struktur oder Zuordnung

Das Modell merkt sich nicht das Dokument, sondern nur: Welche sprachlichen Muster darin vorkamen?
Autor, URL, Erscheinungsdatum? Geht verloren.

Beispiel: Ein Artikel über das neue iPhone, das Heizungsgesetz oder ein Bahn-Streik wird im Modell nicht als Text archiviert, sondern aufgelöst in sprachliche Muster. GPT erinnert sich nicht an die Seite, sondern an die typischen Begriffe, Meinungen und Formulierungen, die in vielen ähnlichen Artikeln vorkamen.

3. Einzeltext vs. kollektive Bedeutung

LLMs speichern keine Einzelartikel, sondern die statistisch wahrscheinlichste Bedeutung vieler ähnlicher Texte:

  • Der individuelle Beitrag geht unter
  • Übrig bleibt das repräsentative Muster: Wie klingt „ein typischer Erfahrungsbericht über ein Gravelbike für lange Strecken“?

Das heißt: Was du geschrieben hast, ist nicht als Objekt im Modell. Nur was du meintest – so, wie es viele andere auch meinen.

4. URLs sind keine Objekte im Modell

  • Links, IDs oder Domains werden nicht gespeichert
  • GPT kennt „raddiscount.de“ oder „gravelcollective.com“ nicht als Dateiorte, sondern als semantische Cluster: Produkttests, Bikepacking, Tubeless-Reifen, GPS-Touren
  • Es kennt keine echte URL-Struktur, keine ID wie /gravelbikes/testbericht-xyz/

Wenn GPT eine URL angibt:

  • stammt sie aus einem Sprachmuster
  • wurde sie nicht verifiziert
  • basiert sie nicht auf gespeicherter URL-Logik

Beispiel: GPT nennt gravelcollective.com/tests/open-upper-review, weil solche Slugs typisch wirken. Ob die Seite so existiert, weiß es nicht.

5. Das Modell besteht nur aus Zahlen

GPT speichert weder das Geburtsdatum von Franz Beckenbauer noch den Text der amerikanischen Verfassung. Diese Informationen werden nicht als feste Inhalte gespeichert, sondern bei jeder Antwort aus Wahrscheinlichkeiten rekonstruiert, basierend auf dem semantischen Raum, den das Modell aus Trainingsdaten gelernt hat.

Intern besteht ein LLM nur aus:

  • Token-IDs (diskrete Zahlen für Wortteile, z. B. „gravel“ = 44123)
  • Vektoren (Fließkommazahlen mit semantischer Bedeutung)
  • Matrizen & Gewichtungen (um die Bedeutung im Kontext zu verarbeiten)

Es gibt keine gespeicherten Zeichenfolgen, keine Wörter, keine Dateien. Nur Zahlen.

Die einzige sprachliche Schnittstelle ist der Tokenizer:

  • Er wandelt Text in Token-IDs um (z. B. „bike“ → 21984)
  • Und wieder zurück (21984 → „bike“)

6. Praktische Implikationen für SEOs

LLMs sind nicht unbedingt dein Freund. In vielen Fällen sind sie der Feind deines Geschäftsmodells – vor allem, wenn du auf Klicks und Seitenbesuche angewiesen bist. Als Marke, Anbieter oder Hersteller können sie ein Verbündeter sein, weil sie Produkte und Lösungen sprachlich einbetten. Als reiner Informationsanbieter eher nicht.

Gehe nicht davon aus: „Das wird schon irgendwie funktionieren wie bei Google oder Bing.“ – Diese Annahme ist falsch. Und dieser Artikel zeigt, warum.

  • Hoffe nicht auf Verlinkung: Das Modell ist nicht auf Verlinkung ausgelegt, nicht dafür konstruiert.
  • Wenn GPT eine URL nennt, ist sie meist musterbasiert erzeugt, nicht überprüft – und daher oft falsch.
  • Nur wenn ein externes Suchmodul angebunden ist (z. B. Bing), kann GPT echte URLs nachträglich ermitteln – das ist dann nicht GPT selbst, sondern ein Zusatzsystem.
  • Sichtbarkeit im Modell entsteht nicht über Links oder URLs, sondern über semantische Präsenz
  • Wer oft in ähnlichem Kontext erscheint, prägt den Raum
  • Ein Artikel kann wirken, auch wenn er nie genannt wird – weil seine Struktur oft genug reproduziert wurde

Content-Strategie für LLMs: Schreib so, dass du in Erinnerung bleibst – nicht durch Links, IDs oder Verzeichnisse, sondern durch eine wiedererkennbare sprachliche Signatur. Einzigartigkeit schlägt Pfadtiefe.

7. Fazit: Von Indexierung zu semantischer Gravitation

  • Google = index-first (wo ist der Inhalt?)
  • GPT = intent-first (was meinst du wahrscheinlich?)

LLMs speichern keine Inhalte – sie speichern Bedeutungswahrscheinlichkeiten.

Wer heute Inhalte schreibt, muss nicht nur ranken, sondern erkennbar sein als Bedeutungsmuster.
Nicht mehr verlinkt – sondern rekonstruiert.

Hanns Kronenberg

Über den Autor

Hanns Kronenberg ist SEO-Experte, KI-Analyst und Gründer von GPT Insights – einer Plattform zur Analyse von Nutzerverhalten im Dialog mit ChatGPT und anderen Large Language Models (LLMs).

Er studierte Betriebswirtschaftslehre in Münster mit den Schwerpunkten Marketing und Statistik – bei Heribert Meffert, einem der Vordenker des strategischen Marketings im deutschsprachigen Raum.

Geprägt durch die Meffert-Schule versteht er Marke als System: Jede relevante Unternehmensentscheidung – ob zur Produktgestaltung, Preisstrategie, Kommunikation oder zum Umgang mit gesellschaftlicher Verantwortung – beeinflusst die Positionierung einer Marke und ihre sprachliche Resonanz im digitalen Raum. GPT Insights macht genau diese Wirkung messbar.

Als Head of SEO einer der sichtbarsten Websites im deutschsprachigen Raum bringt er fundiertes Wissen über Suchmaschinenoptimierung, Nutzersignale und Content-Strategie mit.

Heute analysiert er, was Menschen Künstliche Intelligenz fragen – und was diese neuen Interfaces über Marken, Medien und gesellschaftliche Trends verraten.

Seine Schwerpunkte: Prompt Engineering, Plattformanalyse, semantische Auswertung realer GPT-Nutzung – und die Zukunft der digitalen Kommunikation.

Wir hören, was auf der Prompt-Straße der digitalen AI-Autobahn gesprochen wird – und analysieren es.