Was passiert eigentlich im Inneren eines großen Sprachmodells, wenn jemand eine Frage stellt? Und was bedeutet das für Sichtbarkeit und Verlinkung in der KI-Suche?
Dieser Artikel analysiert einen geleakten Systemprompt von Claude 4. Er zeigt detailliert, wie das Modell entscheidet, wann es sucht, welche Tools es nutzt und unter welchen Bedingungen Inhalte genannt oder sogar verlinkt werden. Für SEOs ist das besonders relevant, weil sich daraus erstmals nachvollziehbar ableiten lässt, wie Sichtbarkeit in einem LLM funktioniert – und wie sich dieses Verhalten von klassischen Suchmaschinen wie Google unterscheidet.
Ein häufig übersehener Punkt in der SEO-Diskussion rund um KI ist die Aktivierung der Websuche. Sie gehört nicht zum Standardverhalten des Sprachmodells, sondern wird nur dann eingesetzt, wenn das interne Wissen nicht ausreicht. Genau das zeigt der Claude-Leak sehr deutlich. Für die SEO-Praxis bedeutet das: Nur wenn die Suche tatsächlich aktiviert wird, gibt es eine realistische Chance auf Verlinkung und echte Klicks.
1. Hintergrund: Der Claude-Systemprompt-Leak
Anthropic hat offiziell einige Systemprompt-Details auf seiner Website veröffentlicht, etwa in den „Claude System Prompt Release Notes“ (hier abrufbar). Die dort bereitgestellte Version wirkt jedoch deutlich komprimierter. Der jetzt diskutierte Prompt stammt hingegen aus einem Leak, der von @elder_plinius am 22. Mai 2025 auf X (ehemals Twitter) geteilt wurde (Link) und ist deutlich ausführlicher. Kommentare in der Community weisen daher zu Recht darauf hin, dass es sich technisch nicht um einen klassischen Leak handelt, inhaltlich aber sehr wohl um eine bisher nicht offiziell veröffentlichte Tiefenfassung.
Claude ist der Hauptassistent von Anthropic (USA, San Francisco) und wird unter anderem von Amazon und Google finanziert. Der geleakte Prompt liefert tiefe Einblicke in die internen Steuerungsmechanismen, Sicherheitslogiken und die Art, wie Claude mit Suchanfragen, Informationen und Quellen umgeht.
2. Was steht im Prompt?
Der Claude-Systemprompt ist eine hochformalisierte Verhaltensbeschreibung des Modells. Er umfasst:
- Produkterkennung und -wissen (Claude Sonnet 4)
- ethische Leitlinien (Kinder, Selbstschutz, Copyright, Missbrauch)
- Tonalität und Interaktion (empathisch, nie lobend, keine Listen bei Smalltalk)
- Anleitung zur Tool-Nutzung (z. B. Websuche, interne Tools)
- Kategorien zur Suchstrategie (siehe unten)
- Umgang mit Politik und Nachrichten (z. B. Donald Trump als präzise reglementierter Infoblock)
3. Schwerpunkt: Suche, Verlinkung & Tool-Strategie
Der Prompt legt explizit fest, wann und wie Claude Informationen sucht, ob es Tools wie Websuche einsetzt und wie Quellen verwendet werden. Dieser Teil ist für SEOs besonders relevant, weil er erklärt, wann Inhalte überhaupt sichtbar oder verlinkbar werden. Die zentrale Steuerlogik erfolgt über vier feste Such-Kategorien:
„Use the appropriate number of tool calls for different types of queries by following this decision tree: IF info about the query is stable (rarely changes and Claude knows the answer well) → never search…“
3.1 „never_search“
Fakten, die zeitlos oder stabil sind („Was ist die Hauptstadt von Frankreich?“)
→ Claude antwortet immer direkt, ohne jede Suche.
„Never search for queries about timeless info, fundamental concepts, or general knowledge that Claude can answer without searching.“
Solche Antworten enthalten in der Regel keinen klickbaren Link – denn Claude führt in diesen Fällen keine echte Websuche durch.
Sprachmodelle wie Claude oder ChatGPT verfügen nicht über einen klassischen Index wie Suchmaschinen.
URLs werden nicht als strukturierte, durchsuchbare Objekte gespeichert, sondern müssen – falls sie überhaupt erscheinen – aus Tokenwahrscheinlichkeiten rekonstruiert werden.
Dieser Vorgang ist fehleranfällig: Er kann zu ungenauen oder veralteten Adressen führen, die im schlimmsten Fall auf eine 404-Seite verweisen.
Deshalb vermeiden LLMs in der Regel Links in ihren Antworten, sofern sie nicht über Grounding abgesichert sind.
Nur durch eine aktive Suche lässt sich ein externer Index ansteuern – und eine verlässliche, aktuelle URL gezielt einbinden.
Warum KI-Sprachmodelle (LLMs) keine URLs speichern – und was das für SEO bedeutet
.
3.2 „do_not_search_but_offer“
Wissen ist vorhanden, aber Updates könnten relevant sein („Wie hoch ist die Einwohnerzahl von Deutschland?“)
→ Claude gibt eine Antwort aus dem Modell und bietet optional eine Suche an.
„If Claude can give a solid answer to the query without searching, but more recent information may help, always give the answer first and then offer to search.“
3.3 „single_search“
Schnelle Fakten mit hoher Aktualität („Wer hat gestern das Spiel gewonnen?“)
→ Claude führt eine gezielte Suche aus und antwortet.
„Use web_search or another relevant tool ONE time immediately. Often are simple factual queries needing current information that can be answered with a single authoritative source.“
3.4 „research“
Komplexe, mehrdimensionale Aufgaben („Erstelle eine Wettbewerbsanalyse zu Produkt XY“)
→ Claude nutzt 2–20 Tool-Calls, arbeitet iterativ und erstellt eine strukturierte Antwort mit Executive Summary.
„Any query requiring BOTH web and internal tools falls here and needs at least 3 tool calls… use 2–20 tool calls depending on query complexity.“
3.5 Quellenverlinkung und Copyright
- Claude darf niemals mehr als 20 aufeinanderfolgende Wörter in einem Chunk aus externen Quellen übernehmen
„CRITICAL: Always respect copyright by NEVER reproducing large 20+ word chunks of content from search results, to ensure legal compliance and avoid harming copyright holders.“
- Claude paraphrasiert, fasst zusammen oder gibt Quellen nur sinngemäß wieder
- Claude verweist nicht automatisch auf alle genutzten Quellen
4. Was SEOs daraus lernen können
4.1 Nur bei „single_search“ und „research“ tauchen Websites auf
Das bedeutet: Sichtbarkeit inklusive Verlinkung in Claude entsteht praktisch nur, wenn eine Anfrage nicht rein modellbasiert beantwortet werden kann.
4.2 Relevanz = Verlinkungswürdigkeit im Claude-Kontext
Ob Claude eine Quelle verlinkt, hängt zum einen von den klaren Such-Kategorien ab (z. B. „single_search“, „research“). Zum anderen ist entscheidend, ob der Content mit wenigen Wörtern paraphrasierbar ist – oder ob er etwas enthält, das Nutzer wirklich nur auf der verlinkten Seite bekommen. Hier entstehen Chancen für Inhalte, die über reine Fakten hinausgehen, z. B.:
- interaktive Tools (z. B. Konfiguratoren, Rechner, Planer)
- regelmäßig aktualisierte Tabellen, Preisvergleiche oder Datenbanken
- individuelle Erfahrungsberichte, Rezensionen oder Bewertungen
- regionale, persönliche oder nischenhafte Inhalte, die Claude nicht „auffüllen“ kann
- redaktionelle Expertise mit Bewertung, Kontext oder Problemlösungsansatz
Solche Inhalte erzeugen ein Angebot, auf das Nutzer nicht verzichten möchten – selbst wenn Claude eine kurze Zusammenfassung liefern kann.
Claude verlinkt nicht automatisch nach Authority oder Markenstärke. Zwar fordert der Prompt bei bestimmten Faktenfragen ausdrücklich eine „single authoritative source“ – wenn Claude die Auswahl hat, bevorzugt es dann oft vertrauenswürdige, etablierte Quellen. Das bedeutet jedoch nicht, dass bekannte Marken pauschal bevorzugt werden. Entscheidend bleibt der konkrete Informationswert und die Passung zur Frage – also, ob:
- die Quelle konkret zur Nutzerfrage passt
- der Inhalt nicht direkt und eindeutig im Modellwissen enthalten ist
- die Quelle kompakt zitierbar und klar strukturiert ist
Wie entscheidet Google Gemini, welche Webseiten oder Marken in den Antworten auftauchen?
.
4.3 SEO-Texte müssen Claude-lesbar sein
- klare Struktur
- kompakte, abschreibbare Antworten
- kein Schwafelstil
- keine redundanten Listings
AIO-Optimierung: Wie du Inhalte in Googles AI Overviews (KI-Übersicht) sichtbar machst
.
4.4 Der neue Wettbewerb: Wer liefert dem LLM zitierbare Fakten?
Wer in der Kategorie „research“ genannt werden will, muss als Quelle für Analysen oder Vergleichsdaten sichtbar sein (z. B. Preisvergleiche, Rankings, Studien, Reviews).
5. Übertragbarkeit auf ChatGPT und Gemini
5.1 ChatGPT (OpenAI)
- keine festen Prompt-Kategorien, aber ähnliche Suchpraxis im Web-Tool
- oft 1–3 parallele Suchanfragen, bei komplexeren Aufgaben gelegentlich auch tiefere Recherche-Schleifen – abhängig vom Prompt und der Nutzersituation
- auch hier ist Verlinkung kontextabhängig und sparsam
5.2 Gemini (Google)
- über das Sprachmodell selbst ist kaum etwas offiziell bekannt
- Quellenverlinkung erscheint in der Gemini-Chatoberfläche nur selten
- keine öffentlich dokumentierte Regel zur Auswahl oder Struktur von Zitaten
5.3 Gemeinsamkeiten
- alle LLMs verlinken nicht klassisch nach SEO-Logik, sondern nach semantischer Prompt-Passung
- Content muss zitierbar, klar und strukturiert sein
6. Bedeutung für die SEO-Arbeit
- SEO wird zur LLM-Zitieroptimierung: Wer nicht zitiert wird, verschwindet
- Klassische Rankings verlieren an Bedeutung in LLM-Interfaces
- Content braucht mehr Faktentiefe, Klarheit und Modularität
- Keyword-Denken reicht nicht mehr: es zählt, ob der Inhalt als Antwort passt – und ob er verlinkt wird
- Wenn dein Geschäftsmodell auf Klicks und Besuchern beruht, biete Content an, der nicht nur zitiert, sondern verlinkt wird.
Fazit: Der Claude-Leak ist ein seltener Blick in die Blackbox der KI-Suchwelt. Für SEOs zeigt er: Wer sichtbar bleiben will, muss nicht nur ranken – sondern zitierbar, modellnäh und strukturklar sein.
Promptgerecht. LLM-tauglich. Zitieroptimiert.