1. Wie die Google AI erkennt, welcher Text auf der Seite zählt
Seit einiger Zeit erlaubt Google das Verlinken auf konkrete Textstellen innerhalb einer Webseite. Diese sogenannten Text Fragments (sichtbar z. B. durch die URL-Erweiterung #:~:text=
) markieren passgenaue Inhalte, die Google als besonders relevant für bestimmte Suchanfragen identifiziert hat.
Was früher primär dem Nutzererlebnis diente – etwa in Featured Snippets oder bei Deep Links in der Suche – wird nun zur strategischen Grundlage für die Antwortauswahl und Sichtbarkeit in Google AI Overviews und AI Mode.

Was sind Text Fragments – und wie setzt Google sie ein?
Google nutzt Text Fragments (auch bekannt als Text-Fragment-Links oder Scroll to Text Fragment) seit 2020 in der Websuche. Die Technik wurde mit Chrome 80 eingeführt und erlaubt es, gezielt auf bestimmte Textstellen innerhalb einer Seite zu verlinken. Bereits 2018 war eine ähnliche Funktion für AMP-Seiten aktiv, ab Juni 2020 wurde sie auf alle Webseiten ausgeweitet – sofern der Browser sie unterstützt (z. B. Google Chrome).
Typischer Anwendungsfall: Beim Klick auf ein Featured Snippet wird die gesamte Zielseite geöffnet, und der relevante Textabschnitt wird automatisch angesteuert und im Browser hervorgehoben – erkennbar an der URL-Erweiterung #:~:text=
.
Neu ist: Google nutzt diese Technologie jetzt auch intern – in AI Overviews und AI Mode – um relevante Textstellen nicht nur zu verlinken, sondern inhaltlich zu erkennen und systematisch auszuwerten. Die Text Fragments dienen dabei als semantische Wegweiser im Index, mit deren Hilfe Google dutzende Treffer on the fly scannen kann, um die besten Quellen für die KI-Antwort auszuwählen. Nur so wird die Query-Fan-Out-Technik möglich, bei der oft über 50 oder 100 potenzielle Treffer in die Auswahl einbezogen werden – ohne tiefes Crawling, aber mit semantischer Präzision.
2. Der Trick: Statt crawlen → fragmentieren
Im Gegensatz zu aufwendigen Retrieval-Mechanismen wie bei ChatGPT oder Claude nutzt Google einen Low-Cost-Weg zur Antwortgenerierung:
- Nach dem Query Fan-Out (Erzeugung synthetischer Suchanfragen)
- prüft der AI Mode dutzende SERP-Ergebnisse
- extrahiert gezielt die markierten Text Fragments
- und baut daraus eine kohärente Antwort – sprachlich glattgezogen, aber inhaltlich stark verdichtet

#:~:text=
gezielt angesteuert.Dabei entfällt ein Großteil der „Deep Research“-Aufwände, wie man sie etwa bei LLM-Retrieval-Architekturen mit Vektorsuche, Caching und Dokumenten-Chaining findet. Stattdessen nutzt Google die eigene Infrastruktur als Semantik-Shortcut.
3. Die Wirkung: Turbo statt Tiefe
Diese Methode ersetzt keine echte Recherche – aber sie simuliert sie beeindruckend effizient. Google kann so auf Knopfdruck:
- während des Query Fan-Outs eine Vielzahl von Quellen oberflächenschnell screenen
- durch vorgefilterte Textstellen Relevanz signalisieren
- und in Sekunden eine „smarte“ Antwort liefern, die für viele Nutzer:innen ausreichend wirkt
Und das Beste (für Google): Die Arbeit hat die Google-Suche bereits erledigt. Die Text Fragment-Markierungen sind das Produkt jahrelanger Snippet-Optimierung – und werden nun einfach neu verwertet.
4. Fazit: Recycelte Relevanz als strategischer Vorteil
Was wie Hightech wirkt, ist in Wahrheit ein gezielter Mechanismus für Antwortbildung – und damit ein Hebel für Sichtbarkeit. Google nutzt mit Text Fragments eine vorhandene semantische Ressource aus dem Suchsystem, um die Antwortqualität im AI Mode massiv zu beschleunigen – und gleichzeitig Rechenkosten zu minimieren.
Während andere LLMs tief tauchen (und teuer rechnen), setzt Google auf präzise Fragmente mit maximalem ROI.
„Google macht kein Deep Research. Google macht Deep Reuse.“