Methodik der KI-Sichtbarkeit: Diagnose, Live-Messung, Strategie
Wie wir KI-Sichtbarkeit messen, planen und verbessern. Fünf Phasen, Live-Daten aus ChatGPT, Gemini und Perplexity, reproduzierbare Diagnose. Methodisch transparent.
Unsere Methodik: Wie wir KI-Sichtbarkeit messen, planen und verbessern
Live-Daten aus ChatGPT, Gemini, Perplexity und Google AIO. Direkte Auswertung Ihrer Domain. Kein Werbeversprechen, sondern reproduzierbare Diagnose.
Die hier beschriebene Methodik ist die fachliche Grundlage aller Analysen, Berichte und Beratungs-Programme von KBD KI-Beratung Deutschland UG (haftungsbeschränkt). Sie wurde aus über 60 dokumentierten Mandaten in Anwaltskanzleien, Steuerberatungs-Gesellschaften, Praxen, Online-Shops, B2B-SaaS-Unternehmen und Handwerks-Betrieben entwickelt und wird kontinuierlich an die aktuellen Algorithmen-Stände der KI-Plattformen angepasst.
1. Warum eine eigene Methodik notwendig ist
Klassische SEO-Methodiken arbeiten mit Ranking-Positionen, Keyword-Volumina und Backlink-Metriken. Diese Größen sind für die Sichtbarkeit in KI-Antwort-Systemen wie ChatGPT, Gemini, Perplexity und Google AIO unzureichend, weil KI-Systeme keine Trefferlisten ausgeben, sondern komprimierte Antworten erzeugen. In einer komprimierten Antwort gibt es keine Plätze 1 bis 10. Es gibt entweder eine Nennung Ihrer Marke oder es gibt keine Nennung. Diese Binarität verlangt eine eigene Mess-, Diagnose- und Optimierungs-Methodik.
Unsere Methodik beantwortet drei Kern-Fragen mit reproduzierbaren Verfahren: Erstens, ob Ihre Inhalte für KI-Plattformen technisch zugänglich, semantisch verständlich und faktisch verlässlich genug sind, um als Quelle in Frage zu kommen. Zweitens, ob Ihre Marke in Antworten zu branchen-typischen Anfragen tatsächlich genannt wird, und in welcher Häufigkeit, Tonalität und Kontext-Position. Drittens, welche konkreten Maßnahmen die Citation-Wahrscheinlichkeit am stärksten erhöhen und in welcher Reihenfolge diese umzusetzen sind, um den größten Sichtbarkeits-Effekt mit dem geringsten Ressourcen-Einsatz zu erzielen.
Eine wichtige methodische Festlegung: Wir messen Citation-Wahrscheinlichkeiten und Citation-Frequenzen, keine Garantien. KI-Plattformen treffen ihre Quellen-Auswahl algorithmisch, unter Berücksichtigung tausender Signale, von denen viele nicht öffentlich dokumentiert sind. Unsere Aufgabe ist es, die nachweislich relevanten Signale systematisch zu stärken und das Citation-Niveau über Zeit zu erhöhen.
2. Die fünf Methodik-Phasen im Überblick
Jedes Mandat durchläuft fünf klar abgegrenzte Phasen. Die Phasen bauen aufeinander auf und werden in einer festen Reihenfolge durchlaufen, weil eine spätere Phase auf den Ergebnissen der vorherigen aufsetzt. Wir kommunizieren am Anfang eines Mandats transparent, in welcher Phase wir uns befinden und welche Erkenntnisse die jeweilige Phase liefert.
Phase 1 — Diagnose: Vollständige Bestands-Aufnahme der technischen und inhaltlichen Sichtbarkeits-Voraussetzungen. Ergebnis: Diagnose-Bericht mit Score (0 bis 100), priorisierter Mängel-Liste und ersten Empfehlungen. Zeitrahmen: 5 bis 10 Werktage je nach Domain-Größe.
Phase 2 — Live-Messung: Standardisierte Prompt-Tests in ChatGPT (mit und ohne Browse-Modus), Perplexity, Gemini, Google AIO und Claude. Ergebnis: Live-Mess-Bericht mit Citation-Häufigkeit, Tonalität, Kontext-Position und Plattform-Verteilung. Zeitrahmen: 3 bis 5 Werktage. Diese Phase liefert die Live-Daten, die die methodische Grundlage aller weiteren Empfehlungen bilden.
Phase 3 — Strategie: Ableitung einer 12-Monats-Roadmap mit drei Schwerpunkt-Feldern: technische Sichtbarkeit (robots.txt, llms.txt, Schema.org, Crawl-Budget), inhaltliche Sichtbarkeit (Themen-Cluster, Citation-Ready-Content, Glossar, FAQ) und externe Sichtbarkeit (Pressearbeit, Verbands-Mitgliedschaften, Wikidata, Erwähnungen in Tertiär-Quellen). Zeitrahmen: 5 Werktage.
Phase 4 — Umsetzung: Begleitete Umsetzung der Roadmap im Drei-Wochen-Rhythmus mit klaren Liefergegenständen, Review-Sessions und Anpassungen bei algorithmischen Veränderungen der KI-Plattformen. Zeitrahmen: 6 bis 12 Monate je nach Programm-Stufe.
Phase 5 — Re-Messung: Vierteljährliche Wiederholung der Live-Messung aus Phase 2 mit identischen Prompt-Sets, um Citation-Entwicklung über Zeit nachzuweisen. Ergebnis: Tracking-Bericht mit Trend-Linien, Plattform-Vergleich und Branchen-Benchmark. Zeitrahmen: 5 Werktage je Quartal.
3. Phase 1 im Detail — Die Diagnose
Die Diagnose ist der Eintritts-Punkt jedes Mandats und gleichzeitig die methodische Grundlage aller späteren Phasen. Sie erfasst sieben Dimensionen, die sich aus 60 dokumentierten Mandaten als die statistisch relevantesten Sichtbarkeits-Faktoren herauskristallisiert haben.
3.1 Technische Crawl-Voraussetzungen
Wir prüfen die robots.txt-Datei auf explizite Erlaubnis der zwölf wichtigsten KI-Bot-Identifier (GPTBot, OAI-SearchBot, ChatGPT-User, Google-Extended, PerplexityBot, ClaudeBot, anthropic-ai, CCBot, Meta-ExternalAgent, cohere-ai, Applebot-Extended, Bytespider). Eine fehlende Erlaubnis ist die häufigste Ursache für niedrige Citation-Niveaus und in 78 Prozent der diagnostizierten Domains anzutreffen. Wir prüfen die llms.txt-Datei auf Existenz, Vollständigkeit und konforme Struktur nach dem llmstxt.org-Standard. Wir prüfen die XML-Sitemap auf Aktualität und KI-relevante Indexierungs-Hinweise. Wir prüfen Page-Speed, Core-Web-Vitals, Server-Response-Zeiten und SSL-Konfiguration als Crawl-Effizienz-Faktoren.
3.2 Schema.org-Markup-Bestand
Wir prüfen die Existenz und Vollständigkeit von Article-, FAQPage-, BreadcrumbList-, Organization-, WebSite- und WebPage-Schemas auf allen Kern-Seiten. Wir prüfen branchen-spezifische Schemas wie LegalService (Anwälte), AccountingService (Steuerberater), MedicalBusiness (Ärzte), Product und Offer (Online-Shops), SoftwareApplication (B2B-SaaS) und HomeAndConstructionBusiness (Handwerk). Wir prüfen Person-Schemas für Geschäftsführung und fachliche Autoren als E-E-A-T-Signal. Wir prüfen die Google-Rich-Results-Test-Konformität aller Schemas.
3.3 Inhaltliche Sichtbarkeits-Tiefe
Wir prüfen die Existenz von Themen-Cluster-Strukturen mit Pillar-Pages und ergänzenden Detail-Artikeln. Wir prüfen die durchschnittliche Wort-Tiefe der Kern-Themen-Seiten (Benchmark für KI-Sichtbarkeit: 4.000 bis 6.000 Wörter pro Pillar-Seite). Wir prüfen die Existenz von definierten Begriffs-Glossaren, FAQ-Sammlungen und vergleichenden Tabellen. Wir prüfen die Verlinkungs-Struktur zwischen verwandten Seiten und die Konsistenz der Fachsprache.
3.4 Externe Vertrauens-Signale
Wir prüfen Wikipedia-Erwähnungen, Wikidata-Einträge und Verbands-Mitgliedschaften. Wir prüfen Pressearbeit-Aktivität (Dichte und Reichweite redaktioneller Erwähnungen in den letzten 24 Monaten). Wir prüfen Bewertungs-Plattformen (Google, Trusted Shops, Branchen-Portale) auf Bewertungs-Anzahl, Durchschnitts-Bewertung und Antwort-Verhalten. Wir prüfen Backlink-Profile auf qualitative Vertrauens-Signale (.edu, .gov, redaktionelle Medien).
3.5 Wettbewerbs-Sichtbarkeit
Wir identifizieren die fünf wichtigsten Wettbewerber im selben Geschäfts-Feld und derselben geografischen Reichweite. Wir analysieren deren technische, inhaltliche und externe Sichtbarkeits-Voraussetzungen mit derselben Methodik wie für die eigene Domain. Wir vergleichen Citation-Niveaus in standardisierten Prompt-Tests. Wir leiten daraus Differenzierungs-Empfehlungen ab.
3.6 Conversion-Vorbereitung
Wir prüfen, ob die Domain auf Citation-induzierte Inbound-Anfragen vorbereitet ist: klare Service-Seiten, eindeutige Kontakt-Wege, niedrige Hürden für Erst-Gespräche, transparente Preis-Indikationen oder Pakete, Vertrauens-Elemente wie Referenzen, Auszeichnungen und Bewertungen.
3.7 Branchen-spezifische Compliance
Wir prüfen branchen-spezifische rechtliche Anforderungen (BORA für Anwälte, HWG für Ärzte, Steuerberatungs-Gesetz für Steuerberater, Heilmittelwerbe-Gesetz, DSGVO für alle, Telemediengesetz). Wir stellen sicher, dass alle Optimierungs-Empfehlungen mit der jeweiligen Berufs-Ordnung vereinbar sind.
4. Phase 2 im Detail — Die Live-Messung
Die Live-Messung ist das Herzstück unserer Methodik und gleichzeitig der häufigste Differenzierungs-Punkt gegenüber automatisierten Tool-Auswertungen. Tools liefern technische Audits. Wir liefern reproduzierbare Daten zur tatsächlichen Marken-Präsenz in KI-Antworten.
4.1 Prompt-Set-Design
Wir entwickeln pro Mandat ein standardisiertes Prompt-Set aus 25 bis 40 Prompts, das die typischen Such-Muster der Ziel-Käufer-Gruppe abbildet. Das Prompt-Set umfasst: Branchen-generische Prompts (zum Beispiel "Was muss ich bei einer Kündigungs-Schutz-Klage beachten?"), regionale Prompts (zum Beispiel "Bester Anwalt für Arbeitsrecht in Düsseldorf"), wettbewerber-vergleichende Prompts (zum Beispiel "Anwalts-Kanzlei X versus Anwalts-Kanzlei Y in Köln"), problem-spezifische Prompts und entscheidungs-vorbereitende Prompts.
4.2 Plattform-Abdeckung
Wir testen jeden Prompt in mindestens fünf Plattformen: ChatGPT (mit Web-Browse), ChatGPT (ohne Web-Browse, reines Modell-Wissen), Perplexity (Standard- und Pro-Modus), Gemini (mit aktivem Search-Grounding) und Google AIO (Search-Generative-Experience). Optional ergänzen wir Claude, You.com und Microsoft Copilot. Diese Plattform-Abdeckung ist deshalb wichtig, weil die Citation-Logiken zwischen den Plattformen erheblich variieren: Perplexity zitiert deutlich häufiger und expliziter als ChatGPT, während Gemini stärker als andere Plattformen auf Google-Knowledge-Graph-Einträge zurückgreift.
4.3 Wiederholungs-Logik und statistische Belastbarkeit
Jeder Prompt wird in jeder Plattform fünfmal ausgeführt, um plattform-internen Antwort-Variationen Rechnung zu tragen. Insgesamt entstehen pro Mandat zwischen 625 (25 Prompts × 5 Plattformen × 5 Wiederholungen) und 1.000 (40 × 5 × 5) Einzel-Antworten. Diese Mess-Tiefe stellt sicher, dass die Citation-Quoten statistisch belastbar sind und nicht von einzelnen Antwort-Variationen verzerrt werden.
4.4 Auswertungs-Dimensionen
Wir werten jede Antwort entlang von sechs Dimensionen aus. Erstens: Wurde die Marke namentlich genannt? Zweitens: Wurde eine konkrete URL oder ein Link auf die eigene Domain ausgegeben? Drittens: In welcher Tonalität (positiv, neutral, negativ) wurde die Marke genannt? Viertens: An welcher Position innerhalb der Antwort wurde die Marke genannt (Eröffnung, Haupt-Teil, Schluss-Empfehlung)? Fünftens: Welche Wettbewerber wurden gleichzeitig genannt und in welcher Reihenfolge? Sechstens: Welche Quellen-Belege hat die Plattform für die Nennung herangezogen?
4.5 Live-Mess-Bericht
Das Ergebnis der Live-Messung ist ein Bericht mit fünf Pflicht-Bestandteilen: Citation-Quote pro Plattform und im Plattform-Schnitt, Tonalitäts-Verteilung, Wettbewerbs-Vergleich, Themen-Cluster-Analyse (welche Themen werden häufiger zitiert), und einer Liste konkreter Quellen-Stellen, an denen die Plattformen die Marke ausgelesen haben. Dieser Bericht ist die methodische Grundlage aller späteren Optimierungs-Maßnahmen.
5. Phase 3 im Detail — Die Strategie
Auf Basis der Diagnose- und Live-Mess-Ergebnisse entwickeln wir eine 12-Monats-Sichtbarkeits-Strategie, die in drei Schwerpunkt-Felder gegliedert ist und die kausal wirksamsten Maßnahmen priorisiert.
5.1 Technische Sichtbarkeit
Erste Prioritäten sind in der Regel die Aktualisierung der robots.txt mit expliziter Erlaubnis aller relevanten KI-Bot-Identifier, die Erstellung oder Vervollständigung der llms.txt nach dem llmstxt.org-Standard, die vollständige Schema.org-Implementierung mit branchen-spezifischen Entity-Typen, die Optimierung der XML-Sitemap inklusive Image-Sitemap, und die Verbesserung der Server-Response-Zeiten unter 200 Millisekunden TTFB. Diese Maßnahmen sind innerhalb von 4 bis 6 Wochen umsetzbar und liefern oft die ersten messbaren Citation-Effekte.
5.2 Inhaltliche Sichtbarkeit
Inhaltliche Maßnahmen umfassen den Aufbau oder Ausbau von zwei bis fünf Themen-Cluster-Pillar-Pages (jeweils 4.000 bis 6.000 Wörter), die Ergänzung um 30 bis 60 unterstützende Detail-Artikel, die Erstellung eines Glossars mit 80 bis 200 fach-spezifischen Begriffs-Definitionen, die Erstellung einer FAQ-Sammlung mit 50 bis 100 Frage-Antwort-Paaren, und die strikte Vermeidung werblicher Tonalität zugunsten faktischer, definitorischer Klarheit. Diese Maßnahmen sind die mit dem höchsten Citation-Hebel und gleichzeitig die mit dem höchsten Ressourcen-Aufwand. Sie werden in einem 6- bis 12-monatigen Plan umgesetzt.
5.3 Externe Sichtbarkeit
Externe Maßnahmen umfassen die Anlage oder Pflege eines Wikidata-Eintrags, die Pflege oder Erstellung eines Wikipedia-Artikels (sofern Relevanz-Kriterien erfüllt sind), den Aufbau redaktioneller Erwähnungen in Branchen-Medien durch eine zwei-monatige Themen-Pitch-Routine, die Anlage und Pflege von Verbands-Mitgliedschaften und Branchen-Profilen, und den systematischen Aufbau qualitativer Bewertungen in den jeweils relevanten Bewertungs-Portalen.
6. Phase 4 im Detail — Die Umsetzung
Wir bieten drei Programm-Stufen für die Umsetzungs-Phase, die sich in Tiefe, Geschwindigkeit und Eigen-Anteil des Mandanten unterscheiden.
6.1 Programm-Stufe Basis
Sechs-Monats-Programm mit monatlichen Review-Sessions, Übergabe der Strategie-Roadmap, Bereitstellung von Vorlagen und Anleitungen für die eigenständige Umsetzung. Geeignet für Unternehmen mit eigenen redaktionellen und technischen Ressourcen. Investitions-Rahmen: 6.000 bis 12.000 Euro je nach Domain-Komplexität.
6.2 Programm-Stufe Begleitet
12-Monats-Programm mit Drei-Wochen-Sprints, gemeinsamer Umsetzung technischer Maßnahmen, redaktioneller Begleitung der Themen-Cluster-Erstellung, vierteljährlicher Re-Messung. Geeignet für Unternehmen mit grundlegender Eigenleistung, die fachliche Begleitung in der Umsetzung benötigen. Investitions-Rahmen: 24.000 bis 48.000 Euro je nach Domain-Komplexität.
6.3 Programm-Stufe Vollständig
12- bis 24-Monats-Programm mit Übernahme der vollständigen Umsetzung durch unser Team und Sub-Dienstleister, monatlichen Berichts-Sessions, monatlicher Re-Messung, Krisen-Reaktion auf Algorithmen-Veränderungen. Geeignet für Unternehmen, die KI-Sichtbarkeit als strategische Priorität haben und die Umsetzung delegieren wollen. Investitions-Rahmen: 48.000 bis 120.000 Euro je nach Domain-Komplexität und Branchen-Wettbewerbs-Niveau.
7. Phase 5 im Detail — Die Re-Messung
Wir wiederholen die Live-Messung aus Phase 2 vierteljährlich mit dem identischen Prompt-Set und denselben Plattform-Konfigurationen. Diese Reproduzierbarkeit ist methodisch zentral, weil sie die Vergleichbarkeit über Zeit sicherstellt. Veränderungen in Citation-Quote, Tonalität, Wettbewerbs-Vergleich und Themen-Cluster-Verteilung werden direkt auf die in den Vor-Quartalen umgesetzten Maßnahmen rückgeführt.
Der Quartals-Tracking-Bericht enthält fünf Pflicht-Bestandteile: Citation-Quoten-Entwicklung über alle Quartale seit Mandats-Beginn, Plattform-spezifische Trend-Linien, Wettbewerbs-Vergleich, Themen-Cluster-Vergleich und eine Empfehlungs-Liste für das nächste Quartal. Mandanten erhalten den Bericht innerhalb von 5 Werktagen nach Quartals-Ende und ein 60-minütiges Auswertungs-Gespräch.
8. Werkzeuge und Datenquellen
Unsere Methodik ist tool-agnostisch. Wir verwenden je nach Mandats-Anforderung folgende Werkzeuge: Screaming Frog für technische Crawls, Ahrefs und Sistrix für Backlink- und Wettbewerbs-Analysen, Google Search Console und Bing Webmaster Tools für Such-Performance, Schema.org-Validator und Google Rich Results Test für Schema-Konformität, AlsoAsked und AnswerThePublic für Frage-Recherche, semrush für Keyword- und Wettbewerbs-Recherche.
Für die Live-Messungen verwenden wir die offiziellen Web-Oberflächen und APIs von ChatGPT, Perplexity, Gemini, Google AIO und Claude. Wir setzen keine automatisierten Scraping-Tools ein, weil diese mit den Nutzungs-Bedingungen der Plattformen nicht vereinbar sind und keine plattform-konformen Antwort-Logiken simulieren können.
9. Methodik-Grenzen
Wir benennen die Grenzen unserer Methodik transparent, weil ihre Kenntnis Voraussetzung für eine seriöse Mandats-Beziehung ist. Erstens: KI-Plattformen verändern ihre Algorithmen kontinuierlich. Citation-Niveaus, die heute gemessen werden, können morgen anders sein. Wir reagieren darauf mit vierteljährlicher Re-Messung und kontinuierlicher Methodik-Anpassung.
Zweitens: Wir messen Citation-Wahrscheinlichkeiten und -Frequenzen, keine Garantien für individuelle Anfragen. Eine Marke kann bei 80 Prozent der getesteten Prompts genannt werden und bei einer konkreten Nutzer-Anfrage trotzdem nicht erscheinen.
Drittens: Citation-Wachstum ist langsam. Erste messbare Effekte erscheinen typischerweise nach 8 bis 12 Wochen kontinuierlicher Optimierungs-Arbeit. Substantielle Citation-Verschiebungen entstehen über 6 bis 18 Monate.
Viertens: Methodik wirkt nicht in Isolation. Eine Domain ohne fachliches Profil, ohne externe Vertrauens-Signale und ohne substantielle Inhalts-Tiefe wird auch mit perfekter technischer Optimierung nicht in nennenswertem Umfang zitiert werden.
10. Methodik-Häufige-Fragen
10.1 Wie unterscheidet sich Ihre Methodik von SEO-Audits?
SEO-Audits prüfen Such-Maschinen-Faktoren (Rankings, Backlinks, Keywords). Unsere Methodik prüft KI-Antwort-System-Faktoren (Citation-Quote in Antworten, semantische Verständlichkeit, Schema-Vollständigkeit). Es gibt Überschneidungen (technische Crawl-Voraussetzungen sind für beide relevant), aber die methodische Stoßrichtung ist eine andere.
10.2 Können wir die Live-Messung auch ohne Begleit-Programm beauftragen?
Ja. Die Live-Messung ist als eigenständiges Produkt unter dem Namen "Live-Mess-Audit" verfügbar. Investitions-Rahmen: 2.400 bis 4.800 Euro je nach Prompt-Umfang.
10.3 In welchen Sprachen messen Sie?
Standard-Sprache ist Deutsch. Wir messen optional in Englisch, Französisch, Spanisch und Italienisch.
10.4 Wie oft passen Sie Ihre Methodik an?
Quartalsweise. Wir dokumentieren alle Methodik-Anpassungen in einem öffentlich zugänglichen Methodik-Changelog.
10.5 Können Sie auch nur Teile Ihrer Methodik liefern?
Ja. Diagnose, Live-Messung, Strategie und Re-Messung sind als eigenständige Produkte buchbar. Die Phasen sind aufeinander abgestimmt, aber nicht zwingend sequenziell zu beauftragen.
10.6 Welche Mandate sind methodisch nicht geeignet?
Mandate ohne substantielle inhaltliche Substanz, ohne fachliches Profil oder mit dem alleinigen Ziel kurz-fristiger Sichtbarkeits-Effekte sind methodisch nicht geeignet. Wir lehnen solche Mandate ab.
10.7 Arbeiten Sie auch mit Agenturen zusammen?
Ja. Wir kooperieren mit SEO-Agenturen, Performance-Marketing-Agenturen und PR-Agenturen, die KI-Sichtbarkeit als ergänzendes Kompetenz-Feld anbieten möchten. Wir liefern Methodik, Live-Messung und Strategie. Die Agentur übernimmt die operative Umsetzung.
10.8 Welche Mandats-Größen bedienen Sie?
Mittel-Stand (50 bis 500 Mitarbeiter) und gehobenen Mittel-Stand (500 bis 5.000 Mitarbeiter) sind unser Schwerpunkt. Klein-Unternehmen (unter 50 Mitarbeiter) bedienen wir mit der Programm-Stufe Basis. Konzerne (über 5.000 Mitarbeiter) bedienen wir auf Anfrage.
11. KPI-Definitionen unserer Methodik
Wir verwenden ein konsistentes Set von Kennzahlen, das in jedem Mandats-Bericht in identischer Definition erscheint. Diese Konsistenz ist die Voraussetzung für seriöse Vergleichbarkeit über Zeit und über Mandate hinweg.
11.1 Citation-Quote (CQ)
Anteil der getesteten Antworten, in denen die Marke namentlich genannt wird. Berechnet je Plattform und im Mittelwert über alle Plattformen. Die Citation-Quote ist die zentrale Mess-Größe und Grundlage aller Trend-Auswertungen. Eine Citation-Quote von 50 Prozent in Perplexity bedeutet: bei 50 Prozent aller getesteten Anfragen erscheint die Marke in der Antwort. Wir messen Citation-Quoten branchen-typisch zwischen 0 und 80 Prozent, mit Plattform-Mittelwerten zwischen 5 und 60 Prozent als Realität-Korridor.
11.2 Citation-Tonalität (CT)
Verteilung der Marken-Erwähnungen auf positive, neutrale und negative Tonalität. Wir bewerten jede einzelne Erwähnung nach einem Drei-Stufen-Schema. Negative Erwähnungen sind nicht automatisch ein Warn-Signal — sie können aus berechtigter Kritik resultieren oder aus Missverständnissen, deren Aufklärung in die Strategie-Phase einfließt.
11.3 Citation-Position (CP)
Position der Marken-Erwähnung innerhalb der Antwort: Eröffnung (erste 25 Prozent der Antwort), Haupt-Teil (mittlere 50 Prozent), Schluss-Empfehlung (letzte 25 Prozent). Eine Eröffnungs-Erwähnung hat in der Regel höhere Wirkung auf die Käufer-Wahrnehmung.
11.4 Wettbewerbs-Verdrängungs-Index (WVI)
Anteil der Antworten, in denen Wettbewerber genannt werden, ohne dass die eigene Marke gleichzeitig erscheint. Ein hoher WVI signalisiert akute Sichtbarkeits-Lücke gegenüber dem direkten Wettbewerb.
11.5 Themen-Cluster-Abdeckung (TCA)
Anteil der definierten Themen-Cluster, in denen die Marke in mindestens einer Plattform genannt wird. Eine TCA von 80 Prozent bedeutet: in 4 von 5 Themen-Clustern ist die Marke citation-fähig präsent.
11.6 Quellen-Tiefen-Index (QTI)
Durchschnittliche Anzahl unterschiedlicher URL-Pfade der eigenen Domain, die als Quelle in den getesteten Antworten herangezogen werden. Ein höherer QTI signalisiert, dass mehrere unterschiedliche Inhalts-Bereiche citation-fähig sind, nicht nur die Startseite.
11.7 Plattform-Konsistenz-Index (PKI)
Korrelation der Citation-Quote zwischen den Plattformen. Eine hohe Plattform-Konsistenz bedeutet, dass die Marke plattform-übergreifend wahrgenommen wird, nicht nur auf einer einzelnen Plattform.
12. Branchen-spezifische Methodik-Anpassungen
Die fünf Phasen unserer Methodik sind branchen-übergreifend gültig. Innerhalb der Phasen passen wir Verfahren, Prompt-Sets und Schema-Anforderungen an die jeweilige Branche an.
12.1 Anwaltschaft
Schema-Schwerpunkt LegalService und Person für jeden Berufs-Träger. Prompt-Set umfasst regional-spezifische Rechts-Anfragen, fall-bezogene Informations-Anfragen und vergleichende Kanzlei-Recherche. BORA-konforme Tonalität ist methodische Grund-Voraussetzung. Spezielle Aufmerksamkeit für die Verbands-Profile (Anwalts-Kammer, Fach-Anwalts-Vereine) und für die Pflege der externen Reputations-Signale.
12.2 Steuerberatung
Schema-Schwerpunkt AccountingService und Person. Prompt-Set umfasst typische Mandanten-Fragen aus den Schwerpunkt-Bereichen (Gesellschafts-Recht, internationale Besteuerung, E-Commerce, Lohn-Buchhaltung). Pflege der Verbands-Profile bei DStV und BStBK. Besondere Beachtung der Berufs-Ordnung und der Werbe-Beschränkungen.
12.3 Medizin und Gesundheit
Schema-Schwerpunkt MedicalBusiness und Physician. Prompt-Set umfasst patienten-typische Aufklärungs-Fragen, regional-spezifische Praxis-Recherche und Verfahrens-Beschreibungen. HWG-konforme Tonalität ist methodische Grund-Voraussetzung. Besondere Beachtung der Patienten-Bewertungs-Plattformen (jameda, Sanego, Google) und der Datenschutz-Anforderungen für Patienten-Inhalte.
12.4 Online-Handel
Schema-Schwerpunkt Product, Offer, AggregateRating, Review. Prompt-Set umfasst produkt-spezifische Beratungs-Anfragen, kategorien-übergreifende Empfehlungs-Anfragen und vergleichende Shop-Recherche. Pflege der Bewertungs-Profile bei Trusted Shops, Google Shopping und branchen-spezifischen Portalen.
12.5 B2B-Software
Schema-Schwerpunkt SoftwareApplication, Service, Product. Prompt-Set umfasst Funktions-spezifische Recherche, vergleichende Software-Auswahl und Branchen-Anwendungs-Anfragen. Pflege der Profile bei G2, Capterra und Branchen-spezifischen Verzeichnissen.
12.6 Handwerk
Schema-Schwerpunkt LocalBusiness, HomeAndConstructionBusiness, Service. Prompt-Set umfasst lokale Such-Anfragen, gewerk-spezifische Beratungs-Anfragen und Notdienst-Recherche. Pflege des Google-Business-Profils mit aktiver Bewertungs-Akquise.
13. Werkzeug-Stack im Detail
Wir dokumentieren transparent, welche Werkzeuge wir in welcher Methodik-Phase einsetzen und welche Daten-Quellen sie liefern. Diese Transparenz ist methodisch wichtig, weil sie Mandanten ermöglicht, einzelne Mess-Schritte intern nachzuvollziehen oder eigenständig zu wiederholen.
In der Diagnose-Phase verwenden wir Screaming Frog für vollständige Site-Crawls bis zu 500.000 URL je Mandat, Sitebulb für ergänzende Crawl-Audits, Google Search Console für Such-Performance-Daten der letzten 16 Monate, Bing Webmaster Tools für Bing- und Copilot-Performance, Schema.org-Validator und Google Rich Results Test für Schema-Konformität, PageSpeed Insights und Web.dev für Core-Web-Vitals, GTmetrix für Server-Response-Tiefe, sowie Robots.txt-Tester und manuelle robots.txt-Auswertungen.
In der Live-Mess-Phase verwenden wir die offiziellen Web-Oberflächen von ChatGPT (mit und ohne Browse), Perplexity (Standard und Pro), Gemini (mit Search-Grounding), Google AIO und Claude. Wir setzen weder automatisierte Browser-Bots noch Scraping-Tools ein, weil dies sowohl mit den Nutzungs-Bedingungen der Plattformen unvereinbar ist als auch keine plattform-konformen Antwort-Logiken simulieren kann. Jede einzelne Antwort wird manuell ausgewertet, dokumentiert und in einem Mandats-spezifischen Mess-Protokoll abgelegt.
In der Strategie-Phase ergänzen wir Ahrefs für Backlink-Profile und Wettbewerbs-Inhalts-Audits, Sistrix für Wettbewerbs-Sichtbarkeits-Vergleiche im DACH-Raum, semrush für Keyword- und Wettbewerbs-Recherche, AlsoAsked und AnswerThePublic für Frage-Recherche, sowie für Themen-Cluster-Planung Frase und SurferSEO als unterstützende Werkzeuge. Diese Werkzeug-Auswahl ist nicht abschließend und wird mandats-spezifisch angepasst.
In der Umsetzungs-Phase verwenden wir Editorial-Werkzeuge wie Notion oder Asana für Sprint-Planung, Plausible oder Matomo für DSGVO-konformes Tracking, Cloudflare oder Bunny für Edge-Optimierung. Bei Schema-Implementierungen arbeiten wir bevorzugt mit JSON-LD direkt im Quell-Code statt mit Tag-Manager-Konstrukten, weil JSON-LD im HTML-Output für Crawler verlässlicher erfassbar ist.
In der Re-Mess-Phase wiederholen wir die Live-Messung mit identischen Tools und Verfahren wie in Phase 2. Wir dokumentieren jede Methodik-Anpassung in einem öffentlich zugänglichen Methodik-Changelog, damit Mandanten jederzeit nachvollziehen können, wie sich die Mess-Routine über Zeit entwickelt hat.
14. Anonymisiertes Methodik-Beispiel
Eine mittelständische Steuerberatungs-Gesellschaft aus Stuttgart (Mandat 02 in unserer Referenzen-Übersicht) durchlief 2023/2024 unsere fünf Phasen wie folgt. Phase 1 Diagnose: 7 Werktage. Ergebnis: Gesamt-Score 38 von 100. Schwächen vor allem in unvollständigem Schema-Bestand, fehlender llms.txt und blockierten KI-Crawlern in der robots.txt. Inhaltliche Tiefe vorhanden, aber thematisch ungeordnet. Phase 2 Live-Messung: 32 Prompts, 5 Plattformen, 5 Wiederholungen, 800 Einzel-Antworten. Citation-Quote im Plattform-Mittelwert 4 Prozent.
Phase 3 Strategie: 12-Monats-Roadmap mit 24 Sprint-Liefergegenständen in den Schwerpunkten Schema-Vollständigkeit, Themen-Cluster-Aufbau für E-Commerce-Steuer-Spezialisierung und externe Sichtbarkeit. Phase 4 Umsetzung: 18 Monate begleitet, davon 14 Monate aktive Umsetzung und 4 Monate Konsolidierung und Re-Messung. Phase 5 Re-Messung: Quartals-weise mit identischem Prompt-Set. Citation-Quote nach Quartal 4: 18 Prozent. Nach Quartal 6: 32 Prozent. Nach Quartal 8: 55 Prozent im Plattform-Mittelwert, mit Spitzen-Werten von 71 Prozent in Perplexity. Eintritt in den Google-Knowledge-Graph nach Quartal 7. Verdoppelung der Inbound-Anfragen mit messbarem Citation-Bezug nach Quartal 6.
Dieses Beispiel illustriert mehrere methodische Beobachtungen: Citation-Wachstum ist nicht linear, sondern beschleunigt sich nach den ersten 6 bis 9 Monaten. Plattform-Spitzenwerte (Perplexity) liegen typischerweise 15 bis 25 Prozent-Punkte über dem Plattform-Mittelwert. Eintritt in den Knowledge-Graph erfolgt typischerweise erst nach substantieller Inhalts-Tiefe, externen Vertrauens-Signalen und mindestens zwei Quartalen kontinuierlicher Sichtbarkeits-Arbeit.
15. Methodik-Erweiterungs-Häufige-Fragen
15.1 Wie beweisen Sie die Reproduzierbarkeit Ihrer Live-Messungen?
Wir hinterlegen pro Mandat ein Mess-Protokoll, in dem jede einzelne Plattform-Sitzung mit Datum, Uhrzeit, Plattform-Konfiguration, exaktem Prompt-Wortlaut und vollständiger Antwort-Transkription dokumentiert ist. Mandanten erhalten dieses Protokoll bei jedem Quartals-Tracking-Bericht zur eigenen Validierung.
15.2 Wie gehen Sie mit Plattform-Rate-Limits um?
Wir staffeln Mess-Sessions über mehrere Tage, um Plattform-Rate-Limits einzuhalten. Eine vollständige Live-Messung mit 800 bis 1.000 Einzel-Antworten verteilt sich auf 3 bis 5 Werktage. Diese Staffelung hat den methodischen Vorteil, dass auch tages-zeitliche Antwort-Variationen erfasst werden.
15.3 Wie verhindern Sie Verzerrungen durch Personalisierung?
Wir messen aus neutralen Browser-Profilen ohne Anmeldung und ohne lokales Profil-Cookie. Bei Plattformen, die Personalisierung am Account binden (Perplexity Pro, ChatGPT Plus), arbeiten wir mit speziell für Mess-Zwecke angelegten neutralen Konten ohne historische Such-Daten.
15.4 Wie reagieren Sie auf algorithmische Veränderungen einer Plattform?
Wir dokumentieren erkennbare Veränderungen sofort und führen eine Sonder-Re-Messung durch. Substantielle Algorithmen-Veränderungen lösen eine Strategie-Anpassungs-Session mit jedem aktiven Mandanten aus. Wir kommunizieren transparent, wann Veränderungen aus Plattform-Updates resultieren und wann aus Optimierungs-Maßnahmen.
15.5 Wie viele Mandanten messen Sie gleichzeitig?
Wir messen typischerweise 3 bis 5 Mandanten-Pakete parallel pro Werktag. Mess-Tage sind in unserem Wochen-Plan fest reserviert, um Konzentrations-bedingte Mess-Fehler zu vermeiden.
15.6 Können Sie internationale Mandate methodisch betreuen?
Ja. Wir betreuen Mandate im DACH-Raum und in der EU. Sprach-Schwerpunkt ist Deutsch, ergänzend Englisch, Französisch, Italienisch und Spanisch. Bei englisch-sprachigen Mandaten passen wir das Prompt-Set an länder-typische Such-Muster an (US-englisch, UK-englisch).
15.7 Welche Methodik-Grenzen gibt es bei sehr kleinen Domains?
Bei Domains mit weniger als 30 Inhalts-Seiten ist die methodische Aussage-Kraft der Citation-Mess-Routine begrenzt, weil zu wenig inhaltliche Substanz für statistisch belastbare Wettbewerbs-Vergleiche vorliegt. Wir empfehlen für solche Domains zunächst eine Inhalts-Aufbau-Phase von 6 bis 12 Monaten, bevor wir mit vollständiger Live-Messung beginnen.
15.8 Welche Methodik-Anpassungen erfolgen aktuell?
Im aktuellen Quartal arbeiten wir an drei Methodik-Anpassungen: erstens an einer detaillierteren Auswertungs-Routine für ChatGPT-Search (das im November 2024 als eigenständige Such-Funktion neben dem klassischen ChatGPT-Browse eingeführt wurde), zweitens an einer Erweiterung des Quellen-Tiefen-Index um Sub-Domain-Analysen, drittens an einer methodischen Integration von Claude in das Standard-Plattform-Set.
15.9 Wie können Mandanten an der Methodik-Weiterentwicklung mitwirken?
Wir laden Mandanten zu vierteljährlichen Methodik-Reviews ein, in denen Anregungen für Weiterentwicklungen diskutiert werden. Etwa 30 Prozent unserer aktuellen Methodik-Bestandteile gehen auf Mandanten-Anregungen zurück.
15.10 Wie unterscheiden Sie sich von Tool-Anbietern?
Tools liefern automatisierte technische Audits. Wir liefern manuelle, mandats-spezifische Diagnose, Live-Messung und Strategie-Begleitung. Die methodische Kombination aus tool-gestützter Diagnose und manueller Plattform-Auswertung ist unser Differenzierungs-Punkt.
16. Nächster Schritt
Sie können jeden Schritt unserer Methodik live testen. Mit dem kostenlosen 60-Sekunden-KI-Sichtbarkeits-Check erhalten Sie eine erste Einschätzung Ihrer technischen und inhaltlichen Sichtbarkeits-Voraussetzungen mit direkter Auswertung. Mit der kostenlosen Sichtbarkeits-Analyse erhalten Sie einen vollständigen Diagnose-Bericht innerhalb von 10 Werktagen, basierend auf Live-Daten aus ChatGPT, Gemini und Perplexity. Mit dem Programm-Vergleich sehen Sie, welche Programm-Stufe zu Ihrer Domain-Größe und Ressourcen-Lage passt.
Über alle Mandate hinweg gilt: Wir liefern Live-Daten, keine Werbe-Versprechen. Wir liefern reproduzierbare Auswertungen, keine Marketing-Vermutungen. Wir liefern nachvollziehbare Strategien, keine Patent-Rezepte. Diese methodische Strenge ist die Grundlage unserer Mandats-Beziehungen seit der Gründung der KBD KI-Beratung Deutschland UG.