ChatGPT-Sichtbarkeitsanalyse: Methodik, Tools & Beispiel
ChatGPT-Sichtbarkeitsanalyse für Ihre Marke: Wie sie funktioniert, welche KPIs zählen und welche Tools liefern verlässliche Daten. Inkl. anonymisiertem Beispiel.
ChatGPT-Sichtbarkeitsanalyse: Methodik, Tools & Beispiel
Wie funktioniert eine seriöse ChatGPT-Sichtbarkeitsanalyse – und welche Kennzahlen sagen wirklich aus, ob Ihre Marke in KI-Antworten auftaucht? Diese Seite erklärt die Methodik, die wichtigsten KPIs, die relevanten Tools und zeigt ein anonymisiertes Beispiel aus der Praxis.
1. Was ist eine ChatGPT-Sichtbarkeitsanalyse?
Eine ChatGPT-Sichtbarkeitsanalyse ist eine systematische Prüfung, ob und in welchem Kontext generative KI-Systeme – allen voran ChatGPT, daneben Gemini und Perplexity – Ihre Marke, Produkte oder Inhalte in Antworten verwenden. Sie unterscheidet sich grundlegend von klassischen SEO-Audits, weil sie nicht Rankings misst, sondern Erwähnungen, Zitationen und Kontextqualität in synthetisierten KI-Antworten.
Definition: Eine ChatGPT-Sichtbarkeitsanalyse misst die Wahrscheinlichkeit und Qualität, mit der ein KI-System eine bestimmte Marke, Domain oder Aussage in seinen Antworten berücksichtigt – über standardisierte Prompts, mehrere Plattformen und wiederholbare Tests.
Grundlagen: Wie KI Quellen auswählt und Wie ChatGPT Antworten erzeugt.
2. Methodik: Wie wir vorgehen
Eine belastbare Analyse folgt einem klar definierten Ablauf in fünf Schritten. Jeder Schritt ist dokumentiert und reproduzierbar – nur so entstehen Daten, die als Entscheidungsgrundlage taugen.
Schritt 1 – Fragenkatalog definieren
Ausgangspunkt sind 30 bis 200 Prompts, die echte Nutzerfragen aus Ihrer Branche abbilden. Diese gliedern sich in vier Kategorien: Definitionsfragen ("Was ist X?"), Vergleichsfragen ("X vs. Y"), Problem-Lösung-Fragen ("Wie löse ich Z?") und Brand-Fragen ("Was halten Nutzer von Marke X?"). Diese Struktur folgt der Logik aus KI-Zitierungen messen.
Schritt 2 – Prompts plattformübergreifend ausführen
Jeder Prompt läuft in mindestens drei Systemen: ChatGPT (mit und ohne Websuche), Gemini und Perplexity. Jede Antwort wird mit Datum, Modellversion und Browsing-Status protokolliert.
Schritt 3 – Antworten codieren
Pro Antwort werden vier Felder erfasst: Erwähnung der Marke (ja/nein, im Kerntext oder am Rand), Quellenverlinkung (ja/nein, mit URL), Sentiment (positiv, neutral, negativ, faktisch falsch) und Konkurrenzkontext (welche anderen Marken werden im selben Atemzug genannt).
Schritt 4 – Wiederholungs- und Stabilitätstest
Jeder Prompt wird mindestens dreimal über zwei Wochen wiederholt. Wenn Ihre Marke nur in einer von drei Antworten auftaucht, ist die Sichtbarkeit instabil. Hintergrund: RAG einfach erklärt.
Schritt 5 – Crawlability- und Quellenprüfung
Parallel prüfen wir technisch, ob KI-Crawler (GPTBot, OAI-SearchBot, PerplexityBot, Google-Extended, ClaudeBot) Ihre Website erreichen und welche Inhalte sie rendern können. Mehr unter Technische SEO-Grundlagen für KI.
3. KPIs: Welche Kennzahlen wirklich zählen
Es gibt keine offizielle "Search Console" für KI-Antworten. Verlässliche KPIs entstehen aus den Antwort-Codierungen:
- Share of Model: Anteil der Prompts, in denen Ihre Marke namentlich genannt wird. Zielwert in der Kern-Nische: über 50 %.
- Citation Rate: Anteil der Erwähnungen mit verlinkter Quellenangabe. Zeigt, ob KI Ihre eigene Domain als Beleg nutzt.
- Sentiment: Verteilung positiv / neutral / negativ. Halluzinierte Falschaussagen werden separat erfasst und sind höchste Priorität.
- Stabilität: Anteil identischer Erwähnungen über drei Wiederholungen. Niedrige Stabilität = oberflächliche Verankerung.
- Plattform-Konsistenz: Differenz im Share of Model zwischen ChatGPT, Gemini und Perplexity. Große Lücken zeigen plattform-spezifische Schwächen.
Was diese KPIs nicht sind: Klicks, Impressionen, Rankings. Sichtbarkeit in KI heißt heute oft "Zero Click Awareness". Hintergrund: KI-SEO: Was sich wirklich ändert.
4. Tools im Vergleich
Kein Einzeltool deckt alle KI-Plattformen vollständig ab. In der Praxis kombinieren wir vier Werkzeugklassen:
A. Manuelle Prompt-Suiten
Goldstandard für die Validierung. Tabellarisch dokumentierte Prompts werden manuell in der Web-UI von ChatGPT, Gemini und Perplexity ausgeführt. Vorteil: Volle Kontrolle über Modellversion und Browsing-Modus.
B. API-basiertes Logging
Über die offiziellen APIs von OpenAI, Anthropic und Google lassen sich hunderte Prompts automatisch ausführen und protokollieren. Wichtig: Die API-Antworten unterscheiden sich teils von der Web-UI.
C. Spezialisierte Monitoring-Plattformen
Anbieter wie Profound, Otterly, AthenaHQ, Peec AI oder BrandRank.AI tracken Brand Mentions in KI-Antworten plattformübergreifend. Stärken: Dashboards und Zeitreihen. Schwächen: begrenzte Prompt-Anpassbarkeit. Mehr in Tools für KI-Sichtbarkeit – sachlich eingeordnet.
D. Crawlability-Checker
Für die technische Basis: Logfile-Analyse, robots.txt- und llms.txt-Audit, Schema-Validator, Rendering-Check. Werkzeuge wie Screaming Frog, Sitebulb oder Googles Rich-Results-Test.
Empfehlung: Verlassen Sie sich nicht auf ein einzelnes Dashboard. Verlässliche Daten entstehen erst durch Triangulation – mindestens zwei der vier Tool-Klassen sollten parallel laufen.
5. Anonymisiertes Beispiel: B2B-SaaS-Anbieter
Ausgangslage: Ein deutscher B2B-SaaS-Anbieter im Bereich "Vertragsmanagement" wollte wissen, ob ChatGPT seine Lösung in Empfehlungen erwähnt. Branche: stark umkämpft, mehrere internationale Wettbewerber.
Vorgehen: 72 Prompts in vier Kategorien, ausgeführt in ChatGPT (mit Browsing), Gemini und Perplexity, dreimal wiederholt über 14 Tage. Ergänzt um Crawlability-Analyse und Wettbewerbsvergleich mit fünf direkten Konkurrenten.
Befunde (anonymisiert):
- Share of Model: 12 % bei Definitionsfragen, nur 4 % bei Vergleichsfragen
- Citation Rate: 31 % – eigene Domain in einem Drittel der Fälle als Quelle verlinkt
- Stabilität: 58 % – mittelmäßig konsistent über drei Wiederholungen
- Crawlability: GPTBot und PerplexityBot waren blockiert
Maßnahmen: Anpassung der robots.txt (GPTBot, OAI-SearchBot, PerplexityBot freigegeben); Aufbau einer Vergleichsseite mit klarer Abgrenzung zu Wettbewerbern; Ergänzung von zitierfähigen Definitionsbausteinen nach den vier Säulen aus Citation-Ready Content; PR-Platzierungen für externe Autoritätssignale.
Ergebnis nach 4 Monaten: Share of Model bei Definitionsfragen auf 38 % gestiegen, Citation Rate auf 52 %, Stabilität auf 81 %.
6. Abgrenzung zum klassischen SEO-Audit
SEO-Audit: Misst Keyword-Rankings in Google/Bing. Fokus: Klicks, Impressionen, CTR. Tools: Search Console, Sistrix, Ahrefs.
ChatGPT-Sichtbarkeitsanalyse: Misst Erwähnungen in synthetisierten KI-Antworten. Fokus: Share of Model, Citation Rate, Sentiment. Tools: Prompt-Suiten, KI-APIs, Monitoring-Plattformen.
Beide Audits ergänzen sich. Eine Marke kann hervorragend ranken und trotzdem in KI-Antworten kaum vorkommen – oder umgekehrt. Vertiefend: ChatGPT-Sichtbarkeit statt SEO.
7. Häufige Fragen
Was kostet eine ChatGPT-Sichtbarkeitsanalyse?
Die Erstanalyse mit 30–50 Prompts ist kostenlos. Ein vollständiges Audit mit 200 Prompts, Wettbewerbsvergleich und Maßnahmenplan ist projektabhängig.
Wie aktuell sind die Ergebnisse?
KI-Modelle ändern Antworten regelmäßig – durch Modellupdates und Live-Retrieval-Quellen. Eine Analyse ist eine Momentaufnahme. Wir empfehlen quartalsweise Wiederholungen.
Werden auch englischsprachige Prompts getestet?
Wenn relevant: ja. Viele KI-Modelle haben in englischer Sprache mehr Trainingsmaterial.
Garantieren Sie eine Verbesserung?
Nein. Niemand kann KI-Antworten garantieren – das wäre unseriös. Wir liefern eine fundierte Diagnose und konkrete Maßnahmen mit Priorisierung.
8. Analyse anfordern
Bereit für Ihre eigene Analyse? Wir prüfen kostenlos, wie ChatGPT, Gemini und Perplexity Ihre Marke heute behandeln – und zeigen die wichtigsten Hebel. Ergebnis innerhalb von 48 Stunden. Jetzt anfordern unter /analyse oder weiterlesen unter ChatGPT-Sichtbarkeit.