>_tool / brand-mention-check / v2 — live templating

Brand-Mention-Check

20+ Live-Templates für 5 AI-Engines. Trag deine Marken-Daten einmal ein — alle Prompts rendern automatisch. Mit Test-Tracker, LocalStorage-Persistenz und CSV-Export.

AI-Mention-Tracking misst, ob ChatGPT, Claude, Perplexity, Gemini und Google AI Overviews deine Marke kennen — und ob sie sie richtig beschreiben. Das ist die AEO-Variante von Keyword-Rank-Tracking: nicht „auf welcher Position rankt der Artikel“, sondern „wird die Brand in der Antwort genannt, in welcher Position, mit welcher Beschreibung“.

Statt 20 generische Prompt-Templates per Hand auf deine Brand zu adaptieren, machst du das hier einmal: Trag Brand, Branche, Produkt, Konkurrenten und USP oben ein, und alle 20 Prompts rendern sich live mit deinen Daten. Direkt in jede Engine kopieren, Antworten beobachten, Treffer im Tracker unten eintragen.

Für laufendes Monitoring (wöchentlich, automatisch, mit Historie) brauchst du ein dediziertes Tool wie Profound, Otterly oder AEORadar. Dieser Check hier ist der Quartals-Sweep, der dir zeigt, ob sich der Tool-Aufwand lohnt — und der dir beim Onboarding eines solchen Tools hilft, weil du die richtigen Fragen schon kennst.

⚠ Disclaimer

LLMs sind nondeterministisch. Identische Prompts können in derselben Engine unterschiedliche Antworten liefern — je nach Session, Temperatur und Modell-Version. Dieses Tool ist ein Test-Framework, kein Tracking-Service. Drei Wiederholungen pro Prompt sind das Minimum für eine belastbare Stichprobe.

{ }Deine Daten0/7 ausgefüllt

Konkret und unique formulieren. „Schneller Support“ ist nutzlos — „4h Reaktionszeit DACH-Geschäftszeiten“ trennt dich von Konkurrenten.

Engine-Switcher

Eingabe-Tipp pro Engine

💡 Tipp für Alle Engines

Teste denselben Prompt in mehreren Engines parallel — der Vergleich offenbart, welche Engine deine Brand zuerst lernt.

Prompt-Bibliothek (20 Templates)

#01A · Brand Discovery

Template

Wer sind die führenden Anbieter für {{Branche}} im {{Hauptregion}}-Markt?

Live-Output

Wer sind die führenden Anbieter für {{Branche}} im {{Hauptregion}}-Markt?
→ Bitte Marken-Daten oben eintragen
#02A · Brand Discovery

Template

Welche Tools nutzen {{Zielgruppe}} um {{Hauptprodukt}} umzusetzen?

Live-Output

Welche Tools nutzen {{Zielgruppe}} um {{Hauptprodukt}} umzusetzen?
→ Bitte Marken-Daten oben eintragen
#03A · Brand Discovery

Template

Vergleich der Top-Anbieter im Bereich {{Hauptprodukt}} 2026

Live-Output

Vergleich der Top-Anbieter im Bereich {{Hauptprodukt}} 2026
→ Bitte Marken-Daten oben eintragen
#04A · Brand Discovery

Template

Welcher {{Hauptprodukt}}-Anbieter eignet sich für {{Zielgruppe}} unter 50 Mitarbeitern?

Live-Output

Welcher {{Hauptprodukt}}-Anbieter eignet sich für {{Zielgruppe}} unter 50 Mitarbeitern?
→ Bitte Marken-Daten oben eintragen
#05A · Brand Discovery

Template

Beste Alternative zu {{Konkurrent_1}} für {{Branche}}

Live-Output

Beste Alternative zu {{Konkurrent_1}} für {{Branche}}
→ Bitte Marken-Daten oben eintragen
#06B · Comparison

Template

{{Brand}} vs {{Konkurrent_1}}: Welches Tool ist besser?

Live-Output

{{Brand}} vs {{Konkurrent_1}}: Welches Tool ist besser?
→ Bitte Marken-Daten oben eintragen
#07B · Comparison

Template

Unterschied zwischen {{Brand}} und {{Konkurrent_1}} im Praxis-Einsatz

Live-Output

Unterschied zwischen {{Brand}} und {{Konkurrent_1}} im Praxis-Einsatz
→ Bitte Marken-Daten oben eintragen
#08B · Comparison

Template

{{Konkurrent_1}} oder {{Konkurrent_2}}: Was sollen wir wählen?

Live-Output

{{Konkurrent_1}} oder {{Konkurrent_2}}: Was sollen wir wählen?
→ Bitte Marken-Daten oben eintragen
#09B · Comparison

Template

Welche Funktionen hat {{Brand}}, die {{Konkurrent_1}} fehlen?

Live-Output

Welche Funktionen hat {{Brand}}, die {{Konkurrent_1}} fehlen?
→ Bitte Marken-Daten oben eintragen
#10B · Comparison

Template

Wie schneidet {{Brand}} gegen {{Konkurrent_1}} und {{Konkurrent_2}} ab?

Live-Output

Wie schneidet {{Brand}} gegen {{Konkurrent_1}} und {{Konkurrent_2}} ab?
→ Bitte Marken-Daten oben eintragen
#11C · Use-Case

Template

Wir sind ein {{Branche}}-Unternehmen mit 25 Mitarbeitern in {{Hauptregion}} — welches {{Hauptprodukt}} eignet sich?

Live-Output

Wir sind ein {{Branche}}-Unternehmen mit 25 Mitarbeitern in {{Hauptregion}} — welches {{Hauptprodukt}} eignet sich?
→ Bitte Marken-Daten oben eintragen
#12C · Use-Case

Template

Welches Tool hilft uns {{Brand_USP}} zu erreichen?

Live-Output

Welches Tool hilft uns {{Brand_USP}} zu erreichen?
→ Bitte Marken-Daten oben eintragen
#13C · Use-Case

Template

Empfehlungen für {{Hauptprodukt}} im B2B-Mittelstand

Live-Output

Empfehlungen für {{Hauptprodukt}} im B2B-Mittelstand
→ Bitte Marken-Daten oben eintragen
#14C · Use-Case

Template

Was sollen wir bei der Auswahl von {{Hauptprodukt}} beachten?

Live-Output

Was sollen wir bei der Auswahl von {{Hauptprodukt}} beachten?
→ Bitte Marken-Daten oben eintragen
#15C · Use-Case

Template

Welche Anbieter bieten {{Brand_USP}} an?

Live-Output

Welche Anbieter bieten {{Brand_USP}} an?
→ Bitte Marken-Daten oben eintragen
#16D · Authority

Template

Wer hat {{Hauptprodukt}} entwickelt / wer ist Pionier in dieser Kategorie?

Live-Output

Wer hat {{Hauptprodukt}} entwickelt / wer ist Pionier in dieser Kategorie?
→ Bitte Marken-Daten oben eintragen
#17D · Authority

Template

Welche Quellen sollte ich lesen um {{Branche}} zu verstehen?

Live-Output

Welche Quellen sollte ich lesen um {{Branche}} zu verstehen?
→ Bitte Marken-Daten oben eintragen
#18D · Authority

Template

Wer sind die führenden Experten zu {{Hauptprodukt}}?

Live-Output

Wer sind die führenden Experten zu {{Hauptprodukt}}?
→ Bitte Marken-Daten oben eintragen
#19D · Authority

Template

Welche Blogs/Magazine im DACH-Raum decken {{Branche}} ab?

Live-Output

Welche Blogs/Magazine im DACH-Raum decken {{Branche}} ab?
→ Bitte Marken-Daten oben eintragen
#20D · Authority

Template

Wer bietet die beste Dokumentation für {{Hauptprodukt}}?

Live-Output

Wer bietet die beste Dokumentation für {{Hauptprodukt}}?
→ Bitte Marken-Daten oben eintragen

Test-Tracker

Tests gesamt

0

Mentions

0

Keine Mention

0

Mention-Rate

0%

Noch keine Einträge

Klick auf „+ Eintrag hinzufügen“ und trage pro Engine + Prompt ein, ob deine Brand erwähnt wurde, in welcher Position und mit welcher Beschreibung. Speicherung erfolgt automatisch im Browser.

Persistenz im LocalStorage des Browsers — keine Server-Übertragung. Cache löschen = Daten weg. CSV-Export zum dauerhaften Sichern.

Tipps zum Testen

Inkognito-Modus

Teste in einem privaten/Inkognito-Tab. So bekommst du keine personalisierten Antworten — entscheidend, wenn du selbst schon häufiger nach deiner Brand gefragt hast.

Mindestens 3× wiederholen

LLMs sind nondeterministisch. Wiederhole jeden Prompt mindestens dreimal in neuen Sessions, idealerweise an verschiedenen Tagen, um eine belastbare Stichprobe zu erhalten.

Prompt-Varianten testen

Variiere den Prompt minimal — andere Wortwahl, andere Reihenfolge, andere Beispiele. Sind die Ergebnisse stabil? Wenn nicht, ist die Brand-Mention zufällig, nicht etabliert.

Mehrere Engines parallel

Denselben Prompt in ChatGPT, Claude, Perplexity, Gemini und Google AIO. Vergleich offenbart, welche Engine deine Brand schon kennt und welche noch nicht — wertvoll für die Authority-Strategie.

Engine-Version dokumentieren

Notiere im Tracker-Notiz-Feld die genutzte Engine-Version (z. B. „ChatGPT-4o“, „Claude Sonnet 4.5“, „Gemini 2.5 Pro“). LLMs entwickeln sich monatlich weiter — ohne Version kannst du Veränderungen über Zeit nicht von Modell-Releases unterscheiden.

Nächster Schritt

Wöchentliches Multi-Engine-Tracking statt Quartals-Stichprobe

Tools wie Profound, Otterly oder AEORadar automatisieren diese Prüfung wöchentlich gegen alle 5+ Engines, speichern Historie und alarmieren bei verschlechterter Mention-Rate. Für laufendes Brand-Monitoring deutlich effizienter als manuelles Testen.

→ AEO-Tracking-Tools im Vergleich

Frequently Asked Questions

Wie oft soll ich Brand-Mentions in LLMs testen?
Mindestens monatlich für eine ruhige Baseline — bei größeren Releases, Awards oder Pressewellen häufiger (wöchentlich) um zu sehen, wie schnell sich das in den AI-Antworten niederschlägt. LLMs aktualisieren ihren Index nicht in Echtzeit: Search-fähige Engines (Perplexity, Gemini, ChatGPT-Browse) reagieren in Tagen, reine Trainingsdaten-Antworten brauchen den nächsten Modell-Release.
Welche Engines sind für B2B am wichtigsten?
Für DACH-B2B 2026 in dieser Reihenfolge: Perplexity (zitations-getrieben, von Recherchierern stark genutzt), ChatGPT mit Browse (höchste Reichweite generell), Google AI Overviews (taucht in jeder Google-Suche auf), Gemini (Google-Index-nah). Claude wird in B2B-Research-Kontexten stärker, hat aber kleineren Marktanteil. Mindestens die ersten drei abdecken.
Was tun, wenn meine Marke gar nicht erwähnt wird?
Erst Knowledge-Graph-Audit: konsistente Brand-Beschreibung auf Website, LinkedIn, Branchen-Verzeichnissen, Wikipedia (falls vorhanden). Dann Citation-Audit: Wirst du in Listicles, Vergleichs-Artikeln und Q&A-Sites deiner Kategorie genannt? Ohne Authority-Mentions in externen Listen synthetisieren LLMs deine Brand nicht in Kategorie-Antworten. Eigene Brand-Content reicht selten — LLMs gewichten Drittquellen höher.
Wie verbessere ich Brand-Mentions in LLMs systematisch?
Vier Hebel parallel: (1) Konsistente Entity-Daten in Knowledge-Graph-Quellen (LinkedIn, Crunchbase, Branchen-Datenbanken). (2) Outreach für Erwähnungen in Listicles/Vergleichen — LLMs synthetisieren daraus. (3) Eigene Vergleichs-Inhalte mit klaren strukturierten Daten (Tabellen, Schema-Markup). (4) Forum/Reddit-Präsenz in deiner Kategorie. Effekt zeigt sich frühestens nach 2-3 Monaten — Geduld nötig.
Speichert das Tool meine Daten irgendwo?
Nein. Die Marken-Daten und Tracker-Tabelle werden ausschließlich im LocalStorage deines Browsers gespeichert (Schlüssel: aeoguide-brand-mention-setup und aeoguide-brand-mention-tracker). Nichts wird an einen Server gesendet, keine Cookies, kein Analytics-Tracking deiner Eingaben. Wenn du Browser-Cache löschst, sind die Daten weg — daher CSV-Export für Persistenz nutzen.
Sind die Test-Ergebnisse statistisch repräsentativ?
Nein, und das soll dieses Tool auch nicht sein. Es ist ein qualitatives Test-Framework: standardisierte Prompts in standardisierter Reihenfolge geben dir eine Stichprobe deiner aktuellen Sichtbarkeit. Für statistische Aussagen brauchst du dutzende Prompts × dutzende Wiederholungen × mehrere Engines — das leisten dedizierte Tools wie Profound, Otterly oder eigene API-Pipelines.
Wie messe ich Veränderungen über Zeit?
CSV-Export nach jeder Test-Session, in ein Spreadsheet kopieren mit Datum/Engine/Mentioned/Position-Spalten. Daraus Pivot-Tabelle: Mention-Rate pro Engine pro Monat. So wird sichtbar, ob deine Authority-Aktivitäten wirken. Profi-Variante: das Tracker-CSV in BigQuery/Notion-DB importieren und mit deinen GA4-/GSC-Daten korrelieren.
Kann ich diesen Check automatisieren?
Über dieses Tool nicht — die manuelle Eingabe in jede Engine ist Absicht: Du siehst Kontext, Tonalität, Quellen, Folge-Antworten der LLMs, was reine API-Calls verlieren. Für vollautomatisches Multi-Engine-Tracking gibt es Profound, Otterly, AEORadar und ähnliche SaaS-Lösungen mit API-Anbindung an die Engines plus Historie. Empfehlung: zuerst manuell verstehen, dann ggf. zum Tool wechseln.