>_tool / aeo-audit / v2

AEO-Audit — 25-Item Multi-Engine Check

25 Items in 5 Kategorien, eigene Scores für ChatGPT, Perplexity, Claude und Google AI Overview, priorisierte Quick-Wins und Markdown-/CSV-Export für deinen Report.

So funktioniert das Tool

Das ist ein Self-Check, kein Auto-Crawl. Du gehst die 25 Items selbst durch und hakst ab, was bei dir umgesetzt ist. Das Tool berechnet daraus pro Engine den Score, sortiert die offenen Items nach Impact und zeigt deine Quick-Wins. Echtes URL-Crawling braucht Server-Zugriff (CORS-Limits) — bewusst weggelassen, dadurch funktioniert das Tool offline ohne Tracking.

1 — abhaken

25 Items in 5 Kategorien anklicken — was umgesetzt ist, was nicht.

2 — Scores lesen

Per-Engine-Score (0-100 + Letter-Grade) für ChatGPT, Perplexity, Claude, AIO.

3 — Quick-Wins

Top-5-Maßnahmen sortiert nach (Severity × Engines) / Aufwand.

Answer Engine Optimization (AEO) braucht ein anderes Fundament als klassisches SEO. Statt Keyword-Density zählt maschinenlesbare Struktur: Schema-Markup für FAQ, Article, HowTo und Product, direkte Antworten unter jeder H2, eine konsistente Brand-Entity über Wikipedia und LinkedIn, ein robots.txt, das GPTBot, ClaudeBot, PerplexityBot und Google-Extended explizit zulässt. Dieses Audit checkt die 25 wichtigsten Bausteine in 5 Kategorien.

Jedes Item hat ein Severity-Tag (Critical/High/Medium/Low) und einen Aufwands-Tag (15min/1h/1Tag/1Woche). Vier Engines bekommen jeweils einen eigenen Score (0-100 + Letter-Grade A-F) — die Gewichte unterscheiden sich pro Engine. Perplexity belohnt FAQ + direkte Antworten extrem, Google AI Overview folgt klassischen SEO-Signalen plus Schema, Claude und ChatGPT liegen dazwischen.

Der Quick-Wins-Algorithmus sortiert offene Items nach (Severity × betroffene Engines) / Aufwand. Du bekommst Top 5 sitewide plus Top 3 pro Engine. Exporte als Markdown (für deinen CEO-Report), CSV (Excel-Tracker) und PDF via Print-CSS. Kein Live-Crawl — das ist explizit ein Self-Check, ergänzt durch Google Rich Results Test, GSC und ein AEO-Tracking-Tool deiner Wahl.

{ }Schema

0/5

</>Content

0/5

@Entity

0/5

/_*Technical

0/5

()=>Tracking

0/5

{ }On-Page Schema0/5

JSON-LD Structured Data — die Pflicht-Basis für jede Engine. Ohne Schema gibt es keine Rich-Snippets, keine Citation-Quote, kein Knowledge-Graph-Match.

</>Content-Struktur0/5

Wie sind Antworten extrahierbar? H1-Match auf Query, direkte 1-2 Satz Antworten, TL;DR, Listen, Tabellen, Q&A im PAA-Format.

@Entity + Authority0/5

Wer steht hinter dem Content? Organization-Schema, Author-Bios, externe Mentions, NAP-Konsistenz, klare About-Page.

/_*Technical / Crawlability0/5

Können AI-Crawler die Seite überhaupt lesen? robots.txt-Allowlist, Sitemap, Mobile, HTTPS, Schema-Validierung.

()=>Tracking + Iteration0/5

Wie misst du AEO-Erfolg? Brand-Mention-Tests, Citation-Tracking, GSC + GA4 pro Query, Roadmap mit Owner.

$Export

Markdown enthält Per-Engine-Scores, Top-5- und Per-Engine-Quick-Wins, vollständige Checkliste. CSV liefert Item-Liste mit Engine-Weights für Excel-Audit-Tracker. PDF via Browser-Druck-Dialog (CEO-Report-fähig).

Disclaimer

Keine Garantie auf AEO-Ranking. Dieses Audit dient als Self-Check und ersetzt keine professionelle Beratung. AEO-Ranking hängt von zusätzlichen Faktoren ab (Authority-Backlinks, Content-Qualität, Domain-Trust, Wettbewerbsdichte), die ein Self-Check nicht messen kann. Verbindliche technische Validierung via Google Rich Results Test, GSC, Bing Webmaster Tools und einem AEO-Tracking-Tool deiner Wahl.

Frequently Asked Questions

Was prüft das AEO-Audit konkret?
25 Items in 5 Kategorien: On-Page Schema (FAQPage, Article, HowTo, Product, Breadcrumb), Content-Struktur (H1-Query-Match, direkte Antworten, TL;DR, Listen, PAA), Entity + Authority (Organization-Schema, Author-Pages, Mentions, NAP, About), Technical (robots.txt, Sitemap, CWV, HTTPS, Validierung) und Tracking (Brand-Mention-Tests, Citation-Rate, GSC + GA4, Roadmap). Du bekommst pro Engine einen eigenen Score und 5 priorisierte Quick-Wins.
Wie unterscheidet sich AEO von SEO?
SEO optimiert für Rankings in Suchergebnis-Listen mit 10 blauen Links. AEO optimiert dafür, dass eine generative Engine deine Inhalte direkt als Antwort zitiert. Überschneidung: ~70% (gutes Schema, saubere Crawlability, E-E-A-T zählen für beides). Unterschiede: AEO gewichtet direkte Antworten unter H2, FAQPage-Schema, Citation-Worthiness deutlich stärker. Klassisches Keyword-Stuffing hilft AEO gar nicht.
Brauche ich für jede Engine einen anderen Ansatz?
Die Basics (Schema, direkte Antworten, robots.txt-Allow) zählen überall. Die Gewichtung unterscheidet sich: Perplexity belohnt FAQ-Schema + Quote-Ready-Antworten extrem, Google AI Overview folgt klassischen Ranking-Signalen plus Schema, Claude legt Wert auf Source-Quality, ChatGPT bevorzugt strukturierte Listen und Tabellen. Deshalb gibt das Audit pro Engine einen eigenen Score — die Quick-Wins differieren.
Wie oft soll ich auditieren?
Quartalsweise als Routine plus immer nach größeren Site-Umbauten (CMS-Migration, neuer Theme-Build, redaktioneller Relaunch). Schema-Properties veralten, neue Crawler kommen (z.B. OAI-SearchBot 2024), Google deprecated alle paar Quartale Felder. Für eilige Teams: Items aus der Kategorie Tracking monatlich, Rest quartalsweise.
Welche Tools sind essentiell?
Pflicht: Google Rich Results Test (search.google.com/test/rich-results), Google Search Console, Bing Webmaster Tools, PageSpeed Insights, ein Screaming-Frog-Setup für Sitewide-Schema-Checks. Empfehlenswert: ein AEO-Tracker wie Profound, Otterly oder Ahrefs Brand Radar. Kein Tool ersetzt aber das manuelle Durchspielen deiner Top-Queries in den 4 Engines.
Warum kein automatischer URL-Audit?
Browser-CORS-Restriktionen blockieren das Lesen fremder Seiten im Client. Verbindliche Bewertungen lieferst du via Schema-Validator, Bing Webmaster Tools oder spezialisierten Tools wie AEORadar oder Profound. Dieses Audit ist der strukturierte Schnell-Check vor dem tieferen Analyse-Schritt — und die Markdown-/CSV-Exports machen den Audit reportable.
Was bedeuten die Severity-Tags?
Critical (rot) = ohne dieses Item kein AEO-Erfolg, fang hier an. High (orange) = signifikanter Hebel, sollte in den nächsten 4 Wochen umgesetzt sein. Medium (gelb) = solides Plus, vor allem bei wettbewerbsintensiven Queries. Low (blau) = Nice-to-have, hilft im langen Atem. Severity fließt in den Quick-Wins-Algorithmus ein: Severity-Gewicht × betroffene Engines geteilt durch Aufwand.
Welche Score-Schwellen gelten pro Engine?
Pro Engine: 85-100 = A (alle Pflicht-Basics erfüllt), 70-84 = B (solider Stand, einzelne Items fehlen), 55-69 = C (Kern steht, mehrere Lücken), 40-54 = D (deutlicher Nachholbedarf), 0-39 = F (fundamentale Probleme — Schema und robots.txt sofort fixen). Die Engines sind unterschiedlich streng, weil sie unterschiedliche Items hoch gewichten.
Sind diese Scores eine Garantie für AEO-Ranking?
Nein, das ist explizit kein Versprechen. AEO-Ranking hängt zusätzlich von Faktoren ab, die kein Self-Check messen kann: Authority-Backlink-Profil, redaktionelle Content-Qualität, Aktualität, Domain-Trust, Wettbewerbsdichte deiner Queries. Der Audit liefert dir die saubere Basis — die Citation-Rate selbst musst du in den Engines messen.