Ihr nächster Kunde hat ChatGPT gefragt. Sie kamen in der Antwort nicht vor.
KI-gestützte Suchmaschinen — ChatGPT, Perplexity, Google AI Overviews — ersetzen die klassische Suche für einen wachsenden Anteil der Kaufentscheidungen. Aber die meisten Unternehmenswebsites sind für sie unsichtbar: durch Bot-Schutz blockiert, den der Hoster standardmäßig aktiviert hat, ohne strukturierte Daten, oder schlicht nicht maschinenlesbar. Sie verlieren Aufträge, von denen Sie nie erfahren.
Das Problem
KI-Crawler (GPTBot, PerplexityBot, Google-Extended) werden auf vielen Hosting-Plattformen und CDNs standardmäßig blockiert. Kein Crawl-Zugang bedeutet keine Erwähnung. Ihre Website ist eine Black Box für die Systeme, auf die sich immer mehr Menschen verlassen.
Was wir tun
Vollständiges Audit Ihrer KI-Auffindbarkeit: Crawler-Zugang, strukturierte Daten, Schema-Markup, Content-Lesbarkeit. Dann ein konkreter Maßnahmenplan — keine Theorie, sondern Änderungen, die Sie deployen können.
Das Ergebnis
Ihre Website ist lesbar, zitierbar und korrekt dargestellt in KI-gestützter Suche. Sie wissen, wer Sie sieht, wer nicht, und wie Sie das laufend überwachen.
Was wir prüfen
- robots.txt: Welche KI-Crawler sind erlaubt, welche blockiert?
- CDN / WAF / Hosting Bot-Schutz-Standardeinstellungen
- JSON-LD strukturierte Daten: Vollständigkeit und Korrektheit
- Content-Struktur: Überschriften, semantisches HTML, Lesbarkeit
- Sitemap, hreflang, Canonical — die Grundlagen, auf die KI angewiesen ist
- Zitations-Test: Was sagen ChatGPT und Perplexity heute über Sie?
Ablauf
- Scan — Automatisiertes und manuelles Audit Ihrer Web-Präsenz
- Report — Klare Befunde: Was ist blockiert, was fehlt, was ist falsch
- Fix — Änderungen umsetzen (oder mit genauen Anweisungen an Ihr Team übergeben)
- Verify — Bestätigen, dass KI-Crawler Ihre Website korrekt erfassen und darstellen