Sperrung aller Bots
Mit User-agent: * und Disallow: / werden alle konformen Crawler von der gesamten Website ausgesperrt — nützlich für Staging-Umgebungen.
User-agent: *
Disallow: /
Kostenlos von KB Media
Steuere SEO-Crawler und KI-Bots — robots.txt einfach erstellen und herunterladen.
# robots.txt — generiert von kb-media.ch/robots-txt-generator User-agent: * Disallow: /admin/ Sitemap: https://example.com/sitemap.xml
Mit User-agent: * und Disallow: / werden alle konformen Crawler von der gesamten Website ausgesperrt — nützlich für Staging-Umgebungen.
Immer mehr KI-Trainingscrawler respektieren robots.txt. GPTBot, CCBot und ClaudeBot können einzeln gesperrt werden.