# robots.txt für bikepark.aidenbach.de # Stand: 06.11.2025 # Diese Datei regelt, wie Webcrawler (Suchmaschinen + KI-Crawler) auf Inhalte zugreifen dürfen. # ----------------------------------------- # Standard-Crawler-Regeln # ----------------------------------------- User-agent: * Disallow: /.github/ Disallow: /.phan/ Disallow: /assets/ Disallow: /backup/ Disallow: /bin/ Disallow: /cache/ Disallow: /logs/ Disallow: /system/ Disallow: /tests/ Disallow: /tmp/ Disallow: /user/ Disallow: /vendor/ Disallow: /webserver-configs/ Allow: /user/pages/ Allow: /user/themes/ Allow: /user/images/ Allow: / Allow: *.css$ Allow: *.js$ Allow: /system/*.js$ # ----------------------------------------- # KI-Crawler-spezifische Regeln # (Diese Bots dürfen Inhalte abrufen, aber nicht zum KI-Training verwenden.) # ----------------------------------------- # OpenAI (ChatGPT / GPTBot) User-agent: GPTBot Disallow: /admin/ Disallow: /intern/ Allow: / # Anthropic (ClaudeBot) User-agent: ClaudeBot Disallow: /admin/ Disallow: /intern/ Allow: / # Perplexity (PerplexityBot) User-agent: PerplexityBot Disallow: /admin/ Disallow: /intern/ Allow: / # Google (Gemini / Bard) User-agent: Google-Extended Disallow: /admin/ Disallow: /intern/ Allow: / # ----------------------------------------- # Hinweise # ----------------------------------------- # 1. Diese robots.txt arbeitet mit der llm.txt zusammen: # https://bikepark.aidenbach.de/llm.txt # 2. Die llm.txt enthält detaillierte Nutzungsrichtlinien (kein KI-Training, Attribution erforderlich). # 3. Dateien wie /admin/ oder /intern/ bleiben für alle Bots gesperrt. # 4. Öffentliche Seiteninhalte (z. B. Sponsoren, Projektinfos) sind zugänglich und dürfen zitiert werden.