Tilbake til SEO-sjekkliste

AI-bot-brukeragenter

Komplett referanse for robots.txt-konfigurasjon

Hva er brukeragenter?

En brukeragent er en streng som identifiserer hvilken bot eller nettleser som besøker nettstedet ditt. AI-søkemotorer bruker spesifikke brukeragenter slik at du kan kontrollere tilgangen deres i robots.txt.

Å forstå disse brukeragentene hjelper deg å konfigurere GEO-vennlig tilgang. Denne referansen lister opp alle store AI-bots du bør kjenne til.

Viktige AI-bot-brukeragenter

Bot-navnBrukeragent-strengSelskap
GPTBotGPTBotOpenAI (ChatGPT)
ChatGPT-UserChatGPT-UserOpenAI (ChatGPT Plugins/Browse)
Claude-WebClaude-WebAnthropic (Claude)
anthropic-aianthropic-aiAnthropic (Training)
Google-ExtendedGoogle-ExtendedGoogle (Gemini/Bard)
PerplexityBotPerplexityBotPerplexity AI
YouBotYouBotYou.com
Applebot-ExtendedApplebot-ExtendedApple (AI features)
DiffbotDiffbotDiffbot (Knowledge Graph)
cohere-aicohere-aiCohere

robots.txt-eksempler

Tillat alle AI-bots (Anbefalt for GEO)

Denne konfigurasjonen lar alle AI-bots crawle hele nettstedet ditt:

User-agent: GPTBot Allow: / User-agent: ChatGPT-User Allow: / User-agent: Claude-Web Allow: / User-agent: anthropic-ai Allow: / User-agent: Google-Extended Allow: / User-agent: PerplexityBot Allow: / User-agent: YouBot Allow: / User-agent: Applebot-Extended Allow: / User-agent: Diffbot Allow: / User-agent: cohere-ai Allow: /

Blokker alle AI-bots (Ikke anbefalt)

Bruk dette kun hvis du ønsker å velge bort AI-søk fullstendig:

User-agent: GPTBot Disallow: / User-agent: ChatGPT-User Disallow: / User-agent: Claude-Web Disallow: / User-agent: Google-Extended Disallow: /

Eksempel på delvis tilgang

Tillat AI-bots til offentlig innhold, men blokker private områder:

User-agent: GPTBot Allow: /blog/ Allow: /docs/ Disallow: /admin/ Disallow: /user/ Disallow: /api/

Test konfigurasjonen din

Sjekk robots.txt-filen din

Besøk: https://yoursite.com/robots.txt

Verifiser at filen lastes inn og inneholder AI-bot-konfigurasjonene dine.

Bruk robots.txt-testere

Google Search Console tilbyr en robots.txt-tester. Test ulike brukeragenter for å verifisere konfigurasjonen din.

Overvåk serverlogger

Sjekk serverloggene dine for å se hvilke bots som faktisk crawler. Se etter brukeragent-strenger i tilgangsloggene.

Beste praksis

  • Tillat alle AI-bots med mindre du har spesifikke grunner til å la være
  • Hold robots.txt enkel og godt dokumentert
  • Test endringer før du publiserer til produksjon
  • Overvåk logger for å se hvilke bots som faktisk besøker
  • Oppdater robots.txt etter hvert som nye AI-bots dukker opp
  • Blokker kun spesifikke sensitive mapper, ikke hele nettstedet

Relaterte ressurser

Referanse for AI-bot-brukeragenter: Komplett liste for robots.txt