Tilbage til læringshubben

robots.txt til AI-bots

Styr hvilke AI-engines der kan tilgå dit indhold

Hvad er robots.txt?

robots.txt-filen er en simpel tekstfil, der fortæller bots og crawlere, hvilke dele af din hjemmeside de må besøge. Tænk på det som et skilt ved indgangen til din hjemmeside, der siger "besøgende velkomne" eller "privat område". Hver bot, der følger reglerne (kaldet Robots Exclusion Protocol), tjekker denne fil først, før den crawler dit site.

For AI-søgemaskiner er robots.txt særligt vigtig. Den styrer, om AI-bots som GPTBot (ChatGPT), ClaudeBot (Claude) og PerplexityBot kan tilgå dit indhold til træning og søgeresultater. At sætte dette korrekt op hjælper dig med effektivt at administrere din AI-bot-adgang.

Din robots.txt-fil skal være placeret på ditsite.dk/robots.txt. Bots vil ikke lede efter den andre steder. Hvis du ikke har denne fil, antager bots, at de kan crawle alt.

Hvorfor robots.txt betyder noget for AI

AI-bots er forskellige fra traditionelle søgemaskine-crawlere. De besøger dit site af to hovedgrunde:

Indsamling af træningsdata

Nogle AI-virksomheder bruger webindhold til at træne deres sprogmodeller. De crawler millioner af sider for at bygge vidensbaser.

Du kan styre, om dit indhold bruges til træning, ved at blokere specifikke bots i robots.txt.

Generering af søgeresultater

AI-søgemaskiner crawler dit indhold for at inkludere det i deres søgeresultater og svargenerering.

At tillade disse bots hjælper dit indhold med at optræde i AI-genererede svar og forbedrer din GEO-Score.

Nøglen er at finde den rette balance. Du vil have AI-søgemaskiner til at tilgå dit indhold for synlighed, men du vil måske blokere visse områder eller specifikke træningsbots. Din robots.txt-fil giver dig denne kontrol.

Større AI-bot user-agents

Hver AI-bot identificerer sig selv med en unik user-agent-streng. Her er de vigtigste:

GPTBot

OpenAI

User-agent: GPTBot

Bruges af: ChatGPT, OpenAI-søgefunktioner

GPTBot crawler indhold til både ChatGPT-svar og træning. At blokere den forhindrer dit indhold i at optræde i ChatGPTs websøgeresultater.

ClaudeBot

Anthropic

User-agent: ClaudeBot

Bruges af: Claude AI, Anthropics AI-assistent

ClaudeBot tilgår webindhold for at give aktuel information i Claudes svar. Den respekterer robots.txt-regler nøje.

PerplexityBot

Perplexity

User-agent: PerplexityBot

Bruges af: Perplexity AI-søgemaskine

PerplexityBot driver en af de mest populære AI-søgemaskiner. At tillade den forbedrer synligheden i Perplexity-søgeresultater.

Google-Extended

Google

User-agent: Google-Extended

Bruges af: Google Gemini AI-træning

Dette er separat fra Googlebot. Google-Extended indsamler data til træning af Gemini. At blokere den påvirker ikke normal Google-søgeindeksering.

FacebookBot

Meta

User-agent: FacebookBot

Bruges af: Meta AI, Facebook-link-previews

FacebookBot crawler til link-previews og Metas AI-funktioner. Den er vigtig for synlighed på sociale medier.

For en komplet liste over AI-bot user-agents med tekniske detaljer, se vores AI-bot user-agents-reference.

Grundlæggende robots.txt-syntaks

robots.txt-filen bruger en simpel syntaks med kun et par kommandoer:

User-agent

Specificerer hvilken bot de følgende regler gælder for. Brug * for alle bots.

User-agent: GPTBot
User-agent: *

Disallow

Fortæller bots IKKE at tilgå specifikke stier. Brug / for at blokere alt.

Disallow: /admin/
Disallow: /private/
Disallow: /

Allow

Fortæller bots at de KAN tilgå specifikke stier. Brug dette til at overskrive en bredere Disallow-regel.

Disallow: /admin/
Allow: /admin/public/

Crawl-delay

Sætter en forsinkelse i sekunder mellem bot-anmodninger. Understøttes ikke af alle bots.

Crawl-delay: 10

Sitemap

Peger bots til dit XML-sitemap for bedre crawling-effektivitet.

Sitemap: https://yoursite.com/sitemap.xml

Almindelige robots.txt-konfigurationer

Her er klar-til-brug-konfigurationer til almindelige scenarier:

Tillad alle AI-bots (anbefalet for de fleste sites)

Denne konfiguration byder alle AI-søgemaskiner velkommen, mens den beskytter admin-områder:

# Allow all AI bots to crawl
User-agent: *
Allow: /

# Block private areas for all bots
Disallow: /admin/
Disallow: /api/
Disallow: /login/
Disallow: /dashboard/

# Sitemap location
Sitemap: https://yoursite.com/sitemap.xml

Bloker AI-træning, tillad AI-søgning

Bloker bots der bruges til træning af AI-modeller, mens du tillader søgebots:

# Block training bots
User-agent: GPTBot
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: CCBot
Disallow: /

# Allow search bots
User-agent: PerplexityBot
Allow: /

User-agent: ClaudeBot
Allow: /

# Default rules for other bots
User-agent: *
Allow: /
Disallow: /admin/

Sitemap: https://yoursite.com/sitemap.xml

Selektiv indholdsadgang

Tillad AI-bots at tilgå blogindhold, men ikke produktsider:

# AI bots can access blog
User-agent: GPTBot
Allow: /blog/
Disallow: /

User-agent: ClaudeBot
Allow: /blog/
Disallow: /

# Default rules
User-agent: *
Allow: /

Sitemap: https://yoursite.com/sitemap.xml

Bloker alle AI-bots

Hvis du vil fravælge AI-søgning helt (ikke anbefalet for synlighed):

# Block all known AI bots
User-agent: GPTBot
Disallow: /

User-agent: ClaudeBot
Disallow: /

User-agent: PerplexityBot
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: FacebookBot
Disallow: /

User-agent: CCBot
Disallow: /

# Allow traditional search engines
User-agent: Googlebot
Allow: /

User-agent: Bingbot
Allow: /

Sitemap: https://yoursite.com/sitemap.xml

Best practices

Gør dette

Placér robots.txt i din rodmappe

Brug én regel pr. linje

Inkluder din sitemap-placering

Test din robots.txt efter ændringer

Tillad AI-bots for bedre GEO-synlighed

Hold filen under 500KB

Undgå dette

At bruge robots.txt til sikkerhed

At blokere alle bots uden grund

At bruge regulære udtryk (ikke understøttet)

At glemme at opdatere efter site-ændringer

At blokere CSS/JS der er nødvendig for siderendering

At oprette flere robots.txt-filer

Test af din robots.txt

Test altid din robots.txt-fil, før du udruller den. Brug disse metoder:

Manuel testning

Besøg ditsite.dk/robots.txt i din browser for at verificere:

  • Filen er tilgængelig og indlæses korrekt
  • Der er ingen syntaksfejl eller stavefejl
  • Alle user-agent-navne er stavet korrekt
  • Stier matcher din faktiske site-struktur

Google Search Console

Brug Googles robots.txt-tester-værktøj:

  • Gå til Google Search Console
  • Naviger til Crawl → robots.txt-tester
  • Test specifikke URL'er mod dine regler
  • Tjek for fejl og advarsler

Online-validatorer

Brug tredjeparts robots.txt-validatorer:

  • Robots.txt Checker: Tjek syntaks og dækning
  • Bloffee GEO Analyzer: Validerer robots.txt som en del af fuld site-analyse
  • SEO-værktøjer: Mange SEO-platforme inkluderer robots.txt-testning

Overvågning af serverlogs

Tjek dine serverlogs for at verificere bot-adfærd:

  • Kig efter AI-bot-user-agent-strenge i adgangslogs
  • Verificér at bots respekterer dine regler
  • Identificér eventuel uautoriseret crawling
  • Overvåg crawl-frekvens og mønstre

Avancerede konfigurationer

Rate-begrænsning med crawl-delay

Styr hvor hurtigt bots crawler dit site for at reducere serverbelastning:

User-agent: GPTBot
Crawl-delay: 10
Allow: /

User-agent: ClaudeBot
Crawl-delay: 5
Allow: /

Bemærk: Ikke alle bots understøtter crawl-delay. Det er mere pålideligt at bruge serverside-rate-begrænsning.

Wildcard-mønstre

Brug wildcards til at matche flere stier (understøttet af de fleste moderne bots):

User-agent: *
# Block all PDF files
Disallow: /*.pdf$

# Block all URLs with query parameters
Disallow: /*?

# Block all admin pages
Disallow: /*/admin/

Flere sitemaps

Lis flere sitemaps for forskellige indholdstyper:

Sitemap: https://yoursite.com/sitemap-pages.xml
Sitemap: https://yoursite.com/sitemap-blog.xml
Sitemap: https://yoursite.com/sitemap-products.xml
Sitemap: https://yoursite.com/sitemap-images.xml

Hurtige tips til robots.txt

  • Start med at tillade alle AI-søgebots for maksimal synlighed
  • Bloker kun specifikke bots, hvis du har en stærk grund
  • Inkluder altid din sitemap-placering
  • Test ændringer, før du udruller til produktion
  • Overvåg bot-adgang i dine serverlogs
  • Opdater robots.txt når du ændrer site-struktur
  • Husk: robots.txt er ikke en sikkerhedsforanstaltning

Indvirkning på din GEO-Score

Din robots.txt-konfiguration påvirker direkte din AI-bot-adgang-score, som er en nøglekomponent i din samlede GEO-Score.

Bloffee tjekker din robots.txt for:

  • Om AI-bots kan tilgå dit indhold
  • Korrekt syntaks og formatering
  • Utilsigtet blokering af vigtige sider
  • Sitemap-deklaration
  • Overdrevent restriktive regler der skader synlighed

En velkonfigureret robots.txt, der byder AI-bots velkommen, kan forbedre din GEO-Score med 10-15 point. At blokere vigtige bots kan reducere din score med 20-30 point eller mere.

Klar til at generere din robots.txt?

Brug vores gratis robots.txt-generator til at oprette en AI-optimeret konfiguration på sekunder. Konfigurer 40+ bots med ét klik.

Generér robots.txt

Relaterede emner

robots.txt til AI-bots: Komplet konfigurationsguide