Tilbage til læringshubben

Billed-alt-tekst

Gør hvert billede læsbart for mennesker, maskiner og AI-søgemaskiner

Hvad er billed-alt-tekst?

Billed-alt-tekst er en kort skriftlig beskrivelse af et billede, sat på HTML-alt-attributten (for eksempel alt="Sort læder Chelsea-støvle, sideprofil"). Den er usynlig på siden, men læses højt af skærmlæsere, vises, når et billede ikke kan indlæses, og parses af AI-søgemaskiner og søgecrawlere. WCAG 2.1 Success Criterion 1.1.1 kræver et tekstalternativ for alt ikke-tekst-indhold — hvilket betyder, at hvert meningsfuldt billede har brug for alt-tekst.

AI-søgemaskiner som ChatGPT, Perplexity og Google AI Overviews citerer i stigende grad multi-modalt indhold. De fleste kører ikke vision på hvert billede — de læser alt-teksten, billedtekster og omkringliggende HTML for at afgøre, hvad et billede viser, og om de skal citere siden. Sider, hvor tekst, billeder og struktureret data alle forstærker det samme emne, citeres langt oftere. Denne metrik er en del af søjlen Teknisk fundament i din GEO-Score.

Hvorfor alt-tekst er vigtig for AI-søgning

Alt-tekst er ét af de få signaler, der trækker tredobbelt vagt: det er et juridisk tilgængelighedskrav, en bekræftet billedsøge-rangeringsfaktor og det primære tekst-input, AI-søgemaskiner bruger til at fortolke dine visuelle elementer. At springe det over koster dig på alle tre fronter samtidigt.

Tilgængelighed er baselinjen (og loven)

WCAG 2.1 Level A kræver et tekstalternativ for alt ikke-tekst-indhold. WebAIM Million 2025-studiet fandt, at 18,5 % af alle hjemmesidebilleder stadig mangler alt-tekst — og manglende alt-tekst er den mest almindelige WCAG-overtrædelse i de 3.117 ADA Title III-tilgængelighedssøgsmål, der blev indgivet i 2025.

AI-søgemaskiner citerer multi-modale sider oftere

Wellows analyserede 15.847 AI Overview-resultater på tværs af 63 brancher og fandt, at sider, der kombinerer tekst, billeder, video og struktureret data, ser 156 % højere udvælgelsesrater — hvor fuld multi-modal plus schema leverer op til 317 % flere citater. Alt-tekst er det, der forvandler et billede til et citerbart signal.

Billedsøgning og visuelle citater har brug for tekst

Google Lens behandler mere end 12 milliarder visuelle forespørgsler om måneden og vokser 30 % om året. Beskrivende alt-tekst er den enkeltvise billed-SEO-handling med højest effekt — men et Backlinko-studie af 65.388 visuelle søgninger fandt, at kun 11,4 % af rangerende billeder havde alt-tekst, der matchede forespørgslen.

Hvad forskningen siger

Pages that combine text, images, video, and structured data see 156% higher selection rates in AI Overviews, with full multi-modal plus schema integration delivering up to 317% more citations. Multi-modal integration showed a 0.92 correlation coefficient — the biggest ranking shift of 2025.

— Wellows, Google AI Overviews Ranking Factors Study (15,847 results, 63 industries), 2026

18.5% of all home page images had missing alternative text — about 11 missing alt attributes per page on average. A further 11% of images with alt text used questionable values like "image", "graphic", a file name, or duplicates of adjacent text.

— WebAIM Million 2025, Accessibility Audit of 1,000,000 Home Pages

Only 11.4% of all Google Lens result images contain alt text terms that match the keyword someone just searched for. Contextually rich alt text can improve visual search discovery by up to 35%, particularly for e-commerce and product-focused sites.

— Backlinko, Google Lens Study of 65,388 Visual Searches, 2025

Rigtige eksempler: dårlige vs. gode

Alt-tekst-kvalitet er binær i praksis — den er enten brugbar for en skærmlæser og AI-parser, eller den er støj. Disse tre virkelige scenarier viser, hvordan små ordlydsændringer vender et billede fra usynligt til citerbart.

Eksempel 1: E-commerce-produktbillede (Chelsea-støvle)

Dårlig — usynlig for AI og skærmlæsere

<img src="image1.jpg" alt="image1.jpg">

Hvorfor dette fejler: Filnavnet som alt-tekst giver ingen information om produktet. Skærmlæsere vil læse "image one dot jay peg". Google Image Search har intet signal at matche forespørgslen "sort Chelsea-støvle" mod. AI-søgemaskiner ser billedet, men kan ikke beskrive eller citere det.

God — citerbar, søgbar, tilgængelig

<img src="chelsea-boot-black.jpg" alt="Sort læder Chelsea-støvle, sideprofil, herrer størrelse 10, med elastikindsats og trækflap">

Hvorfor dette virker: En blind kunde hører det præcise produkt. Google kan matche alt-teksten mod farve-, stil- og størrelsesforespørgsler. ChatGPT og Perplexity kan citere denne side, når der spørges "bedste sorte Chelsea-støvler til mænd". Samme billede — totalt forskelligt resultat.

Eksempel 2: Blog-hero-billede (artikel om fjernarbejde)

Dårlig — manglende alt-attribut helt

<img src="hero-banner.png">

Hvorfor dette fejler: Uden nogen alt-attribut overhovedet falder mange skærmlæsere tilbage til at læse filnavnet ("hero banner dot p n g"). Det overtræder WCAG 1.1.1 Level A. AI-crawlere kan ikke placere billedet i kontekst, og siden går glip af det multi-modale citationsløft, Wellows målte.

God — beskriver billedet og understøtter artiklen

<img src="remote-team-video-call.png" alt="Distribueret engineering-team på et videoopkald, med delt skærm, der viser et Kanban-board">

Hvorfor dette virker: Alt-teksten beskriver både emne og kontekst og forstærker artiklens emne. AI-søgemaskiner har nu afstemte signaler (overskrift, brødtekst, billed-alt) — præcis det multi-modale mønster, der tjener 156 % flere AI Overview-citater.

Eksempel 3: Datavisualisering (kvartalsvis omsætningsdiagram)

Dårlig — for vag til at formidle dataene

<img src="q4.png" alt="diagram">

Hvorfor dette fejler: WebAIM markerede "diagram" som en klassisk tvivlsom alt-værdi (11 % af al alt-tekst på nettet er denne slags pladsholder). En skærmlæser-bruger lærer intet. AI-søgemaskiner kan ikke udtrække tallene og vil springe siden over, når de opsummerer omsætningstendenser.

God — kort alt + opsummering af de faktiske data

<img src="q4-revenue-bar-chart.png" alt="Søjlediagram over kvartalsvis omsætning 2025: 1. kvt. 4,2 mio. $, 2. kvt. 4,8 mio. $, 3. kvt. 5,1 mio. $, 4. kvt. 6,7 mio. $ — 60 % vækst år-til-år">

Hvorfor dette virker: Diagramtypen er navngivet, de fire datapunkter er listet, og hovedkonklusionen er inkluderet. WCAG-vejledningen for komplekse billeder er opfyldt, og AI-søgemaskiner kan citere de faktiske tal i svar om omsætningstendenser.

Sådan forbedrer du din billed-alt-tekst

Gør IKKE dette

  • Udelad alt-attributten helt — mange skærmlæsere vil læse filnavnet højt, hvilket er værre end ingenting
  • Brug rå filnavne som IMG_1234.jpg, screenshot-final-v2.png eller hero.webp som alt-værdi
  • Start hver alt med "Billede af" eller "Foto af" — skærmlæsere annoncerer allerede elementet som et billede, så det spilder bare tegn
  • Pak alt-tekst med urelaterede søgeord — Google kalder dette eksplicit spam i sin billed-SEO-dokumentation og kan straffe siden
  • Lad dekorative billeder (skillelinjer, baggrundsudsmykninger) være uden alt="" — uden en tom alt kan skærmlæsere forsøge at beskrive meningsløse visuelle elementer

Gør dette i stedet

  • Beskriv, hvad billedet viser OG hvorfor det er på siden — indhold + kontekst, ikke bare etiketter
  • For diagrammer, infografikker og skærmbilleder, led med typen ("Søjlediagram...", "Skærmbillede af...", "Diagram, der viser...")
  • Hold alt-tekst i 80-125-tegns-intervallet — lang nok til at være specifik, kort nok til, at skærmlæsere ikke forkorter
  • Brug alt="" (uden mellemrum mellem citationstegnene) for dekorative billeder, så skærmlæsere og AI rent springer dem over
  • Sørg for, at filnavn, alt-tekst, billedtekst og omkringliggende afsnit alle beskriver det samme — afstemte signaler vinder i AI-søgning

Hurtige tips til bedre alt-tekst

  • Tilføj en alt-attribut til hvert img-tag — beskrivende for indholdsbilleder, alt="" for dekorative. Der er ingen tredje mulighed.
  • Sigt efter 80-125 tegn. Lang nok til at være specifik, kort nok til, at JAWS og NVDA ikke forkorter beskrivelsen.
  • Spring "Billede af", "Foto af", "Foto, der viser" over. Skærmlæsere annoncerer rollen selv — disse ord er ren støj.
  • For diagrammer, infografikker og diagrammer skriv en kort alt PLUS en længere beskrivelse i den omkringliggende tekst eller en linket detaljeside.
  • Hvis et billede også er et link, bør alt-tekst beskrive linkets destination, ikke kun billedet. WebAIM fandt, at 44 % af manglende-alt-billeder er links.
  • Kør et gratis GEO-Score-tjek for at finde manglende eller lavkvalitets-alt-tekst på din side på sekunder — at rette disse er en af de hurtigste gevinster.

Ofte stillede spørgsmål

Hvor lang bør alt-tekst være?
De fleste tilgængeligheds- og SEO-kilder samles om 80-125 tegn som det optimale interval. Det er langt nok til at være specifikt ("Sort læder Chelsea-støvle, sideprofil, størrelse 10"), men kort nok til, at JAWS, NVDA og VoiceOver ikke forkorter det. For komplekse billeder som diagrammer eller infografikker skriv en kort alt og suppler den med en længere beskrivelse i omkringliggende tekst eller en linket lang beskrivelse.
Hvad er forskellen mellem alt="" og en manglende alt-attribut?
alt="" (en tom alt-attribut, uden mellemrum mellem citationstegnene) fortæller eksplicit skærmlæsere og AI-søgemaskiner, at de skal springe billedet over. Det er det korrekte mønster for rent dekorative billeder. En manglende alt-attribut er anderledes: mange skærmlæsere vil falde tilbage til at læse filnavnet, hvilket producerer støj som "hero banner dot p n g". Inkluder altid attributten, selv hvis du sætter den tom.
Læser AI-søgemaskiner som ChatGPT faktisk alt-tekst?
Ja. De fleste AI-søgemaskiner kører ikke billedvision på hvert billede, de møder — det er for dyrt i stor skala. I stedet læser ChatGPT (med Browse), Perplexity, Claude og Google AI Overviews side-HTML'en og prioriterer alt-teksten, billedtekster, filnavne og omkringliggende afsnit. Wellows-forskning fra 2026 fandt, at sider, der kombinerer tekst, billeder, video og struktureret data, ser 156 % højere AI Overview-citationsrater.
Hjælper alt-tekst min Google-rangering?
Det afhænger af søgetypen. For Google Image Search er alt-tekst en bekræftet direkte rangeringsfaktor — Google har erklæret, at det er den vigtigste attribut til at forstå billedindhold. For traditionel Google Search behandles alt-tekst som normal sidetekst, der bidrager til emnerelevans frem for at fungere som en større selvstændig faktor. For AI Overviews og Lens er alt-tekst ét af de stærkeste tilgængelige signaler.
Hvordan skriver jeg alt-tekst til diagrammer, grafer og infografikker?
Brug en todelt tilgang. Den korte alt skal navngive visualiseringstypen og hovedfundet ("Søjlediagram af 2025-omsætning, der viser 60 % vækst år-til-år"). Lever derefter de fulde data i den omkringliggende tekst — enten som et afsnit, en datatabel eller en linket lang beskrivelse. Alt-tekst kan ikke indeholde overskrifter eller afsnit, så alt længere end ~150 tegn bør flyttes ind i sidekroppen.
Kan jeg bare bruge AI til auto-generere alt-tekst til hele mit site?
AI-værktøjer (ChatGPT Vision, Gemini, dedikerede alt-tekst-API'er) kan producere et stærkt første udkast og er langt bedre end manglende alt-tekst. Men auto-genereret alt går ofte glip af on-page-kontekst — hvorfor billedet er der, ikke kun hvad det viser. Bedste praksis i 2026: brug AI til at udkaste, og lad et menneske gennemgå for formål, brand-stemme og nøjagtighed på nøglesider. WebAIM-undersøgelsen fra 2025 af skærmlæser-brugere vurderer stadig menneske-kuraterede beskrivelser højere end AI-only-output.

Relaterede metrikker at udforske

  • AI-optimering

    Alt-tekst er ét teknisk AI-signal — se det fulde sæt af optimeringer, der gør din side læsbar for ChatGPT, Perplexity og AI Overviews.

  • Indholdsstruktur

    Afstemte signaler vinder i AI-søgning. Lær, hvordan overskriftshierarki og billedplacering fungerer sammen for at gøre passager udtrækbare.

  • Schema-validator

    Par alt-tekst med ImageObject-schema for at give AI-søgemaskiner struktureret metadata. Schema plus multi-modalt indhold er det 317 % citationsløft, Wellows målte.

  • Omfang

    Multi-modale sider med tekst, billeder og data dækker emner mere fuldstændigt. Lær, hvordan omfang forstærker hinanden med alt-tekst for AI-synlighed.

Lavet ændringer? Tjek din alt-tekst-dækning.

Den hurtigste måde at forbedre billed-alt-tekst på er at finde, hvad der mangler, og rette det. Kør et gratis GEO-Score-tjek for at se, hvilke billeder på din side der mangler beskrivende alt — og hvordan det påvirker din samlede AI-søgningsparathed.

Analysér din side gratis
Billed-alt-tekst: Hvordan beskrivende alt-attributter tjener AI-citater