Skip to content

GEO - Sådan opnår du synlighed i AI værktøjer og platforme

Er GEO din nye bedste ven?

GEO, eller generative engine optimization som forkortelsen står for, er det seneste ord i den efterhånden endeløse række af marketing buzzwords. 

Hvis du ikke lige er helt up to date på din marketing lingo, så handler GEO om at optimere sit website og indhold, så det opnår størst mulig synlighed i de svar AI chatbots og agenter generer til brugerne. Tænk på det som SEO – bare målrettet ChatGPT istedet for Google.  

Nu hvor du er helt skarp på hvad GEO betyder, så er det næste oplagte spørgsmål naturligvis om det er noget du behøver forholde dig til? 

Det korte svar er, ja. 

Det lidt længere svar er, ja, men ikke så meget som alle de nyudklækkede GEO-specialister på LinkedIn påstår (hvor kom de lige fra?). 

Hvilke overvejelser bør du så gøre dig i forhold til at optimere dit website for AI agenter? Det gennemgår vi i dette indlæg!

Blog

Er det overhovedet en god idé at give AI bots adgang til dit site?

Jeg møder af og til den holdning, at det er bedst at blokere for AI bots på ens website, da de bare stjæler indholdet og gengiver det på deres egne platforme uden at sende trafikken videre til dig.

Det er der desværre et gran af sandhed i. Når ChatGPT eller Google genererer en AI respons på brugerens input, så er det ikke altid, at de liiige husker det der med kildeangivelser som vi alle blev indprentet i vores skoletid.

Alligevel vil jeg ikke anbefale, at du blokerer for AI bots på dit website. Det er der et par grunde til: 

  • ChatGPT og Googles “AI overviews” er stadig meget nye teknologier og vi ved endnu ikke hvad de udvikler sig til og hvor vigtig en trafikkilde de kan blive i fremtiden. Vi bør ikke på forhånd afskære os fra en potentiel kæmpe markedsføringskanal uden at have det fulde billede.

  • AI forsvinder ikke af at du udelukker dem fra dit website. Med andre ord; brugerne kommer til at benytte disse værktøjer og de vil tage markedsandele fra andre trafikkilder. Derfor vil jeg hellere være synlig i det omfang det nu engang bliver muligt og høste mest mulig trafik.

  • Konkurrenterne vil formentligt ikke blokere for AI bots, så uanset hvor meget eller hvor lidt trafik det bliver muligt at få, ville jeg alt andet lige foretrække at trafikken gik til mig. 

Så selvom vi kunne have lange diskussioner om ophavsret og kildehenvisninger i forhold til AI, vil jeg med marketing-brillerne på, anlægge det pragmatiske synspunkt at vi ikke kommer uden om ChatGPT, Google AI overviews og hvad de ellers hedder. Derfor bliver vi nødt til at få mest muligt ud af dem.

Og bare lige for også at have ja-hatten lidt på: Så repræsenterer et nyt område også en kæmpe mulighed for at være hurtigere og bedre end dine konkurrenter.  

Du har med andre ord muligheden for at dominere denne markedsføringskanal, før konkurrenterne overhovedet finder ud af at prompte ChatGPT til at lave deres næste lejlighedssang. 

Hvordan optimerer du så bedst dit website for synlighed i AI Chatbots og agenter?

Det er her vi kommer tilbage til GEO. Der er nemlig en række tekniske ting, du bør sikre at dit website lever op til for at kunne øge din synlighed i AI Chatbots og agenter, som vi kommer til at gennemgå om lidt. 

Når du læser listen igennem, vil du måske synes, at det virker underligt bekendt. Og det er der en god grund til. GEO minder nemlig til forveksling om hans fætter, eller skulle jeg sige tvilling, SEO.   

Selvom AI agenter og de klassiske søgemaskiner behandler og præsenterer deres information på vidt forskellige måder, så er deres crawlers der indsamler denne information fra websites ret ens.  

Så den gode nyhed er at hvis du allerede har lavet en solid SEO-indsats, så vil det også komme dig til gavn her. Hvis ikke, jamen så er det bare endnu en god grund til at gå i gang.  

Nå, men lad os komme til sagen og se på, hvad du skal gøre for at øge din synlighed i diverse AI chatbots og agenter.

 

Du skal have styr på teknikken

Der er en række tekniske ting, der er vigtige at få opsat korrekt. 

Overordnet set handler det egentligt “bare” om at sikre, at AI-værktøjerne har adgang til dit site og at de teknisk er i stand til at finde og forstå alt indholdet. Lad os dykke ned i det.

 

Robots.txt og llms.txt

First things first, du skal sørge for at du ikke blokerer for AI crawlers på dit website. 

Robots.txt er en fil på dit website, som crawlers læser for at vide om de har lov til at besøge dit website og om der er specifikke sektioner af dit website, de ikke må tilgå. Så hvis du blokerer AI agenter her, bliver dit website aldrig vist i deres svar. 

Du kan se navnene på OpenAIs crawlers her og Googles crawlers her - sørg for at de ikke er blokerede. Men egentlig skal du bare sørge for at der ikke er blokeret for nogen crawlers uden en helt specifik grund. Hvis en crawler ikke eksplicit er blokeret, antager de at de gerne må crawle dit site.  

Det bringer os til llms.txt. Den minder meget om robots.txt, men er målrettet AI agenter. Idéen med denne fil er, at den indeholder alt det indhold du gerne vil præsentere til AI crawlers. Indholdet er skrevet i plain tekst og er derfor utrolig nemt for crawlers at forstå.  

Llms.txt er meget nyt og vi ved ikke med sikkerhed om den ender med at blive en standard eller om de store AI agenter overhovedet benytter den. Så personligt ville jeg ikke hoppe med på vognen endnu, men det er helt sikkert en teknologi du bør holde øje med. Hvis OpenAI og Google officielt tager den til sig, bør du også.

 

HTML markup

Når vi har styr på at du ikke afviser AI crawlers i døren, så er næste punkt at hjælpe dem til at forstå indholdet på dit website. Teknikkerne til dette minder meget om de gængse best pratices for SEO, så følger du nedenstående råd, vil du også kunne forbedre dine chancer for at ranke godt i Google. 

Markup kan hjælpe med at gøre dit indhold lettere forståeligt for crawlers. Markup benyttes i koden til websitet og viser crawlers hvad et givent element er.  

Et eksempel er <p>-tags, der bruges til brødtekst på siden. Der er også <ul>-tags som man placerer lister i. Når man benytter disse typer tags i sin kode opnår crawlers en bedre forståelse for indholdet. Derfor er det vigtigt, at dit website gør brug af denne type HTML tags. 

Ud over tags til de enkelte elementer på siden, findes der også tags til de større sektioner på siden. Disse kaldes semantiske HTML tags. Det er for eksempel <nav> til menuen, <main> til sidens primære indhold og <footer> til footeren. Disse tags hjælper crawlers med at forstå strukturen på din side. Du kan se en oversigt over de relevante tags her.

 

Schema markup

Når der er styr på HTML’en er næste level Schema Markup. Denne type markup tilføjes ligeledes i koden og beskriver, hvilke typer indhold der findes på siden. Hvis du for eksempel har produkter på dit website, kan du benytte product schema markup. 

Med product schema markup kan du give crawlers information om dine produkter som for eksempel pris, lagerstatus, størrelse, varenumre, beskrivelser, forsendelse og meget mere. Ved at markere denne information med schema markup, gør du det let for AI agenter og crawlers at finde og forstå dine produkter. Dette øger chancen for at de vil fremhæve netop dine produkter i deres svar. 

Ud over product schema findes der mange andre typer schema markup som du kan bruge på dit website for at give AI agenter en bedre forståelse for dit indhold. Recipe, article, organisation og FAQ schema markup vil være særligt relevant at tilføje, hvis du har disse typer indhold. 

Du kan finde en komplet oversigt over alle de tilgængelige typer schema markup på schema.org.

 

Undgå JavaScript rendering

Næste punkt på listen er JavaScript rendering. Hvis du ikke lige er stødt på det begreb før, så er det kort fortalt den proces hvor AI-crawleren eksekverer JavaScript-kode for at se det fulde indhold på din hjemmeside.  

Grunden til at det er vigtigt at have styr på JavaScript rendering, er at AI agenter ikke altid er super gode til at rendere JavaScript. Det vil sige, at hvis vigtigt indhold på din side er afhængigt af JavaScript, så kan AI-crawlers i nogle tilfælde have problemer med at tilgå det. Og hvis de ikke kan tilgå det, ja så kommer du naturligvis ikke til at ranke for det.  

Mange websites loader vigtigt indhold via JavaScript, for eksempel tekst, metadata og struktureret data, som er afgørende for at blive inkluderet i AI-overviews. Hvis dette indhold ikke er tilgængeligt, risikerer man at blive overset af de generative modeller. 

Derfor bør du sikre, at AI-systemer kan rendere vigtigt indhold på dit site. Den sikreste metode til dette, er naturligvis at undgå at vigtigt indhold er afhængigt af JavaScript. I de tilfælde hvor dette ikke er muligt, kan du anvende teknikker som server side rendering eller pre-rendering. 

 

Crawlability 

Når vi har sikret at AI-agenterne kan rendere indholdet på dit website, er næste punkt at sørge for god crawlability. God crawlability handler basalt set om at gøre det muligt og effektivt for AI-agenter og crawlers at besøge alle afkroge af dit website.  

Hvis en sektion af dit website, for eksempel en blogsektion eller varekategori, ikke kan findes eller er blokeret for AI-crawlers, så kommer de naturligvis heller ikke til at kunne lede besøgende derhen.  

Du skaber god crawlability ved først og fremmest at sørge for at indhold på dit website som du ønsker at ranke med, ikke er blokeret i robots.txt eller med nofollow og noindex tags.  

Dette betyder dog ikke, at du uden videre skal fjerne alle robots.txt regler og noindex tags på dit website. Hvis du har irrelevant eller duplikeret indhold, så hjælper du faktisk crawlers ved at blokere for disse sider, så crawlerne ikke skal spilde tid på dem og i stedet kan fokusere på dine sider med værdifuldt indhold. 


Intern linking 

Derudover kan du hjælpe crawlers med at finde rundt på din hjemmeside ved at bygge en god intern linkstruktur. Dette gør du ved at have en overskuelig og logisk menu, der linker til alle de vigtige sektioner på sitet og afspejler deres hierarki.  

Med sidens hierarki mener jeg, at forholdet mellem eventuelle over- og underkategorier er tydeligt i menustrukturen. Det er også en fordel, hvis dette kan ses i URL opbygningen, så du har en URL-struktur i stil med denne: 

www.eksempel.dk/kategori/underkategori/produkt 

Den interne linking bliver også styrket, hvis du rundt omkring på dit website husker at linke til andet relateret indhold på siden. Så hvis du et sted beskriver en af dine services eller produkter, så inkluder gerne links til andet indhold som kunne være relevant for brugeren.  

Endelig er et sitemap også helt essentielt for at skabe god crawlability. Et sitemap er en liste med alle URL’erne på dit website, som crawlers kan følge for at sikre at de finder alle relevante sider.  

Du kan læse meget mere om korrekt opsætning af sitemaps og forbedring af crawlability i min artikel “Guide til teknisk SEO”.  

(Psst... lagde du mærke til, hvordan jeg lige forbedrede vores egen intern linking der?)  

 

Hastighed og sikkerhed

I forlængelse af at gøre det nemt for crawlers at finde rundt på dit website, så de får øje på alt dit værdifulde indhold, så er det også vigtigt at gøre det effektivt.  

Crawlers for AI-services som Gemini, OpenAI og hvad de ellers hedder, har i princippet til formål at crawle så meget som muligt af det indhold, der findes på nettet. Dertil kommer at de gør det kontinuerligt for at sikre opdateret information. De skal altså igennem ufattelige mængder data.  

Dette betyder, at crawlers værdsætter websites der loader hurtigt og som ikke fylder mere end højest nødvendigt. Derfor bør du optimere hastigheden på dit site.  

Hastighedsoptimering af websites kunne være en hel artikel i sig selv, så jeg vil ikke kede dig med alle de tekniske detaljer her, men blot fremhæve et par særligt relevante teknologier i forhold til AI-crawlers. Disse teknologier optimerer dataoverførsel, hvilket gør det lettere for AI-crawlers at hente og analysere dit indhold effektivt. 

HTTP-protokollen er den teknologi som bruges når data overføres mellem et website og brugeren (eller en AI crawler). Benytter du den nyeste protokol, kan AI-crawlers hurtigere loade dit website. Derfor bør du bruge den nyeste kaldet HTTP/3 eller som minimum HTTP/2. 

Komprimerings teknologier (som Brotli og GZIP) mindsker størrelsen på de filer der findes på dit website, hvorved indhold leveres hurtigere. Så hvis du ikke allerede benytter komprimering på dit site, bør du undersøge mulighederne for at implementere det.

Du kan også få et indtryk af, hvor hurtigt dit website er ved at kigge på Googles Core Web Vital metrics. Det er en samling metrikker som Google bruger, når de skal vurdre et websites hastighed. Hvis du scorer godt på disse, er det en god indikation på at din hjemmeside indlæses hurtigt for både brugere og crawlers. Du kan blive meget klogere på Core Web Vitals i vores artikel om det her.

Endelig bør du være opmærksom på sikkerheden på dit website. Denne kan du forbedre ved at bruge https med et gyldigt SSL-certifikat. Https signalerer at websitet er sikkert og moderne, hvilket både forbedrer brugeroplevelsen og tilliden fra AI-systemer. Et sikkert website øger simpelthen din troværdighed, hvilket øger sandsynligheden for at AI agenter vil linke til dig.  

 

Product feeds

Det sidste punkt vi skal omkring er product feeds.  

Hvis du har arbejdet med betalt annoncering på Google eller Meta, så kender du sikkert allerede til det – men for alle os andre så er et product feed en fil, der indeholder detaljerede oplysninger om produkter på et website – såsom navn, pris, beskrivelse, lagerstatus og billeder.  

Det bruges typisk til at dele produktdata med platforme som Google, Meta og prisportaler, så de nemt kan forstå og vise produkterne i søgeresultater og annoncer.  

Præcis det samme kan man nu gøre med mange AI agenter. OpenAI har allerede annonceret, at de vil begynde at inkludere produktanbefalinger fra product feeds i deres svar på brugerforespørgsler.  

Så når man stiller ChatGPT et produktrelateret spørgsmål som “Hvilken iPhone-model passer bedst til mine behov?” eller “Hvilke løbesko giver mest værdi for pengene under 1000 kr.”, vil den kunne præsentere brugeren for konkrete produktforslag fra din webshop og linke til hvor købet kan gennemføres. 

Et product feed strukturerer produktinformation på en måde, som AI-agenter nemt kan forstå og øger chancen for, at dine produkter bliver vist i AI-overviews, shopping-svar og anbefalinger. 

Så hvis du ikke allerede har et opdateret product feed, så bør du få oprettet et. Tjek at dine titler, beskrivelser og billeder er præcise og gode. Inkluder anmeldelser og bedømmelser, hvis du har dem på dit site. Og sørg for at detaljer som pris, lagerstatus og forsendelsesinformation er up to date. 

Du kan signe op her og få besked så snart OpenAI åber op for tilføjelse af feeds.


Skal du i gang med GEO?

Hvis du er nået hertil, er du forhåbentligt blevet bare lidt klogere på GEO. Alle de tekniske ting kan virke som en mundfuld, men det er samtidig en chance for at komme foran alle konkurrenterne, der ikke har fået rykket på dette endnu.

Har du brug for hjælp til at vurdere om dit website er klar til at ranke i AI-værktøjerne eller hvor du skal forbedre dig, så tag endelig fat i os. Vi laver gerne en analyse og hjælper dig med at blive klar til de nye muligheder.