Google indeksering

Tags:    html google css json

<< < 12 > >>
Hejsa

Vi ved jo at Google crawler din side og læser din HTML og css for at se hvad der er synligt og ikke synligt.
Fx så læser den jo fx en tekst der har samme farve som baggrunden men ignorerer i forhold til indeksering fordi den er "usynlig".

Men fx en shop hvor man gerne vil have at google skal kende alle ens produkter, men kun vise en mængde fra start (de første 30), men man fylder siden med 50 med display:none.

Vil Google indeksere disse fordi de ligger i HTML'en, men ligger klar til senere visning?

Og hvad hvis der ikke ligger noget "skjult" HTML endnu som bare skal vises, så kan Google ikke indeksere det. Hvad gør man så?
Tænker på hvis man bruger JSON til at loade flere værdier og data hvad så?

Når man bruger AJAX er det vel anderledes end når man bruger normalt input submit med en knap, og kan ikke lade være med at tænke på om der er forskel i hvordan Google håndterer det og hvad den forventer og hvad den rent faktisk gør?

Håber i kan hjælpe mig med at forstå det lidt bedre :)



16 svar postet i denne tråd vises herunder
3 indlæg har modtaget i alt 7 karma
Sorter efter stemmer Sorter efter dato
At vise andet indhold for google end brugeren kan resultere direkte i at sitet bliver kastet ud af google's index, spørg gutterne bag BMW.de (black-hat seo)..

Så det ville jeg holde mig langt fra.



Hej csharper,

Det man tit gør i forhold til fx paging, er at lave rigtige, gyldige links til siderne, fx /produkter/side2/, /produkter/side3/ osv. Samtidig giver man så sine links en onclick event, der loader næste side, ala LoadProducts(2), LoadProducts(3) osv. På den måde får Google & co. rigtige links og dine brugere får i stedet lidt lækker AJAX loading. På den måde sikrer du dig også at din side virker for dem der bruger en browser uden JavaScript eller med JavaScript slået fra :)

Mvh.

Kasper (TSW)



Hej csharper,

Det ville jeg nok gøre ved stadig at udskrive links i sourcen (til ære for Google), men så skjule dem med JavaScript og derefter lave dit "scroll-and-load" trick. Hvordan du gør sidstnævnte er jeg sikker på at du kan finde eksempler på ved lidt Googling - det er ikke noget jeg har personlig erfaring med :). Din side skal naturligvis understøtte paging via URL'en, så når Google kalder /produkter/side2/, så skal din side vise produkterne 31-60 (blot et eksempel).

Robert, jeg ville personligt nok være forsigtig med at serve forskelligt indhold alt efter om Googlebot indgår i UA eller ej. Det er ikke noget jeg har undersøgt nærmere, men jeg er ret sikker på at Google også crawler uden den UA og sammenligner indholdet og hvis der er alt for stor forskel, så kunne jeg måske forestille mig at det talte negativt i forhold til sidens PageRank. Det er dog som sagt ikke noget jeg har personlig erfaring med :)

Mvh.

Kasper (TSW)



Tak Kasper

Jeg er ikke helt sikker på jeg er med på hvad du mener? Kan du eventuelt forklare det lidt nærmere?

Jeg skal lave rigtige links med
/Produkter/3/
så mine links peger på disse og loader siden igen (ud fra den nye url?)?

For du nævner jeg kan bruge AJAX loading, men samtidigt at det virker uden javascript?

For min ide var jo ikke at loade en ny side, men lade ajax præsentere flere produkter på samme side.
Så du ser 20 ting på siden og når du når 75% ned på siden begynder ajax at indlæse de næste (indtil der ikke er flere) som så bare gør siden længere.
Lidt ligesom Google har med deres billedsøgning og facebook har på deres side også.



Man kan også genkende Googles crawler...mener dens user-agent indeholder 'Googlebot'.

Hvis den er der, så leverer du en side, hvor alt er synligt.


Får man så ikke et problem med direkte links? dvs, hvis google har indekseret dit produkt "lyserøde sko" som Url'en: www.minside.dk/products mens den i "virkeligheden" er på side 5 www.minside.dk/products/5

Det vil sige at klikker man på det link google har indekseret så får du ikke den vare du klikkede på, men nogle andre...

giver det mening?



Kasper: Jeg har ikke selv gjort det, men kender til en del som gør det.

Brian: URLerne skal selvfølgelig levere det samme indhold, bare skjult til "mennesker" og ikke skjult til Google.



Hej csharper,

Det ville jeg nok gøre ved stadig at udskrive links i sourcen (til ære for Google), men så skjule dem med JavaScript og derefter lave dit "scroll-and-load" trick. Hvordan du gør sidstnævnte er jeg sikker på at du kan finde eksempler på ved lidt Googling - det er ikke noget jeg har personlig erfaring med :). Din side skal naturligvis understøtte paging via URL'en, så når Google kalder /produkter/side2/, så skal din side vise produkterne 31-60 (blot et eksempel).

Tak for hjælpen, men vil det sige jeg faktisk skal loade alt mit indhold ind og så når man kommer lidt ned på siden så vise det via javascript?
For med 2-300 elementer kan det godt blive lang "leveringstid" for en side med 20-30 elementer på og da Google prioterer hastighed har jeg mine betænkeligheder.
Og det med paging der er jeg ikke sikker på jeg har lyst til at have side 2, 3 etc. som en del af en url.

Og kan man være sikker på at Google stadig vil indeksere disse data når de har "display:none" eller hidden-attribut?

Tænkte på om det ville være en løsning at lave følgende:
1. Load side med 20-30 synlige elementer.
2. Lave metode til at hente 20 elementer og sætte ind på siden (display:none eller hidden) klar til visning når nødvendigt
3. Ved page.ready kalde metoden fra step 2
3. Når disse vises vil jeg sørge for at loade de næste 20 med metoden fra step 2

Hvordan ville det være for Google?



Jeg ville holde mig til Kaspers forslag.

Først laver du det som et "normalt" website, for svagseenede og med normale links, bagefter ligger du et ajax lag over der gør det lækre for sådanne enheder.

/J



Hej csharper,

Nej du skal netop kun loade de elementer du vil have synlige i første omgang, fx 20 eller 30, og så loade de næste når der er brug for det. Om du vil gøre det når brugeren trykker på et link eller om du vil gøre det når brugeren scroller til et vist punkt eller noget helt tredje, er helt op til dig :)

Mvh.

Kasper (TSW)



Hej csharper,

Nej du skal netop kun loade de elementer du vil have synlige i første omgang, fx 20 eller 30, og så loade de næste når der er brug for det. Om du vil gøre det når brugeren trykker på et link eller om du vil gøre det når brugeren scroller til et vist punkt eller noget helt tredje, er helt op til dig :)
Tak, men tænker på hvordan Google så vil indeksere den.
Om deres crawler vil bruge ½ sekundt på den og sige nu sker der ikke mere og så stoppe med at indeksere og så et sekundt efter loades der flere data ind på siden, som Google ikke får indekseret.
Det er denne del jeg var usikker på :)



<< < 12 > >>
t