Google Webmaster Chat

Door Bas van Kuijck, mobile developer - @basvankuijck
29 oktober 2008 - 896 x bekeken -

De Google Webmaster Chat is een online sessie waarbij zoekmachinebedrijf Google de interactie zoekt met beheerders en ontwikkelaars van websites. Uiteraard grijpen wij deze kans binnen E-sites graag aan om zo mee te kunnen gaan in de nieuwste technieken en methoden die deze zoekgigant te bieden heeft.

In de sessie van 22 Oktober werden 3 presentaties gegeven en was daarna de gelegenheid om vragen van gebruikers te behandelen.Deze vragen werden doormiddel van een webinterface gesteld en door alle andere gebruikers gemodereerd (d.m.v. een plus of een min aan te klikken). Zodra een vraag was beantwoord werd er een top 10 vraag gekozen om deze daarna te beantwoorden.

De eerste presentatie ging over de mythen die je vaak hoort om je site beter vindbaar te maken binnen Google.
Onderstaande punten zijn antwoorden op mythen en zijn dus wel van toepassing wanneer je jouw website voor Google wilt optimaliseren:

  • Dubbele content is geen probleem, zo lang dit maar binnen je eigen domein is.
  • Gebruik van meer Google producten (zoals analytics, adsense, adwords) zorgt er niet voor dat je hoger in de zoekresultaten komt.
  • Overal met keywords te spammen heeft geen enkele zin, het gaat om de content in zijn geheel.
  • XML Sitemaps helpen wel om pagina’s sneller te indexeren, maar niet om hoger in de zoekresultaten te komen.
  • Pagerank heeft maar een beperkte invloed op de ranking in de zoekresultaten, je ranking is afhankelijk van heel veel meer (helaas niet toegelichte) facetten.
  • Pagerank wordt ook maar enkele malen per jaar geüpdatet.
  • Zorg dat je 404-pagina’s (pagina niet gevonden) vermijd, probeer hier altijd 301-headers (permanente redirect) aan mee te geven zodat Google deze herkent als een nieuwe pagina. 404 pagina’s kun je traceren door gebruik te maken van Google Webmaster Tools; http://www.google.com/webmasters/

In de volgende kleine presentaties werden nog enkele tips uit de doeken gedaan die vrij algemeen zijn:

  • Als je dubbele content op je site hebt kun je de pagina die de meeste voorkeur geniet voorrang geven door deze in je XML sitemaps op te nemen
  • Als je gebruik maakt van een 404-pagina om daadwerkelijk content die niet meer bestaat aan te geven zorg ook altijd dat je http-header de 404 code bevat en dat je op de pagina je gebruiker informeert over wat de mogelijkheden van je site wel zijn zodat je de bezoeker niet kwijtraakt.
  • Gebruik Google Webmaster Tools om errors gevonden door de crawler terug te vinden.
  • Om een pagina niet te indexeren is het beter het commando noindex dan disallow te gebruiken in je robots.txt
  • Als je een pagina daadwerkelijk niet wilt tonen binnen Google maar je krijgt deze niet uit de zoekresultaten dan kun je gebruik maken van de Google URL removal tool
  • Om PDF’s, PPT’s, etc te beschermen tegen indexering kan je gebruik maken van de http Header X-robots-tag
  • Door gebruik te maken van veel subdomains zul je geen hogere ranking krijgen
  • In Google Webmaster Tools kun je aangeven wat de geografische doel locatie is van je website. Google zal echter trachten dit zelf uit te vinden, maar door dit handmatig aan te geven zal dit snel verwerkt worden in de indexering van alle internationale Google search engines.
  • Zorg dat de content binnen je domein uniek is, delen via social media websites (b.v. Digg, eKudos, NuJij) is wel toegestaan. Echter zijn veel gespamde social media sites door Google gemarkeerd zodat linkspammen hiernaar geen zin meer heeft.
  • AJAX content is in veel gevallen wel indexeerbaar door Google
  • Zorg voor een duidelijke <title>-tag, deze wordt ook als titel voor het zoekresultaat binnen Google gebruikt en kan dus op die manier voor een betere conversie zorgen. Het zelfde geldt voor de description meta-tag.  

Tenslotte waren er de vragen, ik moet eerlijk bekennen dat hier weinig interessants tussen zat, vooral omdat het veel vragen waren waarop wij het antwoord al wisten. Toch enkele highlights uit de antwoorden:

  • Als veel sites op een shared ip (en dan zou dat rond de 80% of meer moeten liggen) penalty’s ontvangen omdat zij Google op een non-conventionele wijze beïnvloeden dan kan dit ook invloed hebben op je eigen site. Ook al voldoe je aan alle eisen om je SEO netjes toe te passen.
    In de praktijk komt dit echter bijna nooit voor.
  • Directories (DMOZ, Yahoo directory,etc) en social media sites hebben in het afgelopen jaar een minder belangrijke rol gekregen om de PageRank en het belang van je site te bepalen.

De presentaties en audio van deze sessie zullen een week na de sessie beschikbaar worden gesteld via het Google Webmaster Central Blog wat tevens een goede informatiebron is:
http://googlewebmastercentral.blogspot.com/

PaperVision 2.0 Gauroud shaders

Door Bas van Kuijck

Het kon niet uitblijven natuurlijk: na al die spacy demo's van het PV3D dev team moest ik gewoon eens aan de slag met de nieuwe shaders. - Lees meer

Lees verder