zaterdag 29 december 2007

Onzichtbare links en doorway pagina's (SEO)

Deze spam techniek werd tot voor kort (of soms nog) als één van de grote misleiders gebruikt door SEO bedrijven om websites hoger te krijgen in de zoekmachines.

Op de homepagina werden linken gezet onzichtbaar voor de bezoeker, maar niet voor de zoekmachines. De tekst in de links werd in dezelfde kleur als de achtergrond gezet, bijvoorbeeld witte tekst op witte achtergrond. Het voordeel was dat je je pagina vol kon stouwen met links zonder dat deze door je bezoekers werden opgemerkt, maar wel werden gevolgd door de zoekmachines.

Deze linken gingen dan naar 'doorway pages'. Dit zijn pagina's met een eenvoudige structuur en met inhoud aangepast aan de zoekmachines. Deze pagina's kregen door deze techniek een hoge ranking voor een bepaald keyword omdat ze een link van de homepagina kregen en bovendien speciaal gemaakt werden voor een bepaald keyword.

Deze techniek is enkel gemaakt om zoekmachine's te misleiden en heeft geen enkel nut voor personen en deze praktijken worden vandaag gestraft door zowel Google als Yahoo!

Dus vermijdt onzichtbare links en hou je aan de structuur van je website. Het beste om in zoekmachine's te blijven of te geraken is ver weg te blijven van deze spam technieken, ze kunnen op korte termijn misschien succes betekenen, maar vanaf de zoekmachine het merkt of iemand anders je website beschuldigt van zulke praktijken, is je website voor lange tijd verbannen.

301 Redirect voor Zoekmachines (SEO)

Een 301 Moved Permanently redirect is fundamenteel binnen SEO. Kijk dus zeker na of je host server dit toelaat, of zoek een andere host provider.

Met 301 Redirect worden je bezoeker en de zoekmachines automatisch doorgestuurd naar een andere pagina.

Voordelen 301 redirect

Ten eerste voor je bezoekers:

  • Verplaats je een pagina dan blijven hun bookmarks gewoon werken. Dat kan ook met een 302 redirect maar die is alleen voor tijdelijke situaties bedoeld (minder dan 2 maanden).
  • Het is beter voor de communicatie met je klanten als je naar duidelijke urls verwijst, zeker in combinatie met emailcampagnes. Linken naar bijvoorbeeld www.example.com/product is veel gebruiksvriendelijker dan http://www.example.com/?id=191&az=123

Ten tweede voor de zoekmachines:

  • Met een permanente redirect verdwijnt de oude pagina uit de zoekresultaten en wordt deze vervangen door de nieuwe. Daarnaast weet de zoekmachine met een 301 redirect dat de links naar de oude pagina mee moeten tellen voor de nieuwe. De nieuwe pagina zal dus vrij snel weer net zo hoog scoren in de zoekresultaten. Maar probeer redirect van je homepagina te vermijden.
  • Nog een voordeel van een permanente redirect is dat je foutmeldingen voor de zoekmachine voorkomt. Vooral Google is niet blij met een website waar pagina's zomaar verdwijnen of verplaatst worden. Google heeft de neiging websites die vaak pagina's verwijderen of incorrect verplaatsen minder serieus te nemen (en dus lager te laten ranken in de zoekresultaten).
  • Door redirect 301 te gebruiken, kan je je dynamische urls met vraagtekens en gelijkheidsteken Google vriendelijker maken. Zie Hoe krijg ik de beste listing in zoek machines ?


Welke code moet je gebruiken voor een goede redirect?
Hieronder staat een lijstje hoe je op alle mogelijke manieren een correcte "301 Moved Permanently" redirect uitvoert:

301 Redirect in PHP

<?php
header("HTTP/1.1 301 Moved Permanently");
header("Location: http://www.example.com/newlocation.html");
?>




301 Redirect in ASP

<%
Response.Status="301 Moved Permanently"
Response.AddHeader "Location", "http://www.example.com/newlocation.html"
%>



301 Redirect in ASP.NET

<script runat="server">
private void Page_Load(object sender, System.EventArgs e)
{
Response.Status = "301 Moved Permanently";
Response.AddHeader("Location","http://www.example.com/newlocation.html");
}
</script>



301 Redirect in ColdFusion

<.cfheader statuscode="301" statustext="Moved permanently">
<.cfheader name="Location" value="http://www.example.com/newlocation.html">



301 Redirect in Java (Servlets)

<%
response.setStatus(301);
response.setHeader( "Location", "http://www.example.com/newlocation.html" );
response.setHeader( "Connection", "close" );
%>



301 Redirect in CGI (Perl)

#! /usr/bin/perl

use cgi;
my $q = cgi->new();
print $q->redirect(
-location => 'http://www.example.com/newlocation.html',
-status => 301,
);


301 Redirect in .htaccess

Redirect 301 /oldlocation.html http://www.example.com/newlocation.html

vrijdag 28 december 2007

Canonical Domains (SEO)

Wat is een canonical URL?
Canonicalization wordt in SEO gebruikt in verband met Google om te bepalen welke je beste URL is, als er meerdere keuzes zijn. Het wordt meestal gebruikt voor de homepagina.

Bijvoorbeeld voor de meeste mensen zijn volgende URLs gelijk:

Maar technisch gezien zijn dit verschillende URLs. Een webserver kan totaal andere pagina's weergeven voor bovenstaande urls. Wanneer Google een url 'canonicalizes', moet je proberen de beste URL uit te kiezen voor je site. Dit is de URL waar je de meeste links naar terugkrijgt van andere sites : http://www.example.com/ (meestal je root domain)

Om zeker te zijn dat Google jouw URL uitkiest, moet je consequent deze URL over je volledige site gebruiken. Dus maak zeker niet de helft van je links die verwijzen naar http://example.com/ en de andere helft die verwijzen naar http://www.example.com/

Wat je ook best doet is dat als iemand toch http://example.com/ intypt, je een 301 redirect doet naar http://www.example.com/. Een 301 zegt Google welke URL de voorkeur heeft bij 'canonical'.

Geen javascript in je navigatie (SEO)

Javascript in je navigatie kan mooi zijn en dit wordt dikwijls gebruikt door grotere bedrijven, maar Javascript navigatie is toch ten zeerste af te raden voor SEO. Deze links gevormd door Javascript, kunnen niet opgebouwd worden door zoekmachines en zodanig ook de achterliggende pagina niet indexeren.

Als JavaScript alleen maar uit scripting bestaat en niet uit links, kan de zoekmachine geen pagina's vinden en indexeren. Je kan dit zelf nakijken door te zoeken naar href= prefix in je javascript code, en hierachter moet URL van de pagina staan, ingesloten door aanhalingstekens.

Als de link enkel maar bestaat uit een "#" gevolgd door een URL is een slecht teken. Dit is geen 'page request' maar scripting en je pagina's zullen niet gevonden worden via de navigatie links.

Hoe krijg ik de beste listing in zoek machines ? (SEO)

Dit wordt wordt verkregen door "SEO" -- Search Engines Optimisation -- toe te passen op je site.

Volgende punten zijn fundamenteel:
  • Gebruik in uw design eerder teksten dan beelden en flash voor je belangrijkste content.
  • Zorg dat je website ook werkt zonder Java, Javascript en CSS
  • Zorg dat je pagina's volledig gewijdt hebt aan uw belangrijkste topics.
  • Vermijdt HTML frames en iframes
  • Gebruik normale URLs, vermijdt links die lijken als volgt http://www.domain.com/engine?id met vraagtekens en gelijkheidstekens in de link
  • Probeer links te krijgen van relevante sites naar uw website
  • Probeer het systeem niet te bedriegen door bijvoorbeeld pagina's vol te stoppen met 'keywords' of 'link farms' te gebruiken.

Vermijd redirection van de Homepagina (SEO)

Redirection van een homepagina komt veel voor bij Content Management Systemen. Je kan dit zien als je http://www.domain.com/ hebt ingetypt, en de pagina die je krijgt, eindigt op www.domain.com/base/index.asp (of iets gelijkaardigs), een paar niveau's dieper.

Het volgende gebeurde:
Je vroeg om een pagina in de root: http://www.domain.com/ maar in werkelijkheid wordt je doorgestuurd en krijg je een pagina te zien in een subfolder (/base/) . 'Redirect' is te vergelijken met het doorsturen naar een nieuwe locatie, zoals je je post automatisch laat doorsturen van je oude naar je nieuwe adres als je verhuist, door een formulier in te vullen bij je postkantoor.

Er zijn twee soorten 'redirect', 301 en 302.

Redirect 301 betekent dat de pagina zich permanent en redirect 302 zich tijdelijk heeft verplaatst. 301 is de meest aangewezen methode.

Als je hostingsfirma je geen redirect op serverniveau toelaat, maar vertelt dat je een redirecting moet doen op pagina niveau, raad ik je aan van hosting te veranderen omdat zoekmachine's niet van deze type van redirect houden. Deze methode werd immers in de jaren 90 veelvuldig gebruikt om surfers te misleiden en bij het bezoeken van een website werden ze automatisch geforward naar een ongewenste adult site.

Ik adviseer je geen andere methode dan de 301 redirect te gebruiken. Andere methodes kunnen extra problemen brengen, en zijn niet zo "schoon" zoals 301.

Vermijd echter een redirect van je Homepagina: De meeste binnenkomende links zullen verwijzen naar de root pagina. De zoekmachine vindt deze pagina niet en zal je via een 301 doorverwijzen. De link verwijst niet rechtstreeks naar de pagina met de 'content' en zal daardoor in waarde afnemen.

Robots.txt File (SEO)

Dit is de eerste plaats om na te kijken bij het optimaliseren van je website. Dit is een eenvoudig bestand, en wordt gewoonlijk onderhouden door de webmasters. Het is niet noodzakelijk, maar helpt zeker bij SEO.

In grotere organisaties, kunnen er jaren voorbijgaan alvorens iemand deze file nauwkeurigheid controleert, of zelfs verifiërt of deze bestaat. Het is een kritieke file voor de onderzoeksmotoren, aangezien zij dit bestand downloaden alvorens de pagina's van uw website te indexeren. Als Google, MSN of Yahoo je site bezoeken, zou het dus al aanwezig moeten zijn, en zonder fouten! Één verkeerde voorwaartse schuine streep kan uw plaats in deze onderzoeksmotoren onzichtbaar maken.


De robot.txt file is eigenlijk niet meer dan een reeks server commando's voor search engines, waar personen problemen mee hebben om deze machine taal te begrijpen. Als deze file niet bestaat, zal 'page not found' verschijnen in je log files.


Je kan deze file het best vergelijken met een 'welcome' mat voor je huis. Het zegt de search engines dat ze welkom zijn om deze site te bezoeken. Ze is niet noodzakelijk voor je bezoekers om binnen te komen, maar het is wel aangenamer voor hen.


Je kan ook zeggen waar je bezoekers niet gewenst zijn met deze file. Dit zijn de pagina's die je niet wenst te tonen in in de search engines. Maar dit is geen beveiliging, als ze echt niet gevonden mogen worden, moet je deze pagina's achter een paswoord plaatsen. De file verbergt immers geen informatie, het zegt enkel tegen de zoekrobot om de informatie niet te indexeren.


De structuur van de Robot.txt file



Er zijn maar twee lijnen verplicht in een standaard robots.txt file.

User-agent: *
Disallow:


De eerste lijn bepaalt de robots. De * is een wildcard en betekent hier dat de volgende commando's voor alle robots gelden.

De tweede lijn zegt aan de robots wat ze niet mogen indexeren. Dit kan zowel op directory niveau, als op pagina niveau. Als alles geïndexeerd mag worden, laat je dit leeg. Heb je 'duplicate content' op je site, dan kan je die best niet indexeren.

voorbeeld Heb je printvriendelijke pagina's aangemaakt en deze staan in de subdirectory 'printerfriendly', dan kan je best volgende regel aanpassen:

Dissallow: /printerfriendly/

Let op de 'forward slash', dit is de meest voorkomende fout.


Blokkeer de volledige site
Plaats enkel de 'forward slash' en de search engines zullen geen pagina's indexeren.

Dissallow:/

Meer info over robot.txt vind je hier: