Yuhůův weblog o webu

28. 9. 2008

Kterak Google doporučuje dynamické adresy

Nedávný článek na jednom z oficiálních blogů Google může vyvolávat mylný dojem, že Google doporučuje používání ošklivějších dynamických adres před jejich přepisovanou statickou podobou. Mylné vyznění je způsobeno tím, že jej psali programátoři robota.

Teorie: Dynamické adresy jsou takové URL, které v adrese obsahují za otazníkem parametry. Dynamické adresy často lezou z redakčních systémů, shopů nebo diskusí. Obecně se doporučuje (z mnoha důvodů) předkládat uživatelům a vyhledávačům adresy hezčí. Nejčastější metodou zkrášlení adresy je jejich přepis na straně serveru (zpravidla podstrčením přes mod_rewrite). Konec teorie.

Ten googlí článek říká zhruba to, že když se to zkrášlení udělá blbě, může to nadělat hodně škody. A že v takových případech je lepší poskytovat původní dynamické adresy. Níže vysvětlím, proč se robotovi dynamické adresy líbí. Předtím ale zmíním humbuk, který vzniknul v různých reakcích na ten článek.

Odkazy na zajímavé reakce: blog.seochat.sk (obsahuje i komentované překlady některých částí původního článku), pooh.cz, randfish na seomoz.org (via blog.converter.cz).

Proč se robotovi líbí dynamické adresy

V dynamické adrese je hezky vidět, co jsou parametry. Robot si s nimi může hrát. Pomáhá mu to v boji s největším problémem robota na velkých webech, což je stejný obsah na různých adresách, prostě duplicity. V případě dynamických adres si třeba robot může parametry před založením nového URL seřadit podle abecedy, což zabrání vzniku duplicity v případě, kdy programátoři z různých míst odkazují na stejnou stránku s různým pořadím parametrů. To je celkem častý případ. A s parametry se dají dělat i jiná kouzla, například porovnáváním rozpoznat, který je zbytečný. To má pro web pozitivní přínos, protože stránkám, které jsou rozpoznány jako kanonické duplicity, se dá sčítat rank. V případě přepsaných statických adres ale robot neumí jednoduše rozpoznat, co jsou parametry, a tak robot nedokáže pomoci.

Aha, řeknete si, ale statické adresy přece nemají duplicitní obsah! Inu, jak kdy. Pokud se k tomu dostane nějaký taky odborník, mohou vznikat divoké věci. Například dnes je běžná praxe někam do statického URL lupnout číslo článku, podle kterého server pozná, který článek má poslat, a zbytek URL doplnit chvástavým řetězcem s klíčovými slovy. Jenomže v takovém případě je potřeba dávat pozor, aby se odkazovalo vždycky se stejným chvástavým řetězcem. Pozor se pak nedává, řetězec se mění, a tak vznikají duplicity, které robot ani při nejlepší vůli neumí odhalit jako kanonickou duplicitu. Ještě horší příklady obsahuje ten googlí článek.

Skutečným přikázáním není tvorba statických, nebo dynamických adres. Přikázání podle mě zní: Když statické, tak odkazovat jednoznačně. Nejsem-li si jistý jednoznačností, zůstat u dynamických.

Jasně že je dneska lepší tvořit statické adresy s klíčovými slovy, hlavně v českém prostředí, hlavně kvůli Seznamu a hlavně kvůli jeho zastaralé důvěře, že slova ve statické URL nesou nějakou relevanci. I Google tím trochu trpí. Postupem času slova v URL dopadnou ve vyhledávačích stejně jako meta keywords -- kdysi hlavní metoda optimalizace, dnes vyhledávači ignorovaná. (Toto hezké srovnání keywords a URL pochází od Miruna.)

trvalý odkaz

Yuhůův weblog píše Yuhů Yuhů. Kontakt. Weblog patří pod Jak psát web.