Parece que muchos bloggers están algo nerviosos con todos los cambios que está llevando a cabo Google, y que según podría parecer el contenido duplicado de categorías y archivos te podría estar penalizando para el posicionamiento de tú bitácora y en consecuencia haciendo mermar los ingresos de Adsense (¿para cuando las alternativas de Yahoo y Microsoft para Adsense en España?).
Yo por mi parte lo único que he hecho actualmente es añadir un fichero robots.txt un poco más completo, pues pensandolo bien quizás el tema de trackbacks no sea del todo beneficioso que se indexe en google, aunque por ejemplo, los feed creo que si son buenos, de hecho BlogSearch.Google.com los necesita, ¿por qué decirle a robots.txt que no lo indexe?.
Mi fichero robots.txt para blogs ahora es así:
User-agent: *
Disallow: /wp-
Disallow: /comments/feed
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
Sobre las URL canónicas, cuando uno define su sitemaps en google puede elegir que su sitio aparezca indistintamente con www o sin ellas, y también forzar que google no siga o con www o sin ellas, yo lo controlo desde allí.
Os recomiendo los siguientes artículos relacionados a este tema:
Sigt no dice Cómo arreglar el problema del contenido duplicado en WordPress.
DupPrevent, Plugin para WordPress para controlar contenido duplicado.
Fernando Gómez nos comenta sobre WordPress y las penalizaciones de Google por contenido duplicado.
Seo researcher: How to Make a WordPress Blog Duplicate Content Safe. (enlace a cache de Google).
Mariano nos habla también de El contenido duplicado en Google.
OjoBuscador: Cómo corregir contenido duplicado. (actualizado 09-01-2007).
Dejanos tus comentarios sobre este tema…