Uno de los principales retos a la hora de optimizar bien el posicionamiento de nuestros sitios web es evitar el contenido duplicado. ¿Qué es exactamente? Se trata de aquellos casos en que se puede acceder al mismo contenido desde distintas URLs. Podemos resumirlo como DUST (Different URLs with Similar Text). Hoy, los tres principales buscadores han lanzado un nuevo método para solucionar este problema. Pero antes de ver esta sencilla solución, veamos el problema del contenido duplicado.

Históricamente los spammers han tratado de obtener un mejor posicionamiento web gracias a inundar multitud de páginas en uno o varios dominios con las palabras clave que desean posicionar. De este modo lograban una alta densidad de palabras, obteniendo un buen posicionamiento para dicha keyword, y además se enlazaban entre esas páginas aumentando su ranking.

Los buscadores, para evitar que estas páginas fraudulentas obtivieran un rango tan elevado, modificaron sus algoritmos de modo que se penalizara el contenido duplicado.

¿Cuál fue el problema? Que muchas páginas legítimas presentaban casos de contenido duplicado. Por ejemplo, en muchas webs se accede al mismo documento escribiendo estas URLs:

  • http://www.example.com/articulo?id=314
  • http://example.com/articulo?id=314
  • http://www.example.com/articulo/314
  • http://example.com/articulo/314
  • http://example.com/articulo/314?SESSID=65AD8801FB

Las páginas que se comportan así están siendo penalizadas, ya que, como dije al principio, muestran el mismo contenido desde distintas URLs. Afortunadamente los programadores de los motores de busqueda eran consciente de esto y sugirieron a los webmasters seguir una estricta política de URLs únicas mediante el uso de redirecciones HTTP.

Pero hoy los 3 grandes buscadores, mediante su alianza Sitemap, nos han presentado una nueva solución que han consensuado entre ellos. A partir de ahora mediante una etiqueta <link> podremos especificar qué URL es la prioritaria, por ejemplo, siguiendo con el ejemplo anterior:

<link rel=”canonical” href=”http://example.com/articulo/314” />

De este modo, las otras 3 URLs incluirían esta etiqueta <link> informando a los buscadores de que es una dirección con contenido duplicado.

De cara al usuario, a diferencia de las redirecciones, no se percibirá ningún cambio. Sin embargo los buscadores sí manejarán estos documentos como si se tratara de redirecciones, es decir, se comportarán con estos casos exactamente igual que se han venido comportando con las redirecciones 301: Traspaso de enlaces entrantes, de ranking, etc.

Mi opinión: Prefiero emplear directamente redirecciones. Si tengo unas URLs estandarizadas para mi página web, prefiero que los usuarios utilicen ésas. Sin redirecciones cada persona podría apuntar una URL distinta. Así mismo me parece curioso la directriz de Google de “Make pages primarily for users, not for search engines“. Con iniciativas como esta demuestran que es necesario realizar páginas web teniendo en cuenta los motores de busqueda desde el primer momento.