seo

Consejos SEO de Bing

Vía Bing Community os traigo esta serie de consejos SEO que nos proponen. La mayoría me han resultado viejos conocidos, pero otros… Son sobre los enlaces, y el artículo se titula “making links work for you“. Aquí los tenéis:

  1. Canonizar la URL de inicio. ¿Con o sin www? ¿Con barra final o sin ella? Sólo puede quedar una ;)
  2. Escoger entre enlaces relativos y absolutos. Nos aconsejan usar siempre enlaces absolutos, sobre todo porque refuerzan nuestra URL.
  3. Utiliza una buena sintaxis en las URLs de los enlaces. Por ejemplo, debemos omitir el fichero por defecto de una carpeta (Típicamente index).
  4. Utiliza el atributo title en enlaces internos. En los enlaces que apuntan a tu propia página completa el atributo title con una descripción de la página de destino.
  5. Identifica la URL canónica de cada página. Ya sabéis, como en el punto 1, pero para todas las páginas.
  6. Minimiza el número de parámetros de URLs dinámicas. Suelen ser problemáticas para los bots que rastrean la página.
  7. Evita usar IDs de sesiones o cookies. Dificultarás el rastreo a los bots.
  8. Ten al menos un enlace interno a cada página. Lógico. Todos los documentos deben ser accesibles.
  9. Limita el número de enlaces de una página. Nos aconsejan que un documento no contenga más de 100 (Salvo que sea necesario).
  10. Evitar que el rastreador siga un enlace. Mediante rel=”nofollow”. Cuanto más tiempo dedique a las páginas no interesantes, menos dedicará a las que de verdad nos interesan.

Sobre los links, también hicieron unos artículos muy interesantes titulados “El bueno, el feo y el malo” (Parte 1 y Parte 2).

http://www.bing.com/community/blogs/webmaster/

Contenido duplicado

Uno de los principales retos a la hora de optimizar bien el posicionamiento de nuestros sitios web es evitar el contenido duplicado. ¿Qué es exactamente? Se trata de aquellos casos en que se puede acceder al mismo contenido desde distintas URLs. Podemos resumirlo como DUST (Different URLs with Similar Text). Hoy, los tres principales buscadores han lanzado un nuevo método para solucionar este problema. Pero antes de ver esta sencilla solución, veamos el problema del contenido duplicado.

Históricamente los spammers han tratado de obtener un mejor posicionamiento web gracias a inundar multitud de páginas en uno o varios dominios con las palabras clave que desean posicionar. De este modo lograban una alta densidad de palabras, obteniendo un buen posicionamiento para dicha keyword, y además se enlazaban entre esas páginas aumentando su ranking.

Los buscadores, para evitar que estas páginas fraudulentas obtivieran un rango tan elevado, modificaron sus algoritmos de modo que se penalizara el contenido duplicado.

¿Cuál fue el problema? Que muchas páginas legítimas presentaban casos de contenido duplicado. Por ejemplo, en muchas webs se accede al mismo documento escribiendo estas URLs:

  • http://www.example.com/articulo?id=314
  • http://example.com/articulo?id=314
  • http://www.example.com/articulo/314
  • http://example.com/articulo/314
  • http://example.com/articulo/314?SESSID=65AD8801FB

Las páginas que se comportan así están siendo penalizadas, ya que, como dije al principio, muestran el mismo contenido desde distintas URLs. Afortunadamente los programadores de los motores de busqueda eran consciente de esto y sugirieron a los webmasters seguir una estricta política de URLs únicas mediante el uso de redirecciones HTTP.

Pero hoy los 3 grandes buscadores, mediante su alianza Sitemap, nos han presentado una nueva solución que han consensuado entre ellos. A partir de ahora mediante una etiqueta <link> podremos especificar qué URL es la prioritaria, por ejemplo, siguiendo con el ejemplo anterior:

<link rel=”canonical” href=”http://example.com/articulo/314” />

De este modo, las otras 3 URLs incluirían esta etiqueta <link> informando a los buscadores de que es una dirección con contenido duplicado.

De cara al usuario, a diferencia de las redirecciones, no se percibirá ningún cambio. Sin embargo los buscadores sí manejarán estos documentos como si se tratara de redirecciones, es decir, se comportarán con estos casos exactamente igual que se han venido comportando con las redirecciones 301: Traspaso de enlaces entrantes, de ranking, etc.

Mi opinión: Prefiero emplear directamente redirecciones. Si tengo unas URLs estandarizadas para mi página web, prefiero que los usuarios utilicen ésas. Sin redirecciones cada persona podría apuntar una URL distinta. Así mismo me parece curioso la directriz de Google de “Make pages primarily for users, not for search engines“. Con iniciativas como esta demuestran que es necesario realizar páginas web teniendo en cuenta los motores de busqueda desde el primer momento.