google

Google ya indexa SVG, mientras IE9 mejora su implementación

SVG, el estándar del w3c para gráficos vectoriales, está dando mucho de qué hablar. Hasta ahora su uso no ha sido muy extendido, e incluso muchos diseñadores y programadores web ni siquiera lo conocen. Es posible que esto cambie poco a poco.

Ejemplo en SVG

Estos días ha habido dos importantes novedades que seguro ayudarán a impulsar esta tecnología.

El staff de PHP responde a los consejos de Google

Esta semana Google ha presentado (Estos tíos no paran) una serie de consejos para mejorar el rendimiento de nuestras páginas web. ¡Escalabilidad, escalabilidad, escalabilidad! Prácticamente no lo he leído, ya que imagino que la mayoría de los trucos serán muy similares a los que Yahoo! ofrece desde hace tiempo (Por cierto, viva Yslow :D (Tampoco he probado el equivalente de Google, Page Speed)).

Lo que sí he hecho es revisar por encima los consejos que Google ofrece sobre PHP. Hasta yo, que no conozco prácticamente nada de las entrañas de PHP, me he percatado de que esos consejos eran a menudo erróneos, bulos que circulan, o relativos a versiones de PHP muy antiguas.

El staff de PHP ha contestado

Resumen de lo que sí son hechos:

  1. Don’t copy variables for no reason – Falso. El Zend Engine hace que cuando copias una variable, ambas apuntan a lo mismo salvo que se realicen modificaciones. Por tanto, la memoria usada será y es la misma.
  2. Use single-quotes for strings – Falso. Hace tiempo que el rendimiento es prácticamente equivalente al usar dobles comillas que comillas simples (Personalmente uso comillas simples por costumbre desde tiempo ha).
  3. Use echo to print – No siempre es mejor.
  4. Don’t use concatenation with echo – Falso. Ocurre al revés. Es más efectiva la concatenación que el uso de múltiples argumentos.
  5. Use switch/case instead of if/else – Sin sentido. La diferencia entre uno y otro es de estilo, no de rendimiento.

En fin, al menos todos estos tips son de buena fé :)

Contenido duplicado

Uno de los principales retos a la hora de optimizar bien el posicionamiento de nuestros sitios web es evitar el contenido duplicado. ¿Qué es exactamente? Se trata de aquellos casos en que se puede acceder al mismo contenido desde distintas URLs. Podemos resumirlo como DUST (Different URLs with Similar Text). Hoy, los tres principales buscadores han lanzado un nuevo método para solucionar este problema. Pero antes de ver esta sencilla solución, veamos el problema del contenido duplicado.

Históricamente los spammers han tratado de obtener un mejor posicionamiento web gracias a inundar multitud de páginas en uno o varios dominios con las palabras clave que desean posicionar. De este modo lograban una alta densidad de palabras, obteniendo un buen posicionamiento para dicha keyword, y además se enlazaban entre esas páginas aumentando su ranking.

Los buscadores, para evitar que estas páginas fraudulentas obtivieran un rango tan elevado, modificaron sus algoritmos de modo que se penalizara el contenido duplicado.

¿Cuál fue el problema? Que muchas páginas legítimas presentaban casos de contenido duplicado. Por ejemplo, en muchas webs se accede al mismo documento escribiendo estas URLs:

  • http://www.example.com/articulo?id=314
  • http://example.com/articulo?id=314
  • http://www.example.com/articulo/314
  • http://example.com/articulo/314
  • http://example.com/articulo/314?SESSID=65AD8801FB

Las páginas que se comportan así están siendo penalizadas, ya que, como dije al principio, muestran el mismo contenido desde distintas URLs. Afortunadamente los programadores de los motores de busqueda eran consciente de esto y sugirieron a los webmasters seguir una estricta política de URLs únicas mediante el uso de redirecciones HTTP.

Pero hoy los 3 grandes buscadores, mediante su alianza Sitemap, nos han presentado una nueva solución que han consensuado entre ellos. A partir de ahora mediante una etiqueta <link> podremos especificar qué URL es la prioritaria, por ejemplo, siguiendo con el ejemplo anterior:

<link rel=”canonical” href=”http://example.com/articulo/314” />

De este modo, las otras 3 URLs incluirían esta etiqueta <link> informando a los buscadores de que es una dirección con contenido duplicado.

De cara al usuario, a diferencia de las redirecciones, no se percibirá ningún cambio. Sin embargo los buscadores sí manejarán estos documentos como si se tratara de redirecciones, es decir, se comportarán con estos casos exactamente igual que se han venido comportando con las redirecciones 301: Traspaso de enlaces entrantes, de ranking, etc.

Mi opinión: Prefiero emplear directamente redirecciones. Si tengo unas URLs estandarizadas para mi página web, prefiero que los usuarios utilicen ésas. Sin redirecciones cada persona podría apuntar una URL distinta. Así mismo me parece curioso la directriz de Google de “Make pages primarily for users, not for search engines“. Con iniciativas como esta demuestran que es necesario realizar páginas web teniendo en cuenta los motores de busqueda desde el primer momento.