Las directrices para webmasters de Google — GLOBPERU Marketing y Diseño WEB

Las directrices para webmasters de Google — GLOBPERU Marketing y Diseño WEB

Las directrices para webmasters de Google

Para que una página web aparezca en los buscadores, primero debe ser indexada por estos, de este modo al momento que los usuarios hagan una búsqueda podrá aparecer dentro de las páginas de respuesta. Eso sí, dependerá del trabajo de posicionamiento que haya recibido la web el obtener las mejores posiciones.

El proceso para indexar una página web nueva es (en el caso de Google), enviarla a esta dirección: http://www.google.com/submityourcontent/
Además, podemos hacer uso de las herramientas para webmaster de Google, donde debemos enviar un mapa del sitio para que Google conozca su estructura e incremente los datos sobre el mismo.

El día de hoy vamos hablar sobre el proceso anterior a este envió, y es que existen una serie de directrices para que Google indexe el sitio de la mejor manera.

Podemos empezar por las de diseño y contenido, con las que se pide que la jerarquía con la que se establece cada página y sus respectivos contenidos, así como los enlaces de texto; estén bien claros. Hay que tener en cuenta que es necesario que se cuente con la posibilidad de ingresa a todas las páginas desde un link de la home.

La página debe tener una cantidad razonable de links y un mapa con el que el usuario pueda llegar a sus secciones más importantes. Así mismo como la información, que debe ser contenido claro y relevante, conteniendo a su vez palabras que los usuarios pudieran emplear cuando hagan una búsqueda en Google.

Para mostrar contenidos, links de importancia o nombres, es mejor usar texto y no imágenes porque el rastreador de Google no puede reconocer texto insertado en imágenes. En tal caso, hay que recurrir al atributo “ALT” para emplear palabras de texto descriptivo.
Si hay elementos “Alt” y “Title”, estos deben ser muy precisos y descriptivos.

En caso que existan enlaces dañados, hay que encontrarlos y corregir su código HTML.

A nivel de directrices técnicas hay que procurar que los robots de Google rastreen efectivamente el sitio sin problema alguno, cosa que se puede constatar usando un navegador web de texto (Lynx) para verificar que el sitio trabaja de manera adecuada, ya que los robots podrán ver a dicha web de una manera similar a como se presenta en Lynx. En caso que se hayan incorporado funciones avanzadas que implican el uso de Flash o JavaScript, es muy probable que los buscadores tengan algunos inconvenientes para indexarlo.

Los robots de los buscadores deben rastrear la web sin obstáculo alguno (identificadores de sesión) o cualquier cosa que permita el seguimiento de la ruta que hagan para que la indexación sea completa. El servidor donde se encuentre alojado el sitio tiene que admitir la cabecera HTTP «If-Modified-Since», una función con la que se avisa a Google automáticamente si el contenido de la web cambio posterior a la última vez que fue rastreado, lo que permite el ahorro de ancho de banda. Por otro lado, el servidor debe usar el archivo robots.txt, para que los robots sepan los directorios que debe rastrear. Se debe actualizar periódicamente para que Googlebot no bloquee a la web de forma accidental. Para mayor información al respecto, el webmaster puede dirigirse a http://code.google.com/web/controlcrawlindex/docs/faq.html.

Es necesario que el sitio sea probado en la mayoría de los navegadores web para que aparezca correctamente en los mismos. Y algo muy importante que indica Google en sus directrices técnicas es que la web debe cargar rápidamente, lo cual agrada mucho a los usuarios y mejora considerablemente su funcionamiento, en especial cuando se accede a la misma con conexiones a la red que son lentas.

Y por último, Google habla acerca de sus directrices de calidad, consideradas como las más importantes por ellos mismos. En las mismas se establece que las páginas se deben hacer para los usuarios y no para los buscadores y evitar técnicas como la participación en esquemas de enlaces, generar contenido de manera automática, cargar páginas que tengan palabras claves sin ninguna relevancia, impedir que la página sea pirateada con contenidos de dudosa procedencia y que en el sitio no se aloje algún código malicioso que dañe el ordenador de los usuarios.

Como ven, no es necesario tener altos conocimientos de SEO para hacer que nuestra página web sea indexada y aceptada por los buscadores, es solo cuestión de saber ajustarse a sus directrices de la mejor manera.

Comments are closed.