Conoce los detalles que comparte Google sobre la tecnología detrás de Googlebot
Google ha revelado algunos de los principales secretos detrás de su sistema conocido como Googlebot. Esta tecnología es la encargada de rastrear e indexar sitios web para que éstos sean localizados e identificados en su motor de búsqueda.
Esta información técnica afecta directamente el posicionamiento de millones de páginas a lo largo y ancho de internet. ¿Qué datos interesantes ofrece por ahora?
Los secretos detrás del Web Rendering Service
El WRS, o Servicio de Representación Web (en español) es fundamental para que la visualización de las páginas en la red se logre de forma adecuada y por lo tanto el sofisticado bot de Google las indexe sin problema alguno.
Ahora, de acuerdo con la información de Moz.com, podemos saber que dicho servicio está basado en la versión número 41 de Google Chrome. ¿Qué significa esto en términos más sencillos? Hay varios puntos a notar:
-Muchos webmasters no saben con exactitud el proceso completo y exacto mediante el cual Google realiza el rastreo e indexación de sus sitios. En términos generales, es aún un misterio aún para los más expertos.
-Sin embargo, este dato revelado en un tweet de Ilya Grigorik, una de las mentes creativas más importantes de la compañía, ilumina un poco el camino, de la siguiente forma: para los curiosos que deseen saber exactamente cómo el Web Rendering Service visualiza su sitio todo lo que tienen que hacer es descargar Chrome 41, lanzado en el 2015, y apreciar en detalle cómo sus páginas web cargan en este navegador.
-La tecnología de Google sigue avanzando, por supuesto. Por lo tanto el mismo Ilya Grigorik ha declarado que actualizarán el sistema general de WRS para que sus nuevas versiones están basadas en las ediciones más recientes de Chrome (actualmente ya está disponible la número 62).
-De acuerdo con Grigorik, el “Rendering Service” no es un requisito indispensable para SEO y la razón salta la vista: al no existir una actualización de su base de datos, sería injusto rastrear e indexar sitios basándose en la tecnología del 2015.
Headless Chrome y un vistazo a lo que viene
Esta función, disponible desde la versión 59 del navegador Chrome, permite visualizar sitios web sin usar una interfaz gráfica, lo cual es útil para diferentes propósitos:
-Realizar pruebas de funcionamiento y códigos.
-Probar todas y cada una de las funciones Javascript del sitio web respectivo.
-Inspeccionar determinados sitios web para recolectar datos. En el caso de Google esto es básico para la indexación de los mismos en su motor de búsqueda.
La nueva información indica que Headless Chrome fue creado expresamente para Googlebot. En términos generales esto es muy importante, por lo siguiente:
-Ya que la tecnología mencionada permite inspeccionar todas y cada una de las partes de cada sitio web, en un futuro esto permitiría que el bot de Google visualice cada página exactamente como cualquier usuario regular lo hace en internet.
-Gracias a lo anterior, el proceso de indexación será mucho más exacto y esto tendrá repercusiones importantes en las estrategias SEO, ya que los webmasters tendrán la confianza que la tecnología inteligente de Google incluirá parámetros automáticos más justos para todos.
¿Qué es lo que Google no indexa?
Asimismo, también ahora conocemos algunos aspectos técnicos que definitivamente no son importantes para SEO. Tal vez muchos marketeros y emprendedores crean que las modernas tecnologías que implementan en sus campañas influyen como tal en su posicionamiento, pero no es así, o al menos no de forma directa.
Por lo tanto, aquello que Google no indexa es:
-Servicios WebGL, útiles para renderizar gráficos en tercera dimensión.
-En general todo el contenido en Realidad Virtual y en 3D, lo que genera un importante tema de discusión: Si estas tecnologías no son determinantes para el SEO, ¿vale la pena invertir en ellas?
La respuesta corta es sí, ya que el tráfico web es otra parte importante del posicionamiento en Google y dichas herramientas tecnológicas son cada vez más atractivas para el público, generando por lo tanto suficientes visitas a las plataformas respectivas.
-Además, las cookies y la sesión del usuario se limpian completamente al cambiar de página.
-Asimismo, Google no indexa por el momento sitios basados en HTTP/2, únicamente HTTP/1.1.
En síntesis: los secretos de Googlebot revelan que aun la tecnología más sofisticada dista mucho de ser perfecta. En un futuro a corto plazo esta poderosa compañía tendrá que actualizar su sistema de indexación basándose en la versión más reciente de su navegador. Además, deberá informar a la audiencia exactamente qué factores influyen en este proceso con el objetivo de realizar los ajustes técnicos correspondientes.
De esta forma la información obtenida a través de Google Search Console será mucho más exacta, confiable y precisa en tiempo real.