¿Quién dijo que el mundo del SEO era aburrido? Conocé todos los detalles de la última filtración de datos del algoritmo de Google y cómo impacta en el posicionamiento web orgánico.
Lo que pasó
A pesar de los altos estándares de seguridad, las filtraciones de datos en Google no son algo nuevo. Sin embargo, en lo que va del siglo XXI, pocas fueron tan significativas como la que se dio a conocer el pasado lunes 27 de mayo.
A fines de marzo de este año, desde GitHub se filtraron documentos del almacén de contenidos de la API de Google Search, originalmente destinados para uso interno. Estos documentos migraron de GitHub al repositorio Hexdocs y circularon por otras fuentes hasta que finalmente se hicieron públicos.
El 05 de mayo, Rand Fishkin recibió un e-mail de una fuente anónima que luego se identificó como Efran Azimi. En su correo, Azimi decía tener acceso a documentos internos del servicio de búsqueda de Google.
Aunque el 07 de mayo se habría solucionado la filtración del repositorio de Google, los documentos seguían estando en páginas de acceso público. Por lo tanto, el 24 de mayo Fishkin y Azimi realizaron una videollamada, en la que Azimi mostró la documentación y explicó sus motivaciones a Fishkin.
¿Cómo siguió todo? Fishkin, autodenominado SEO retirado que en los jóvenes 2010 era el rey del SEO en MOZ con sus “whiteboard friday” que nos hechizaba a todos los wannabe SEOs que admiramos su estilo y su conocimiento. Rand Fishkin es hoy el Founder y CEO de la plataforma de análisis de audiencias Sparktoro, y confirmó con ex trabajadores de Google que se trataba de documentos legítimos.
Su siguiente paso fue recurrir a Mike King (experto en SEO técnico, Founder & CEO de iPullRank) para que descifrara la documentación. Una vez que King hubo terminado un primer análisis del documento y compartió los resultados con Fishkin, ambos publicaron artículos hablando del tema… Y el resto es historia.
¿Qué documentación de Google se filtró?
Si bien los documentos están fechados en agosto de 2023, es razonable creer que seguían siendo válidos para marzo de este año. Configuran una especie de “guia” para el equipo de Xooglers (trabajadores de Google) del departamento de búsqueda.
A través de códigos y breves descripciones, la documentación explica los atributos y módulos API de Google Search. Es decir, la interfaz que media entre dos sistemas para que compartan información y funcionalidades. La información abarca 2.596 módulos de la API de Google Search. Estos se especifican en tipos, funciones y 14.014 atributos (esto es, características para la clasificación) que la interfaz considera al recolectar datos.
Así, con estos documentos es posible conocer qué datos recupera Google de las búsquedas de sus usuarios y de su comportamiento antes, durante y después de estas. Aparentemente, se registra información sobre los links y el contenido de una página, y sobre las interacciones de los usuarios con estos. Es a partir de estos datos y de los algoritmos de Google, que una página quedará mejor o peor posicionada en las SERPs.
Pareciera, así, que esta filtración es un regalo del cielo para los especialistas SEO. Sin embargo, muchas de las entradas remiten a páginas internas de Google, a las que sólo puede accederse con una credencial de la empresa. Esto implica que el análisis de King y las conclusiones que él y Fishkin sacaron no deben tomarse como definitivos o totales.
Ambos expertos, de hecho, reconocieron una serie de limitaciones en su trabajo con la documentación. En primer lugar, aunque los documentos filtrados indican cuáles datos registran, no distinguen todos los elementos que influyen en el posicionamiento de una página. Se sabe, eso sí, que algunos son obsoletos para la organización de las SERPs. Por otra parte, la documentación no permite identificar indiscutiblemente qué información se utiliza ni de qué maneras se lo hace. Tampoco es posible determinar cuáles características tienen más peso que otras a la hora de posicionar una página web.
Aun así, debe contemplarse que, para analizar los documentos, partieron de su amplia experiencia como SEOs y de las prácticas de otros profesionales del campo. Consideraron, además sistemas de posicionamiento asimilables a los explicados por Google. En fin: sin poder hacer afirmaciones precisas al respecto, alcanzaron conclusiones más que probables, perfectas para tener una idea más clara de cómo aplicar el SEO para conseguir resultados ideales.
El quid de la cuestión
Ahora bien, ¿qué es lo grave en este asunto para quienes realizamos SEO? O, más bien, ¿por qué resultan tan polémicos los datos filtrados? Por un lado, porque más de una vez los ejecutivos de Google negaron la influencia de ciertas métricas en el posicionamiento web. Asimismo, criticaron duramente a profesionales del SEO (Rand Fishkin entre ellos) que afirmaban que Google organizaba las SERPs a partir de datos de Chrome, el tiempo que pasa un usuario en una página, sandboxes, entre otras cosas.
Por el otro lado, los documentos revelan que no todas las prácticas de SEO sirven realmente a la hora de posicionar una página. La documentación presenta un sistema de posicionamiento donde redactar para los buscadores importa menos que dirigirse a los usuarios… A menos, por ejemplo, que detrás de uno haya una marca reconocida, que atraerá clics como moscas a la miel.
En otras palabras: con respecto al ranking de páginas, Google no compartió ni la mitad de lo que pasa en el sistema de su buscador. Además, no solo era la falta de información lo que resultaba problemático, sino también la manera en que Google manejaba la situación. Más que no compartir ni la mitad, nos mareaba la perdiz, llevando a los SEOs noveles por caminos equivocados y confundiéndolos en el gran laberinto del minotauro cibernético. Esta complejidad y falta de transparencia dificultaban aún más la tarea de optimizar las páginas para el buscador, dejando a muchos profesionales frustrados y desorientados.
Documentos filtrados: Puntos claves para el SEO
Vamos ahora a lo que debe ser tu mayor preocupación: qué, de todo lo que se filtró, es lo que un experto en SEO necesita saber. Si bien no podemos saberlo ya en su totalidad, en sus artículos Fishkin y King recuperaron (de manera muy técnica) varios de los aspectos de la API de Google que afectan al SEO. Algunos de los más importantes son:
- Navboost. Es uno de los algoritmos internos del buscador. Junto con Glue (otro algoritmo) ordenan las entradas de las SERPs según la cantidad y tipos de clics que reciben, en un rango de hasta 13 meses. Mientras más y mejores clics reciba una página, más alto posicionará, en tanto indica al buscador que el enlace es confiable.
- Datos de Chrome. Google Search recolecta información sobre el comportamiento de los usuarios en Chrome. Utiliza estos datos para, entre otras cosas, definir los sitelinks que presentará en las SERPs. ¿Qué URLs figurarán? Aquellos con los que los usuarios interactúen más. Es decir, donde hagan más clics y permanezcan más tiempo.
- Quality raters. La documentación de Google Search, confirma que el buscador utiliza información, proporcionada por sus quality raters mediante la plataforma Ewok, para determinar los resultados de búsqueda.
- Sandbox. Por más que Google lo negó, desde hace un tiempo, se sospechaba que el buscador utilizaba “cajas de arena” para determinar la fiabilidad de los nuevos dominios. Así, sin importar el buen SEO que tenga una página, mientras pasa por este algoritmo será como si no existiera en las búsquedas. Es cuestión de tener paciencia, al menos eso se supone.
- Twiddlers. Son “functions” de re-clasificación que se aplican luego de los principales algoritmos de Google Search. Permiten, de este modo, especificar las entradas que se mostrarán en las SERPs.
Los puntos anteriores explican algunas de las herramientas que Google Search utiliza para filtrar las páginas que posicionará en las SERPs. Pero King y Fishkin no se quedan solo con ellos: mencionan, también, ciertos aspectos “internos” que afectan el ranking de las páginas. Estos son:
Popularidad de la marca
Según demuestra la documentación filtrada, el mejor de los SEO tiene poco que hacer ante una marca establecida en la que los usuarios, indefectiblemente, harán clic. También, se descubrió que Google Search identifica las páginas que son un small personal site. Dada su tendencia a priorizar las grandes empresas, esto resulta poco alentador para los negocios a pequeña escala.
Títulos
Al analizar los documentos, King encontró una mención a un titlematchScore. Para lo que interesa al SEO, esto significa que, al generar las SERPs, Google buscará que el título de las páginas y la búsqueda realizada coincidan.
Negritas y tamaño de fuente.
Según descifró King, mediante los atributos avgTermWeight y fontsize, Google Search registra los términos en negrita o con fuentes en mayor tamaño. En consecuencia, resulta lógico suponer que estas modificaciones de la tipografía podrán ayudar a alcanzar un buen nivel de posicionamiento web.
Fechas
Los documentos filtrados incluyen los atributos bylineDate, syntacticDate y semanticDate. Respectivamente, estos comparan las fechas que aparecen en la página, que se extraen del título o de la URL y del contenido de la página. De esto, King infiere que, para el ranking de una página en las SERPs, es importante que las distintas fechas que incluye coincidan.
Finalmente, algunos factores que influyen de manera negativa en el posicionamiento de una página en los resultados de búsqueda son:
- La potencial insatisfacción del usuario, establecida por el que la página reciba un bajo número de clics.
- Que la página sea “global” o que no esté asociada con una localización específica.
- Problemas de UX o de navegación.
- La inclusión de elementos pornográficos.
- Utilizar dominios de coincidencia exacta (por ej. “www.zapatos-para-mujer.com”).
¿Qué podemos decir?: El usuario es la clave
Siendo objetivos y, a grandes rasgos, lo más grave del asunto es que la documentación filtrada contradice abiertamente muchas declaraciones públicas realizadas por los ejecutivos de Google. Para más inri, con algunas de esas declaraciones se descalificó a aquellos profesionales que pretendían desmentir determinadas asunciones sobre los mecanismos internos de Google. Claro que, como el que ríe último ríe mejor, esta filtración de datos se ocupó de dejar en claro quiénes estaban diciendo (o deduciendo) la verdad.
Por otra parte, la gravedad del asunto está en el engaño sufrido por quienes nos dedicamos al SEO. Ciertamente, la incógnita de muchas de las medidas aplicadas por el buscador sirve para desorientar a los spammers y garantizar la calidad de las páginas. Sin embargo, los documentos filtrados demuestran que, en ocasiones, el peso de una marca puede dejar la calidad en un segundo plano. Demuestran, también, que el posicionamiento no es tan “orgánico” como cabía suponer. Y que depende menos de la habilidad de un profesional del SEO que de lo que Google considera como muchos o pocos clics.
En todo caso, la información filtrada sirve para confirmar una tendencia que Google y otros navegadores vienen asumiendo en los últimos años: producir para el usuario, no para un robot. Basta con mirar los elementos que contribuyen al posicionamiento en las SERPs. Experiencia del usuario y navegabilidad, fuentes que faciliten la lectura, contenido de calidad que se condice con la búsqueda realizada…
El foco está puesto en lo que el usuario necesita. Y resolver satisfactoriamente tal necesidad es la medida más orgánica que uno puede hacer para posicionar bien hoy en día. Después de todo, los clics de calidad no los da Google (o quizás sí, pero no podemos afirmarlo), sino quienes navegan por la web.
Nada de esto es nuevo, ni implica un cambio muy grande para quienes venían aplicando en su producción prácticas SEO orientadas a la experiencia del usuario. En síntesis: la filtración de datos del almacén de contenidos API de Google Search confirmó (entre otras cosas) que el consumidor es la clave. Pero eso ya lo sabíamos.
¿Cómo mejorar tus prácticas SEO para Google?
Ahora bien, adaptarse a este nuevo paradigma de un día para el otro puede ser un poco difícil. Sobre todo, si no se trabaja con especialistas en marketing con un sólido equipo de expertos en SEO que puedan aconsejarte sobre las mejores formas de llegar al usuario. A nivel general, por lo pronto, hay algunas cuestiones que (más allá de lo que ya se mencionó) ayudan a generar un posicionamiento óptimo en las SERPs:
- En primer lugar, es imprescindible reforzar el posicionamiento orgánico y establecer tu marca utilizando recursos que vayan más allá del SEO. Google Ads, campañas de newsletters, presencia en redes, el de boca en boca… No importa cuál sea el medio que elijas, lo importante es que produzca búsquedas específicas para tu página, que deriven en clics de calidad.
- En segundo lugar, de acuerdo con Mike King, los algoritmos de Google tienden a considerar que el contenido “fresco” es de calidad. Por lo tanto, una manera de mejorar las posibilidades de alcanzar un buen posicionamiento orgánico es mantener tus páginas actualizadas. Además, de incluir enlaces externos, lo ideal es que estos también sean recientes.
- Una tercera forma de mejorar tus prácticas SEO es diseñar tus páginas pensando en el usuario. Identificá los recorridos que realizará para llegar a ella y una vez que haya ingresado; la información que buscará; las acciones que llevará a cabo… Claramente, esto es más fácil de decir que de hacer. Por eso, la cuarta cuestión a tener en cuenta solo puede ser una:
- ¿Estás perdido? ¿No terminás de entender cómo proceder? Entonces no tengas miedo de consultar a una agencia de especialistas en posicionamiento web, como Evox.
Contamos con un amplio equipo de expertos en SEO, SEM, diseño web, redes sociales y más. Ofrecemos soluciones únicas, a la medida de lo que necesites. Más de diez años de experiencia en el campo nos avalan para ayudarte a alcanzar la presencia en buscadores que tus proyectos necesitan. No dejes que los algoritmos de Google se traguen tus proyectos. Salí a la superficie con un par de clics: contáctanos.