Se ha liado la marimorena en las últimas semanas con la filtración de documentos de Google en github que pone de manifiesto cómo funciona el buscador por dentro y da pistas de algunos aspectos que nos pueden interesar a nivel SEO. Y ya puestos, en base a esa información os hablaré de 2 herramientas que os pueden ayudar, y mucho, en vuestra estrategia de posicionamiento.
La filtración de documentos de Google supone:
- 2569 documentos
- > de 14.000 conceptos que se utiliza para rankear las distintas páginas web
- Más de 8000 conceptos tiene que ver con la parte del buscador
- Unos 1500 tiene que ver con su asistente de voz
- Y cerca de mil, en tercera posición tiene que ver con la parte de Mapas
- Actualizada a agosto de 2023
¿Ha sido algo premeditado o accidental? A tenor de los acontecimientos parece que accidental, pero las malas lenguas dicen que puede ser una cortina de humo para que no se hable de los errores que tiene AI Overviews por no entender las ironías (aunque personalmente no lo creo)
Google ha salido al quite diciendo que:
- Reconoce que esa documentación proviene de Google
- Que puede llevarnos a hacer suposiciones inexactas sobre cómo funciona el buscador basándonos en información fuera de contexto, desactualizada o incompleta.
Sin embargo, nos hemos dado cuenta analizando la información que de la palabra de Google te puedes fiar a medias, porque en el pasado negaban:
- que utilizaran señales de usuario centradas en los clics
- que tuvieran una zona de pruebas o sandbox para los sitios webs más nuevos antes de ponerles a rankear.
- que la antigüedad del dominio importara
Y a la vista de estos documentos desmontan estas versiones oficiales de Google. Entiendo que quieran evitar las manipulaciones del ranking pero necesitamos conocer mejor las reglas del juego: una cosa es contar y otra desinformar.
Principales hallazgos del dataleak de Google
En base al número de veces que se repite cada término, entendemos la importancia que puede tener cada uno a la hora de Google decidir rankear una web frente a otra.
- La información del clic del usuario importa y mucho:
- Diferencian entre long clics (es decir el pogo sticking o el tiempo que permanece un usuario en una página antes de volver a darle a retroceder).
- Tienen información de los clics desde el navegador de Chrome: aquí es donde se produce una información que es clave: Google no solo sabe el tráfico que llega a las webs desde el buscador sino que puede saber el tráfico directo, o desde un email, o desde un app solo por que el usuario esté trabajando con este navegador. Su propio Chrome le facilita la info de lo que hacen los usuarios aunque no pasen por el propio buscador.
- El análisis de los clics ocurren a nivel metropolitano que junto con otra información identifica la notoriedad de marca. De hecho hay un atributo que se llama «clicradius50Percent» que mide el radio en millas alrededor de la ubicación donde el negocio consigue más del 50% de sus clics (hacen referencia a un sistema llamado docloc que ya está obsoleto y ahora se llama brain loc).
- En el podcast te explico cómo puedes hacer búsquedas locales gracias al parámetro uule con la herramienta de site-analyser.
- Hay un nuevo concepto que se llama Site Authority:
- No se trata de nada nuevo a nivel conceptual porque Moz tenía un indicador que es Domain Authority.
- Para valorar las nuevas páginas que se crean, a priori no sabe valorarlas a nivel de calidad, por tanto tiene en cuenta el valor del dominio (si nos damos cuenta el tema de la calidad es importante para Google y los últimos hitos de Reputation Abuse y HCU lo demuestra).
- El documento «LocalWWWInfo» muestra un atributo llamado brickAndMortarStrength, lo cual nos puede hacer pensar que la solidez de una ficha le puede hacer clasificar mucho mejor.
- Linkbuildingg y enlazado interno
- Si una página recibe poco o nada de tráfico, no se tendrá en cuenta la autoridad que pueda tener de enlaces entrantes y por tanto tampoco transmitirá su fuerza a los enlaces internos a los que derive dentro de la web. Esto ya te da una pista muy interesante de cómo debemos configurar nuestra arquitectura, porque antes en el menú superior de navegación enlazamos a las urls más importantes pero no tienen por qué ser las que más tráfico tengan. Sabiendo esto, nos puede interesar anclar al menú alguna página por el volumen de tráfico que genera.
- Esto explica por qué la presencia en directorios apenas tienen relevancia, porque muchos de estos directorios apenas tienen tráfico, por eso Google los desindexa. Si nos metemos en directorios debemos tener presencia en webs con alto tráfico y alta autoridad de dominio.
- isLargeLocalwwwinfo es un atributo con el cual Google clasifica los directorios.
- En este contexto es mejor las citaciones que los enlaces, porque las citaciones nos ayudan a construir marca y para los negocios locales que tiene menos recursos es la mejor solución porque si inviertes y no vale para nada, ¡menudo negocio1
- La importancia de la marca:
- Google sospecha de la calidad de los enlaces cuando una web tiene muchos pero por otro lado tiene pocas búsquedas de marca, es algo poco natural.
- Google premia a las marcas conocidas frente a las pequeñas o las nuevas empresas. Aquí es por tanto útil tener una ficha con suficiente antiguedad y trabajar toda la parte de relevancia del negocio local
- Se hace mención expresa a las reseñas que se dejan en las fichas de GBP
- Tratamiento especial a las cadenas de establecimientos
- Feedback de los quality raters es más importante de lo que podíamos estimar a priori a la hora de rankear una web.
- Se crean listas blancas en viajes, Covid, elecciones y otros temas que pueden ser sensibles para asegurar la calidad de la info a los usuarios (interesante en caso que se dio en EEUU y que explico en el podcast).
- Las entidades están por todos los lados a lo largo de los documentos. Recordamos que las entidades son el nombre de algo, es decir, de un elemento, un lugar, una persona, un animal, un objeto, un ente, una cosa, etc. Y este nombre se asocia de forma automática a otros términos o palabras, como pueden ser fechas, acciones u otras entidades.
- Una de los atributos que ayuda a construir esas entidades en los negocios locales es la categoría. Pues bien, se ha identificado un atributo llamado visitHistory y que creemos que tiene que ver con el volumen de tráfico que puede tener un negocio, pudiendo llegar a ser un factor de ranking tanto para bien como para mal (en épocas de covid podía ser un atributo para no mostrar ciertos establecimientos y evitar aglomeraciones).
- Biblioteca de palabras claves basados en los atributos de los negocios que prefiltran los resultados. Para justificar esta info hemos encontrado un atributo que se llama hyperReliableData que aplica a determinados negocios (café, bares, restaurantes, hoteles, …) por el cual hay un mapeo hacia esas palabras claves.
Seguiremos investigando por si encontramos más información de utilidad en estas filtraciones que nos ayuden a mejorar el posicionamiento local de nuestros negocios locales.
Fuentes de información:
Filtración de Google: recopilación de términos mencionados en los documentos
Local Search Implications of the Google API Leak
Local SEO According To The Leaked Google API Documents
Google Search Leak: Conflicting Signals, Unanswered Questions




