#76 ¿De verdad se ha filtrado el algoritmo de Google?
Veamos otra perspectiva sobre lo que representa realmente esta información y cómo podemos sacarle provecho.
La mayoría ya estará al tanto de la reciente filtración de componentes del algoritmo de Google. También os habréis dado cuenta de que llevo unos días de más sin publicar y que no he hablado todavía de este tema. Pero es que, a veces, es imposible llegar a todo. Compaginar mi aún reciente paternidad, con el trabajo y con el “amor al arte” suele acabar siendo agotador. Con todo, le dedico esta edición a mi hija, que duerme plácidamente mientras tecleo. Vosotros, seguro que sabréis disculparme por la tardanza.
🔬 Como decía arriba, llego algo tarde, pero eso no significa que no haya estado devorando la información acerca de la filtración del algoritmo. Hay material abundante y muy bueno al respecto, así que no vamos a repetir aquí lo que ya han dicho otros.
Lo que sí voy a hacer, es compartir con vosotros los mejores recursos que he encontrado, antes de pasar al tema central de la newsletter:
Este extraordinario post de Juan González Villa, donde nos ofrece lo que yo llamaría un completo “glosario” de términos aparecidos en la filtración, con la correspondiente explicación de cada uno.
Aquí el completísimo post de Mike King para iPullRank [EN], donde desmenuza todos los componentes filtrados. Desde luego una lectura obligatoria.
Un interesante post en Growwer que pone el foco en las implicaciones que tiene esta filtración específicamente para el linkbuilding.
Lo mismo hace este post de Andrew Shotland en Search Engine Land [EN], pero esta vez desde el prisma del SEO Local.
Otro análisis exhaustivo de la filtración [EN], esta vez de mano de Andrew Ansley, también para Search Engine Land.
No dejéis pasar tampoco este magnífico post de Matthew Woodward en su blog [EN] con las 22 cosas que podríamos haber aprendido de esta filtración.
🔎 Entrando ya en materia en relación con el título de esta edición, me ha llamado especialmente la atención esta pieza de Eli Schwartz [EN], que aporta una perspectiva diferente y alejada del furor creado en torno a la filtración.
Eli se pone “del lado de Google” y sostiene que tiene mucho sentido que hayan mentido descaradamente todos estos años acerca del funcionamiento real del algoritmo porque “la verdad podría perjudicar a los usuarios”.
El ejemplo que porta me parece bastante acertado:
“…si Google fuera claro y anunciara que las páginas vistas desde Chrome, por ejemplo, son señales algorítmicas, puedes estar seguro de que surgirían mercados de la noche a la mañana para vender tráfico de bots. Como resultado, Google atenuaría esta señal para proteger los resultados de búsqueda de la manipulación, pero los mercados seguirían existiendo.”
Otro ejemplo de esto sería la atención que algoritmo presta a los enlaces tóxicos. Google ha declarado recientemente [EN] que este tipo de backlinks son filtrados de forma automatizada por sus sistemas y que no debemos preocuparnos en absoluto por ellos.
Ahora imaginemos que admitieran abiertamente el poder de estos enlaces tóxicos y su capacidad para perjudicar a los sitios web. En ese escenario, probablemente, aparecerían cientos de marketplaces en los que sería posible comprar enlaces para atacar a la competencia.
De nuevo en palabras de Eli:
“Si bien es posible que Google haya dirigido mal o engañado intencionalmente a la comunidad de SEO, creo que la mayor parte probablemente estaba justificada.”
¿Realmente es una filtración del algoritmo?
La respuesta corta: no.
La respuesta larga: como dijo Google, se trata de información fuera de contexto [EN].
En el mejor de los casos, es una lista exhaustiva de definiciones que Google podría usar en sus algoritmos de ranking. Sin embargo, no tenemos ninguna evidencia real de que estos elementos se utilicen, y de ser así, cómo se están aplicando.
Si lees cuidadosamente los documentos filtrados, verás muchas menciones sobre voz, Android, asistentes, Chrome y otros temas relacionados. Los del sombrero de papel de aluminio siempre han sospechado que Google los rastreaba y escuchaba en todo momento; podríamos decir que esto lo confirma.
Por otro lado, Eli tampoco cree que el algoritmo de Google al completo pueda descargarse así como así, en un único fichero y da dos motivos:
La complejidad de resumir los múltiples algoritmos de Google en un solo archivo.
Que si fuera posible descargarlo en un único fichero, ya habría sido robado hace mucho tiempo.
No existe una única fórmula para el éxito
Muchos creen que los factores de ranking de Google se expresan como una fórmula matemática exacta. Si obtienes valores altos en cada uno de los indicadores, el éxito está asegurado. Pero esta es, sin duda, una percepción equivocada.
En realidad, esta filtración cambia muy poco el panorama del SEO actual, más allá de confirmar muchas sospechas que ya se tenían. La visibilidad conseguida en Google por los sitios web se debe sobre todo a la aplicación de las mismas prácticas que se vienen siguiendo durante los últimos 20 años.
¿Factores de ranking o señales?
Ahondando en esa imposibilidad de saber con precisión cuál es la fórmula precisa del éxito en Google, Eli nos pone otro ejemplo: la etiqueta title.
Por todos es sabido que se trata de un factor muy importante para el posicionamiento, pero no siempre sucede que sea determinante. Tanto Eli como yo hemos visto en muchas ocasiones sitios web que posicionar muy alto para términos competidos sin disponer siquiera de esta etiqueta.
Lo mismo ocurre con la velocidad del sitio web. Es importante que tu web se cargue de forma rápida pero ¿garantiza eso que vaya a posicionar alto? En absoluto, pero tampoco te asegura un puesto en el purgatorio del ranking de Google.
Aquí es donde Eli nos recuerda la diferencia fundamental entre señal y factor:
Un factor es un término matemático que se define como “un número o cantidad que, al multiplicarse por otro, produce un número o expresión específicos”. De acuerdo con esta definición, un factor debe formar parte de una ecuación; no se puede excluir un número en un problema matemático.
Por otro lado, una señal puede ser pasada por alto o interpretada de una forma más flexible. Por ejemplo, cuando conduces y ves una luz roja, indica que probablemente haya tráfico cruzado, pero nada te impide ignorar la señal si no ves ningún vehículo. Las consecuencias ya son otra cosa distinta.
Si tenemos en cuenta el funcionamiento en tiempo real del algoritmo, puede suceder que, teniendo una etiqueta de título excelente, Google decida usarla para identificar con precisión el contenido de tu página web. Pero también podría decidir ignorarla completamente en caso de existir otras señales que prevalezcan sobre ésta.
A diferencia de los factores, que deben tenerse en cuenta sí o sí, las señales pueden ampliarse o minimizarse dependiendo de una situación específica. Esto implica que, como componentes en el ranking de un sitio web, cada señal tiene una intensidad variable en lugar de un valor fijo como criterio.
Para terminar, me quedo con un párrafo que Eli nos deja al final de la pieza, a modo de moraleja:
“Si enfocas tus esfuerzos de SEO en todos tus usuarios, siempre contarás con una estrategia relevante cuando los métodos de búsqueda evolucionen. Sin embargo, si te centras únicamente en Google y en sus lagunas legales, corres el riesgo de quedarte rezagado cuando el panorama cambie.”
🔗 Pese a que Google lleva tiempo tratando de convencernos de que los enlaces han perdido peso como señal de ranking, este estudio parece demostrar justamente lo contrario [EN].
👉 El resultado es impactante como poco: el 96% de los sitios en el top 10 de Google tiene más de 1.000 enlaces desde dominios únicos. Sólo el 0,3% tiene menos de 100 backlinks. Estamos hablando de un estudio que comprendía 1.113 sitios web.
☹️ Otra encuesta que sirve para reflejar la frustración de los usuarios con la búsqueda de Google: la mayoría de los estadounidenses (+54%) pasan más tiempo buscando online hoy que hace cinco años [EN].
👉 Entre los principales motivos de esta frustración, los encuestados destacaron:
revisar los resultados de búsqueda (26%)
encontrar los términos de búsqueda correctos (22%)
visitar múltiples sitios web hasta encontrar lo que están buscando (21%)
Aunque las tecnologías de IA generativa como AI Overviews y ChatGPT prometen potencialmente resolver estos problemas, seguimos lejos de lograr ese objetivo.
[Esta semana en Substack…]
Diferentes enfoques para montar una newsletter en tu nicho, por Maca-chan.
Una estupenda guía con muchas ideas si estás pensando en lanzar una newsletter de nicho que te permita mantener un tráfico estable hacia tu web al tiempo que evitas la dependencia de Google.
¿Podría ser Meta una amenaza en las búsquedas para Google en los próximos años? [EN], por Eli Schwartz.
Las ventajas competitivas que Google tenía en los albores de las búsquedas online (mejor producto, UX y eficiencia de costes) se han evaporado en los últimos años.
Descubro lo que es la ley de Kaplan gracias a la edición 109 de Content Curators, de Javier Guallar.
Cuanto más grande y más datasets digiere un LLM, mejor “piensa”. Salvo por un detalle, que cuanto más sofisticado es el modelo, más sofisticadas son sus “alucinaciones” y, por lo tanto, más difíciles de detectar.
Estrategias de linkbuilding para e-commerce, de mano de Rafa Villaplana.
Rafa nos ofrece en esta edición distintas estrategias de linkbuilding que puedes seguir para aumentar la autoridad y credibilidad de tu e-commerce frente a los motores de búsqueda.
[Otras lecturas SEO/IA que me han parecido interesantes]
¿Qué es el archivo robots txt y cómo afecta al SEO?, por Javier Gosende.
Guía 2024 sobre Canibalizaciones SEO en tus contenidos – todo lo que debes saber, por Ismael Ruiz.
Google Responds To Specific Search Leak, Navboost, Clicks & User Interactions [EN], por Barry Schwartz.
Ganar dinero con una newsletter: 10 claves, por Jordi García Lorenzo.
👉 Nuestro sponsor
RANKbox es la herramienta definitiva para dominar el SEO local. Imagina tener acceso a una red de dispositivos físicos basados en miniordenadores Raspberry Pi, que proporcionan resultados de búsqueda 100% reales basados en IPs reales, no proxies.
Con RANKbox, puedes controlar diariamente el ranking de tu sitio web en Google, obtener información precisa sobre las posiciones de tus palabras clave y estimaciones de tráfico orgánico. Además, ofrece integración con Google Analytics y Search Console.
Ahora licencia de 7 días GRATIS para que puedas probarlo
(Incluye también 7 días GRATIS de KEYWORDbox, la herramienta de selección de palabras clave desarrollada por y para profesionales SEO)
Gracias por este artículo tan completo. Cuando lo vi me pareció que todas las cosas que estaban diciendo eran temas que ya eran más o menos sabidos por la gente.
Miraré con atención todas tus referencias.