

Descubra más de 📬 Newsletter SEO / IA en Español
#59 El Grafo de Conocimiento de Google y su relación con E-E-A-T
La actualización Killer Whale que comenzó en julio es la mayor actualización del llamado Grafo de Conocimiento de Google y pone el foco en E-E-A-T
🖥️ Empezaré explicando brevemente qué es el Grafo de Conocimiento (o Knowledge Graph) de Google y para qué sirve. Básicamente es una base de conocimiento estructurada en forma de grafo para mejorar los resultados de búsqueda mediante información de búsqueda semántica recolectada de una amplia selección de fuentes. Este motor de grafo se incorporó a las búsquedas de Google allá por 2012 y trata de ofrecer respuestas inmediatas y objetivas a las consultas de búsqueda sobre temas del mundo real. Pongamos un ejemplo. Si buscáramos “J. R. R. Tolkien” en el buscador, obtendríamos una tarjeta como esta:
El Grafo de Conocimiento de Google se compone de dos tipos de datos:
Entidades: los objetos y hechos del mundo real, que se almacenan en lo que Google llama Knowledge Vault.
Relaciones: esto es, como se conectan entre sí las distintas entidades.
👉 Profundizando ya en la cuestión, por lo que sabemos, Google actualiza todos los veranos su base de conocimiento, desde 2015. Lo hace con información nueva sobre distintas entidades: libros, organizaciones, lugares, empresas, personas…
Por lo que se sabe, esta actualización de información se ha mantenido más o menos estable, hasta julio de este año, cuando se ha triplicado el número de entidades del tipo “Persona” que pasaban a formar parte de Knowledge Vault. Es más, en septiembre de 2023, el número de entidades de este tipo había aumentado a poco menos de 20 veces a las existentes en mayo de 2020.
En cuanto a la entidad “Persona”, hay que saber que Google asocia algo llamado subtítulo [EN] a la misma, lo que le permite definir lo que hace esa persona, es decir, lo que sabe de ella. Ejemplos de subtítulos de entidades pueden ser: Escritor, Científico, Autor, Matemático…
Con la llegada del nuevo “clasificador”, de la mano del Helpful Update de septiembre [EN], vino también una puesta al día de esos subtítulos, que sugiere que Google está buscando identificar y aclarar roles y se ha centrado claramente en los que son candidatos lógicos para señales E-E-A-T.
De esta forma hemos visto, por ejemplo, cómo el número de entidades Persona con los subtítulos “Escritor” o “Autor” ha aumentado en un 21%.
Los escritores (o autores) son el núcleo alrededor del cual gravitan los sitios web, por lo que tiene sentido que los ingenieros de Google se centren en este subtítulo de entidad. Además, a los escritores se asocia un tema de especialización, como "SEO", "Salud", "Finanzas", "Deportes", etc., lo que refuerza el la visión E-E-A-T.
Sin embargo, Google también ha aprovechado para “hacer limpieza” de diversos subtítulos que no parecen encajar del todo con el paradigma de E-E-A-T:
Con todo, podríamos concluir que:
Esta actualización se ha centrado en la entidad Persona, acelerando además de forma notable el crecimiento de Knowledge Vault.
Se ha enfocado en la clasificación, reestructurando por completo Knowledge Vault para centrarse en los subtítulos que son importantes para la confianza del usuario, mejorando al mismo tiempo la aplicación de los algoritmos de las señales E-E-A-T.
Fuente: Search Engine Land
👎 Señales de que estás escribiendo contenido unhelpful [EN]. Danny Sullivan ha dado varios ejemplos no sólo de este tipo de contenido, sino también de las distintas estrategias erróneas (a su parecer) que usan los webmasters.
👉 Danny critica sobre todo el uso de herramientas externas como ayuda a decidir sobre qué escribir. Como no podía ser de otra forma, Google insta a los autores a escribir de forma natural sobre lo que les apetezca y que estén lo suficientemente versados en su área de conocimiento para conseguir la inspiración que necesitan. Si esto se ajusta luego a lo que Google determina como “contenido útil”, bueno, ya lo decidirá el algoritmo.
🧵 No puedo evitar compartir con vosotros de nuevo un hilo del gran Juan González Villa en X, donde nos habla de indexación.
👉 Si te dedicas al SEO ya habrás visto cómo este factor técnico ha ido ganando preponderancia a lo largo de los años. Hemos llegado al punto de que es muy difícil llegar a indexar por completo un sitio web con miles de páginas y los responsables SEO se ven a menudo impelidos a abordar una criba de contenido. Google está recibiendo una avalancha de contenido nuevo generado por IA, que no puede rechazar (de hecho no sabe diferenciarlo), pero sí puede establecer diversos filtros de entrada. Nuestro trabajo es decidir qué contenido es prioritario para la indexación y poner los medios necesarios para lograr que aparezca en el buscador.
🤖 ¿Acabará saliendo Reddit de las búsquedas de Google? [EN] Ha habido cierta tensión estos meses entre ambas compañías, debido a la pretensión de Reddit de recibir una compensación económica por la obtención de sus datos para alimentar los datasets de la IA generativa.
👉 Ha habido algo de confusión con esta noticia, porque inicialmente se pensó que Reddit había afirmado que forzaría a los usuarios de su plataforma a estar logueados para ver el contenido, lo que impediría que apareciera abiertamente en las búsquedas de Google. Se llegó también a mencionar la posibilidad de bloquear a los search crawlers. Al final, todo esto tiene pinta de ser una suerte de amenazas veladas para que Google “se anime” a pagar por los datos de Reddit.
[Más lecturas]
¿Cómo parafrasear textos con Chat GPT? por Javier Gosende.
Perplexity: un buscador con inteligencia artificial para trabajos académicos. Guía de funcionamiento y resultados, por LLluís Codina (muy recomendable).
Google sigue haciendo limpieza y elimina los resultados enriquecidos (rich snippets) de eventos [EN]