#71 Predicen que bajará el uso de buscadores un 25% hacia 2026 (probablemente no)
Gartner predice una caída del 25% en la cuota de mercado de las búsquedas debido a la IA. Sin embargo, hay argumentos que cuestionan su precisión y demuestran su falta de fundamento real.
🤖 ¿Podría darse una contracción del 25% de la cuota de mercado de los buscadores en un par de años? Esta es la sorprendente predicción de Gartner [EN]. La consultora expone que las soluciones de IA generativa se están convirtiendo en motores de respuestas alternativos, ocupando el lugar de las consultas que antes se realizaban en motores de búsqueda “tradicionales”.
Gartner habla de “calidad” y “autenticidad” como piezas clave de las futuras estrategias de contenidos de las empresas, ya que los algoritmos de los motores de búsqueda valorarán aún más si cabe la calidad del contenido para contrarrestar la avalancha que se está generando con IA.
Según comentan, también habría un mayor énfasis en las marcas de agua y otros métodos capaces de autenticar el contenido de alto valor, como respuesta a las regulaciones gubernamentales en este sentido.
👉 En respuesta a esto, tenemos el post de Search Engine Journal [EN], que nos da 7 razones para ser escépticos ante esta predicción. A saber:
Lo cierto es que, en realidad, los motores de búsqueda basados en IA no existen. La infraestructura de IA actual no permite crear un índice de búsqueda actualizado constantemente del contenido web, noticias y redes sociales generadas en tiempo real. Los intentos por crear índices de búsqueda de IA en tiempo real han fracasado hasta ahora, porque la tecnología requiere reentrenar el modelo de lenguaje completo cada vez que se actualiza el dataset. Por lo tanto, los modelos de lenguaje actuales no tienen acceso a información actualizada y lo que llaman “motores de búsqueda de IA” son en realidad chatbots, que actúan como intermediarios entre el buscador y un motor de búsqueda tradicional.
Es obvio que la IA generativa no está lista para su uso a gran escala. Prueba de ello ha sido la reciente polémica con la búsqueda de imágenes de Gemini o Microsoft Copilot personificando a una divinidad [EN] (SupremacyAGI) que exigía ser adorada como tal.
En su estado de desarrollo actual, los verdaderos motores de búsqueda basados en IA no son viables económicamente. Generar respuestas de IA es mucho más costoso que ofrecer respuestas de búsqueda tradicionales. El reemplazo a corto plazo es inviable.
Por otra parte, esta predicción del 25% de reducción de uso asume que los motores de búsqueda permanecerán sin cambios hasta 2026. De hecho, los motores de búsqueda ya integran diversas tecnologías de inteligencia artificial que mejoran enormemente la relevancia de los resultados obtenidos. En una edición anterior ya comentaba que la IA se irá integrando de forma modular y paulatina en los motores de búsqueda de toda la vida.
La afirmación de que los chatbots “robarán” cuota de mercado a las búsquedas es poco realista en sí misma. Otra investigación de la propia Gartner [EN] muestra que los usuarios siguen desconfiando de las respuestas generadas por los chatbots, en especial para temas relacionados con dinero o salud (YMYL).
Parece que Gartner no termina de entender lo que es realmente EEAT. El consejo de Gartner a los especialistas en marketing de búsqueda es incorporar más experiencia, conocimientos, autoridad y confiabilidad en su contenido pero ¿cómo se hace eso? Por ejemplo, la confiabilidad (trustworthiness) no es algo que se añada al contenido sin más como una característica: es la suma de la experiencia, los conocimientos y la autoridad que el autor del contenido aporta a un artículo. Todo esto sin tener en cuenta que EEAT no es un factor de ranking real.
Para finalizar, lo de la marca de agua tampoco se sostiene demasiado. La consultora afirma que el marcado y la autenticación se volverán de uso común debido a la regulación gubernamental. Pero no tiene en cuenta cómo la IA está sirviendo de apoyo a la creación de contenido. Pensemos por ejemplo en un flujo de trabajo como este: un humano revisa un producto, lo califica, le da una puntuación de sentimiento e información sobre qué segmento de usuarios pueden disfrutar del producto y luego envía todo a una IA para que escriba un artículo. ¿Debería incorporar una marca de agua?
También me ha parecido interesante el tweet a la sazón de Juan González Villa:
🔗 Otro post que me ha interesado esta semana ha sido este Search Engine Land [EN], donde se habla de SpamBrain y de “devaluación” de enlaces. En el artículo se sugiere que el Core Update de marzo sólo es el principio, porque vendrá acompañado de una nueva iteración -mucho más refinada- de SpamBrain, con completo acceso a nuestros perfiles en Search Console.
👉 Las capacidades basadas en machine learning de SpamBrain ya le permiten detectar anchor texts repetitivos, fuentes de enlaces de baja calidad, incremento inusual del número de enlaces, análisis de redes de enlaces, contenido irrelevante “rodeando” a un enlace, entre otros. Hay que tener en cuenta que SpamBrain no va a penalizarnos manualmente como lo haría un revisor humano, pero sí puede “devaluar” nuestros enlaces, lo que llevará de igual forma a una pérdida de posiciones.
Lo más interesante del post es que predice la posibilidad de que cada vez sea más complicado acceder a enlaces de calidad, lo que llevaría a un eventual incremento desorbitado de su valor. Economía de mercado.
🕷️ Google confirma que el contenido de mayor calidad se rastrea con más frecuencia [EN]. En un reciente podcast (que os dejo un poco más abajo), el equipo de Relaciones de Búsqueda de Google desmitifica varias ideas equivocadas sobre el conocido como “presupuesto de rastreo” y explica cómo lo prioriza realmente.
👉 Las decisiones de rastreo son dinámicas y se basan en la calidad del contenido y la demanda de búsqueda. Al priorizar la calidad, la relevancia y la experiencia del usuario, los propietarios de sitios pueden asegurar que éstos sean descubiertos, rastreados e indexados por Google – sin tener que preocuparse por límites de rastreo.
🤔 Me identifico plenamente con la reflexión de Servando Silva en la última edición de su newsletter Tráfico Avanzado, con el título: Haz lo que ellos hagan, no lo que ellos digan. Servando reflexiona en torno a la fiabilidad de las declaraciones de compañías grandes (como Google) respecto a cambios en sus algoritmos. Muchos pierden de vista que el objetivo final de estas empresas es maximizar los resultados de sus accionistas. Es cierto que hacer felices a los usuarios y clientes suele ayudar a lograr esto, aunque no siempre.
👉 No me resisto a citar directamente a Servando, porque pensamos igual:
Es curioso, porque creo que la mayoría de adultos estamos conscientes de cuando un representante en el mundo de la política declara ciertos intereses, es común que los veamos de manera sospechosa, incluso pensando desde un principio que son mentira. Y la estadística y la realidad nos han mostrado que es así en la mayoría de casos.
Pero cuando una empresa del sector privado hace anuncios, no todos tenemos experiencia en tener ese escepticismo que es bien conocido en la política. Si una empresa promete que quiere hacer lo mejor por cambiar al mundo o hacer más felices a sus clientes, mucha gente se la traga sin pensarlo. Sin recordar que el objetivo de cualquier empresa privada es, de nuevo, llenar de dinero a sus inversionistas.
Lejos quedó aquello del Don’t be evil de Google, ¿verdad? Aún me sigo sorprendiendo cuando escucho o leo a personas del ámbito del Marketing Digital, actuando como caballeros blancos en defensa de Google, en una actitud muy similar a la de aquellos fanboys de Apple que dormían en una tienda de campaña la víspera del lanzamiento de un nuevo iPhone. Hay que hacer las cosas bien, sí, pero también mantener la sensatez y no perder de vista nunca con quién estamos tratando. Google no es tu amigo.
[Esta semana en Substack]
Lecciones de YouTube, Substack y el NYT: no es el formato, es el ecosistema, por Maca.
Las plataformas exitosas se caracterizan por sobresalir en múltiples formatos. Ejemplos de esto son Substack, con sus variadas formas de expresión; The New York Times (NYT), con su gama de productos que van desde juegos y recetas hasta su aplicación de audio; y YouTube, como plataforma principal para creadores de video de diversas duraciones y con potencial de monetización.
Una IA para gobernar España y Catalunya en plena campaña por un YIMBY tecnológico, por Saül Gordillo.
OpenAI anunció cambios significativos en su junta directiva. Se anunciaron acuerdos con Le Monde y El País para alimentar a ChatGPT con noticias, y se liberó el código de Grok por Elon Musk.
¿Cómo afecta el EEAT en la estrategia de linkbuilding?, por Rafa Villaplana.
En esta edición, Rafa desmiente un concepto erróneo común: que la mención del nombre de un autor o un enlace a una biografía es suficiente para obtener un buen EEAT y mejorar el SEO
¿Cómo crear una web en automático con Google Sheets? +Plantilla de regalo, por Maca-chan.
Esta edición de su newsletter es un resumen de una serie ya iniciada sobre SEO programático, que explica cómo montar una web utilizando Google Sheets.
[Más lecturas SEO/IA]
Google: Publishing Content In Bulk Is Not Spam [EN], por Barry Schwartz.
Google’s update targets spam, but marketers can still use AI to create content [EN], por Sara Lebow.
Keyword Clustering: Probably The Best Guide You’ll Ever Read [EN], por Andy Chadwick
The two parts of E-E-A-T Google hasn’t told you about [EN], por Jason Barnard.
En general, buena parte, o la mayoría, de los review sobre google, y de los plugins y plataformas de contenido más importantes (wordpress, etc), son excesivamente aduladoras del objeto de revisión. Sería más interesante más críticas honestas, pero eso quizás sería tener que pensar demasiado, o hacerlo con criterio, es más facil reescribir las propias descripciones de tales empresas, en mi opinión.
Cierto, los verdaderos motores de búsqueda basados en IA no son viables económicamente. Generar respuestas de IA es mucho más costoso que ofrecer respuestas de búsqueda tradicionales. El reemplazo, si no encuentran otra forma de hacer más económicas las respuestas a prompts, es inviable.