Lo importante no es repetir el diagnóstico fácil de que “la IA roba clics”, sino entender qué cambia económicamente. La capa generativa reduce parte del tráfico informacional que antes monetizaba la posición orgánica, pero no elimina el valor de la visibilidad: lo desplaza hacia citación, descubrimiento asistido y visitas de mayor intención. De hecho, Google afirma que los clics procedentes de páginas con AI Overviews son de mayor calidad y que los usuarios tienden a dedicar más tiempo al sitio; eso implica que el KPI central ya no es solo volumen de sesiones, sino la combinación entre cuota de citación, calidad de visita y capacidad de conversión.
Lo que enseñan los motores generativos líderes
La documentación pública de Google es especialmente reveladora porque desmonta bastante ruido de mercado. Sus guías explican que AI Overviews y AI Mode pueden usar query fan-out, es decir, múltiples búsquedas relacionadas sobre subtemas y diferentes fuentes de datos, y que durante la generación identifican más páginas de apoyo que una búsqueda clásica, mostrando un conjunto de enlaces más amplio y diverso. Sin embargo, Google insiste en que no existen requisitos adicionales para aparecer, que no hace falta crear “AI text files” ni un marcado especial, y que lo decisivo sigue siendo cumplir requisitos técnicos de indexación, permitir snippets, mantener contenido útil y asegurar que el marcado estructurado coincida con el texto visible.
En OpenAI, Anthropic y Perplexity la señal es parecida aunque el lenguaje de producto cambie. OpenAI documenta que su herramienta de web search permite a los modelos acceder a información actualizada y devolver respuestas con citas inline; además, describe tres modos, desde búsquedas rápidas hasta búsquedas agénticas y deep research sobre cientos de fuentes. Anthropic documenta que el web search tool incluye siempre citas y que su sistema de Citations puede anclar respuestas a pasajes exactos. Perplexity, por su parte, se define como un motor de búsqueda basado en IA con respuestas respaldadas por fuentes verificables, y su Search API ofrece resultados web en tiempo real con control sobre dominios, lenguaje y contenido extraído. Traducido a términos GEO, los cuatro sistemas convergen en una idea crítica: una respuesta visible necesita fuentes recuperables y atribuibles, no solo páginas “bien posicionadas”.
La autoridad en GEO es un grafo, no una página
La razón técnica de este cambio es profunda. OpenAI define embeddings como representaciones vectoriales que miden la relación entre textos y retrieval como una búsqueda semántica que recupera resultados relevantes incluso cuando coinciden con pocas o ninguna keyword exacta. Esa lógica encaja con la arquitectura clásica de RAG, donde la memoria paramétrica del modelo se complementa con memoria no paramétrica recuperada desde un índice denso; de hecho, el trabajo fundacional de Lewis et al. mostró que ese enfoque produce lenguaje más específico, diverso y factual que una variante puramente paramétrica. En otras palabras, la unidad competitiva ya no es solo la URL final, sino el fragmento semánticamente útil que el sistema puede rescatar y componer dentro de una respuesta.
Aquí conviene separar señal de ruido. Mucha conversación pública sobre GEO sigue pareciendo una actualización cosmética del SEO, pero la evidencia empírica más útil apunta a otra dirección: la mezcla de fuentes importa más que cualquier truco aislado. La investigación de Yext sobre 17,2 millones de citas en el cuarto trimestre de 2025 concluye que los patrones de citación varían de forma predecible según modelo, sector y tipo de fuente, y su estudio previo de 6,8 millones de citas mostró que el contexto geográfico y la intención modifican de manera relevante el mix entre webs propias, listings, reseñas y fuentes no controladas. No conviene tratar estos datos de proveedor como ley universal, pero sí como una señal valiosa: la autoridad en IA es distribuida y cambia según el motor, por lo que optimizar como si todas las plataformas citaran igual es una simplificación peligrosa.
Las fuentes que realmente construyen autoridad
En sectores locales o transaccionales, la autoridad off-site no se juega solo en prensa o backlinks, sino en datos operativos verificables. Google recomienda explícitamente mantener al día Merchant Center y Business Profile para mejorar el rendimiento en sus experiencias de IA, especialmente en contextos multimodales. Yext observa algo congruente: en salud, restauración y otras verticales donde la confianza depende de directorios, licencias, disponibilidad o reputación local, los listings y las reseñas forman una parte estructural del sistema de citación. La consecuencia estratégica para empresas y startups es clara: una ficha incompleta, inconsistente o desactualizada ya no es solo un problema de local SEO; es una rotura en el grafo de evidencia que alimenta respuestas generativas.
En sectores de software, servicios B2B o categorías intensivas en conocimiento, el equivalente funcional de esa ficha local es otro: documentación pública, páginas de producto bien delimitadas, changelogs, integraciones, páginas de partners, perfiles en marketplaces, comparadores y reseñas expertas. La lógica es la misma, porque los modelos regresan una y otra vez a fuentes propias cuando encuentran información clara y verificable, mientras usan fuentes externas para validar, contextualizar o contrastar. Además, Google sigue usando el marcado estructurado para entender entidades, páginas y relaciones, pero exige que el marcado refleje contenido visible; y, aunque las páginas FAQ siguen siendo útiles para formular preguntas naturales y respuestas reutilizables, ya no conviene venderlas como un atajo de rich results: desde 2023, Google limita esos rich results de FAQ casi exclusivamente a sitios gubernamentales o sanitarios con autoridad reconocida.
El sistema operativo off-site para empresas y startups
Si algo aporta este análisis con claridad, es que el debate correcto no gira alrededor de “hacks para LLMs”, sino de gobernanza de acceso y de consistencia de fuentes. OpenAI separa OAI-SearchBot de GPTBot; el primero sirve para aparecer en ChatGPT Search y el segundo se usa para entrenamiento. Google separa Googlebot, que rige la inclusión en Search, de Google-Extended, que controla usos de entrenamiento y grounding en productos Gemini sin afectar la inclusión en Google Search. Anthropic distingue ClaudeBot, Claude-SearchBot y Claude-User, mientras que Perplexity separa PerplexityBot de Perplexity-User. La implicación es estratégica y muy concreta: bloquear “todo lo de IA” sin granularidad puede dejarte fuera de superficies de descubrimiento mientras mantienes un coste reputacional y comercial innecesario.
El modelo operativo maduro, por tanto, no consiste en publicar más, sino en coordinar cuatro capas que deben reforzarse mutuamente: una capa canónica de evidencia propia, una capa de datos controlados en terceros, una capa reputacional de reseñas y validación externa, y una capa de permisos que decida qué bots pueden indexar, citar, entrenar o recuperar contenido a petición del usuario. Aquí también conviene ser crítico con la industria: la documentación pública de Google dice de forma explícita que no necesitas “AI text files” ni marcado especial para aparecer en AI Overviews o AI Mode, así que presentar un llms.txt como palanca decisiva para visibilidad en Google, por sí solo, no está respaldado por la evidencia documental revisada. Mucho más relevante es controlar snippets, noindex, data-nosnippet, accesibilidad del contenido y políticas de robots para cada bot concreto.
Cómo medir sin perseguir métricas equivocadas
La medición también exige cambiar de mentalidad. Google documenta que el tráfico asociado a AI Overviews y AI Mode se incluye en el tipo de búsqueda “Web” dentro de Search Console, lo que permite observar el rendimiento agregado aunque no convierta todavía AI search en un canal separado y perfectamente etiquetado. A la vez, Google recomienda mirar conversiones y tiempo en sitio, y no solo clics. Esta recomendación encaja con el mercado: Similarweb ve una aceleración muy fuerte de los referidos desde plataformas de IA, mientras que Chartbeat muestra que ese nuevo canal aún no compensa la caída de tráfico tradicional en publishers. Es decir, estamos ante un canal real, pero todavía insuficiente si se mide con la lógica heredada del volumen bruto.
Por eso, una empresa que quiera operar GEO con seriedad necesita su propio cuadro de mando de citación y conversión. En la práctica, eso significa crear paneles recurrentes de prompts por intención de compra, región y momento del customer journey; registrar qué dominios y qué tipos de fuente aparecen citados en cada motor; medir qué landing pages reciben tráfico o asistencia posterior; y cruzar ese mapa con conversiones, branded search y pipeline. Esta disciplina es especialmente importante porque la evidencia disponible indica que las respuestas cambian según modelo, localización e intención, y porque las plataformas, salvo Google en Search Console, publican mucha más información sobre cómo mostrar citas que sobre cómo ofrecer analítica al publisher. GEO, por tanto, no se puede gobernar bien solo con intuición editorial; necesita observabilidad propia.