agentic_discovery, llms.txt y agents.md: el sitemap que ya no es para Google

El otro día nos topamos con esto en una tienda Shopify española:

https://zapatoferoz.es/sitemap_agentic_discovery.xml

Si abres la URL, no encuentras un sitemap clásico para Googlebot. Encuentras esto:

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url><loc>https://zapatoferoz.es/llms.txt</loc><changefreq>weekly</changefreq></url>
  <url><loc>https://zapatoferoz.es/llms-full.txt</loc><changefreq>weekly</changefreq></url>
  <url><loc>https://zapatoferoz.es/agents.md</loc><changefreq>weekly</changefreq></url>
</urlset>

Tres archivos. Cero productos. Cero categorías. Cero URLs de blog. Es un sitemap pensado para que un agente de IA descubra cómo hablar con la tienda, no para que Google sepa qué páginas indexar. Lo abrimos, leímos los tres archivos y dijimos lo de siempre cuando vemos algo así: esto es lo que tú deberías estar haciendo en tu Shopify este mes.

Vamos a desmontarlo pieza a pieza, porque cada archivo cumple una función distinta y casi nadie en el ecosistema español lo está explicando bien todavía.

Lo que estamos viendo no es un experimento, es el manual de 2026

Hace doce meses recomendar un llms.txt ya era ir un poco por delante. Hoy ya lo recomienda hasta tu cuñado, así que las tiendas serias se han movido al siguiente escalón: publicar tres archivos, exponerlos por un sitemap específico para agentes y, en muchos casos, abrir un endpoint MCP propio para que esos agentes puedan operar sobre la tienda. Spoiler: en Zapato Feroz lo tienen también, lo veremos al final.

El cambio mental es importante. El sitemap clásico le dice a un crawler humano-céntrico qué páginas hay para que un humano haga clic. El sitemap_agentic_discovery.xml le dice a un agente de IA qué archivos debe leer para entender la tienda, citarla y, eventualmente, comprar en ella sin abrir un navegador. Son dos públicos distintos, dos canales distintos, dos archivos raíz distintos. Si solo tienes el de Google, en 2026 te falta la mitad del mostrador.

Anatomía de los tres archivos

llms.txt — el índice navegable

llms.txt es un archivo Markdown corto, en la raíz del dominio, pensado para que un modelo de lenguaje entienda qué es tu sitio en una sola lectura, qué páginas son las importantes y cómo debe citarte. Es el descendiente directo del robots.txt, pero con propósito distinto: en vez de prohibir o permitir el rastreo, orienta el contexto.

El de Zapato Feroz, resumido, dice algo así:

  • Quiénes son: tienda especializada en calzado respetuoso para toda la familia.
  • Plataforma: Shopify.
  • URLs clave: catálogo completo y buscador.
  • Datos de contacto operativos: email, teléfono, moneda.
  • Recursos para agentes: agents.md, descubrimiento UCP en /.well-known/ucp, endpoint MCP en /api/ucp/mcp.

Eso es todo. Pero está perfectamente escrito para lo que hace: en menos de cuatrocientos caracteres, un modelo entiende a quién sirves, qué vendes, en qué moneda y qué puertas técnicas tiene la tienda. Si lo comparas con la mayoría de descripciones meta de tiendas Shopify españolas (esas que dicen «Bienvenido a nuestra tienda online»), la distancia es cómica.

Lo bueno de llms.txt es que es un compromiso pequeño con beneficio inmediato: se configura en una tarde y empieza a aparecer citado en respuestas de Perplexity y ChatGPT en cuestión de días, no de meses. La trampa es que mucha gente cree que con eso ya está. No.

llms-full.txt — el contexto completo

Si llms.txt es el índice, llms-full.txt es el libro. Contiene el cuerpo completo —no solo los enlaces— de las páginas que quieres que el modelo procese sin tener que rastrear tu web página a página. Para un modelo de lenguaje es la diferencia entre tener que ir a la biblioteca a buscar cada capítulo o que se lo sirvan ya impreso encima de la mesa.

¿Por qué importa? Porque cada vez más agentes operan con ventanas de contexto largo y prefieren ingerir un único archivo bien estructurado a hacer veinte peticiones HTTP. Cuando un modelo decide qué tiendas mencionar en una respuesta, las que tienen llms-full.txt ofrecen un coste cognitivo menor que las que obligan a navegar entre URLs. Menor coste cognitivo significa más probabilidad de ser citadas.

El llms-full.txt de Zapato Feroz repite el contenido del llms.txt y lo cierra con una nota técnica: «esta tienda está construida en Shopify». Pequeño, pero ya cumple la función.

agents.md — las instrucciones operativas

Aquí es donde cambia el juego. Si llms.txt es información, agents.md son instrucciones. Es el equivalente para tiendas online de los archivos AGENTS.md y CLAUDE.md que llevamos meses viendo en repos de código: un documento dirigido específicamente a agentes de IA donde se les explica cómo deben actuar al operar sobre el sitio.

El agents.md de Zapato Feroz es una pequeña obra de ingeniería. Lo que un agente lee allí, traducido a humano:

  • Qué protocolo se usa: Universal Commerce Protocol (UCP).
  • Dónde está el descubrimiento: /.well-known/ucp.
  • Dónde está el endpoint MCP para listar herramientas: /api/ucp/mcp.
  • Versiones soportadas: 2026-04-08 (estable) y 2026-01-23.
  • Flujo típico: descubrimiento → buscar producto → crear carrito → iniciar checkout → fijar dirección de envío → finalizar.
  • La regla crítica, en mayúsculas: «Checkout requires human approval. Agents must not complete payment without explicit buyer consent».
  • Acceso sin autenticación: rutas como /collections/all, /products/{handle}.json, /search.

Lo importante de agents.md no es la novedad técnica, es la postura. La marca está diciendo: «si eres un agente, tienes nombre, sé bienvenido, opera con este contrato y no te saltes el paso humano del pago». Es comercio agéntico declarado por escrito, en un archivo de texto plano, que cualquier modelo puede leer en milisegundos. La parte de la aprobación humana no es retórica: es la cláusula que evita que un agente compre cuarenta pares de zapatos a las tres de la mañana porque alguien ha escrito mal un prompt.

El bonus que casi nadie está mirando: UCP y el endpoint MCP propio

Aquí es donde Zapato Feroz pasa de ser un caso de buen SEO para LLMs a ser un caso de infraestructura agéntica. Implementan UCP (Universal Commerce Protocol), un protocolo emergente para que un agente pueda operar sobre la tienda igual que opera sobre un sistema de archivos o sobre una API REST. Y exponen un endpoint MCP propio en /api/ucp/mcp que un cliente Claude, ChatGPT o el agente que sea puede consumir directamente.

Traducido al lenguaje de un dueño de tienda: esa Shopify ya no necesita un humano que abra el navegador y haga clic en «añadir al carrito». Un agente puede listar productos, montar un carrito, fijar dirección y dejar el pago en la mano del humano. Es el mismo movimiento que vimos hace una década con las APIs públicas de plataformas como Stripe o Twilio, solo que ahora el cliente de la API no es un developer, es otra IA.

Si alguien todavía piensa que esto es ciencia ficción, recordemos que el comercio agéntico ya está moviendo carteras enteras de proveedores en proyectos reales de fintech y banca. Sobre eso ya escribimos hace poco al hilo de Claude Code Routines aplicado a banca y al patrón de los Hyperframes para cuando el usuario es un agente. La conversación lleva meses encima de la mesa; lo que cambia ahora es que las tiendas están publicando archivos para participar en ella.

Por qué tu Shopify lo necesita en 2026, no en 2027

Tres motivos prácticos.

Primero: la cita preferente. Los modelos de lenguaje recomiendan lo que pueden citar con coste cognitivo bajo. Una tienda con llms.txt, llms-full.txt y agents.md es trivialmente citable; una tienda sin esos archivos obliga al modelo a hacer scraping con todo el ruido que eso implica (menús, footers, banners de cookies). El primero gana.

Segundo: el cambio de canal de descubrimiento. Cada vez más búsquedas con intención de compra empiezan en una conversación con un modelo, no en la barra de Google. Si tu tienda es invisible para esos modelos, te falta el 30 % de las consultas comerciales hoy y probablemente el 50 % en doce meses. Ya hablamos del fenómeno en Qué es el GEO en SEO y en GEO para ecommerce Shopify; lo que no contábamos entonces era que la siguiente capa requería tres archivos en raíz, no uno.

Tercero: el filtro inverso. Una parte del ecosistema está empezando a filtrar tráfico de bots de IA con Cloudflare y similares (lo tratamos en este análisis sobre el bloqueo de Cloudflare a los rastreadores de IA). Si bloqueas crawlers de IA pero al mismo tiempo no expones llms.txt ni agents.md, te quedas en el peor escenario posible: ni te ven, ni les permites verte. Decide en qué bando juegas, no juegues a las dos cosas.

Cómo lo hacemos en Pango (y cómo lo puedes hacer tú)

En Pango Studio llevamos desde julio de 2025 con nuestra propia app en el Shopify App Store, LLMs.txt Generator, que automatiza la generación de llms.txt y llm.txt en tiendas Shopify (Shopify por defecto no permite subir archivos a la raíz, así que la cosa no es tan trivial como parece). Para clientes con setups técnicos más serios montamos también llms-full.txt, agents.md y, cuando hay caso, endpoints MCP propios sobre la tienda.

El orden recomendado, sin barniz comercial:

  1. Publica un llms.txt mínimo viable en la raíz: quién eres, qué vendes, URLs clave, cómo te citan. Si ya lo tienes, revísalo: la mayoría son malísimos. Aquí dejamos la guía paso a paso para Shopify.
  2. Añade un llms-full.txt con el cuerpo de las páginas estratégicas: catálogo, marca, política de envíos, datos de contacto. No metas todo el blog, mete lo que diferencia tu tienda.
  3. Redacta un agents.md que declare protocolo, endpoints, versiones y la cláusula de aprobación humana en checkout. Sin esa cláusula, no salgas a producción.
  4. Expón un sitemap_agentic_discovery.xml que apunte a los tres archivos anteriores. Es el detalle que indica a un agente que tu tienda está pensada para ellos, no que tropezaron con los archivos por casualidad.
  5. Cuando estés listo, monta el endpoint MCP. Esto ya es ingeniería, no SEO: tienes que diseñar qué herramientas expones, cómo gestionas autenticación, rate limits y, sobre todo, cómo proteges el checkout.

Si vendes online y alguien de tu equipo lee esto y te dice que es prematuro, pídele que abra https://zapatoferoz.es/sitemap_agentic_discovery.xml y mire qué fecha pone. Estamos en mayo de 2026 y ya hay tiendas españolas haciéndolo. El que llegue primero a esta capa va a tener seis o doce meses de ventaja en citaciones de modelo y en compras vía agente. Después se llenará, como pasó con el SEO clásico, y entonces ya solo se gana con contenido y autoridad. Hoy todavía se gana con archivos en raíz y un endpoint MCP bien hecho.

Lecturas relacionadas

Si tienes una tienda Shopify y no estás seguro de por dónde empezar, lo más rápido es escribirnos. Lo siguiente más rápido es leer las guías de arriba en orden. Lo más lento es esperar a 2027.

Add comment: