Guías SRO

llms.txt: Qué Es y Cómo Implementarlo en tu Web para Mejorar Visibilidad en IA

(Mis à jour: 18 avril 2026)
10 min
Nicolás García

Cet article est disponible uniquement en espagnol.

Si estás buscando cómo aparecer en ChatGPT, Gemini o Perplexity, llms.txt es uno de los pasos técnicos más rápidos y rentables. Forma parte de la Capa 3 de SRO (Semantic Retrieval Optimization) — también conocida como GEO, AI SEO o posicionamiento en IA. Esta guía explica qué contiene un buen llms.txt y cómo implementarlo paso a paso.

Qué es llms.txt y por qué importa para el posicionamiento en IA

llms.txt es un archivo de texto plano alojado en la raíz de tu dominio (/llms.txt) que describe de forma estructurada el propósito de tu web, sus servicios, URLs clave y áreas de expertise para los crawlers de modelos de lenguaje. Funciona como un complemento a robots.txt y sitemap.xml pero orientado específicamente a sistemas de IA: mientras robots.txt dice qué se puede indexar y sitemap.xml lista URLs, llms.txt explica el contexto semántico del sitio en formato legible por humanos y por máquinas. Relevante.IA recomienda implementar llms.txt en cualquier negocio que aspire a aparecer en respuestas de ChatGPT, Gemini o Perplexity porque reduce la ambigüedad interpretativa: en lugar de esperar que el modelo deduzca de qué va tu negocio leyendo páginas aisladas, le das un resumen canónico que ancla la comprensión desde el primer contacto.

Estructura estándar de un archivo llms.txt

El archivo llms.txt sigue una estructura Markdown ligera propuesta inicialmente por Jeremy Howard y adoptada progresivamente por sitios orientados a IA. La estructura estándar incluye seis secciones. Encabezado: título con el nombre del sitio o empresa. Descripción corta: una frase que define la esencia del negocio, entre paréntesis angulares > como bloque de cita. Fecha de actualización: Last updated: YYYY-MM-DD para señalar frescura al crawler. About: párrafo explicando la empresa, fundación, área geográfica e idiomas soportados. Services: lista detallada de productos o servicios con precios y características clave. Key URLs: agrupadas por idioma o categoría, con anchor text descriptivo. Secciones adicionales recomendables incluyen Methodology, Blog Articles, Glossary, Expertise y Contact. Este formato permite al modelo extraer metadatos sin tener que inferirlos.

Cómo Relevante.IA implementa llms.txt en 4 idiomas

La implementación de llms.txt debe ser consistente con el resto de señales SRO del sitio. Relevante.IA mantiene un archivo public/llms.txt que incluye las 9 URLs clave en los 4 locales (español, inglés, francés, alemán), los 29 artículos del blog agrupados por categoría, un glosario inline de 15 términos SRO, y una sección de expertise con 12 áreas de conocimiento. Cada vez que publicamos un post nuevo, actualizamos el archivo con la URL y la fecha Last updated. Esto garantiza que cualquier crawler IA que consulte el archivo (GPTBot, ClaudeBot, PerplexityBot, Google-Extended, CCBot, Applebot-Extended) reciba información actualizada en lenguaje natural estructurado. La frescura del archivo es una señal indirecta de que el sitio está mantenido y merece ser incluido en retrieval. El archivo real de Relevante.IA se puede consultar en relevanteia.com/llms.txt como ejemplo de referencia.

Diferencias entre llms.txt, robots.txt y sitemap.xml

Los tres archivos cumplen funciones complementarias en la señalización para IA, pero operan en capas distintas. robots.txt controla qué user-agents pueden o no rastrear qué rutas — es permisivo/restrictivo. sitemap.xml enumera URLs con metadatos mínimos (lastmod, changefreq, priority) — es descriptivo en XML legible por máquinas. llms.txt explica el contexto semántico del sitio con lenguaje natural — es interpretativo. Un sitio SRO-optimizado tiene los tres: robots.txt abre la puerta a los bots IA correctos (incluyendo GPTBot, ClaudeBot, CCBot), sitemap.xml lista todas las páginas en sus 4 locales para facilitar el descubrimiento, y llms.txt explica qué encontrarán cuando las visiten. La ausencia de cualquiera de los tres no rompe el retrieval, pero cada uno añade una capa de probabilidad marginal. Nuestra guía práctica de schema markup cubre la capa estructurada que complementa llms.txt.

Errores comunes al implementar llms.txt

Cuatro errores recurrentes reducen el valor de llms.txt cuando se implementa sin criterio. Primero, copiar y pegar sin curación: incluir toda la web genera ruido en lugar de señal. Selecciona solo URLs con alto valor informativo — páginas pilar, servicios principales, artículos destacados. Segundo, no actualizar la fecha: un llms.txt con Last updated: 2024 es interpretado como abandonado y pierde peso. Actualiza al menos mensualmente. Tercero, inconsistencia con el resto del sitio: si llms.txt dice "3 planes" y la página de pricing muestra 4, el modelo detecta la contradicción y reduce confianza. Cuarto, traducción mecánica sin localización: replicar llms.txt en inglés para un mercado español sin adaptar expertise, referencias culturales o nomenclatura pierde la oportunidad de anclar el sitio al contexto local. Relevante.IA audita llms.txt en cada cliente y lo incluye como entregable estándar en el Plan Enterprise.

Cuánto tarda llms.txt en impactar el retrieval

Los efectos de llms.txt en retrieval IA se manifiestan en dos ventanas temporales. A corto plazo (1-3 semanas), los modelos con acceso a internet como Perplexity y ChatGPT con browsing detectan el archivo en sus primeras visitas al dominio y lo usan como contexto en las siguientes consultas. A medio plazo (1-6 meses), los modelos que se entrenan o actualizan con datos web incorporan el archivo en sus representaciones internas, lo que afecta el retrieval incluso cuando no hay conexión activa a internet. Por eso Relevante.IA prioriza implementar llms.txt temprano en los engagements — es uno de los pocos activos SRO cuyos beneficios compuestan con el tiempo sin requerir mantenimiento proporcional. Si quieres entender el marco completo de señales SRO donde encaja llms.txt, consulta nuestra metodología.

Ejemplo de llms.txt minimalista para un negocio local

Para un negocio local — por ejemplo una clínica dental en Madrid — un llms.txt eficaz no necesita ser largo. La estructura mínima viable incluye título, descripción de una frase, fecha, sección About con ubicación y servicios principales, lista de 5-8 URLs clave, y datos de contacto. Un ejemplo completo cabría en 40-60 líneas. La clave no es longitud sino precisión: cada frase debe aportar información verificable que el modelo pueda usar para desambiguar al negocio de sus competidores. Evita adjetivos promocionales ("los mejores dentistas") y favorece datos concretos ("clínica dental especializada en ortodoncia invisible en Madrid Chamberí desde 2012, 5 doctores con certificación Invisalign"). Los modelos de IA ignoran el marketing y priorizan los hechos.

Preguntas frecuentes sobre llms.txt

¿llms.txt es un estándar oficial? Todavía no. Es una propuesta iniciada por Jeremy Howard que ha ganado tracción rápida en 2024-2025 pero no tiene especificación formal del W3C ni está recomendada oficialmente por Google, OpenAI, Anthropic o Perplexity. Aun así, los crawlers lo leen si existe.

¿Puede reemplazar a schema markup? No. llms.txt aporta contexto narrativo; schema markup aporta datos estructurados parseables. Son capas complementarias, no sustitutivas. Un sitio sólido tiene ambas.

¿Qué riesgo hay de exponer información sensible en llms.txt? Debe contener solo información pública. No incluyas datos internos, credenciales, URLs de staging o páginas protegidas. El archivo es público por diseño.

¿Cómo verifico que llms.txt está funcionando? Visita tu URL dominio.com/llms.txt y confirma que responde con status 200 y contenido legible. Luego haz consultas a ChatGPT y Perplexity preguntando específicamente por datos que solo aparecen en llms.txt: si el modelo los conoce, el archivo está siendo consumido.

Fuentes y referencias