La nota trata sobre el estado real del SEO en 2025 y lo que eso sugiere para 2026: higiene técnica en alza, defaults consolidados por CMS y plugins, y una nueva capa de decisiones relacionadas con crawlers de IA que añade fricción pero no reescribe el marco. Según el Web Almanac 2025, HTTPS alcanza más de 91% de adopción acumulada y las etiquetas de título rozan 99% de implementación, datos que muestran que lo básico está más distribuido que antes (Web Almanac 2025 vía Search Engine Land, 6/4/2026). No es una victoria completa: aún hay problemas prácticos que exigen prioridad técnica y estrategia de datos.

¿Qué nos dicen los números y por qué importan ahora?

Vemos dos señales claras en los datos que importan para la decisión de negocio: las prácticas básicas suben por default y los crawlers de IA obligan a estrategias nuevas. Canonical pasó de 65% en 2024 a 67% en 2025, una mejora interanual pero insuficiente para eliminar duplicados en el long tail (Web Almanac 2025 vía Search Engine Land, 6/4/2026). Las respuestas 404 bajaron a 13% desde 14% interanual, y los errores 5xx se mantienen cerca de 0.1%, lo que sugiere mayor estabilidad operativa (Web Almanac 2025). Esos números significan que una agencia puede lograr buena base con configuraciones estándar de CMS, pero el valor diferencial hoy está en corregir los casos reales y los sitios abandonados.

Robots.txt y llms.txt: ¿a quién dejamos entrar y por qué importa?

Robots.txt volvió a ser un documento de política y no solo de housekeeping. Gptbot subió de 2.9% en 2024 a 4.5% en 2025 en cuota de rastreo en desktop, un aumento interanual de alrededor de 55% sobre la base 2024, y otros crawlers como Claudebot casi duplicaron su presencia (Web Almanac 2025). Además, llms.txt aparece ya en algo más de 2% de sitios, impulsado en gran parte por plugins como All in One SEO, lo que demuestra que muchas adopciones son por defecto de herramienta y no por decisión estratégica (Web Almanac 2025). Para empresas esto no es un capricho técnico: decidir quién indexa, quién extrae y bajo qué condiciones tiene impacto directo en presupuesto, propiedad de contenido y riesgo de scraping.

¿Cómo impacta esto en el mercado argentino?

Para el mercado argentino el mensaje es práctico y sin glamour: la mayoría de las mejoras del Web Almanac se logran con un CMS moderno y 30 minutos de configuración considerada, pero las marcas con tráfico valioso necesitarán control de identidad y medición propia. Si las empresas locales delegan todo en plataformas externas, pierden capacidad de atribución y de proteger activos frente a crawlers de IA; eso es relevante cuando gptbot, petalbot y otros ya ocupan varios puntos porcentuales de rastreo global (Web Almanac 2025). El resultado es que invertir en equipos o partners que garanticen identidad de usuarios, trazabilidad de conversiones y propiedad de datos paga más que apostar por hacks de visibilidad. No hay atajos: limpiar canónicos, mejorar mobile y decidir políticas de bots son tareas que generan ROI directo.

Qué hacemos y qué no hacemos con IA en SEO durante 2026

No creemos que la IA anule el SEO; es una nueva capa operativa que exige decisiones de producto y datos. Mantenemos la prioridad que venimos defendiendo: validación continua de identidad, atribución limpia y propiedad de datos antes de escalar automatismos o contenidos optimizados para IA. Implementar llms.txt por default sin entender consecuencias es una salida fácil que puede generar dependencia de terceros; mejor es testear selecciones de política en entornos controlados y medir impacto de negocio. En resumen, 2026 será el año en que la capa IA se define, pero las ganancias reales vendrán de quien combine higiene técnica, control de datos y decisiones comerciales, no de quien copie plantillas de plugins sin criterio.