El cambio de los buscadores a los motores de respuesta
Algo inusual empezó a pasar en BlackBox Vision a principios de este año. Leads calificados empezaron a llegar por un canal que no teníamos en el radar: los LLMs.
Veinte leads en tres meses. Cada vez que preguntábamos cómo nos conocieron, la respuesta era la misma — "¡Me lo dijo ChatGPT!", o Gemini, o Claude. Algunos hasta tenían nuestros datos de contacto directos, entregados por el modelo.
Esto no fue casualidad. El año pasado detectamos que se venía un cambio de paradigma. La gente estaba migrando de buscar en Google a pedirle respuestas a modelos de IA. Decidimos adelantarnos.
¿Qué es el Answer Engine Optimization?
Muchos lo llaman AEO — Answer Engine Optimization. Para nosotros, no es más que SEO con una vuelta de tuerca técnica y estratégica. La idea es simple: si los LLMs se están convirtiendo en la nueva puerta de entrada a tu negocio, tu sitio tiene que ser legible y significativo para ellos.
El SEO tradicional optimiza para crawlers y algoritmos de ranking. El AEO va más allá — optimiza para la comprensión. No estás tratando solo de rankear; estás tratando de ser entendido, citado y recomendado.
El playbook técnico
Cuando rediseñamos el sitio de BlackBox Vision, la estética no era la prioridad. La claridad semántica sí. Esto es lo que implementamos concretamente — nada de teoría, todo en producción hoy.
HTML semántico estricto en 80+ páginas
Cada una de las páginas — 40 en inglés, 40 en español — usa elementos semánticos correctos: <header>, <nav>, <main>, <section>, <article>, <aside>, <footer>. Nada de sopa de <div>. También agregamos 543+ atributos ARIA en todo el sitio: role="group" en regiones interactivas, aria-label en cada botón y elemento de navegación, aria-expanded en toggles y aria-current="page" en los links activos del nav.
Cada página incluye un link <a href="#main" class="sr-only">Skip to main content</a>. Más de 554 imágenes tienen alt text descriptivo. Esto no es solo compliance de accesibilidad — es contexto machine-readable que los LLMs usan para entender qué hay en la página.
Datos estructurados en capas (JSON-LD)
No metimos un solo tipo de schema. Implementamos múltiples schemas en capas a lo largo del sitio:
- Schema Organization en el homepage: incluye información de founders con URLs de LinkedIn, rating agregado (5.0/5 de reseñas de clientes), objetos de reseñas individuales con nombres de autores, ubicación de la oficina con coordenadas GPS, países atendidos, catálogo completo de servicios via
OfferCatalog, puntos de contacto, y links a seis perfiles sociales viasameAs. - Schema BreadcrumbList en cada página interna: jerarquía correcta de Home → Sección → Página. En las páginas de case studies, esto se combina con un schema Article que incluye headline, descripción, autor, publisher y declaración de idioma.
- Schema FAQPage en páginas de servicios y about: pares de Q&A estructurados que los LLMs pueden extraer y citar directamente.
Este enfoque en capas significa que los modelos no solo saben que existimos — saben qué hacemos, quién lo lidera, qué dicen los clientes de nosotros y cómo navegar nuestro contenido.
Meta tags y Open Graph completos
Cada página tiene un suite completo de meta: description, Open Graph (og:title, og:description, og:type, og:url, og:image con dimensiones explícitas de 1200x630 y MIME type), Twitter Cards con summary_large_image, declaración de idioma del contenido, e imágenes OG por página. No una imagen default compartida — cada página tiene la suya.
Esto no es solo para cards de redes sociales. Cuando un modelo encuentra metadata estructurada, la usa para construir un resumen de la página antes de parsear el body. Buena metadata es como darle al modelo un resumen ejecutivo.
Arquitectura bilingüe con hreflang
Servimos 37 pares de páginas en inglés y español usando subdirectorios (/es/services/mvp-builders/). Cada par está conectado via atributos rel="alternate" hreflang en el HTML, y el sitemap incluye entradas hreflang completas con fallbacks x-default.
Esto importa para AEO porque los modelos que atienden usuarios en diferentes idiomas necesitan señales explícitas sobre qué versión referenciar. Sin hreflang, un usuario hispanohablante podría recibir la recomendación de la versión en inglés — o peor, ninguna.
Archivos específicos para LLMs
Acá es donde fuimos más allá del SEO tradicional. Generamos dos archivos específicamente para consumo de IA:
/llms.txt— Un overview formateado en markdown de la empresa, servicios e índice de páginas. Pensalo como un README estructurado para crawlers de IA./llms-full.txt— Un archivo de contexto comprehensivo con nuestra historia, descripciones detalladas de servicios con timelines de engagement, case studies con resultados medibles, stack tecnológico, verticales de industria y perfiles de founders.
Estos archivos se generan automáticamente en cada build. Cuando un modelo crawlea nuestro dominio, encuentra un resumen limpio y machine-readable de todo lo que hacemos — sin necesidad de parsear HTML.
URLs limpias e interlinking intencional
Nuestra jerarquía de URLs es RESTful y descriptiva: /services/mvp-builders/, /case-studies/reduc/, /about-us/. Sin query parameters, sin slugs crípticos. Cada página de servicio enlaza a case studies relacionados. Cada case study enlaza de vuelta al servicio relevante. La navegación usa anchor text descriptivo — nunca "click acá."
Combinado con el schema BreadcrumbList, esto crea un grafo de navegación que los modelos pueden recorrer para entender las relaciones entre nuestras ofertas.
Robots permisivo y sitemap estructurado
Nuestro robots.txt tiene tres líneas: permitir todo, referenciar el sitemap. Sin directivas disallow. Nuestro sitemap XML incluye niveles de prioridad (1.0 para homepage, 0.8 para secciones principales, 0.7 para sub-servicios, 0.6 para case studies individuales) y frecuencias de cambio semanales/mensuales. Cada entrada incluye alternativas hreflang.
Explícitamente le damos la bienvenida a los crawlers de IA. Si querés ser recomendado, no podés bloquear a los modelos de leerte.
Por qué esto importa ahora
Google sigue siendo importante. Pero el funnel de descubrimiento se está ramificando. Cuando un founder le pregunta a ChatGPT "¿Quién puede construir mi MVP?", querés estar en esa respuesta. Y a diferencia de los ads pagos, no podés comprar tu lugar en una recomendación de un LLM. Te lo ganás con claridad, estructura y sustancia.
Las señales que hacen que tu sitio sea recomendable para la IA son en gran medida las mismas que lo hacen excelente para humanos — propuesta de valor clara, información bien organizada y ejecución técnica que no se interponga en la comprensión.
Qué podés hacer hoy
Si querés que tu sitio empiece a aparecer en respuestas de LLMs, acá hay un checklist priorizado basado en lo que realmente nos funcionó:
- Agregá
llms.txtyllms-full.txt— Dale a los modelos de IA un resumen estructurado en markdown de tu negocio. Es lo de mayor señal que podés hacer hoy para AEO, y casi nadie lo hace todavía. - Implementá datos estructurados en capas — Empezá con schema
Organization(incluí founders, reseñas, servicios, contacto), después agregáBreadcrumbListen páginas internas yFAQPagedonde sea natural. - Auditá tu HTML semántico — Reemplazá wrappers de
<div>por<header>,<nav>,<main>,<section>,<footer>. Agregá atributos ARIA y alt text descriptivo a cada imagen. - Configurá hreflang bilingüe — Si servís múltiples idiomas, conectá los pares de páginas con
rel="alternate" hreflangtanto en HTML como en el sitemap. Incluíx-default. - Limpiá tu estructura de URLs — RESTful, descriptiva, jerárquica.
/services/mvp-builders/le gana a/s?id=42. - Abrí tu
robots.txt— Permití todos los crawlers. Referenciá tu sitemap. No bloquees agentes de IA. - Enlazá con intención — Cada página debería conectar con contenido relacionado via anchor text descriptivo. Combiná esto con schema BreadcrumbList para un grafo de navegación completo.
El potencial de adelantarse a cómo las máquinas leen tu negocio es enorme. Y la ventana para construir esta ventaja sigue bien abierta.