Cómo AI100 mide la visibilidad de marca en IA
Qué medimos
AI100 mide cuán naturalmente aparece una marca en las respuestas neutrales de IA dentro de su categoría y región. La metodología separa la capa principal de puntuación (escenarios neutrales) de la capa diagnóstica (consultas con nombre de marca) y utiliza una escala no lineal de 0 a 100.
Unidad de medición: una respuesta del modelo a un escenario de pregunta estandarizado.
Cómo funciona una ejecución
1. Preparación del marco de investigación
Primero leemos el sitio, identificamos la categoría y aclaramos con qué entorno de mercado tiene sentido comparar la marca. El usuario selecciona un idioma de visibilidad (Visibility Language): el idioma en el que se formularán las preguntas al modelo. Este es un parámetro importante: la misma marca puede encontrar un entorno competitivo diferente según el idioma de los prompts. El modelo construye un campo asociativo separado para cada idioma: marcas que dominan en un idioma pueden ceder su posición a otros competidores en otro. Para marcas internacionales se recomienda un estudio separado para cada idioma del mercado objetivo.
2. Construcción del corpus de preguntas
Luego se recopila el conjunto de escenarios: algunos verifican la aparición natural de la marca, otros ayudan a comprender la reputación y el carácter de la respuesta del modelo.
3. Cálculo de la puntuación principal
La puntuación principal se construye solo a partir de escenarios neutrales, donde la marca debe ganarse su lugar a través de la respuesta del modelo. Por separado se calcula la puntuación diagnóstica (por menciones directas), el refuerzo web (la diferencia entre respuesta de memoria y respuesta con búsqueda) y el intervalo de confianza del resultado.
4. Explicación e informe
Finalmente, traducimos el conjunto de respuestas en un informe legible: mostramos la puntuación final, su estabilidad, las fortalezas de la marca y las zonas de crecimiento.
Cómo se calcula y se lee la puntuación
El salto de visibilidad débil a una capa media creíble se siente drástico: la marca apenas existe para el modelo o ya aparece en parte de las respuestas. El salto de visibilidad fuerte a casi dominar es más difícil. Por eso usamos una transformación logarítmica.
Corpus y puntuación
Capa principal
| Familia | Qué verifica |
|---|---|
| Experiencia | ¿Detecta el modelo señales de autoridad en el dominio de la marca? |
| Comparación de opciones | ¿Se mantiene la marca en preguntas comparativas sin indicación de nombre? |
| Requisitos del comprador | Question family inside the core corpus. |
| Customer Expert | Question family inside the core corpus. |
| Exploración del comprador | Question family inside the core corpus. |
| Tarea por resolver del comprador | Question family inside the core corpus. |
| Customer Migration | Question family inside the core corpus. |
| Customer Pain | Question family inside the core corpus. |
| Compensaciones del comprador | Question family inside the core corpus. |
| Búsqueda de solución | ¿Nombra el modelo a la marca cuando el usuario apenas empieza a buscar? |
| Listas de clasificación | ¿Cuán alto coloca el modelo a la marca en una clasificación explícita de categoría? |
| Lista corta | ¿Entra la marca en la lista corta cuando el usuario está listo para comparar? |
| Confianza | ¿Asocia el modelo la marca con fiabilidad y elección acertada? |
Pesos de la puntuación principal
| Métrica | Qué muestra | Peso |
|---|---|---|
| Frecuencia de mención | Con qué frecuencia aparece la marca en las respuestas | 28.0% |
| Tasa Top-3 | Con qué frecuencia la marca está en la parte superior de la respuesta | 14.0% |
| Tasa Top-1 | Con qué frecuencia la marca es nombrada en primer lugar | 10.0% |
| Posición media | Posición media de la marca en las respuestas | 15.0% |
| Cobertura de consultas | En qué proporción de escenarios aparece la marca | 18.0% |
| Participación en respuestas | Con qué frecuencia se menciona la marca en el texto de la respuesta | 10.0% |
| Participación textual | Qué proporción del texto de la respuesta trata sobre la marca | 5.0% |
Capa diagnóstica
Esta capa no sustituye la puntuación principal. Explica qué ocurre cuando la marca ya está nombrada, se compara directamente o se discute en términos de reputación.
| Familia | Qué verifica |
|---|---|
| Opciones alternativas | ¿Se recuerda la marca como alternativa a una solución ya mencionada? |
| Reputación de marca | ¿Cómo describe el modelo a la marca cuando el nombre ya está dado? |
| Comparación directa | ¿Qué ocurre en una comparación directa con un competidor? |
Pesos de la puntuación diagnóstica
| Métrica | Qué muestra | Peso |
|---|---|---|
| Tasa de recomendación | Proporción de respuestas con recomendación explícita de la marca | 30.0% |
| Fuerza de recomendación | Cuán convincentemente el modelo formula la recomendación | 25.0% |
| Centralidad | Si la marca es el tema principal de la respuesta | 20.0% |
| Tono positivo | Proporción de respuestas con tono explícitamente positivo | 15.0% |
| Calidad argumentativa | Si el modelo respalda la recomendación con argumentos | 10.0% |
Alcance y limitaciones
AI100 plantea el mismo corpus de escenarios a seis modelos de cuatro familias independientes: GPT-5.3 chat y GPT-5.4 mini (OpenAI), Gemini 2.5 Pro y Gemini 2.5 Flash (Google), Grok 4.1 Fast (xAI) y DeepSeek V3.2. Cada modelo responde en dos modos: basándose únicamente en su conocimiento interno y con el apoyo de fuentes web. La puntuación final agrega las respuestas de los seis modelos, lo que reduce la dependencia de las particularidades de un solo modelo.
Estos seis modelos cubren aproximadamente el 93 % de los usuarios gratuitos de asistentes de IA en todo el mundo. El conjunto es fijo e idéntico para todos los clientes: cada uno recibe la misma medición multimodelo, de modo que los resultados entre marcas pueden compararse directamente. Microsoft Copilot queda cubierto automáticamente a través de las ranuras de OpenAI (Copilot utiliza GPT-5.x en producción).
Qué mide AI100
- Cuán naturalmente aparece la marca en respuestas neutrales de IA dentro de su categoría.
- Cuán alto se mantiene la marca en la respuesta y si las fuentes web la refuerzan.
- En qué familias de preguntas la marca desaparece y dónde se ve más fuerte que los competidores.
Qué no mide AI100
- Ventas, conversión, fuerza del equipo de marketing o calidad del producto en sí mismos.
- Todos los modelos de lenguaje existentes. AI100 fija un conjunto de seis modelos que cubren aproximadamente el 93 % de los usuarios gratuitos de asistentes de IA en el mundo — suficiente para mediciones fiables de la visibilidad de marca en el mercado masivo, pero no para conclusiones sobre modelos específicos de nicho.
- Una verdad absoluta sobre el mercado. Cualquier medición depende de la fecha, el idioma, la categoría y el corpus de preguntas.
Historia y hoja de ruta de la metodología
La metodología de AI100 evoluciona por versiones. Aquí se muestra cómo ha cambiado la fórmula y qué se planea a continuación.
Registro de cambios
| Versión | Fecha | Qué cambió |
|---|---|---|
| v2026.04 | abril de 2026 | La fórmula principal pasa a 7 métricas; recalculada la reserva de calidad en el mapa de oportunidades. |
| v2026.03 | marzo de 2026 | Introducida la capa diagnóstica sobre consultas con marca como calificación separada. |
| v2026.02 | febrero de 2026 | Cambio a un grupo de seis modelos independientes de familias diferentes; introducido el análisis cross-model. |
| v2026.01 | enero de 2026 | Iteraciones bootstrap para el intervalo de confianza aumentadas de 100 a 300. |
Hoja de ruta
| Período | Enfoque |
|---|---|
| T2 2026 |
|
| T3 2026 |
|
| Más adelante |
|
¿Quiere ver cómo se ve para una marca real?
Ver informe de muestra