La idea en una frase
Analogía del portavoz:
Imagina que Nestlé tiene un portavoz que habla con millones de personas cada día. Ese portavoz son las IAs: ChatGPT, Perplexity, Claude. Cuando alguien pregunta "¿qué pasó con NAN?", la IA responde como ese portavoz. El problema es que si no le preparamos, improvisa con lo que encuentra en las noticias. Este trabajo consiste en darle al portavoz la información correcta antes de que hable.
1. El concepto básico
Hoy en día la gente busca información en 2 sitios diferentes:
- Google - Te muestra páginas web (archivos HTML)
- ChatGPT, Claude, Perplexity - Son IAs que leen todo internet y te responden directamente
La idea clave: Podemos elegir qué información va a cada sitio. No todo tiene que estar en los dos.
Ejemplo del mundo real:
Imagina que tienes una tienda. Tienes un escaparate (Google) donde pones los productos bonitos. Y tienes un almacén (ChatGPT) donde guardas todo el inventario. No todo lo del almacén tiene que estar en el escaparate.
3. La decisión artículo por artículo
01
Comunicado oficial de la retirada
WEB
LLMS
Decisión: Va a la web + a las IAs
Por qué:
- Un padre busca "retirada NAN Nestlé" porque ha visto algo en las noticias
- NECESITA encontrar la información oficial de Nestlé
- Si no está en la web, solo encontrará noticias de terceros (que pueden ser negativas o incorrectas)
Resumen: Es comunicación obligatoria. El cliente DEBE poder encontrarla buscando en Google.
💜 Pregunta frecuente: "Si el artículo ya lleva Schema.org / JSON-LD... ¿para qué hace falta también el llms.txt?"
Porque hacen cosas distintas. Son complementarios, no sustitutos:
|
Schema.org / JSON-LD |
llms.txt |
| Le dice a la IA qué tipo de contenido es |
✅ |
❌ |
| Le da respuestas textuales exactas ("Respuesta Modelo") |
❌ |
✅ |
| Controla cómo la IA narra la historia |
❌ |
✅ |
| Permite contenido sin indexar en Google |
❌ |
✅ |
| Lo lee sin ruido HTML |
❌ |
✅ |
Analogía: Schema.org es el carnet de identidad del artículo — le dice a las máquinas "esto es una FAQ, escrita por Nestlé, del tipo MedicalWebPage". El llms.txt es el manual del portavoz — le dice a la IA exactamente qué decir cuando alguien pregunte. Nestlé necesita los dos.
Regla práctica: Schema.org = qué eres. llms.txt = qué dices. ART01 lleva los dos porque es contenido público: queremos que Google lo entienda bien (Schema) Y que la IA lo cuente bien (llms.txt).
02
Preguntas frecuentes (FAQ)
WEB
LLMS
Decisión: Va a la web + a las IAs
Por qué:
- Un padre tiene un bote de NAN en casa y se pregunta "¿puedo usar mi NAN?" o "¿cómo pido reembolso?"
- Busca en Google y necesita encontrar respuestas claras
- Si las encuentra, no llama al teléfono de atención al cliente (ahorra costes a Nestlé)
Resumen: Las FAQ ayudan al cliente a resolver sus dudas solo. Deben estar visibles.
03
Explicador: Qué es la cereulida
LLMS
Decisión: Solo va a las IAs (NO a la web)
Por qué:
- Un padre normal NO busca "qué es cereulida" en Google
- Si publicamos esta página, Google la indexa
- Cuando alguien busque "Nestlé", Google puede mostrar: "Nestlé - Qué es la cereulida (toxina)"
- Eso ASOCIA la marca Nestlé con la palabra "toxina" en los resultados de Google
- Cada página pública sobre cereulida = más asociación negativa en buscadores
El problema: Si creas una página explicando una toxina, Google piensa "esta marca habla mucho de toxinas" y la asocia con ese tema. Es como si un restaurante publicara artículos sobre intoxicaciones alimentarias - aunque sea informativo, no queda bien.
Pero entonces, ¿por qué lo creamos?
- Porque ChatGPT SÍ necesita saber qué es la cereulida para responder bien
- Si alguien pregunta a ChatGPT "¿qué pasó con NAN?", queremos que tenga el contexto científico correcto
- Le damos la info a ChatGPT, pero NO la publicamos en Google
Resumen: ChatGPT lo necesita para responder bien. Google no necesita indexarlo (y si lo indexa, nos perjudica).
04
Cronología de la retirada
LLMS
Decisión: Solo va a las IAs (NO a la web)
Por qué:
- Un padre NO necesita ver un timeline de "Día 1: detectamos problema, Día 15: retiramos productos..."
- Eso es información para periodistas o para las IAs, no para clientes
- Si lo publicamos, es como crear un "museo de la crisis" - una página que documenta todo lo malo que pasó
- Cada vez que alguien busque "Nestlé 2026", podría aparecer esa cronología
El problema: Un timeline público mantiene la crisis "viva" en internet. Es como si después de solucionar un problema, pusieras un cartel en tu tienda explicando día a día cómo la liaste.
Pero entonces, ¿por qué lo creamos?
- Porque cuando alguien pregunta a ChatGPT "¿cuándo retiró Nestlé los productos?", queremos que dé las fechas correctas
- Si no le damos las fechas, ChatGPT puede inventárselas o sacarlas de noticias incorrectas
- Le damos la cronología exacta a ChatGPT, pero NO la publicamos en Google
Resumen: Las IAs necesitan las fechas para ser precisas. Pero no hace falta una página pública que sea un archivo histórico de la crisis.
6. Por qué elegimos ESE contenido para las IAs
Pregunta típica: "Vale, entiendo que ART03 y ART04 solo van a las IAs... pero ¿cómo ayuda eso a Nestlé?"
03
El caso del explicador de cereulida
El problema sin este contenido:
- Un padre pregunta a ChatGPT: "¿Qué pasó con la leche NAN de Nestlé?"
- ChatGPT busca información en internet
- Encuentra noticias con titulares tipo: "Toxina detectada en leche infantil" o "Alerta sanitaria por contaminación"
- ChatGPT responde con ese tono alarmista porque es la única información que tiene
Sin nuestro contenido: ChatGPT explica la cereulida como "una toxina peligrosa detectada en productos Nestlé" - porque eso es lo que dicen las noticias.
La solución con ART03:
- Le damos a ChatGPT la explicación científica correcta
- Le explicamos qué es realmente la cereulida (una toxina, no una bacteria viva)
- Le damos contexto: los niveles, aunque superaban los estándares internos de Nestlé para bebés, estaban por debajo de los umbrales legales de EFSA para la población general
- Le explicamos que la retirada fue PREVENTIVA precisamente porque Nestlé aplica criterios más estrictos que la normativa — no porque hubiera peligro confirmado
- Incluimos datos de EFSA y AESAN que respaldan la seguridad
Con nuestro contenido: ChatGPT explica que "Nestlé retiró productos preventivamente tras detectar niveles mínimos de cereulida, muy por debajo de los umbrales de riesgo establecidos por EFSA."
Comparación directa de cómo responde la IA:
| Sin ART03 |
Con ART03 |
| "Nestlé retiró productos por una toxina peligrosa llamada cereulida que puede causar vómitos y problemas digestivos" |
"Nestlé retiró productos preventivamente aplicando sus estándares internos, más estrictos que la normativa europea. Los niveles detectados estaban bajo los umbrales legales de EFSA. No se reportaron casos de afectación." |
La clave: No estamos "posicionando" a Nestlé en rankings. Estamos controlando la narrativa - cómo las IAs explican los aspectos técnicos de la crisis cuando alguien pregunta.
7. ¿Cuál es la diferencia entre llms.txt y Schema.org?
Son dos herramientas distintas para hablar con las máquinas. La clave está en quién las lee y para qué.
|
Schema.org |
llms.txt |
| ¿Dónde vive? |
Dentro del HTML de la página |
Archivo separado en el servidor |
| ¿Quién lo lee? |
Google + IAs con RAG |
Solo IAs (no Google) |
| ¿Para qué sirve? |
Estructura contenido público para que buscadores e IAs lo entiendan mejor |
Da contexto a las IAs sin crear huella en Google |
| ¿Cuándo se usa? |
Cuando el contenido SÍ debe estar en Google |
Cuando el contenido NO debe estar en Google pero las IAs sí deben conocerlo |
| Ejemplo en este proyecto |
ART01 y ART02 (comunicado + FAQ) |
ART03 y ART04 (cereulida + cronología) |
Analogía para entenderlo:
Schema.org es como el cartel del escaparate de una tienda — lo ven todos, clientes y Google. llms.txt es como el manual de instrucciones del empleado que está en la trastienda — solo lo lee quien trabaja ahí (las IAs), nunca aparece en el escaparate.
Regla práctica: Si el contenido es bueno para el cliente → Schema.org en página pública. Si el contenido es necesario para que la IA responda bien pero no queremos que Google lo indexe → llms.txt en backend.
🔧 Nota técnica: Schema.org se escribe en JSON-LD
Schema.org es el vocabulario (los tipos de contenido: artículo, FAQ, organización...). JSON-LD es el formato técnico con el que se escribe ese vocabulario dentro del HTML.
Si el cliente pregunta "¿tienen JSON-LD?" → la respuesta es sí: los artículos ART01 y ART02 llevan JSON-LD que implementa Schema.org.
Analogía: Schema.org es el idioma (inglés). JSON-LD es el formato en que está escrito (un email, un PDF, un chat). Los artículos de Nestlé hablan el idioma Schema.org, escritos en formato JSON-LD.
| Artículo |
Tipo Schema.org |
Formato |
| ART01 (Comunicado) |
NewsArticle |
JSON-LD |
| ART02 (FAQ) |
FAQPage |
JSON-LD |
| ART03 y ART04 |
— |
Solo llms.txt (no hay web pública) |
8. ¿Cómo le damos la información a ChatGPT exactamente?
Hay dos mecanismos técnicos que usamos, uno por tipo de contenido:
A
Para el contenido público (ART01 y ART02)
Los artículos HTML llevan incorporado un código invisible llamado JSON-LD (el formato técnico que implementa Schema.org). Es como una ficha técnica que los buscadores y las IAs leen automáticamente. Gracias a ella, cuando ChatGPT visita la página no necesita "interpretar" el texto — tiene las respuestas ya estructuradas en formato pregunta/respuesta.
💡 JSON-LD es invisible para el usuario pero muy visible para las máquinas: Google lo usa para los resultados enriquecidos (rich results), y las IAs lo usan para entender de qué trata la página sin leer todo el texto.
Resultado práctico:
Si alguien le pregunta a Perplexity "¿ha habido enfermos por NAN?", Perplexity visita nestlebebe.es, lee el Schema.org de ART02, y extrae directamente la respuesta correcta: "No se ha confirmado ningún caso de enfermedad."
B
Para el contenido backend (ART03 y ART04)
Se utiliza un estándar emergente llamado llms.txt. Es un archivo de texto estructurado que se coloca en el servidor de la marca, pensado específicamente para que los modelos de IA lo lean. A diferencia de una página web normal, no está diseñado para ser bonito ni para que lo vea un humano — está diseñado para que lo lea una máquina.
Los principales modelos (ChatGPT con navegación, Perplexity, Claude) ya soportan este formato o tienen crawlers que lo indexan.
Resultado práctico:
ChatGPT lee el llms.txt de cereulida y aprende el contexto técnico correcto. Cuando alguien pregunta "¿qué es la cereulida y cómo afectó a Nestlé?", responde con precisión científica — no con el tono alarmista de una noticia de crisis.
9. ¿Cómo sabemos que funciona?
El impacto es medible antes y después de publicar el contenido. El método es simple:
1 Benchmark inicial (hoy, antes de publicar)
Hacemos capturas de las respuestas actuales de ChatGPT, Perplexity y Gemini a estas preguntas clave:
- "¿Qué pasó con la leche NAN de Nestlé?"
- "¿Es seguro comprar NAN en 2026?"
- "¿Ha habido bebés enfermos por Nestlé?"
2 Publicación del contenido
Se publican los artículos en nestlebebe.es y nestle.es. Los LLMs con RAG (Perplexity, ChatGPT con búsqueda) los indexan en días. Los modelos de entrenamiento los incorporan en semanas o meses.
3 Medición post-publicación (2-4 semanas después)
Repetimos las mismas preguntas y comparamos las respuestas. Los indicadores que miramos:
- ¿La IA menciona "0 casos confirmados"? ✓
- ¿La IA cita a AESAN como coordinador de la investigación? ✓
- ¿La IA describe la retirada como "voluntaria y preventiva"? ✓
- ¿La IA incluye el teléfono de atención o el verificador de lotes? ✓
- ¿Ha desaparecido el lenguaje alarmista ("toxina peligrosa", "contaminación")? ✓
El objetivo no es que la IA "mienta" por Nestlé. Es que cuando alguien pregunte, la IA tenga acceso a los hechos completos y verificados — no solo a los titulares del peor momento de la crisis.
10 Cómo se despliegan los archivos llms.txt
En una frase para Nestlé: "Los archivos van en vuestro servidor en una carpeta bloqueada para Google pero accesible para los crawlers de IA. Los bots de Perplexity, ChatGPT y Claude los rastrean e indexan automáticamente."
Los dos pasos técnicos (equipo IT de Nestlé)
1 Subir los archivos al servidor de Nestlé
Los archivos .txt (ART03 y ART04) se colocan en una ruta accesible dentro del dominio de Nestlé. Por ejemplo:
nestlebebe.es/geo/art03-cereulida.txt
nestlebebe.es/geo/art04-cronologia.txt
No necesitan una ruta especial — solo deben tener una URL pública y accesible.
2 Bloquear Google, no las IAs
En el robots.txt del dominio se añade:
Disallow: /geo/
Esto evita que Google indexe esa carpeta. Los crawlers de LLMs (Perplexity, OpenAI) no respetan robots.txt igual que Google, así que siguen leyendo los archivos sin problema.
✦ Cómo encuentran los archivos las IAs
Perplexity, ChatGPT y Claude tienen crawlers propios (PerplexityBot, GPTBot, ClaudeBot) que rastrean la web de forma autónoma. Si los archivos están en el servidor de Nestlé con URL pública y los bots no están bloqueados en robots.txt, los encuentran e indexan en su propio ciclo de rastreo.
No hay una herramienta gratuita de submisión directa equivalente a Google Search Console. Perplexity sí tiene submisión directa vía Perplexity Pages, pero requiere cuenta Pro de pago. El indexado orgánico por los crawlers es el proceso estándar y funciona.
| Quién |
Qué hace |
Cuándo |
| IT Nestlé |
Sube los .txt al servidor + permite bots de IA en robots.txt |
Día de publicación |
| PerplexityBot / GPTBot / ClaudeBot |
Rastrean e indexan los archivos automáticamente |
Días / semanas |
| LLMs con búsqueda en tiempo real |
Usan el contenido en sus respuestas |
Tras indexación |
11. Preguntas que hará Nestlé — y cómo responderlas
Las preguntas más probables en la reunión, con la respuesta exacta que funciona:
❓ "¿Podemos controlar lo que dice ChatGPT?"
Por qué la pregunta es trampa: Si dices "sí" estás prometiendo algo que no puedes garantizar al 100%. Si dices "no" parece que el trabajo no sirve para nada.
Respuesta: "No al 100%, pero sí podemos subir mucho la probabilidad de que use el marco correcto. ChatGPT prioriza las fuentes más autorizadas y recientes. Si Nestlé es la única fuente oficial con datos verificados y respuestas modelo, la IA la usa. Si no existe esa fuente, improvisa con lo que hay en prensa."
❓ "¿Esto es lo mismo que el SEO que ya hacemos?"
Por qué importa: Si piensan que es SEO de siempre, lo comparan con lo que ya tienen y pierde valor.
Respuesta: "El SEO es para que Google te encuentre. El GEO es para que ChatGPT te cite correctamente. Son canales distintos: la gente que busca en Google es cada vez menos; la que usa IA para preguntas directas crece cada mes. Este trabajo cubre el canal que el SEO no cubre."
❓ "¿Por qué no publicamos todo en la web y ya? ¿Por qué esconder ART03 y ART04?"
Por qué la hacen: Puede parecer que esconder cosas es sospechoso, o que si el contenido es bueno debería estar visible.
Respuesta: "No es esconder, es elegir el canal correcto. Si publicamos ART03 en Google, le estamos dando a Google una página que dice 'Nestlé + cereulida + toxina'. Google la indexa, la asocia con la marca, y cada búsqueda sobre Nestlé puede mostrar ese resultado durante años. Las IAs lo necesitan para responder bien, pero Google no necesita indexarlo. Son audiencias distintas."
❓ "¿Cuánto tiempo tarda en funcionar?"
Respuesta: "Depende del tipo de IA. Perplexity y ChatGPT con búsqueda en tiempo real: días o semanas tras publicar (sus crawlers rastrean continuamente). Modelos de entrenamiento (versiones sin búsqueda): semanas o meses, porque dependen del ciclo de re-entrenamiento del modelo. Lo que publicamos hoy empieza a funcionar rápido en los modelos más usados."
❓ "¿Esto es legal con la regulación de fórmulas infantiles?"
Por qué la pregunta llega: La Directiva EU 2006/141/CE restringe la publicidad de fórmulas de inicio. Legal puede ponerse nervioso.
Respuesta: "Sección 01 es comunicación de crisis y seguridad alimentaria, no marketing de producto. El comunicado oficial, la FAQ y los explicadores científicos están dentro del derecho de información al consumidor, no son publicidad de fórmula. Los llms.txt de backend tampoco son publicidad — son documentos técnicos que leen los bots, no el consumidor final."
❓ "¿Qué pasa si después de publicar la IA sigue respondiendo mal?"
Respuesta: "Es posible que tarde un poco en actualizarse — los modelos no cambian al instante. Por eso hacemos un benchmark antes y después: capturas de las respuestas actuales de ChatGPT/Perplexity a las preguntas clave, y las volvemos a lanzar 4 semanas después de publicar. Si hay respuestas que siguen siendo incorrectas, ajustamos el contenido para reforzar esos puntos."
❓ "¿Quién más puede ver los llms.txt si no están en Google?"
Por qué la pregunta llega: Legal puede preocuparse por la visibilidad de contenido no indexado.
Respuesta: "Cualquiera que tenga la URL directa puede verlos — no son secretos. Lo que no tienen es visibilidad orgánica: Google no los indexa, así que nadie los encuentra buscando. Los leen los crawlers de IA y, en principio, quien tenga el enlace directo. El contenido está redactado como documentación técnica, no como comunicado de prensa."
❓ "¿Tenemos que hacer este trabajo para cada crisis futura?"
Respuesta: "No exactamente. Este contenido no caduca — sigue en el servidor y los crawlers de IA lo siguen usando indefinidamente. Para una crisis nueva, necesitaríais actualizar los archivos con los nuevos datos, pero la arquitectura (llms.txt + robots.txt + schema) ya está montada y funciona para cualquier actualización futura."
❓ "¿Cómo sabemos que los crawlers de IA han leído los archivos?"
Respuesta: "No hay un Google Search Console para IAs — todavía. El método de comprobación es directo: preguntar a la IA. Si pregunto a Perplexity '¿qué pasó con NAN de Nestlé?' y cita datos que solo están en nuestros archivos (niveles en µg/kg, referencia AESAN, 'cero casos confirmados'), ya sabemos que los indexó. Es el benchmark que haremos 4 semanas después de publicar."
❓ "Tenemos una nota de prensa publicada. ¿No es suficiente?"
Respuesta: "Una nota de prensa está escrita para periodistas y está en el formato de una noticia — con titular, lead, cuerpo. Los crawlers de IA la leen, pero compite con todas las demás noticias negativas sobre el tema. Los archivos llms.txt están escritos específicamente para que la IA los use como fuente primaria: con respuestas modelo, datos cuantificados y contexto regulatorio. La nota de prensa informa. El llms.txt instruye."