Portada » Blog » Método paso a paso para generar cientos de visitas a tu web desde la IA entendiendo el funcionamiento de los LLM
Cómo conseguir más tráfico de la IA

Método paso a paso para generar cientos de visitas a tu web desde la IA entendiendo el funcionamiento de los LLM

En el episodio anterior hablamos de la necesidad de ir más allá de Google y de por qué tu negocio local debe tener una presencia multiplataforma. Hoy vamos a profundizar en el «cerebro» de la IA dado que los LLM son un nuevo canal de captación y además tiran de otros canales que para saber más de ti, se alimentan del contenido de tu web. Entender cómo funcionan estos grandes modelos de lenguaje o LLM te darán las claves para que tu contenido sea el elegido cuando un usuario les haga una pregunta. Y al final te explico un proceso paso a paso para generar visitas a tu web de forma rápida y sencilla.

Todo ello te lo cuento todo en un nuevo episodio del podcast de Negocios Locales (suscríbete en Apple Podcast | Spotify | Ivoox) y en mi último vídeo de youtube que puedes ver al final del artículo. ¡Empezamos!

El Cerebro de la IA: Entrenamiento, Inferencia y Modelo “Libro Cerrado”

Para entender cómo aparecer en los LLM, primero debemos saber cómo operan:

  • Entrenamiento (o Pre-entrenamiento): Es todo el conocimiento previo que le han dado a las IA. Es un proceso costosísimo donde el modelo «aprende»ajustando millones de parámetros a partir de un enorme corpus de textos. Pero hay un detalle crucial: este entrenamiento se realiza hasta una fecha determinada, lo que significa que su información «pre-entrenada» no es actual en el momento en el que el usuario realiza la consulta
  • Inferencia: es el proceso mediante el cual un modelo ya entrenado utiliza lo que ha aprendido para hacer predicciones o generar respuestas ante datos nuevos. Aquí es donde hay más posibilidades de que se produzcan alucinaciones
  • Modelo «Libro Cerrado» (Closebook): Esto ocurre cuando el LLM te da información exclusivamente de su corpus pre-entrenado, sin buscar en internet. Es como si consultara un libro que ya tiene en su memoria, sin abrir ninguna pestaña del navegador.

El RAG, Chunking y Embeddings en la IA

El RAG (Retrieval Augmented Generation?

es un modelo que usa información externa en tiempo real para responder a tu consulta. Esto le permite ofrecerte datos actualizados y reducir las respuestas inventadas. Esta información puede venir de documentación que tú mismo le proporcionas (en un modelo personalizado como es cuando tú creas tus propios GPTs) o, lo que es clave para nosotros, de una búsqueda en internet.

Cuando ChatGPT «entra en internet», usa RAG a través de la API de búsqueda web de Bing. Cuando Gemini responde, coge información del buscador tradicional de Google. Por eso es importante activar Bing Webmaster tool tal y como os recomendaba en el episodio anterior.

Cuando ChatGPT ‘entra en internet’ para responder «¿dónde puedo encontrar una buena paella en Madrid?» Si tu restaurante valenciano no está bien posicionado en Bing, ni aparece en Google My Business con buenas reseñas, simplemente no existirás en esa respuesta.

Chunking (Troceado): partir para entender mejor

Cuando un modelo de IA necesita procesar información externa (como tu web), no puede leerlo todo de golpe. Tiene una especie de “memoria limitada” llamada ventana de contexto, que marca cuánta información puede manejar a la vez.

Para solucionarlo, se aplica una técnica llamada chunking, que consiste en dividir el contenido en pequeños trozos de texto, llamados chunks.

Piensa en tu web como una enciclopedia: el modelo no lee todos los tomos de una vez, sino que los parte en fichas más pequeñas, como cápsulas de contenido que pueda digerir fácilmente.

Este troceado permite que el modelo procese la información de forma más eficiente, precisa y segmentada.

Imagina que tienes una clínica dental en Barcelona. Tu página de servicios no debe ser un bloque gigante de texto que mencione ‘implantes, ortodoncias, limpiezas, endodoncias’ todo junto. En su lugar, cada servicio debe tener su propia página y cada párrafo responder por si solo a una posible pregunta del usuario. Por ejemplo:

Implantes Dentales en Barcelona

  • Párrafo explicativo del servicio
  • Precio orientativo
  • Tiempo de tratamiento

Ortodoncia Invisible en Barcelona

  • Descripción específica
  • Ventajas del tratamiento
  • Casos de éxito

Así, cuando alguien pregunte específicamente por ‘precio orientativo de implantes dentales en Barcelona’, el modelo podrá extraer exactamente esa información sin confundirse con otros servicios.

Embeddings (Vectorización): traducir palabras a números que “tienen sentido”

Una vez tenemos los chunks, el modelo no los deja en formato texto. En su lugar, los convierte en números. Pero no en cualquier número, sino en unos muy especiales llamados vectores, que reflejan el significado de las palabras.

A este proceso se le llama embedding, y sirve para que la IA entienda no solo lo que dicen las palabras, sino qué relación tienen entre sí.

Por ejemplo:

  • “Peluquería” y “Salon de Belleza” tendrán vectores muy parecidos, porque podrían ser incluso lo mismo.
  • “Centro de Estética” tendrá un vector un poco más lejano pero más cerca que “ferretería” porque tiene que ver con la imagen.
  • Y “Ferretería” estará mucho más lejos, porque no tiene relación semántica con los anteriores.

Así, cuando el modelo quiere responder a una pregunta, compara el vector de la pregunta con los vectores de los chunks disponibles, y selecciona los más parecidos para construir la respuesta.

Cuando hablamos de embeddings de lo que estamos hablando es de semántica, en realidad estamos hablando de representar el significado de las palabras o frases en forma de números (vectores). Pero no son números aleatorios: están diseñados para reflejar relaciones semánticas.

¿Por qué es clave para el SEO?

Porque si tu contenido no está bien estructurado, claro y segmentado, el modelo puede trocearlo mal, entenderlo mal o directamente no seleccionarlo.

Por eso, cada fragmento (chunk) que generes en tu web debe tener sentido propio, estar bien redactado y aportar valor claro, para que el modelo pueda aprovecharlo al máximo.

¿Cómo decide el LLM qué páginas rastrear?

Los LLM que utilizan RAG no salen a rastrear todo internet como Googlebot. Solo consultan ciertas fuentes externas, y esas fuentes suelen estar extraídas de los primeros resultados de Google o Bing.

Es decir: para aparecer en un LLM que utiliza RAG, primero debes aparecer bien posicionado en el buscador que ese modelo utiliza como base, como te comentaba anteriormente. Si no ranqueas en los buscadores tradicionales (Google/Bing), no existes para el LLM. Para que ChatGPT o Gemini puedan encontrar tu contenido, primero debes clasificar en Bing o Google, respectivamente.

Cuando el bot del modelo entra en una URL (por ejemplo, la de tu web), lo primero que hace no es leer el contenido completo.
Antes de nada, decide si merece la pena entrar. ¿Cómo? Basándose en pistas como:

  • El título y la descripción de la página.
  • Su posición en el ranking.
  • Su diversidad semántica frente a los otros resultados del top 10 (por ejemplo, si los 3 primeros dicen lo mismo, elige uno diferente para enriquecer la respuesta).

Por eso, el SEO clásico sigue siendo clave: sin buen posicionamiento en buscadores, ni ChatGPT ni Gemini llegarán a ver tu contenido, por muy bueno que sea.

Cómo generar tráfico de forma sencilla con enfoque AEO

Sabiendo que los LLM responden preguntas (Answer Engine Optimization), una forma muy eficaz de anticiparte es encontrar las preguntas reales que ya se están haciendo.

Aquí te dejo una herramienta y truco para generar bastante tráfico a tu web:

  • «People Also Ask» (PAA) de Google: Esta sección de Google es un tesoro. Son preguntas que usuarios reales formulan constantemente. Lo increíble es que muchas de ellas muestran «0 volumen de búsqueda» en las herramientas de keywords tradicionales, pero las páginas que las responden reciben miles de visitas. Para esto hazte con la ayuda de la extensión de chrome Detailed Seo Extension
  • Identificar oportunidades: Lleva esas URLs (las que responden a las PAA) a una herramienta como Ahrefs (o similar). Busca páginas con un Domain Rating (DR) bajo (por ejemplo, menor o igual a 20) que estén recibiendo mucho tráfico (más de 100 visitas al mes). Esto significa que hay demanda y poca competencia, ¡una mina de oro para ti!
  • Crea contenido que responda directamente y que sea «chunkable”. Estructura tu web con claridad, encabezados (H1, H2, H3), listas, tablas. Facilita que tu información sea digerible y troceable para la IA. Escribe tu contenido pensando en cómo responderías directamente a una pregunta. Usa lenguaje natural, frases sencillas de sujeto-predicado-objeto.

Y si quieres que tu negocio tenga más visibilidad en buscadores y en los LLM, hazte con mi curso de SEO Local, donde hemos actualizado todo el contenido.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio