¿Qué hay detrás de un LLM? (Te lo explico sin términos complicados) 🧠✨
TL;DR, al final hay un infográfico como resumen...
Hace unos días, platicando con mi familia sobre cómo herramientas como ChatGPT, Gemini, Claude parecen saberlo todo, mi mamá me hizo una pregunta muy válida: "¿Pero cómo le hace para saber todo eso? ¿De dónde saca las respuestas?"
Es una duda súper común. A veces usamos estos Modelos de Lenguaje y las respuestas son tan buenas que parecen magia pura. Pero... spoiler alert: no hay magia detrás de este proceso, solo matemáticas.
Hoy quiero explicarles de forma muy sencilla qué pasa exactamente detrás de la pantalla cuando le haces una pregunta a la Inteligencia Artificial. ¡Vamos a abrir la caja negra! 📦👇
Paso #1: Las palabras se vuelven coordenadas 🗺️
A este paso los ingenieros le llaman "Embeddings".
Imagina un mapa espacial gigantesco. Cuando nosotros leemos "perro" y "gato", sabemos de inmediato que son animales.
Como la IA no "entiende" conceptos como un humano, convierte cada palabra en una coordenada matemática dentro de ese gran mapa. Las palabras con significados similares acaban viviendo en el mismo vecindario.
Así es como la computadora entiende matemáticamente que "coche", "motor" y "gasolina" están relacionados, porque viven cerca en su mapa de números.

Paso #2: Conectando el contexto 🔗
A esto se le conoce como "Self-Attention" (Auto-atención). ¿Alguna vez has leído un mensaje de WhatsApp donde la falta de una coma cambia todo el sentido?
En el lenguaje, el contexto lo es todo. En esta fase, la IA analiza toda la frase que le escribiste y calcula qué palabras importan más para entender el verdadero significado.
El contexto es importante ya que digamos la palabra "banco" puede referirse a banco de peces o a una entidad financiera, como puedes ver, el contexto lo es todo, eso es parte de la magia de los LLMs; entienden el contexto.
Por ejemplo, en la oración: "El motor eficiente funciona suavemente", la IA crea un lazo fuerte conectando la palabra "motor" con "funciona".
Esto fue descubierto por científicos de Google, sin ellos los LLMs no serían lo que son hoy...

Paso #3: Adivinando el futuro mediante probabilidad 🔮
Aquí está el gran secreto de todo el sistema. Un LLM es, en esencia, como el texto predictivo de tu celular, pero con esteroides.
Después de ubicar las palabras en su mapa y entender el contexto de lo que le pediste, la IA usa pura estadística para calcular cuál es la palabra más lógica que debería seguir.
Si el modelo procesó "El motor eficiente...", revisa sus datos y dice: "Hay un 78% de probabilidad de que la palabra que siga sea funciona, un 12% de que sea opera y un 5% de que sea falla".
Elige la opción ganadora, la escribe en tu pantalla, y repite todo este proceso estadístico para la siguiente palabra, una.
Todo la información o conocimiento que tiene lo obtiene de "entrenamientos" previos con cientos de libros, páginas de internet, blogs, etc.
En resumen: ¡No es magia, son vectores y estadística! 📊

La próxima vez que uses Gemini, ChatGPT o cualquier otra IA, fíjate cómo va generando la respuesta palabra por palabra en tu pantalla; ahora ya sabes exactamente qué cálculos está haciendo en el fondo. 😉
¿Ya te imaginabas que funcionaba de esta manera? Si te quedó alguna duda o te gustaría que explique algún otro término de tecnología así de fácil, ¡déjamelo saber en los comentarios! 👇
Member discussion