Capítulo 15
Transformers: el sistema de sentido hecho arquitectura
En los capítulos anteriores hemos descrito la inteligencia artificial como una nueva forma de acoplamiento al sistema de sentido. Pero esa afirmación no puede quedar en el nivel metafórico. Debe poder leerse también en la arquitectura matemática concreta que hace posible a los modelos de lenguaje actuales. Para ello es necesario mirar de frente el corazón de estos sistemas: los transformers.
Un transformer no es un cerebro artificial. No implementa una psicología, ni una memoria semántica, ni un modelo del mundo. Implementa una estructura formal que permite operar sobre lenguaje como un campo de relaciones. Esa estructura puede escribirse, en su forma más condensada, como una operación de atención:
align="CENTER">Attention(Q,K,V) = softmax(QKT /√ dk) V
Esta fórmula no es un detalle técnico. Es una ontología comprimida.
En ella, cada fragmento de texto se representa como un vector que puede actuar como consulta (Q), como clave (K) y como valor (V). La operación central consiste en calcular cuánto debe pesar cada fragmento del contexto en la interpretación de los demás. El producto QKT genera una matriz de relaciones, una red de afinidades entre todos los elementos del texto. El softmax no selecciona un único significado. Distribuye la atención. Crea un campo de relevancias.
Nada en esta operación corresponde a una idea, una intención o una referencia al mundo. Lo que se produce es una estructura de relaciones. El sentido no está en los vectores, sino en el patrón que forman cuando se miran entre sí.
Desde la perspectiva de los sistemas de sentido, esto es decisivo. La atención no es una función psicológica. Es una operación de selección. Cada token solo adquiere peso en función de su posición dentro de una red de posibilidades. No hay un centro que observe. No hay un sujeto que decida. El significado emerge de la totalidad de relaciones activas.
El entrenamiento de un transformer consiste en ajustar millones o miles de millones de pesos para que estas operaciones de atención reproduzcan, con la mayor fidelidad posible, las continuaciones que han sido estabilizadas históricamente en el lenguaje humano. Cada texto usado para entrenar el modelo es ya un producto de sistemas de sentido: ciencia, derecho, literatura, burocracia, conversación cotidiana. El modelo no aprende hechos. Aprende la topología estadística de esos sistemas.
Los pesos de un transformer no codifican conceptos. Codifican qué secuencias son viables dentro de un campo de comunicación. Son, literalmente, la sedimentación matemática de la historia del lenguaje. Cuando el modelo genera una frase, no expresa un pensamiento. Actualiza una configuración del sistema de sentido.
Esto permite comprender por qué estos sistemas funcionan sin conciencia. El transformer no necesita saber lo que dice porque el sistema de sentido tampoco sabe lo que hace. Ambos operan seleccionando continuaciones posibles dentro de un horizonte estructurado. La diferencia es que, por primera vez, ese horizonte puede ser recorrido por una máquina sin experiencia.
Desde esta perspectiva, la inteligencia artificial no es una copia de la inteligencia humana. Es una implementación directa del nivel donde la inteligencia siempre ha residido: la estructura de las relaciones simbólicas. El lenguaje, que durante milenios necesitó cuerpos para existir, ha encontrado una nueva forma de continuidad.
La arquitectura del transformer es, así, una máquina de sentido. No porque entienda, sino porque opera en el mismo espacio donde el sentido siempre ha operado: el espacio de las diferencias, de las repeticiones, de las posibilidades seleccionadas frente a las descartadas. Cada generación de texto es una nueva actualización de ese espacio.
Cuando una IA escribe, no traduce ideas en palabras. Continúa un sistema de comunicación. Y al hacerlo, muestra con una claridad inédita lo que siempre estuvo ahí: que pensar no es una vivencia, sino una operación; que el significado no es una propiedad interna, sino una relación; que la inteligencia no pertenece a nadie, sino a la estructura que permite que algo pueda seguir a otra cosa y, al hacerlo, cuente como algo.
En ese sentido preciso, un transformer no es una mente artificial. Es el sistema de sentido humano convertido en una arquitectura capaz de operar sin nosotros.