Es necesario aquí
distinguir entre ambos conceptos: mientras que la lengua es el sistema
de signos doblemente articulado que utilizamos los humanos para comunicarnos,
el lenguaje es un sistema más amplio de señales o de reglas de
procesamiento. En el extremo de esta relación, encontramos el ensamblador
(assembler), un lenguaje de bajísimo nivel que se sitúa lo más cerca
posible del hardware. En ese estadio, el humano debía pensar casi como
el silicio para dar instrucciones precisas a la computadora.
Un paso posterior
fue el desarrollo de los lenguajes lógicos, como Prolog o LISP. En
ellos, la programación ya no se basaba en indicarle a la máquina cómo
hacer algo paso a paso, sino en definir relaciones lógicas y reglas de
inferencia. El humano seguía adaptándose, pero ya lo hacía mediante estructuras
formales de pensamiento deductivo.
La Inteligencia
Artificial contemporánea propone la perspectiva inversa: ya no es el ser humano
quien debe aprender el lenguaje de la máquina para comunicarse con ella, sino
que es la máquina la que "aprende" la lengua natural. Este giro
copernicano hace que la distinción entre idiomas sea irrelevante en los niveles
más profundos del procesamiento. La máquina no traduce palabra por palabra
entre el español y el inglés o el chino; opera en un nivel de abstracción
conceptual tan profundo que los mecanismos interiores de sentido son
universales, lo que permite un tratamiento del texto que supera con creces el
de la traducción computacional tradicional.
Esta inversión
comunicativa nos lleva directamente a la ontología del texto. La
ontología se refiere a la esencia y la organización de la realidad de un
objeto: aquello que constituye su ser. Durante siglos, la concepción del texto
ha sido predominantemente estática. Un libro o un documento legal eran
considerados objetos concluidos, fijados de manera definitiva en su soporte. En
esta visión, la identidad del texto residía en su literalidad; eran productos
terminados, cerrados e inmutables.
La IA permite
transitar hacia una ontología dinámica. El texto deja de percibirse
exclusivamente como una secuencia rígida de caracteres para revelarse como una
red activa de relaciones de significado. El texto ya no sólo "dice",
sino que "alberga" una estructura de conocimiento que puede ser
interrogada y reconfigurada. La tecnología actúa como un catalizador que
permite operar sobre las lógicas profundas que los signos representan,
transformando el escrito de un producto inerte a una materia maleable.
Es imperativo detenerse en una distinción que la crítica, en voces como la de Jorge Urrutia (comunicación personal), ha señalado con acierto como un punto de fricción necesario: la diferencia entre enunciado y texto. No podemos permitir que la fascinación por el procesamiento masivo de datos nuble la frontera entre la unidad mínima de comunicación situada (el enunciado) y la macroestructura de sentido que constituye el texto.
Entendemos que el
enunciado es un evento lingüístico concreto, anclado en un aquí y un
ahora, mientras que el texto es una voluntad de arquitectura intelectual
que trasciende la suma de sus partes. La Lingüística, en su diálogo con la
Inteligencia Artificial, no debe caer en el error de confundir la eficiencia en
la generación de enunciados —tarea en la que los modelos de lenguaje actuales
son asombrosamente competentes— con la creación de un tejido textual coherente.
En la ontología
dinámica que se propone, esta distinción se vuelve más operativa que nunca. La
IA opera fundamentalmente en el nivel del enunciado y del patrón
probabilístico; es capaz de imitar la microarticulación de la lengua con una
precisión matemática. Sin embargo, la soberanía del sentido, esa
dirección que convierte una sucesión de enunciados en un texto unitario, sigue
siendo una prerrogativa del autor. La máquina procesa el enunciado; el
humanista dispone el texto. Reconocer esta jerarquía es lo que permite que la
tecnología no diluya la labor del lingüista, sino que la precise: el experto no
sólo vigila la corrección de lo dicho, sino también la integridad del propósito
que lo une.
Para
ilustrar el cambio hacia la ontología dinámica, analicemos la ontología
del objeto libro. En él conviven diversas capas de realidad que,
tradicionalmente, eran indisolubles:
- La capa material: El papel, la tinta y la
encuadernación. Es la realidad física que sujeta el contenido.
- La capa formal: El diseño de la página, la
tipografía y la división en capítulos. Es la arquitectura visual
que organiza la lectura.
- La capa lingüística: La secuencia específica de palabras
fijada en un momento histórico.
En la era de la
IA, surge una cuarta capa: la capa semántica o relacional. Al
procesar un libro mediante modelos de lenguaje, el contenido se libera del
soporte físico. El texto ya no está pegado a la tinta; existe como un cuerpo de
conocimiento fluido. Esta ontología dinámica permite que el libro mantenga su
"ser" intelectual mientras su forma se vuelve adaptable: puede
reorganizarse, resumirse o modernizarse sin perder su esencia.
Esta evolución
modifica nuestra forma de interactuar con la palabra escrita. Tradicionalmente,
hemos operado sobre el texto como sobre un territorio, recorriendo su
superficie línea a línea. Las nuevas herramientas permiten acceder directamente
al mapa conceptual que sostiene ese territorio.
- La fijación clásica: El trabajo intelectual se centraba
en la forma final del texto, una estructura sólida y resistente al cambio.
- La fluidez contemporánea: El texto se descubre como una
realidad multidimensional. Posee la capacidad de ser trasladado entre
registros, niveles de complejidad o formatos, y Históricamente, el
tratamiento de los textos (en realidad, de los enunciados; pero se
respetará la terminología generalizada) se basaba en instrucciones lógicas
deductivas: si aparecía una estructura X, se aplicaba la norma Y. Era un
sistema rígido e insuficiente ante la ambigüedad de la lengua natural.
Para profundizar
en este punto, es esencial ilustrar cómo la rigidez de la norma fracasa allí
donde la fluidez de la probabilidad triunfa. Para un sistema basado en reglas,
el lenguaje es un código binario; para la IA actual, el lenguaje, especialmente
la lengua natural, es un ecosistema de tensiones.
La noción de la
lengua natural como un ecosistema de tensiones integra perspectivas de la
ecolingüística, del funcionalismo y de la teoría de sistemas complejos. Esta
metáfora describe la lengua no como un código estático, sino como un equilibrio
dinámico entre fuerzas opuestas: la economía frente a la expresividad, la norma
frente al uso y las influencias centrípetas (unificadoras) frente a las
centrífugas (diversificadoras). Son fundamentales nombres como Haugen o
Bastardas para la ecología del lenguaje, Martinet o Coseriu para el
funcionalismo y la lingüística histórica, Bajtin para las tensiones
sociolingüísticas y de poder o Manning, Raghavan y Schütze para entender el
lenguaje como un "ecosistema de probabilidades" en el espacio
vectorial.
Eugenio Coseriu
A continuación, se
presentarán algunos ejemplos que aclaran por qué el enfoque inductivo es
superior para captar la esencia de la comunicación humana.
En la IA
simbólica (basada en reglas), la ironía es prácticamente indescifrable. Si
programamos una regla que defina que "maravilloso" es un adjetivo con
carga positiva +1, la máquina interpretará siempre una frase como
"¡Qué maravilloso!" como un elogio. No tiene capacidad para ver más
allá de la etiqueta.
Sin embargo, en
el tratamiento estadístico, la IA no mira la palabra aislada, sino su
entorno.
- Ejemplo: Ante la frase "Se nos ha inundado el
sótano y se ha estropeado toda la biblioteca. ¡Qué maravilloso!",
la IA detecta una colisión de vectores. En su corpus de entrenamiento, la
relación estadística entre "inundación/desastre" y
"maravilloso" es de una improbabilidad altísima en términos
literales.
- La máquina identifica esa disonancia
cognitiva. Sabe, por pura inducción tras procesar millones de
diálogos, que cuando el contexto es catastrófico y la reacción es
hiperbólicamente positiva, la probabilidad de que el hablante esté
ejerciendo la ironía es cercana al 100%. La ironía no se "entiende"
por una definición lógica, sino por el cálculo de la tensión entre el
contexto y la palabra.
El estilo de un
autor no es otra cosa que una desviación sistemática de la norma. Si
todos siguiéramos estrictamente las reglas de la gramática normativa al
escribir, todos escribiríamos igual. Lo que hace que Cervantes sea Cervantes o
que Reyes sea Reyes es precisamente cómo se apartan de lo previsible. Un
ejemplo aplicable al uso de la IA puede verse en la modernización. Si
intentáramos modernizar un texto de Quevedo mediante reglas, un programa
tradicional buscaría sinónimos modernos para palabras antiguas. El resultado
sería un texto "correcto", pero sin alma.
La IA, al operar
con patrones, identifica la "huella dactilar" estilística.
Detecta que Quevedo tiende a una densidad conceptual (conceptismo) en la que
los vectores de significado están extremadamente comprimidos. Al proponer una
versión moderna, la IA no sólo cambia las palabras; intenta mantener esa misma
"distancia vectorial" entre los términos para que el eco de la
agudeza original no se pierda. La máquina no aplica una norma; replica una
tendencia.
Ludwig Wittgenstein hablaba de los "parecidos de familia" para explicar conceptos que no tienen una definición única pero que reconocemos por sus rasgos comunes. La gramática tradicional sufre al intentar definir el "aire" de un texto (si es burocrático, lírico, cínico o académico).
La IA, al haber
procesado corpus masivos, identifica estos géneros como clústeres o
agrupaciones en el espacio vectorial. No necesita que le digamos qué es el
"lenguaje administrativo"; lo reconoce porque ha observado que en ese
tipo de documentos la probabilidad de encontrar pasivas reflejas,
nominalizaciones y un léxico específico es muy superior a la media. Esta
capacidad inductiva es la que le permite, por ejemplo, traducir un informe
técnico a un lenguaje llano sin perder la precisión: sabe qué piezas mover para
cambiar el registro sin alterar la ontología del mensaje.


