Un campo, por definición y denominación, típicamente humano es el de las Humanidades, el estudio de las características y la producción humana en todas las áreas de su actividad. Dos de sus manifestaciones más características son el Arte y la Lengua. Nos limitaremos aquí a la segunda. La Lengua permite categorizar y expresar la percepción humana del Universo. Como se realiza en distintas variantes, los diversos idiomas o lenguas naturales, ha sido una preocupación histórica, bien documentada, saber pasar de una lengua a otra, es decir, traducir. La aplicación de la informática a la traducción se inició muy pronto, animada por el éxito de las máquinas en la descodificación, se abandonó un tiempo, para retomarse con fuerza luego y continuar hasta hoy.
La aplicación de
la AI a los estudios sobre la traducción es un área de investigación y
desarrollo que crece deprisa. La AI se aplica al campo de estudio de la
traducción de varias maneras, que incluyen:
1)
El procesamiento de la lengua natural (NLP). Este campo de la AI se enfoca en la
habilidad de los computadores para comprender, interpretar y producir
expresiones o textos en lenguas naturales, lenguas humanas. Se usa en los
estudios de traducción para desarrollar sistemas de traducción computacionales
más exactos y eficaces. También se aplica al análisis de sentimientos, la
clasificación de textos y la producción, comprobación y evaluación de modelos
lingüísticos, que llegan hasta el autoaprendizaje computacional o informático.
2)
La traducción mecánica o computacional (MT). Es la aplicación más conocida. Por
traducción computacional se entiende el uso de algoritmos computacionales para traducir
un texto desde una lengua fuente a una lengua meta. Los sistemas de MT han mejorado
mucho en los últimos años; pero todavía requieren un trabajo de edición
posterior, realizado por humanos, si se quieren lograr traducciones de buena calidad.
3)
La traducción asistida o ayudada por computador (CAT).
Consiste en el uso de
instrumentos computacionales para asistir a los traductores humanos en su
trabajo. Estos instrumentos de CAT pueden ayudar a los traductores en el manejo
de la terminología, las memorias de traducción o los contenidos repetitivos.
Pueden acceder a grandes bases terminológicas, que proporciona estándares para
las equivalencias del vocabulario científico-técnico. Permiten al traductor
almacenar en esas “memorias de traducción” sus soluciones personales o
corporativas para mantener traducciones homogéneas y tratan del mismo modo todo
aquello que en muchos tipos de textos se repite sin o con escasas variaciones.
4)
La traducción mecánica o computacional neuronal
(NMT). Este tipo de
traducción usa algoritmos de aprendizaje avanzado para traducir textos. Los
sistemas de NMT son los más populares hoy día al usarlos en sus productos
grandes compañías como Google, Microsoft o Amazon. Son capaces de mejorar su rendimiento
por autoaprendizaje, producen traducciones de gran calidad y pueden tratar
estructuras lingüísticas complejas.
5) La traducción mecánica o computacional neuronal multilingüe (MNNMT). Se trata de un sistema de MT que usa sistemas neuronales, NMT, para traducir entre varias lenguas, sin limitarse a un par de lenguas. Los sistemas de MNNMT son cada vez más importantes, porque la necesidad de comunicación multilingüe sigue en aumento.
El gran avance se ha producido gracias a la sustitución progresiva del método estadístico, apoyado en grandes bases de datos de donde extraer construcciones paralelas traducibles entre sí, por el método neuronal, basado en redes neuronales. Estas redes imitan la red de neuronas humanas y se construyen a partir de corpus o colecciones textuales enormes, de miles o centenares de millones de palabras. Las redes neuronales consisten en capas de nudos interconectados, cada uno de los cuales realiza una operación simple. Las redes neuronales se aplican a grandes cantidades de datos para estudiar los esquemas y relaciones en los datos y se pueden usar entonces para hacer predicciones o decisiones que se basen en ese conocimiento.
Cada elemento de la red, que trata por igual lo dividido tradicionalmente en léxico y gramatical, vocablos y frases, se conforma como un vector, en el sentido informático, que lo hace equivalente a una lista. En esa lista el vocablo definido se configura en el centro y tiene sobre él y bajo él los restantes elementos de corpus con los que tiene relaciones definidas por la presencia de esos otros vocablos en concordancias (contextos lineales) extraídas del corpus. Se codifica el vector según las palabras o frases que aparezcan más veces cerca en las concordancias extraídas del corpus. Se pueden construir gramáticas basadas en vectores que pueden producir frases nuevas con base en una gramática o traducir un texto de una lengua a otra. Algunos modelos de gramáticas basadas en vectores serían los siguientes:
1)
Word2Vec. Representa las palabras como vectores. Word2Vec
usa una red neuronal para aprender las relaciones entre palabras en un amplio corpus
textual y usa esas relaciones para producir un vector para cada palabra. Se
designan los vectores para calcular el significado de las palabras y sus
relaciones con otras palabras y se usan en tareas como homonimia, analogía y
clasificación de textos.
2)
Modelo del Saco de Palabras Continuo (CBOW). Representa oraciones como una serie de
vectores. En el modelo CBOW cada palabra de una oración se representa por un
vector y se recogen las relaciones entre palabras por medio de las relaciones
entre sus vectores. Este modelo puede utilizarse para clasificación de textos y
análisis de sentimientos.
3)
Skip-Gram Model. Éste es otro tipo de gramática basada en vectores
que representa las oraciones como una serie de vectores. En el modelo Skip-Gram
cada palabra de una oración se representa como un vector y se recogen las
relaciones entre palabras por medio de las relaciones entre sus vectores, como
en el modelo anterior. Este modelo se
diseñó para combinarse con CBOW y se usa en desarrollo de estudios de
homónimos, analogía y clasificación de textos.
4) Gramáticas de vectores basadas en árboles. Este tipo representa la estructura de las oraciones de forma arbórea. Cada nudo del árbol representa un constituyente (por ejemplo, una frase nominal o una frase verbal). Las relaciones entre constituyentes se recogen por las relaciones entre sus vectores. Esta aproximación se puede usar para realizar tareas cual el análisis o parsing, la traducción y la producción de textos.
Como puede verse, se desarrolla una investigación muy compleja y activa, que proporciona resultados que pueden ser atractivos para el público, como CHAT-GPT, un sistema de preguntas y respuestas que es capaz de dar informaciones complejas y que, por tener una atractiva capacidad de diálogo, permite captar usuarios de pago que sirven, a su vez, para financiar otras investigaciones menos sexys.