Saturday, February 11, 2023

Inteligencia Artificial (AI) y Humanidades

 En los últimos meses asistimos a un crecimiento exponencial de las informaciones, comentarios y temores sobre la Inteligencia Artificial (AI, por sus siglas en inglés). Algunos de los últimos productos son ciertamente llamativos y han gozado de gran aprecio de usuarios. La Inteligencia artificial se está aplicando desde hace muchos años y quizás ha llegado el momento de darle la importancia que tiene, mucha, por cierto, y no más. Recuérdese que el ser humano tiene al menos dos capacidades que, hasta el presente, no se dan en la máquina. La primera puede que se consiga, la capacidad de ponerse a hacer algo que no ha hecho nunca, como jugar un juego nuevo, incorporarse a una actividad ya en marcha sin instrucciones previas, adaptándose a las exigencias que tenga. La segunda capacidad parece todavía muy lejos del mundo mecánico, la de la autoconciencia, saber quién es uno, dónde está y asumir las circunstancias como parte del propio ser. En el momento en que una máquina pueda decir, con conocimiento real “yo sé quién soy” habrá culminado el proceso de creación de un nuevo ser. Mientras tanto, se trata de un objeto, cada vez más complejo y capaz de hacer más cosas y más complejas.

Un campo, por definición y denominación, típicamente humano es el de las Humanidades, el estudio de las características y la producción humana en todas las áreas de su actividad. Dos de sus manifestaciones más características son el Arte y la Lengua. Nos limitaremos aquí a la segunda. La Lengua permite categorizar y expresar la percepción humana del Universo. Como se realiza en distintas variantes, los diversos idiomas o lenguas naturales, ha sido una preocupación histórica, bien documentada, saber pasar de una lengua a otra, es decir, traducir. La aplicación de la informática a la traducción se inició muy pronto, animada por el éxito de las máquinas en la descodificación, se abandonó un tiempo, para retomarse con fuerza luego y continuar hasta hoy.

La aplicación de la AI a los estudios sobre la traducción es un área de investigación y desarrollo que crece deprisa. La AI se aplica al campo de estudio de la traducción de varias maneras, que incluyen:

1)      El procesamiento de la lengua natural (NLP). Este campo de la AI se enfoca en la habilidad de los computadores para comprender, interpretar y producir expresiones o textos en lenguas naturales, lenguas humanas. Se usa en los estudios de traducción para desarrollar sistemas de traducción computacionales más exactos y eficaces. También se aplica al análisis de sentimientos, la clasificación de textos y la producción, comprobación y evaluación de modelos lingüísticos, que llegan hasta el autoaprendizaje computacional o informático.

2)      La traducción mecánica o computacional (MT). Es la aplicación más conocida. Por traducción computacional se entiende el uso de algoritmos computacionales para traducir un texto desde una lengua fuente a una lengua meta. Los sistemas de MT han mejorado mucho en los últimos años; pero todavía requieren un trabajo de edición posterior, realizado por humanos, si se quieren lograr traducciones de buena calidad.

3)      La traducción asistida o ayudada por computador (CAT). Consiste en el uso de instrumentos computacionales para asistir a los traductores humanos en su trabajo. Estos instrumentos de CAT pueden ayudar a los traductores en el manejo de la terminología, las memorias de traducción o los contenidos repetitivos. Pueden acceder a grandes bases terminológicas, que proporciona estándares para las equivalencias del vocabulario científico-técnico. Permiten al traductor almacenar en esas “memorias de traducción” sus soluciones personales o corporativas para mantener traducciones homogéneas y tratan del mismo modo todo aquello que en muchos tipos de textos se repite sin o con escasas variaciones.

4)      La traducción mecánica o computacional neuronal (NMT). Este tipo de traducción usa algoritmos de aprendizaje avanzado para traducir textos. Los sistemas de NMT son los más populares hoy día al usarlos en sus productos grandes compañías como Google, Microsoft o Amazon. Son capaces de mejorar su rendimiento por autoaprendizaje, producen traducciones de gran calidad y pueden tratar estructuras lingüísticas complejas.

5)      La traducción mecánica o computacional neuronal multilingüe (MNNMT). Se trata de un sistema de MT que usa sistemas neuronales, NMT, para traducir entre varias lenguas, sin limitarse a un par de lenguas. Los sistemas de MNNMT son cada vez más importantes, porque la necesidad de comunicación multilingüe sigue en aumento.

     

El gran avance se ha producido gracias a la sustitución progresiva del método estadístico, apoyado en grandes bases de datos de donde extraer construcciones paralelas traducibles entre sí, por el método neuronal, basado en redes neuronales. Estas redes imitan la red de neuronas humanas y se construyen a partir de corpus o colecciones textuales enormes, de miles o centenares de millones de palabras. Las redes neuronales consisten en capas de nudos interconectados, cada uno de los cuales realiza una operación simple. Las redes neuronales se aplican a grandes cantidades de datos para estudiar los esquemas y relaciones en los datos y se pueden usar entonces para hacer predicciones o decisiones que se basen en ese conocimiento.

     


Cada elemento de la red, que trata por igual lo dividido tradicionalmente en léxico y gramatical, vocablos y frases, se conforma como un vector, en el sentido informático, que lo hace equivalente a una lista. En esa lista el vocablo definido se configura en el centro y tiene sobre él y bajo él los restantes elementos de corpus con los que tiene relaciones definidas por la presencia de esos otros vocablos en concordancias (contextos lineales) extraídas del corpus. Se codifica el vector según las palabras o frases que aparezcan más veces cerca en las concordancias extraídas del corpus. Se pueden construir gramáticas basadas en vectores que pueden producir frases nuevas con base en una gramática o traducir un texto de una lengua a otra. Algunos modelos de gramáticas basadas en vectores serían los siguientes:

1)      Word2Vec. Representa las palabras como vectores. Word2Vec usa una red neuronal para aprender las relaciones entre palabras en un amplio corpus textual y usa esas relaciones para producir un vector para cada palabra. Se designan los vectores para calcular el significado de las palabras y sus relaciones con otras palabras y se usan en tareas como homonimia, analogía y clasificación de textos.

2)      Modelo del Saco de Palabras Continuo (CBOW). Representa oraciones como una serie de vectores. En el modelo CBOW cada palabra de una oración se representa por un vector y se recogen las relaciones entre palabras por medio de las relaciones entre sus vectores. Este modelo puede utilizarse para clasificación de textos y análisis de sentimientos.

3)      Skip-Gram Model. Éste es otro tipo de gramática basada en vectores que representa las oraciones como una serie de vectores. En el modelo Skip-Gram cada palabra de una oración se representa como un vector y se recogen las relaciones entre palabras por medio de las relaciones entre sus vectores, como en el modelo anterior.  Este modelo se diseñó para combinarse con CBOW y se usa en desarrollo de estudios de homónimos, analogía y clasificación de textos.

4)      Gramáticas de vectores basadas en árboles. Este tipo representa la estructura de las oraciones de forma arbórea. Cada nudo del árbol representa un constituyente (por ejemplo, una frase nominal o una frase verbal). Las relaciones entre constituyentes se recogen por las relaciones entre sus vectores. Esta aproximación se puede usar para realizar tareas cual el análisis o parsing, la traducción y la producción de textos.      


Como puede verse, se desarrolla una investigación muy compleja y activa, que proporciona resultados que pueden ser atractivos para el público, como CHAT-GPT, un sistema de preguntas y respuestas que es capaz de dar informaciones complejas y que, por tener una atractiva capacidad de diálogo, permite captar usuarios de pago que sirven, a su vez, para financiar otras investigaciones menos sexys.