“La IA es el futuro.” “Todo es mejor con la IA.” “Proyecto realizado con IA.” No alucines…
¿Quién está un poquito harto de afirmaciones como las anteriores? Yo, desde luego, un poco sí. Y no es solo por las historias distópicas del cine (que también), sino porque los investigadores más serios nos lo están dejando claro.
En un artículo publicado el 11/11/24 en El País (Cuando la gastronomía termina como intervención quirúrgica: los traductores automáticos se encasquillan en los errores), Raúl Limón, periodista especializado en ciencia, explicaba los problemas que pueden surgir cuando se utiliza la IA para traducir textos en los que se hayan colado errores. Si “errar es humano”, corregir los errores también lo es. De ahí que, gazapos sin aparente importancia cuando el traductor es un profesional se pueden convertir en problemas graves cuando es un motor de traducción quien se encarga de la tarea. Y con el problema añadido de que estos errores se van a multiplicar cuando se incluye la versión equivocada en el corpus en el que se basa la IA para hacer traducciones posteriores.
En el mundo de la inmediatez, en el que a nadie le da tiempo a revisar lo que publica (nótese la cursiva irónica), se emplea la IA para traducir textos llenos de errores y gazapos, con los que no saben qué hacer los motores de traducción, y que, en el mejor de los casos traducen de forma ininteligible.
Pero lo peor de todo es que la traducción (mala) de errores y gazapos no es lo más grave. Aún más problemáticas son las “alucinaciones”: traducciones o transcripciones inventadas por la IA y que nada tienen que ver con la realidad. Y que se producen con muchísima más frecuencia de la que nos dicen. Como nos cuenta el señor Limón en este artículo, “Investigadores de las universidades de Michigan, Nueva York y Washington han analizado las transcripciones de Whisper, una aplicación de OpenAI, e identificado alucinaciones (errores y frases inventadas con apariencia de resultado correcto) en entre el 38% y el 80% de los casos analizados, especialmente de audio a texto.”
Una alucinación que me tocó corregir recientemente fue en la posedición de inglés a español de las cuentas anuales de una gran empresa española. Justo antes del organigrama de la compañía, el autor lo quiso indicar con las palabras: “Org. Chart”, porque, lógicamente, todos entendíamos que “org.” hacía referencia a “organisation”. Lamentablemente (o no), la IA lo interpretó de otro modo y ofreció la traducción siguiente: “gráfico de orgías”. Como le comenté a mi cliente, o bien la IA había tenido acceso a información de la que yo carecía, o el corpus empleado dejaba bastante que desear…
Además, en un artículo reciente de Fernando Cuñado, publicado en Expansión el 2-3/11/24 (Los riesgos de la IA en los documentos jurídicos), aparte de comentar graves problemas de confidencialidad, se quejaba de la “creatividad excesiva”: “el porcentaje de errores (o información inventada) osciló entre el 35 % y el 58 %” en los modelos de lenguaje masivo, o LLM, como ChatGPT. Es más, se señalaba que “el Tribunal Constitucional emitió el pasado 19 de septiembre una nota informativa (n.º 90/2024) en la que los seis magistrados de la Sala Primera acordaron por unanimidad imponerle una “sanción de apercibimiento” a un abogado del Colegio de Barcelona por presentar ante el alto tribunal una demanda que incluía “la cita supuestamente literal de pasajes de 19 sentencias del Tribunal Constitucional, al efecto entrecomilladas, cuando resulta que ninguna de ellas era real”.
Resumiendo, que alucinados es como estamos los profesionales de la traducción cuando oímos a antiguos clientes afirmar que ya no necesitan nuestros servicios porque trabajan con DeepL, ChatGPT, Google Translate u otros programas semejantes. Somos conscientes, y esperamos que ellos lo sean también pronto, de que el toque humano sigue siendo imprescindible para lograr una comunicación correcta y real. Y que aunque la IA puede ser una herramienta muy útil en muchos ámbitos, incluso portavoces de empresas especializadas, como OpenAI, advierten de que “La herramienta no debe usarse en entornos de alto riesgo”. Ni en los que se requiera un nivel mínimo de calidad, agrego yo.
.
Vuelva a visitarnos. ¡Gracias por su interés!