27 junio 2024

¿Puedo usar la IA para traducir textos legales?

Por Fernando Cuñado y Ruth Gámez, traductores profesionales y fundadores de Traducción Jurídica.

Inteligencia artificialAlgunos juristas han empezado a usar IA generativa para redactar documentos bilingües. Necesitan comunicarse con clientes o colegas que no hablan su idioma y herramientas como ChatGPT son una tentación irresistible, pues permiten llevar a cabo esa comunicación multilingüe de forma rápida, gratuita y aparentemente eficaz. La IA bien utilizada puede ser de gran ayuda, cierto, pero al usarla nos enfrentamos a riesgos que no siempre conocemos.

Confidencialidad

La confidencialidad es una cuestión prioritaria para los juristas y resulta clave en la redacción de numerosos documentos. Pues bien, lo diremos sin paños calientes: si utilizamos herramientas de IA generativa nos podemos olvidar de la confidencialidad.

Tanto ChatGPT como herramientas similares denominadas LLM (Large Language Models o modelos de lenguaje masivo) utilizan y almacenan la información que introducimos en ellos. Por si eso fuera poco, resulta extremadamente complicado saber dónde van nuestros datos y qué hacen con ellos. A pesar de que ChatGPT, Gemini o Copilot aseguran que no utilizan la información de sus usuarios, sus políticas de uso y las respuestas que sobre esta materia proporcionan sus responsables son siempre tan ambiguas que nos hacen sospechar.

Esto es lo que nos dijo el propio ChatGPT cuando le preguntamos si la información confidencial que introdujéramos en él seguiría siendo confidencial:

“Si tienes preocupaciones sobre la confidencialidad de la información extremadamente sensible o confidencial, sería prudente evitar compartir esa información a través de esta plataforma”.

A pesar de la pésima redacción del párrafo, la respuesta no deja lugar a dudas. El becario no va a firmar el NDA. Por eso te sugerimos que nunca utilices herramientas de IA generativa para redactar o traducir documentos sensibles de tus clientes. Es imposible saber dónde acabarán.

Creatividad excesiva (alucinaciones)

Si has leído recientemente algún artículo sobre las herramientas de IA generativa habrás oído hablar de las «alucinaciones». Se denominan así a las respuestas creadas por inteligencia artificial generativa que no tienen nada que ver con la realidad. Es decir, respuestas falsas. Podría decirse que nuestro nuevo becario es una persona bastante creativa y que se toma demasiadas libertades.

Un grupo de seis investigadores de la Universidad de Stanford (California) publicaron hace pocas semanas un estudio sobre la fiabilidad de los resultados obtenidos en investigación legal usando ChatGPT y otras herramientas de información legal con IA como Lexis, Westlaw AI-Assisted Research y Ask Practical Law AI. Investigaciones anteriores habían demostrado que los LLM generalistas pueden inventarse entre el 58 % y 82 % de la información legal que proporcionan. En el caso de las herramientas especializadas analizadas por los investigadores de Stanford, aunque no presentaron tantas alucinaciones, tampoco ofrecieron resultados que nos dejen muy tranquilos. El porcentaje de errores (o información inventada) osciló entre el 35 % y el 58 %. ¿Suficiente para fiarse de ellas? Posiblemente, no.

No disponemos de informes similares que analicen la fiabilidad de las traducciones realizadas con ChatGPT u otros LLM, pero nuestra experiencia probando estas herramientas en traducción legal y financiera nos sugieren que el porcentaje de alucinación (es decir, traducciones mal hechas) es muy parecido.

¿Cómo podemos saber si una traducción legal o un documento jurídico redactado en formato bilingüe por el becario es fidedigno? No podemos, salvo que seamos traductores expertos en la materia y revisemos exhaustivamente todo el documento. Algunos becarios dan más trabajo del que solucionan.

Falta de coherencia

Otro problema, a nuestro juicio importante, que presentan estas herramientas en traducción es la falta de coherencia. Todo traductor profesional sabe que la coherencia interna de un documento es un aspecto fundamental. Un ejemplo sencillo: palabras inglesas como company pueden traducirse de diferentes formas en español como, por ejemplo, empresa, sociedad, compañía y posiblemente algunas más. Pero un buen traductor sabe que dentro de un documento debe ceñirse siempre a la misma traducción de un término, de otro modo estaría abriendo la puerta a la ambigüedad y a una posible confusión del lector.

La inteligencia artificial generativa no usa nuestro documento como marco de referencia para encontrar coherencia. Los LLM recopilan información de fuentes muy diversas, lo que hace que sus traducciones estén muy lejos de ser coherentes dentro de un mismo documento. Parece que esto es algo que no les preocupa demasiado.

Volviendo al ejemplo anterior, si utilizamos herramientas de IA generativa como ChatGPT para traducir o redactar en otro idioma es bastante probable que algunas palabras aparezcan traducidas de tres o cuatro formas distintas en diferentes partes del texto. La falta de coherencia tal vez no sea grave en algunos casos. Podría ser solo un problema de mal estilo de redacción. Pero existen cientos de términos jurídicos anglosajones mucho más delicados, como termination que puede traducirse por «resolución», «rescisión», «extinción» o «finalización». A la IA generativa no le importa mucho la diferencia conceptual entre ellos y por eso va a traducir la voz inglesa termination de formas diferentes a lo largo del documento, en función de los resultados que obtenga en su búsqueda masiva de información. Pero un buen jurista sabe que esa diferencia conceptual es importante y no tenerla en cuenta puede producir resultados indeseados.

Las herramientas de IA generativa son un avance tecnológico espectacular y pueden hacernos la vida más sencilla si sabemos usarlas correctamente. Nos han proporcionado a todos un becario gratuito que trabaja 24×7 y que lo hace muy rápido. Pero no deja de ser un becario. Si dejamos en sus manos la redacción de documentos clave de nuestra firma que afectan a la relación con nuestros clientes estamos asumiendo algunos riesgos que debemos conocer.

Comparte: