Innovación Legal
27 noviembre 2023
En qué punto estamos de la IA generativa: Una explicación técnica para abogados
Por Elen Irazabal
En el siguiente artículo, abordaré la IA generativa y su estado actual, tal como suelo hacer en mis clases de Inteligencia Artificial para abogados. Para quienes deseen profundizar, recientemente he lanzado un curso actualizado a los nuevos desarrollos en este campo: https://advocatusai.com/
La IA generativa se refiere a sistemas de Inteligencia Artificial que genera contenido de alto valor, como texto, audio o imágenes. Lo innovador de esta última época de la IA generativa que no la habíamos visto antes, es que ahora pueden hacer varias tareas a la vez (te resume un texto como te puede generar un artículo), cuando antes hacían tareas muy específicas. Cuando salió ChatGPT el nerviosismo del sector jurídico venía porque es capaz de hacer varias tareas una misma aplicación (aunque le haga falta supervisión).
El núcleo de la IA generativa es el aprendizaje automático, en particular, las redes neuronales.
Estos algoritmos están diseñados para emular la forma en que el cerebro humano procesa la información. Mediante un proceso conocido como “entrenamiento”, las redes neuronales analizan grandes volúmenes de datos, aprendiendo patrones y características. Cuanto mayor es la cantidad de datos proporcionados, más precisas y eficientes se vuelven en la generación de nuevos contenidos. En resumen, la principal habilidad de la IA actual es aprender a partir de los datos que recibe.
En el ámbito de los textos jurídicos, como sentencias, contratos y leyes, que se encuentran en español (o en cualquier otro idioma, como el inglés), interviene el Procesamiento de Lenguaje Natural (PLN). El PLN es una rama de la Inteligencia Artificial que permite a las máquinas aprender y procesar lenguajes naturales como el español. Así, vemos IAs generativas como ChatGPT, que aprenden sobre distintos idiomas para producir resultados. Este aprendizaje se realiza a través de las redes neuronales.
Sin embargo, este aprendizaje no implica un entendimiento de las palabras en el contexto del mundo real. A pesar de su avanzada tecnología, las IA generativas tienen limitaciones significativas. Aprenden patrones y estructuras de datos, pero no comprenden las conexiones del mundo real de la manera en que lo hacen los humanos. Por ejemplo, una IA puede generar un artículo sobre física cuántica basado en textos existentes, pero no “entiende” realmente los conceptos de física cuántica, lo que puede llevar a errores básicos de lógica o de sentido común.
En definitiva, como señala Yann LeCun, Chief AI Scientist de Meta (1), existe una falta completa de comprensión del mundo físico por parte de estas IAs.
La fortaleza de la IA en la actualidad reside en su habilidad para procesar grandes cantidades de datos de manera rápida. Mientras que a una persona le llevaría varias vidas analizar un millón de textos legales, la IA puede hacerlo con rapidez. Sin embargo, esta rapidez no equivale a una comprensión profunda de lo que ha procesado. Para ilustrar esta limitación, consideremos el siguiente ejemplo: un niño puede aprender a identificar objetos en su entorno con relativa rapidez, bastándole verlos unas pocas veces. En cambio, para que una IA identifique, por ejemplo, un gato en una imagen, necesita ser entrenada con miles de ejemplos.
ChatGPT, al igual que cualquier otro modelo de procesamiento de lenguaje natural, presenta limitaciones inherentes, especialmente en relación con los datos con los que ha sido entrenado. Este modelo aprende y genera respuestas basándose en el extenso conjunto de datos proporcionados durante su fase de entrenamiento. No obstante, su capacidad para responder está directamente limitada por la amplitud y diversidad de estos datos. En otras palabras, ChatGPT no puede adquirir conocimientos ni aprender de información que no esté incluida en su conjunto de entrenamiento. No tiene la capacidad de ‘aprender de la nada’ ni de adquirir conocimientos por sí mismo más allá de su base de datos preexistente.
Por lo tanto, la calidad y la variedad de los datos utilizados para entrenar a ChatGPT son fundamentales. Cuanto más amplio y diverso sea el conjunto de datos, más informado y versátil será el modelo en sus respuestas. Esto implica que si se le proporcionan datos que abarcan una amplia gama de temas, estilos y perspectivas, ChatGPT puede aprender a generar respuestas más precisas, relevantes y contextualmente adecuadas. En cambio, si los datos son limitados, sesgados o no representativos, las respuestas de ChatGPT reflejarán estas deficiencias, lo que podría resultar en respuestas menos precisas o incluso erróneas.
¿Cómo podemos superar las limitaciones de ChatGPT en el ámbito jurídico? Dado que ChatGPT posee un conocimiento general pero no específico de la documentación jurídica, una solución viable para los despachos de abogados sería añadir una capa adicional de información especializada a partir de su propia documentación. Esto implica utilizar la base ya entrenada de GPT y, sobre ella, desarrollar un modelo de GPT especializado en lenguaje jurídico utilizando datos jurídicos propios. De esta manera, se podría crear una herramienta más afinada a las necesidades específicas del ámbito legal.
Otra limitación importante de la IA generativa, incluyendo modelos avanzados como ChatGPT, es su falta de capacidad para discernir la verdad de la falsedad. Estos sistemas no tienen un sentido inherente de lo que es verdadero o falso. En cambio, operan mediante algoritmos que procesan y generan contenido basándose en la probabilidad estadística, derivada de los patrones y tendencias en los datos con los que fueron entrenados. Este aspecto es crucial para comprender tanto el funcionamiento de estos sistemas como sus posibles implicaciones, especialmente en campos donde la precisión y la veracidad de la información son fundamentales.
Esta característica de la IA generativa conlleva implicaciones significativas. Por un lado, permite a estos sistemas crear contenido coherente y fluido, a menudo indistinguible del generado por humanos, como es el caso en la generación de texto. Sin embargo, por otro lado, debido a que su ‘conocimiento’ se deriva únicamente de los datos existentes y no de una comprensión real del mundo, estos sistemas pueden generar información que, aunque parezca plausible o convincente, no siempre es precisa o verdadera.
Para ilustrar de manera sencilla lo que la IA generativa puede hacer hoy en día, recurro a un ejemplo del curso ‘IA Generativa para Todos’ de Andrew Ng en Coursera (2): ¿Es posible que alguien genere un texto nuevo siguiendo instrucciones específicas? Aplicándolo al contexto jurídico: ¿Podría un abogado en prácticas redactar una demanda siguiendo instrucciones detalladas? La respuesta es sí, aunque no sin errores. De manera similar, la IA puede generar un texto bajo directrices específicas, pero también con posibles errores. Aquí es donde entra en juego la supervisión del abogado, quien debe revisar y corregir el trabajo realizado por la IA.
[1] https://twitter.com/ylecun/status/1728496457601183865?t=ASXWTG1t7uwFe4eTboZFjw&s=35
[2] https://www.coursera.org/learn/generative-ai-for-everyone/home/welcome