
Innovación Legal
24 marzo 2025
Por Elen Irazabal
Desde el lanzamiento de ChatGPT en 2022 y la irrupción de la inteligencia artificial generativa, la oferta formativa en el sector jurídico relacionada con herramientas de IA se ha incrementado notablemente. Este fenómeno no se limita al ámbito legal, sino que se observa una proliferación generalizada de formaciones en esta materia.
Algo que he percibido es que, cuando se me solicita impartir clases sobre inteligencia artificial, a menudo se me pide que me centre exclusivamente en la parte práctica, e incluso, en ocasiones, que prescinda por completo del enfoque teórico. Considero que esto constituye un error garrafal.
Considero un error limitar la formación en inteligencia artificial para juristas a un enfoque meramente práctico por varias razones fundamentales. En primer lugar, centrarse exclusivamente en el prompting —esto es, en aprender a redactar instrucciones efectivas para herramientas como ChatGPT u otros modelos de lenguaje— sin explicar los fundamentos técnicos y conceptuales que subyacen a su funcionamiento, puede conducir a un uso superficial, ineficaz e incluso peligroso de estas tecnologías.
Cuando un abogado no comprende por qué un modelo de lenguaje genera una determinada respuesta, difícilmente podrá identificar cuándo la herramienta comete errores, incurre en alucinaciones o produce información que, si bien redactada con apariencia verosímil, es materialmente incorrecta o jurídicamente inválida. Esta falta de comprensión limita gravemente la capacidad de supervisar los resultados, evaluar su fiabilidad o detectar sesgos, lo cual es especialmente preocupante en el ejercicio profesional, donde la precisión argumentativa y la fidelidad normativa son esenciales.
Además, los docentes tenemos una responsabilidad pedagógica que va más allá de la mera transferencia de habilidades operativas. Ser pedagógicos implica ayudar al alumno no solo a hacer, sino a entender. Significa ofrecer marcos conceptuales que permitan razonar críticamente sobre lo que se está aprendiendo, identificar patrones, formular hipótesis y desarrollar criterios propios para evaluar cuándo, cómo y para qué utilizar una herramienta tecnológica. En el caso de la inteligencia artificial, esta tarea pedagógica es aún más crucial debido a la opacidad relativa con la que muchos usuarios experimentan estas herramientas.
Enseñar inteligencia artificial sin “humo” —es decir, sin caer en discursos grandilocuentes o promesas infundadas— exige inevitablemente incorporar teoría. La teoría proporciona el andamiaje necesario para desmitificar la tecnología y dotar al abogado de criterios técnicos sólidos que le permitan juzgar a la IA no por la brillantez superficial de sus resultados, sino por el modo en que estos se generan. Comprender, por ejemplo, que un modelo de lenguaje no razona como un ser humano, sino que predice la palabra más probable en función de patrones estadísticos extraídos de enormes volúmenes de texto, cambia radicalmente la manera en que se interpreta su output.
Precisamente por todo lo anterior, me alegra anunciar el lanzamiento del curso que yo misma he diseñado “Especialidad en IA y Compliance para Abogados” que imparto junto con el Instituto de Inteligencia Artificial. Es una formación diseñada para ir mucho más allá del simple uso práctico de herramientas como ChatGPT. Este curso no se limita a enseñar prompting o a mostrar ejemplos de uso sino que se estructura desde una convicción firme: los abogados no solo deben saber usar la IA, sino también comprenderla.
En cada módulo combinamos práctica y teoría, abordando cuestiones técnicas explicadas de forma accesible pero rigurosa. Analizamos cómo funcionan los modelos de lenguaje, qué implicaciones tienen sus mecanismos de predicción probabilística, por qué se producen errores o alucinaciones, y qué límites y riesgos deben conocer quienes ejercen el derecho en contextos donde la fiabilidad es crítica.
Además, el curso incorpora una reflexión sobre la ética de la inteligencia artificial, porque entender cómo funciona no es suficiente si no se cuestiona también cómo, cuándo y con qué consecuencias se utiliza. Por ejemplo, se analiza qué tipo de información puede “almacenar” o retener una red neuronal a partir de los datos con los que ha sido entrenada o de las interacciones que recibe, y qué implicaciones tiene esto en términos de confidencialidad, protección de datos y secreto profesional. La práctica jurídica exige no solo eficacia, sino también responsabilidad.
Mi objetivo con este curso no es formar usuarios pasivos, sino profesionales jurídicos capaces de juzgar críticamente el funcionamiento de la IA, supervisar sus resultados con criterio y tomar decisiones informadas sobre su aplicación en el ejercicio profesional.