17 enero 2022

No culpemos a la Inteligencia Artificial de nuestros propios sesgos: a favor de tomar decisiones con IA

Elen IrazabalPor Elen Irazabal

En el sector legal cada vez que se habla de Inteligencia Artificial salen a relucir los sesgos en los algoritmos. Muchas de las noticias que salen en los medios están relacionadas con este tema, algunos ejemplos son “Los algoritmos que calculan quién va a reincidir discriminan a los negros (y no es fácil corregirlos)” de El País[1], “Racista por defecto: la discriminación de los algoritmos que Silicon Valley no soluciona” de El Mundo[2] o este último de Xataka “Los algoritmos con sesgo racial y de género son un problema que venimos arrastrando desde los años 80[3].

No es de sorprender que en la propuesta de reglamento de la UE para regular la IA el sesgo sea uno de los temas candentes. Siempre he tenido la sensación que en España se teme mucho a la IA, por todas las noticias negativas que salen en torno a ella. Mi objetivo con este artículo es quitar ese miedo explicando en qué consisten los sesgos y porqué aplicar Inteligencia Artificial y/o análisis de datos es beneficioso para las empresas y despachos.

Veamos en primer lugar, algunos tipos de sesgos:

  • Sesgo en la formulación de hipótesis o sampling bias: Cuando utilizamos datos de solamente un sector de la población o cuando la selección no es aleatoria.
  • Sesgo en el etiquetado de datos: Cuando anotamos datos para que la máquina aprenda, esa anotación puede ser incorrecta. En ese caso, la máquina aprenderá con datos anotados incorrectamente.
  • Sesgo en la medición: Ausencia de mediciones precisas de las variables clave del estudio.
  • Sesgo de exclusión: Decisiones que tomamos a la hora de escoger los datos, como cuando eliminamos ciertas columnas de nuestros datasets que pueden resultar ser importantes.
  • Sesgo en el algoritmo: El modelo se ha desarrollado de tal forma que produce resultados sesgados. Este sesgo puede ocurrir tanto en la fase de entrenamiento del modelo como en el de validación.
  • Sesgo de confirmación: Mirar o interpretar los resultados en base a creencias personales.

Muchas veces cuando hablamos de sesgo de los algoritmos en realidad deberíamos hablar de sesgo humano. La buena noticia es que estos sesgos ya tienen soluciones que se pueden implementar. Por ejemplo, en el sesgo de algoritmos podemos hacer A/B testing, en el sesgo de exclusión podemos hacer feature engineering con profesionales del sector (en el caso de análisis de textos legales podrían ser llevados a cabo por abogados). En el caso de la formulación de hipótesis, generar datos representativos. No sólo hay soluciones dependientes directamente de personas, sino también herramientas técnicas como varias librerías de python. Podéis ver algunas en el link a “Towards data science” abajo. [4]

La solución del sesgo humano es, en mi opinión, la más difícil de implementar, ya que son soluciones basadas en el criterio de los propios humanos: tenemos que darnos cuenta de nuestro propio sesgo para poder mejorar los procesos de aprendizaje. Imaginémonos una agencia de recursos humanos que lleva X años contratando a más hombres que mujeres, ¿qué decisión tomaría en este caso una IA en un futuro proceso de selección? Efectivamente, la IA estaría sesgada por esta realidad. ¿Pero sería “culpa” de la IA? No, pero debemos ir un poco más allá. La IA refleja un sesgo ya existente en la agencia, pero puede también ayudar a tomar decisiones más objetivas. En el proceso de toma de decisiones se puede corregir ese sesgo.

En un artículo de Harvard Business Review llamado “Want Less-Biased Decisions? Use algorithms[5] planteaban este mismo supuesto: ¿Es mejor una decisión sin algoritmos o con algoritmos? Definitivamente, con algoritmos. Los humanos podemos ser unos decisores muy malos, subjetivos o sesgados (irracionales). La forma de quitar ese sesgo o de tomar decisiones más objetivas sería confiando en los datos.

¿Es lo mismo tomar decisiones de estrategia de marketing confiando en un análisis sobre el tráfico de usuarios, haciéndolo por intuición o sobre lo que creemos que va a funcionar?

¿Es mejor tomar decisiones de estrategia procesal basada en datos procesales masivos o por opiniones?

¿Es mejor establecer una estrategia de precios de nuevos productos por intuiciones/opiniones o sobre un estudio previo?

¿Montarías una estrategia extrajudicial basada en impresiones o basada en datos?

Creo que el muy mal llamado sesgo en Inteligencia Artificial es, en muchos casos, sesgos de los seres humanos. Estamos poniendo gran peso en el sesgo algorítmico, tratándolo ajenamente al sesgo humano y esto es un error. Hay un factor clave en todo esto: la IA tiene la capacidad de magnificar y masificar errores, pero si queremos solucionarlo el error no sólo está en los proyectos de IA, sino en el propio sesgo humano.

El sesgo que introducimos a la hora de hacer IA y análisis de datos ya está teniendo soluciones a disposición de los profesionales (y habrá más en el futuro). Pensemos, por ejemplo, en los errores que podemos detectar al hacer un algoritmo transparente. ¿Se le exige a un humano transparencia cada vez que toma una decisión? Con una IA transparente podemos conocer ese proceso y podemos darle soluciones. ¿Acaso exigimos a las personas corregir sus sesgos?

¿Mi apuesta? Solucionaremos antes los sesgos en la Inteligencia Artificial que el de las personas.

[1] G. PASCUAL, MANUEL. EL PAÍS “Los algoritmos que calculan quién va a reincidir discriminan a los negros (y no es fácil corregirlos)”, 26 noviembre 2021. https://elpais.com/tecnologia/2021-11-26/los-algoritmos-que-calculan-quien-va-a-reincidir-discriminan-a-los-negros-y-no-es-facil-corregirlos.html

[2] JIMÉNEZ DE LUIS, ÁNGEL. EL MUNDO. “Racista por defecto: la discriminación de los algoritmos que Silicon Valley no soluciona”, 7 septiembre 2021. https://www.elmundo.es/tecnologia/2021/09/07/6136448bfdddff8c328b465a.html

[3] MERINO, MARCOS. XATAKA “Los algoritmos con sesgo racial y de género son un problema que venimos arrastrando desde los años 80”, 22 abril 2019. https://www.xataka.com/inteligencia-artificial/algoritmos-sesgo-racial-genero-problema-que-venimos-arrastrando-anos-80

[4] SRIVASTAVA, SHEENAL. TOWARDS DATA SCIENCE “Eliminating AI bias”, 15 octubre 2021. https://towardsdatascience.com/eliminating-ai-bias-5b8462a84779

[5] P.MILLER, ALEX. HARVARD BUSINESS REVIEW, “Want less-biased decisions? Use algorithms”, 16 july 2018. https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms

Elen Irazabal

Comparte: