09 abril 2019

Inteligencia artificial: la Comisión lleva adelante su trabajo sobre directrices éticas

La Comisión Europea ha presentado los próximos pasos para generar confianza en la inteligencia artificial al llevar adelante el trabajo del Grupo de expertos de alto nivel.

Sobre la base del trabajo del grupo de expertos independientes nombrado en junio de 2018, la Comisión ha lanzado una fase piloto para garantizar que las directrices éticas para el desarrollo y uso de la Inteligencia Artificial (IA) puedan implementarse en la práctica. La Comisión invita a la industria, los institutos de investigación y las autoridades públicas a probar la lista de evaluación detallada elaborada por el Grupo de expertos de alto nivel, que complementa las directrices.

Los planes se pueden entregar bajo la estrategia de IA de abril de 2018, que apunta a aumentar las inversiones públicas y privadas a por lo menos 20 mil millones de euros anuales durante la próxima década, haciendo que haya más datos disponibles, fomentando el talento y garantizando la confianza.

La inteligencia artificial (IA) puede beneficiar a una amplia gama de sectores, como la atención médica, el consumo de energía, la seguridad de los automóviles, la agricultura, el cambio climático y la gestión de riesgos financieros. La IA también puede ayudar a detectar fraudes y amenazas de ciberseguridad y permite a las autoridades policiales combatir el crimen de manera más eficiente. Sin embargo, la IA también presenta nuevos desafíos para el futuro del trabajo y plantea cuestiones legales y éticas.

La Comisión está adoptando un enfoque de tres pasos: establecer los requisitos clave para una IA fiable, lanzar una fase piloto a gran escala para la retroalimentación de las partes interesadas y trabajar en la creación de un consenso internacional para la IA centrada en el hombre.

  1. Siete elementos esenciales para lograr una IA fiable

La IA fiable debe respetar todas las leyes y regulaciones aplicables, así como una serie de requisitos; las listas de evaluación específicas tienen como objetivo ayudar a verificar la aplicación de cada uno de los requisitos clave:

  • Agencia humana y supervisión: los sistemas de IA deben permitir sociedades equitativas apoyando el factor humano y los derechos fundamentales, y no disminuir, limitar o desviar la autonomía humana.
  • Robustez y seguridad: la inteligencia artificial fiable requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.
  • Privacidad ycontrol de los datos: los ciudadanos deben tener control total sobre sus propios datos, mientras que los datos que los conciernen no se utilizarán para perjudicarlos o discriminarlos.
  • Transparencia:Se debe garantizar la trazabilidad de los sistemas de IA.
  • Diversidad, no discriminación y equidad:los sistemas de IA deben considerar toda la gama de habilidades, habilidades y requisitos humanos, y garantizar la accesibilidad.
  • Bienestar social y ambiental:los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
  • Responsabilidad:deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados.
  1. Fase piloto a gran escala con socios

En el verano de 2019, la Comisión lanzará una fase piloto con una amplia gama de partes interesadas. Ya en la actualidad, las empresas, las administraciones públicas y las organizaciones pueden registrarse en la Alianza Europea de IA y recibir una notificación cuando comience el piloto. Además, los miembros del grupo de expertos de alto nivel de IA ayudarán a presentar y explicar las directrices a las partes interesadas pertinentes en los Estados miembros.

  1. Construyendo consenso internacional para la IA centrada en el hombre

La Comisión quiere llevar este enfoque a la ética de la IA al escenario global porque las tecnologías, los datos y los algoritmos no conocen fronteras. Con este fin, la Comisión reforzará la cooperación con socios de ideas afines, como Japón, Canadá o Singapur, y continuará desempeñando un papel activo en los debates e iniciativas internacionales, incluidos el G7 y el G20. La fase piloto también involucrará a empresas de otros países y organizaciones internacionales.

Los miembros del grupo de expertos de AI han presentado su trabajo en detalle durante el tercer Día Digital en Bruselas el 9 de abril. Después de la fase piloto, a principios de 2020, el grupo de expertos de IA revisará las listas de evaluación para los requisitos clave, basándose en los comentarios recibidos. Sobre la base de esta revisión, la Comisión evaluará el resultado y propondrá los próximos pasos.

Además, para garantizar el desarrollo ético de la IA, la Comisión lanzará en otoño de 2019 un conjunto de redes de centros de excelencia en investigación de la IA; comenzar a configurar redes de centros de innovación digital; y junto con los Estados miembros y las partes interesadas, inicie las discusiones para desarrollar e implementar un modelo para compartir datos y hacer el mejor uso de los espacios de datos comunes.

 

Fuente: http://europa.eu/rapid/press-release_IP-19-1893_en.htm

Comparte: