10 junio 2020

Inteligencia Artificial y protección a los consumidores. Último informe del Parlamento Europeo

Sonsoles Valero  Por Sonsoles Valero

 

¿Deberían los consumidores tener la opción de no ser rastreados y microdirigidos? ¿Debería prohibirse la discriminación de precios y en qué contextos? ¿Debería abordarse la discriminación en las ofertas comerciales? ¿Debería actualizarse el concepto de prácticas comerciales agresivas y engañosas? ¿Debería apoyarse el desarrollo de tecnologías de Inteligencia Artificial para beneficiar a los consumidores?

El consumo es la base de la economía europea y la protección del consumidor es un componente clave de la legislación de la UE. Los consumidores, como sujetos de datos y ciudadanos, se están convirtiendo en la materia prima de un nuevo modelo económico como es el “capitalismo de vigilancia” (surveillance capitalis[1]),  que se caracteriza por la mercantilización de la experiencia humana, con un registro y análisis de su comportamiento para conseguir oportunidades comercializables con las que anticiparse e influir. Y esta situación requiere de un análisis y una reflexión que marque las pautas necesarias para una nueva regulación si fuese necesaria.

Servicios esenciales para los consumidores de hoy en día, como acceso a Internet, la búsqueda en línea, el intercambio de contenido, la computación en la nube y los pagos en línea, que se ofrecen de forma gratuita a cambio de ingresos publicitarios, con una personalización masiva de estos anuncios basada en inteligencia artificial, han puesto en riesgo el sistema de protección del consumidor que se había establecido hasta el momento.

El Parlamento Europeo, a través de la comisión IMCO (Comisión de Mercado Interior y Protección del Consumidor), presentó el pasado 2 de junio un estudio realizado por el Departamento de Políticas Económicas y Científicas y de Calidad de Vida del Parlamento Europeo sobre Los nuevos aspectos y desafíos en la protección del consumidor – Servicios digitales e Inteligencia Artificial y que en este artículo voy a intentar resumir. Podéis leer el informe completo aquí[2]

El objetivo de este informe es analizar el impacto de la Inteligencia Artificial en la protección del consumidor en el contexto del comercio electrónico y de la nueva Ley de Servicios Digitales, además de identificar cuestiones clave relacionadas con la situación de los consumidores en relación con los proveedores y comerciantes de servicios, así como las formas en que la Inteligencia Artificial está afectando las relaciones e interacciones, y proponer posibles soluciones.

La Inteligencia Artificial puede brindar grandes y nuevas oportunidades para las personas y la sociedad: por ejemplo, mejorar las capacidades humanas, aumentar la productividad o mejorar la seguridad y la eficiencia en los servicios públicos y privados, permitiendo la provisión universal de conocimientos y habilidades.

Por otro lado, puede aumentar los riesgos individuales y sociales: prever la manipulación generalizada y la discriminación; perturbar las interacciones sociales; y exponer a los humanos al daño resultante de fallas tecnológicas o desprecio por los derechos individuales y los valores colectivos.

La UE todavía no se ha decidido cuál debería ser el nivel de regulación en estas situaciones para, por un lado, facilitar su desarrollo, y por otro, limitarlo cuando existan los citados riesgos de vulneración de derechos para la ciudadanía, los consumidores europeos.

En palabras de la Comisión Europea, “la Inteligencia Artificial (IA) forma ya parte de nuestras vidas. En la utilización de un asistente personal para organizar nuestra jornada laboral, en el desplazamiento en un vehículo de conducción automática o en las canciones o restaurantes sugeridos por nuestros teléfonos, la IA se hace realidad. La IA, además de facilitarnos la vida, nos está ayudando a resolver algunos de los principales retos a los que se enfrenta nuestro mundo: desde el tratamiento de las enfermedades crónicas o la reducción de las tasas de mortalidad en los accidentes de tráfico hasta la lucha contra el cambio climático o la previsión de las amenazas a la ciberseguridad.” [3]

Sin embargo, y volviendo al estudio de la IMCO, también existen algunos riesgos:

1º El uso de IA por parte de vendedores / minoristas y proveedores de servicios puede introducir desequilibrios adicionales entre estas partes en el lado de la oferta y los consumidores en el lado de la demanda.

2º El uso manipulador de big data y AI puede limitar la independencia de los consumidores.

3º Las decisiones automatizadas pueden perjudicar a ciertas personas y grupos, y sin ninguna justificación aceptable.

¿En qué medida la Inteligencia Artificial puede afectar la prestación de servicios al consumidor?

En la publicación de 2003 de The Economist aparecía en su portada el siguiente titular: “Internet significa que el consumidor realmente es el rey (y la reina)“, que vislumbraba un futuro con nuevas oportunidades para los productores y los consumidores: desintermediación, acceso ilimitado a la información, mayor número y mercados más abiertos, los consumidores obtendrían información sobre productos y precios a través de herramientas de búsqueda, y esta información se ampliaría y validaría a través de herramientas de colaboración, como las calificaciones de los consumidores sobre su experiencia de compra, etc…

Sin embargo, se ha producido una evolución de la economía de la información, en particular la aparición de monopolios sobre datos y servicios, así como la recopilación masiva de datos personales con el único objetivo de influir en el comportamiento de los ciudadanos, de los consumidores.

INTELIGENCIA ARTIFICIAL Y PUBLICIDAD DIRIGIDA

La inteligencia artificial ha proporcionado tecnologías con las que explotar la riqueza de la información de los consumidores. El aprendizaje automático (machine learning) ha permitido a los comerciantes comprender las correlaciones entre los datos del consumidor (compras, sitios visitados, likes en las redes sociales) y las posibles respuestas a los anuncios. Esta capacidad podría transformarse en manipulación, dice el informe del IMCO.

En las últimas dos décadas, el enfoque estadístico de aprendizaje automático se ha vuelto dominante en la Inteligencia Artificial. Este enfoque utiliza grandes conjuntos de datos para construir modelos que rastrean las correlaciones, y luego usa dichos modelos para hacer predicciones para nuevos casos.

Los consumidores podrían ser seleccionados con ofertas similares a las que tuvieron una

respuesta con consumidores similares en el pasado. Además, dichos sistemas de IA podrían aprender de sus propios éxitos y fracasos (de acuerdo con el modelo del llamado aprendizaje de refuerzo o aprendizaje reforzado), es decir, aprenderían cómo dirigirse con precisión a los consumidores que comparten ciertas características exactamente con los mensajes que se habían enviado con éxito con el mismo tipo en los consumidores en el pasado.

Los algoritmos pueden aprender a explotar todo tipo de sesgos de los consumidores, y esto puede suponer un riesgo: toda la actividad en línea, cada clic o mensaje, se puede registrar para usarlo posteriormente, descubrir posibles correlaciones que pueden ser útiles para influir en los consumidores según su personalidad. Los consumidores pueden ser impactados con los anuncios que sean más efectivos, en relación con su personalidad.

DE LA PUBLICIDAD A LOS FILTROS BURBUJA

El modelo de negocio basado en la prestación de servicios “gratuitos” pagados mediante publicidad tiene un impacto que va más allá del comercio electrónico. El objetivo de este tipo de plataformas es atraer y mantener a los consumidores en su web el mayor tiempo posible. ¿Y cómo conseguirlo?  A través de anzuelos con noticias falsas o posts que excitan al lector según prejuicios o sentimientos negativos polarizados o guiándoles por canales de comunicación que confirman sus convicciones actuales.

Este universo ideológico se consigue con los llamados filtros burbuja o burbuja de filtros, burbujas informativas o cámaras de eco (echo chamber). Es un mecanismo basado en algoritmos que ajusta nuestra navegación por internet y que se basa en analizar nuestro historial o la ubicación geográfica para ofrecer unos resultados u otros. Es una forma de manipulación ya que limita estos resultados y puede provocar aislamiento intelectual y cultural interesado.[4]

UN NUEVO ESCENARIO

Existe un mecanismo generalizado para cambiar los comportamientos cuyo objetivo final es modificar el comportamiento de compra de las personas a través de anuncios dirigidos. Una economía de datos personales donde se recopilan e intercambian todo tipo de datos personales, y su valor consiste en sus posibles usos para anticipar y modificar el comportamiento de los consumidores.

Incluso en los contextos de las casas, automóviles y ciudades inteligentes que funcionan con tecnología, en los que la Inteligencia Artificial está incrustada en objetos físicos (por ejemplo, electrodomésticos, navegadores, sensores, etc.) se sirven de dispositivos de detección interconectados para aumentar la cantidad y la especificidad de los datos recopilados permitiendo las interacciones comerciales ubicuas con los consumidores.

En este contexto surge un nuevo desequilibrio entre comerciantes y consumidores (y también entre los propios comerciantes con recursos y sin recursos que pone en peligro la capacidad de competencia leal). El comerciante no sólo conoce mejor que el consumidor su producto o servicio, sino que puede conocer al consumidor mejor que el consumidor lo conoce a él. [5]

Conseguir que “las empresas nos laven el cerebro y que compremos sus marcas” no es nuevo tal y como podemos leer en las páginas del bestseller de Martin Lindstrom “Así se manipula al consumidor[6] pero debemos ser conscientes de que el nuevo escenario nace del avance impredecible y incontrolable a día de hoy, en opinión de muchos, de la tecnología basada en big data y en inteligencia artificial.

La manipulación de precios (el precio más alto que seríamos capaces de aceptar) y la falta de transparencia en su determinación es uno de los riesgos a los que enfrentarse como consumidores y que pone en riesgo al propio mercado ya que la eficiencia de éste se basa en el supuesto de ausencia de discriminación de precios.

DATOS DEL CONSUMIDOR MONETIZABLES VS NO MONETIZABLES.

Es de gran preocupación para el Parlamento Europeo, tal y como señala el estudio, el cómo los datos personales de los consumidores se extraen frecuentemente de los servicios online “gratuitos” para usarse e intercambiarse en beneficio de los proveedores y comerciantes.

En este contexto se plantean dos escenarios imposibles de conciliar de momento, aunque habrá que alcanzar un equilibrio:

Un primer escenario consistiría en aceptar que los datos personales son un producto comercializable, una propiedad comercializable, valiosa, pero asegurando que los interesados obtengan algún beneficio del uso que se hace de sus datos, al tiempo que les permite ejercer cierto control sobre estos datos.

Si aceptamos este escenario, se mejoraría la situación de los consumidores si sus datos se vieran como una propiedad y fueran éstos informados para poder intercambiarlos por una contraprestación justa, que puede consistir en servicios o en dinero. El objetivo del regulador europeo estaría en evitar intercambios abusivos y proporcionar una distribución más justa de los beneficios del mercado de datos. En este contexto, podría imaginarse el surgimiento de organizaciones a las que los consumidores les transfiriesen la gestión de sus datos, según sus preferencias, con el encargo de negociar con proveedores y anunciantes su uso y obtener acuerdos ventajosos para estos consumidores.

El segundo escenario consistiría en descartar la posibilidad de que los datos personales puedan ser un producto comercializable, que se vean como un activo inalienable, es decir, impedir que los proveedores ofrezcan servicios o beneficios a cambio de datos personales. Los datos personales deben usarse sólo cuando sea necesario para prestar un servicio solicitado por los consumidores, no como algo dado a cambio de un servicio diferente.

Señala el informe del IMCO que no debería haber “muros de rastreo” (tracking walls), es decir, formas de conseguir el consentimiento para el tratamiento de datos personales, en el sentido de o lo tomas o lo dejas, al hacer uso de servicios “gratuitos”: los usuarios no deberían enfrentarse con la opción entre ser rastreados mientras usa un servicio y no puede usar el servicio. En estas circunstancias podría decirse que el consentimiento no es libre y, por lo tanto, el tratamiento sería ilegal.

Esta perspectiva es, en cierta medida, respaldada por el Reglamento General de Protección de Datos (RGPD), que en el considerando 43 especifica que “se presume que el consentimiento no se otorga libremente (…) si la ejecución de un contrato, incluida la prestación de un servicio, depende de consentimiento a pesar de que dicho consentimiento no es necesario para tal desempeño”.

Concluye por tanto que si el consentimiento de los consumidores para el procesamiento de sus datos no satisface los requisitos del RGPD, dicho consentimiento será inválido y el procesamiento por parte de los proveedores y comerciantes será ilegal.

PERFILADO DE CONSUMIDORES Y CONSENTIMIENTO

El procesamiento de los datos del consumidor basado en la inteligencia artificial para fines de publicidad personalizada se enmarca en el concepto de creación de perfiles de acuerdo con el RGPD, es decir, en el uso de datos personales para conseguir más información y tomar decisiones, y por lo tanto está sujeto al marco regulatorio correspondiente.

La protección efectiva de la privacidad del consumidor requiere que los consumidores no sean engañados por “trucos de diseño” o “patrones oscuros” (dark patterns) que les induzcan engañosamente a consentir el procesamiento de sus datos. Se debe proporcionar información simple y clara.

La nueva ley de derechos de los consumidores sobre sus datos personales de California (The California Consumer Privacy Act o CCPA)[7] proporciona un ejemplo interesante, que requiere que las empresas incluyan en su sitio web un enlace con las palabras “no vender mis datos” (o el botón correspondiente del logotipo) para permitir a los usuarios excluir la transmisión de sus datos a terceros, además de los derechos a saber -“right-to-know”- qué información personal exacta ha recopilado una empresa, a eliminar -“right-to-delete”- sus datos personales de una empresa o a no ser discriminado por haber ejercido alguno de los derechos anteriores.

DE LA PROTECCIÓN DE DATOS A LA PROTECCIÓN DEL CONSUMIDOR

El procesamiento de los datos del consumidor basado en la inteligencia artificial es relevante porque deben mantenerse intactos los valores clave como la protección de la parte más débil (ante un desequilibrio adicional entre el lado de la oferta y la demanda), autonomía regulada (con el uso manipulador del big data y la inteligencia artificial que limite la independencia del consumidor) y, por último, la no discriminación por decisiones automatizadas (que perjudiquen a ciertas personas o grupos sin ninguna justificación aceptable).

DE LA PROTECCIÓN AL CONSUMIDOR AL EMPODERAMIENTO DEL CONSUMIDOR

En este sentido, hay algunos ejemplos de tecnologías que empoderan al consumidor, como los sistemas de bloqueo de anuncios, así como el software anti-spam más tradicional y las técnicas anti-phishing.

Otro de los usos que se le puede dar a la inteligencia artificial para beneficiar al consumidor son los sistemas con los que se pueden extraer, clasificar y resumir automáticamente información de documentos de privacidad o aquellos que pueden ayudar a la sobrecarga de información del consumidor aislando y resaltando lo más relevante. Incluso detectar cláusulas abusivas o injustas en los contratos online. Un ejemplo de ello es el sistema Claudette.[8]

RESPONSABILIDAD DE LOS PROVEEDORES, INTERMEDIARIOS Y LA LEY DE SERVICIOS DIGITALES

En este contexto de debate y actualización de contenidos, es clara la necesidad de repensar la limitación de responsabilidad de los proveedores en el marco de la Directiva de Comercio Electrónico de 2000[9]. En abril de 2020 se inició una discusión al respecto en relación a la nueva Ley de Servicios Digitales[10] y el nuevo enfoque normativo respecto a moderaciones de contenido nocivo como material de abuso infantil, violencia y terrorismo, discursos de odio, etc…; la publicidad política en línea; las plataformas colaborativas; la distinción entre intermediarios activos y pasivos; los motores de búsqueda o los repositorios en línea y las redes sociales.

RECOMENDACIONES DEL ESTUDIO

Este interesante estudio concluye con las siguientes recomendaciones:

1ª- Los consumidores deben tener la opción de no ser rastreados y (micro) dirigidos y deben tener una manera fácil de expresar sus preferencias.

2ª- Los motivos por los cuales los proveedores y comerciantes de servicios no pueden discriminar los precios deben ser especificado.

3ª- Debe considerarse cómo se debe abordar la discriminación en la orientación de anuncios.

4ª- Se debe dar orientación sobre qué prácticas algorítmicas cuentan como instancias de publicidad agresiva.

5ª- Se debe dar orientación sobre los casos en que los consumidores tienen derecho a impugnar un decisión que socava sus intereses.

6ª- Los consumidores deben recibir información sobre si, y para qué fines, es rastreado y sobre si están recibiendo información con fines publicitarios.

7ª- La protección de la privacidad del consumidor requiere medidas preventivas de mitigación de riesgos en combinación con reparación colectiva.

8ª- Se debe alentar y apoyar el desarrollo de tecnologías de Inteligencia Artificial amigables para el consumidor.

9ª- Se debe evitar que los proveedores de servicios bloqueen herramientas legítimas para el ejercicio de los derechos del consumidor.

10ª- Las limitaciones de responsabilidad para los proveedores en línea también deberían aplicarse a los proveedores “activos”, como motores de búsqueda, repositorios en línea y redes sociales, independientemente de si el contenido generado por el usuario está organizado, presentado y moderado por humanos, por algoritmos o ambos.

11ª- Las limitaciones sobre la responsabilidad secundaria de los proveedores no deberían aplicarse cuando los proveedores no han adoptado medidas de precaución razonables que podrían haber evitado ese comportamiento o mitigado sus efectos. Este fallo también puede depender de no haber adoptado las tecnologías de Inteligencia Artificial más efectivas.

12ª- La disponibilidad de tecnologías de inteligencia artificial para detectar contenido y comportamiento en línea ilegales debería ser alentado, en combinación con el juicio humano.

13ª- Se debe alentar el filtrado/moderación de terceros para ampliar el acceso, y también el intercambio de conjuntos de datos (para entrenar clasificadores de Inteligencia Artificial) y de software, de modo que sea accesible también a pequeñas empresas.

Interesante estudio que invito a leer sobre los nuevos desafíos y oportunidades para los servicios digitales que proporciona la inteligencia artificial, en particular en lo que respecta a la protección del consumidor, la protección de datos y la responsabilidad de los proveedores.

SONSOLES VALERO
Twitter: @sonvalero
Linkedin: https://www.linkedin.com/in/sonsolesvalerobarcelo/
***********

[1] The Age Of Surveillance Capitalism de Shoshana Zuboff. Edit. Profile Books. 2019

[2] Study: New aspects and challenges in consumer protection – Digital services and AI (02.06.2020) https://www.europarl.europa.eu/committees/en/study-new-aspects-and-challenges-in-cons/product-details/20200602CAN55528

[3] Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las regiones: Inteligencia artificial para Europa (COM/2018/237 final)  https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52018DC0237

[4] Charla TED de Eli Pariser “Beware online `filter bubbles´” en Youtube. https://www.youtube.com/watch?v=B8ofWFx525s

[5] Cracked Labs (Institute for Critical Digital Culture) https://crackedlabs.org/

[6] Libro “Así se manipula al consumidor” de Martin Lindstrom. Edit. Gestión 2000

[7] The California Consumer Privacy Act https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201720180AB375

[8] Sistema Claudette. Un proyecto de investigación para probar que es posible automatizar la lectura y la evaluación legal de los contratos de consumo online y las políticas de privacidad.  http://claudette.eui.eu/

[9] Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior. http://data.europa.eu/eli/dir/2000/31/oj

[10] Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. Una Estrategia Europea De Datos (Com/2020/66 Final) https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52020DC0066

Comparte: