Política Nacional de IA y su proyección en materias de consumo
Columnas

“Pareciera que las acciones más relevantes de la propuesta serán de cargo de los proveedores de bienes y servicios, sin que se vislumbre una intervención clara y coordinada de los diversos entes estatales”, señalan los académicos de Derecho UNAB, Nathalie Walker y Felipe Fernández en su columna.

Escrito por

Los académicos de la Facultad de Derecho UNAB, Nathalie Walker y Felipe Fernández, escribieron una columna de opinión para El Mercurio Legal.

El tema fue la Política Nacional de Inteligencia Artificial y su proyección en materias de consumo. Esto a raíz, además, de su participación como miembros del Instituto Chileno de Derecho del Consumo.

Puedes revisar la columna AQUÍ o leerla a continuación:

Política Nacional de Inteligencia Artificial y su proyección en materias de consumo

El Ministerio de Ciencia, Tecnología, Conocimiento e Innovación ha puesto a disposición de los ciudadanos el borrador de la propuesta que se transformará en la futura Política Nacional de Inteligencia Artificial. Se trata de una ambiciosa política pública que contendrá los lineamientos que seguirá el país en esa materia durante los próximos diez años en ámbitos tan diversos como la infraestructura para el desarrollo de la inteligencia artificial (IA), su inserción en los planes de enseñanza, el manejo y protección de los datos, su impacto en las relaciones laborales y un largo etcétera.

En la materia que hoy nos convoca, las relaciones de consumo, el borrador de la política pone un énfasis nominal en los riesgos que produce el desarrollo y uso de la IA para los derechos de los consumidores. En este ámbito, el objetivo de la propuesta es “fomentar un uso de la IA en el comercio digital transparente, no discriminatorio y respetuoso de las normas de protección de datos personales”. No obstante, en cuanto a la posibilidad real de alcanzar este objetivo nos surgen varias inquietudes o interrogantes que no encuentran respuesta en el texto de la política.

Nathalie Walker

En primer lugar, el documento no indica con claridad qué organismos ni con qué competencias estarán a cargo de la implementación de las acciones prioritarias para el alcance de ese amplio objetivo (¿el Ministerio de Ciencia, en parte? ¿El Sernac en la parte relativa a los consumidores?). Tampoco evalúa o pondera los riesgos que puede traer aparejada la implementación de las acciones contenidas en la misma propuesta, con el fin de evitar que se produzca el efecto inverso al esperado y se generen más conflictos que beneficios a los mismos consumidores, que se deberían empoderar y proteger. A primera vista, pareciera que las acciones más relevantes de la propuesta serán de cargo de los proveedores de bienes y servicios, sin que se vislumbre una intervención clara y coordinada de los diversos entes estatales que virtualmente podrían verse involucrados. Si esto es así, el riesgo que se corre es dejar en las manos del mercado la tutela que se suele (y debe) pretender en materia de consumo.

Vinculado a lo anterior, es preciso fortalecer el rol que el documento proyecta para el legislador en la tutela de los derechos de los consumidores ante el desarrollo de la IA en las relaciones de consumo. En diversas partes del texto se utilizan expresiones tales como se “instará a la promoción de un uso ético y responsable de la IA en las relaciones de consumo”. Pero, por los riesgos que genera la implementación de la IA en este ámbito y para que los objetivos de la política se cumplan, es preciso pensar en sanciones más que en “instar” al regulado a cumplir la normativa. Si se consagran penas en el caso de un uso inadecuado de la IA por parte de los proveedores, y ya que el legislador ha tratado de otorgar un régimen especial a las empresas de menor tamaño —en particular a las micro y pequeñas empresas— en algunas reformas legislativas (incluso en la Ley Nº 21.081), debería pensarse en la existencia de reglas especiales para estos sujetos, atendida su diferente capacidad organizativa y económica. Y, en cualquier caso, además, instaurar mecanismos de ayuda para que puedan implementar la IA en las relaciones que mantienen con los consumidores.

Por otro lado, de lo indicado en el documento no se desprende en qué forma concreta se abordará o proyectará el problema de la discriminación algorítmica a los consumidores, como ocurre, por ejemplo, con los sesgos en los precios con que se ofrecen los productos y servicios. Tal como la doctrina viene advirtiendo desde hace tiempo, en muchos casos no es posible saber cómo operan los algoritmos y, por lo mismo, pueden presentarse ocasiones en que se ofrezcan precios individualizados y especiales para cada consumidor en abierta vulneración de lo dispuesto en el artículo 3º inciso primero letra c) (e, incluso, se podrían contravenir normas especiales, como las letras a] y b] del artículo 3º inciso segundo) de la Ley Nº 19.496 sobre Protección de los Derechos de los Consumidores (LPDC). Así, la opacidad en el funcionamiento de ciertos algoritmos impide saber si algunos consumidores reciben o no un trato especial que pueda conducir a una discriminación arbitraria, porque una cosa es ofrecer un precio normal versus otro con rebajas (práctica comercial lícita en los términos del artículo 1º Nº 8) y otra cosa bien distinta es variar el precio ofrecido en función de la renta, el domicilio, el nivel socioeconómico del consumidor o cualquier otro factor similar, como ya ha sucedido en nuestro país en otras situaciones.

Felipe Fernández

El problema anterior se acentúa en la oferta de servicios financieros, en donde pueden producirse discriminaciones importantes en el afán de determinar la solvencia de los clientes. En efecto, en esta materia los algoritmos son estructurados en base a un aprendizaje automático (deep learning) y con empleo de bases de datos abiertas, lo que puede arrojar resultados discriminatorios (como, por ejemplo, no conceder a alguien un crédito bancario en atención a su nombre o domicilio) debido al uso de datos de mala calidad o escasa confiabilidad. Esta situación produciría una eventual vulneración al derecho del consumidor de productos o servicios financieros contemplado en el artículo 3º inciso primero la letra a) o, como se mencionaba, los derechos que se consagran en las letras a) y b) del artículo 3º inciso segundo de la LPDC. Asimismo, se vislumbra como un problema especial atendida la falta de regulación (o sanción) de tipos especiales de publicidad ilícita (discriminatoria, sexista, subliminal, etcétera) que podrían aplicarse en estos casos.

Finalmente, nos interesa destacar la confianza especial que el borrador hace descansar en los deberes precontractuales de información. El texto declara: “Esto implica informar a los consumidores, entre otras cosas, sobre el uso de este tipo de sistemas; la finalidad del tratamiento de sus datos personales; y el proceso en virtud del cual el proveedor arriba a una decisión que impacta en el consumidor, por ejemplo, al dar o no lugar a la contratación de un servicio, o al formular una oferta personalizada para un grupo de consumidores”; pero, la práctica se ha encargado de comprobar que las reglas de información, frecuentes en nuestro medio, no necesariamente protegen a los consumidores, y así también lo ha sostenido la dogmática chilena y extranjera. En la actualidad, por ejemplo, las cláusulas de tratamiento de datos personales, que suelen informarse, aparecen como sorpresivas, o bien, resultan obligatorias para los consumidores, quienes aceptan sin necesidad de leer los documentos que regulan el tratamiento de dichos datos, lo que se traduce en un desconocimiento del contenido de estas estipulaciones y la concesión de una prerrogativa al proveedor para el tratamiento de la referida información. Si bien el control represivo de cláusulas abusivas ha logrado, en cierta medida, disminuir sus efectos, aquellas siguen siendo frecuentes en el mercado, lo que podría también replicarse en materias de IA y debería evitarse pensando más allá de los deberes precontractuales de información.

Tal como se desprende de los comentarios efectuados, nos parece que hay varios aspectos perfectibles de la propuesta. De acuerdo a lo informado por el gobierno, la política pretende darse a conocer, en su versión final, el primer semestre del año en curso. Al respecto, quizás sea necesario extender un poco su fecha de entrada en vigencia para dar paso a una reflexión algo más pausada acerca de las críticas formuladas en el intertanto por los expertos —y expertas— y de las expresadas en los comentarios de quienes hayan contestado la encuesta, que estuvo a disposición de los ciudadanos hasta el 27 de enero de 2021. Confiamos en que así sea.

Noticias relacionadas