Fuente: MinCiencia
Una clasificación con cuatro niveles de riesgo según el uso de la IA, definidos por un Consejo Asesor Técnico, y con sanciones a cargo de la futura Agencia de Protección de Datos Personales, son parte de la propuesta del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación.
La propuesta calibra la necesidad de protección con la de innovación. Posibilita la entrada de nuevos actores, promueve los espacios de prueba controlados para sistemas de IA y plantea medidas dirigidas a empresas de menor tamaño en esta materia.
“No es lo mismo un algoritmo destinado a influir las emociones que uno que pretende recomendar opciones de música”. Con ese ejemplo, la ministra de Ciencia, Aisén Etcheverry, explicó el enfoque basado en riesgos que define la propuesta legislativa del gobierno para usos de la inteligencia artificial. Siguiendo como referente la Ley de IA de la Unión Europea, el proyecto clasifica los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente. ¿Cómo funcionará? “En lugar de exigir que las tecnologías pasen por un proceso de certificación o análisis antes de entrar al mercado, se estableció que cada empresa clasifique sus sistema de IA en base a un listado de riesgos que se elaborará, donde cada categoría tendrá reglas específicas que cumplir. Las sanciones para quienes no lo hagan serán administrativas, aplicadas por la futura Agencia de Protección de Datos Personales, en un procedimiento regulado por ley y en el que se puede apelar en las cortes de apelaciones”, explicó la ministra Etcheverry.
Los usos incluidos en la categoría de “riesgo inaceptable” están definidos en el proyecto, a diferencia de “alto riesgo” y “riesgo limitado”, que el proyecto describe en forma genérica pero donde se espera que el Consejo Asesor Técnico de Inteligencia Artificial -formado por representantes del sector privado, público, academia y sociedad civil- proponga usos y aplicaciones existentes. Además, deberá proponer el alcance y modo de cumplimiento de las reglas a las que deberán sujetarse los operadores de ese tipo de sistemas.
¿Qué aplicaciones entran en cada categoría? Se consideran inaceptables, de acuerdo al proyecto, aquellas que atenten contra la dignidad de las personas -como los utilizados para crear deepfakes de contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes-. También prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona, los usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real (salvo para usos relacionados con la seguridad pública), y los sistemas de IA basados en técnicas de facial scraping.
El proyecto define de “alto riesgo” aquellas aplicaciones de IA que presentan un riesgo significativo de causar perjuicios para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución o el medio ambiente, así como para los derechos de los consumidores. Por ejemplo, un sistema de IA destinado a la contratación o selección de personas, especialmente para analizar y filtrar solicitudes de empleo y evaluar candidatos.
En “Riesgo limitado” se incluyen aquellos usos que no implican riesgos significativos de manipulación, engaño o error derivado de la interacción con personas, por ejemplo, un chatbot de un servicio público que responde a consultas dentro de su esfera de competencia.
Por último, un sistema de IA sin riesgo evidente podría ser uno que sugiere películas o canciones, según las preferencias de un usuario, u otro que bajo ninguna circunstancia pueda causar perjuicios a los derechos fundamentales.
El proyecto de ley se centra también en que los usos de IA funcionen en condiciones transparentes, asegurando que las personas reciban información clara y precisa y sean conscientes siempre de que están interactuando con una máquina.
Fomento a la innovación
Calibrar la protección con la innovación fue una de las prioridades del proyecto. Para ello, este faculta a los organismos de la administración del Estado para diseñar espacios controlados que faciliten el desarrollo, la prueba y la validación de sistemas innovadores de IA, durante un período limitado de tiempo antes de su introducción en el mercado. Los detalles de este espacio deberán acordarse entre los proveedores potenciales y las autoridades, bajo la orientación y supervisión de ellas.
La propuesta también incluye medidas de apoyo a empresas de menor tamaño, en consideración a los intereses de los proveedores y los usuarios de sistemas de IA a pequeña escala. Entre ellas, dar acceso prioritario a espacios existentes de prueba para IA y fomentar la participación de representantes de empresas de menor tamaño en el Consejo Asesor Técnico de IA incluido en la propuesta de normativa.
Este proyecto de ley -que además de proteger a la ciudadanía busca darle agilidad al mercado- pone a Chile entre los primeros países del mundo en hacer propuestas legislativas en la materia. Recoge diversos elementos de la normativa europea sobre IA, además de la agenda internacional y principios consensuados al alero de la Unesco y la OCDE. Recoge el trabajo de la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado y de la Comisión de Futuro, Ciencia, Tecnología, Conocimiento e Innovación de la H. Cámara de Diputadas y Diputados, y las recomendaciones del Consejo Asesor de IA. “Todo ello permite que esta propuesta de regulación converse muy bien con los países a los cuales exportamos y desde donde importamos tecnología”, finalizó la ministra.
El proyecto de ley se puede revisar en este link:
https://www.camara.cl/verDoc.aspx?prmID=17048&prmTIPO=INICIATIVA