¿Qué límites se deben dar a la IA para proteger los derechos fundamentales?


La Comisión Consultiva Nacional de Derechos Humanos (CNCDH) compartió 7 de abril un aviso (pdf)transmitido por Siguiente INpacto, que recoge varias recomendaciones para minimizar el impacto del uso de la inteligencia artificial en los derechos fundamentales. Estos riesgos ya están en el centro de las preocupaciones, la Comisión Europea ha estado trabajando desde 2021 en el desarrollo de la Ley de Inteligencia Artificial.

El “social score”, el gran enemigo de las libertades individuales

Identificación biométrica remota, calificación social, diagnósticos médicos automatizados, la CNCDH quisiera prohibir ciertos usos de la IA que considera peligrosos. Según ella, este tipo de uso podría vulnerar directamente los derechos fundamentales. Recomienda implementar una veintena de recomendaciones cuando una IA contraviniera la dignidad humana, el respeto a la privacidad, la igualdad y la no discriminación o incluso el acceso a la justicia y los derechos sociales.

En la misma categoría

Nube de Google

Data Cloud Summit 22′: ¿qué novedades presenta Google Cloud?

La Ley de Inteligencia Artificial ya había priorizado el uso de la IA según los riesgos que representa. La introducción de la “puntuación social” por parte de las autoridades públicas se considera, por ejemplo, inaceptable. La CNIL ya mencionó en 2021 los peligros de un sistema de este tipo, cuyo uso en China asusta a los ciudadanos. En este punto, la CNCDH quiere ir más allá al prohibir su uso por parte de empresas privadas. Lo mismo se aplica a las herramientas de reconocimiento de voz que se encuentran en los juguetes que pueden explotar la vulnerabilidad de los niños.

La institución recomienda prohibir la IA para la identificación biométrica a distancia y en espacios públicos. Las aplicaciones en materia de seguridad y uso por parte de la policía plantean interrogantes sobre los límites a establecer. En caso de amenaza grave e inminente para la vida o la seguridad de las personas, podría utilizarse de forma adecuada y proporcionada. No se puede descartar el riesgo de secuestro de este tipo de dispositivos, como hicieron las autoridades rusas en 2021 para reprimir a los manifestantes en Moscú.

La CNCDH también coincide con la Comisión Europea en los peligros que la IA puede representar en el sector de la justicia. Precisa que más allá de los riesgos de la aplicación de la ley por un algoritmo, es necesario profundizar las reflexiones en los aportes y los límites de la IA en los procedimientos jurisdiccionales. En Francia, la justicia había experimentado con el algoritmo DataJust para calcular el monto de la indemnización para las víctimas de daños. Su funcionamiento no se consideró satisfactorio según La Cruz.

Prevenir y educar sobre problemas de IA

También se hace hincapié en la prevención y la información. El informe destaca la importancia para la Educación Nacional de fortalecer la formación de los estudiantes en temas relacionados con los aspectos técnicos, sociales y políticos de la inteligencia artificial. Los docentes deben contar con el material didáctico necesario para abordar estos temas específicos.

Los ciudadanos deben ser informados sistemáticamente cuando están expuestos a un sistema de IA y cuando toma decisiones que les conciernen, basadas en el procesamiento algorítmico. La Ley de Inteligencia Artificial citaba, por ejemplo, el peligro de utilizar herramientas de clasificación automática de CV en los procedimientos de contratación. En lugar de “inteligencia artificial”, la CNCDH también recomienda el uso de la expresión “sistema algorítmico de apoyo a la decisión”.

Finalmente, el dictamen de la CNCDH propone incentivar la inversión pública para informar y capacitar a las personas a través de herramientas accesibles al mayor número de personas posible. También menciona el establecimiento de consultas nacionales basadas en el modelo de la Estados Generales de Bioética creado por el Consejo Nacional Consultivo de Ética. Sin duda, la IA será un tema central en el nuevo mandato de cinco años de Emmanuel Macron. Francia, presidente del Consejo de la Unión Europea, desea defender su punto de vista sobre el uso de la IA por parte de las fuerzas del orden.



ttn-es-4