La Autoridad Holandesa de Protección de Datos advierte de que no somos suficientemente conscientes de los riesgos de los algoritmos y la inteligencia artificial. La IA está provocando desinformación, violaciones de la privacidad y discriminación.
In het kort:
- De Autoriteit Persoonsgegevens waarschuwt voor de risico’s van de snelle ontwikkeling en inzet van algoritmes en kunstmatige intelligentie (AI).
- AI kan leiden tot de verspreiding van desinformatie, privacyovertredingen en discriminatie, met name als het wordt getraind met niet-representatieve data.
- Ondanks deze risico’s biedt AI kansen voor efficiëntie en welzijn, bijvoorbeeld in de gezondheidszorg, waar het kan bijdragen aan bijvoorbeeld snellere diagnoses.
Según la Autoridad Holandesa de Protección de Datos, organismo de control de la privacidad, el uso cada vez mayor de la inteligencia artificial y las innovaciones tecnológicas está ocurriendo más rápido de lo que nosotros, como sociedad, podemos seguir. Como resultado, nos estamos quedando atrás en el reconocimiento de riesgos. Pero también para abordarlo, por ejemplo mediante regulaciones y aplicación de la ley.
El escándalo de los beneficios muestra los peligros que los algoritmos suponen para nuestra privacidad. Decenas de miles de personas se metieron en problemas porque los algoritmos los etiquetaron como estafadores. Pero la inteligencia artificial va un paso más allá, según los expertos.
Desde la llegada del chatbot de IA ChatGPT, casi todas las empresas de tecnología han utilizado inteligencia artificial. Pero la IA no es más que un conjunto de algoritmos, afirma el profesor Rajiv Girwar de la Universidad de Ciencias Aplicadas de Rotterdam. «Tan pronto como un algoritmo puede sacar conclusiones o generar algo nuevo, lo llamamos IA».
Según el experto en privacidad Rejo Zenger de Bits of Freedom, los algoritmos y la inteligencia artificial deberían verse como una caja negra. «Pones ciertos datos en el cuadro, pero no tienes idea de lo que se hace con los datos en ese cuadro. Luego surge una conclusión o aparecen nuevos datos, pero no tienes idea de cómo surgió».
Ontvang een melding bij nieuwe ontwikkelingen.
Riesgo de violación de la privacidad, discriminación y desinformación
Puedes desatar algoritmos e inteligencia artificial sobre todos los datos que puedas encontrar en Internet. Por ejemplo, sobre los datos de ubicación de millones de holandeses que están disponibles en línea. Luego, podría hacer que la IA analice quién podría estar involucrado en asuntos penales. Esa es una invasión significativa de su privacidad.
Los riesgos de la inteligencia artificial dependen de los datos con los que se entrena la IA, explica la abogada de privacidad Céline van Waesberge del Proyecto Moore Advocaten. Por ejemplo, en el caso de datos de formación no representativos, acechan la discriminación y la generación de información incorrecta (desinformación).
Un buen ejemplo de datos no representativos puede verse en el sector sanitario, por ejemplo. «Tradicionalmente, la medicina ha tenido mucho conocimiento sobre los hombres», subraya Van Waesberge. «Si se entrena un modelo de IA exclusivamente con esto, el resultado puede no ser fiable para niños o mujeres, por ejemplo».
La IA suele entrenarse con datos no representativos
Además, según Van Waesberge, en muchos casos las personas en nuestro país deben dar permiso antes de que se pueda entrenar un modelo de IA con sus datos de salud sensibles a la privacidad. Existe el riesgo de que ciertos grupos de personas den su consentimiento y otros grupos de personas no.
Como resultado, ciertos grupos de personas pueden estar sobrerrepresentados en los datos de capacitación y otros grupos subrepresentados. El resultado es que los datos con los que se entrena la IA no son representativos.
“Las conclusiones que extrae un modelo de IA y la información que genera el sistema dependen en gran medida de los datos que se hayan introducido en él”, subraya también Zenger. «Asumimos que las decisiones informáticas son neutrales, pero debido a que los datos a menudo no son representativos, la información y las conclusiones generadas pueden ser incorrectas e incluso discriminatorias».
La supervisión de la IA ocupa un lugar destacado en la agenda
Debido a todos estos riesgos, la supervisión de los algoritmos y la inteligencia artificial ocupa un lugar destacado en la agenda de la Autoridad Holandesa de Protección de Datos este año. «En nuestra supervisión, damos prioridad a las quejas, las filtraciones de datos y las investigaciones que involucran algoritmos e inteligencia artificial».
«También somos el supervisor coordinador de algoritmos en los Países Bajos desde enero de 2023», continúa el organismo de control de la privacidad. «Hacemos esto para proteger los valores públicos y los derechos fundamentales cuando utilizamos algoritmos e inteligencia artificial».
La confianza de los ciudadanos holandeses en los algoritmos y la IA es baja, concluye la Autoridad Holandesa de Protección de Datos. Pero eso no es del todo correcto. «La tecnología también puede contribuir a la prosperidad y el bienestar sostenibles».
La inteligencia artificial ofrece muchas oportunidades
«La inteligencia artificial no sólo tiene un lado oscuro», subraya también el abogado especializado en privacidad Van Waesberge. «En el sector sanitario, por ejemplo, realmente debemos adoptarlo. Ya hay ejemplos de que la IA puede reconocer el cáncer mejor que el ojo humano».
Pero la inteligencia artificial no sustituirá al médico, opina Van Waesberge. «La IA puede ayudar a hacer un buen diagnóstico más rápidamente y a encargarse de otras tareas», afirma el abogado especializado en privacidad. «Esto deja al médico tiempo para, por ejemplo, tener un contacto más personal o ayudar a más pacientes. Esto puede hacer que la atención sea más eficiente y, por tanto, más barata, y garantizar una mayor confianza en la atención».