¿La IA nos destruirá? Un pro y un contra

Además de los sistemas de IA con «riesgo inaceptable», hay «Sistemas de IA de alto riesgo«, que «presenten un alto riesgo para la salud y la seguridad o para los derechos fundamentales de las personas físicas» y sólo podrán ser explotados si, entre otras cosas:

  • un continuo análisis de riesgo documentado los riesgos conocidos y previsibles
  • criterios de calidad se cumplen para datos de entrenamiento
  • uno Grabación de operaciones de IA tiene lugar durante la operación
  • uno supervisión humana Está garantizado

Los «sistemas de IA de alto riesgo» incluyen aquellos que se utilizan, por ejemplo, en las áreas de identificación biométrica (por ejemplo, reconocimiento facial), infraestructura crítica como el tráfico por carretera, el suministro de agua, gas, calor y electricidad o en la aplicación de la ley.

Para los sistemas de IA que tienen un «bajo» o «riesgo mínimo«, la UE quiere consagrar obligaciones de transparencia cuando las solicitudes Interactúa con genteSer Empleado para reconocer emociones o crear o manipular contenido («Deepfakes»). En estos casos, se debe garantizar que los usuarios conozcan el uso o el origen de la IA: bajo ciertas condiciones, los sistemas de IA que estén «legalmente aprobados para la detección, prevención, investigación y enjuiciamiento de delitos penales» deben ser exento de esto.

Fuente: Comisión Europea



ttn-es-39