El debate sobre la IA: directrices de Google, disputa sobre el RGPD de Meta, reacción negativa del retiro de Microsoft


Google insta a los desarrolladores externos de aplicaciones de Android a incorporar funciones de inteligencia artificial generativa (GenAI) de manera responsable.

La nueva guía del gigante de las búsquedas y la publicidad es un esfuerzo por combatir el contenido problemático, incluido el contenido sexual y el discurso de odio, creado a través de dichas herramientas.

Para ello, las aplicaciones que generan contenido utilizando IA deben asegurarse de no crear Contenido restringidotener un mecanismo para que los usuarios reportar o marcar información ofensivay comercializarlos de una manera que represente con precisión las capacidades de la aplicación. También se recomienda a los desarrolladores de aplicaciones que prueben rigurosamente sus modelos de IA para garantizar que respetan la seguridad y la privacidad del usuario.

«Asegúrese de probar sus aplicaciones en varios escenarios de usuario y protegerlas contra indicaciones que podrían manipular su función de IA generativa para crear contenido dañino u ofensivo», Prabhat Sharma, director de confianza y seguridad de Google Play, Android y Chrome, dicho.

El desarrollo surge como una investigación reciente de 404 Media. encontró varias aplicaciones en Apple App Store y Google Play Store que anunciaban la capacidad de crear imágenes de desnudos no consensuales.

El uso de datos públicos por parte de Meta para la IA genera preocupaciones

La rápida adopción de tecnologías de inteligencia artificial en los últimos años también ha generado preocupaciones más amplias sobre privacidad y seguridad relacionadas con los datos de entrenamiento y la seguridad de los modelos, brindando a los actores maliciosos una forma de extraer información confidencial y alterar los modelos subyacentes para obtener resultados inesperados.

La seguridad cibernética

Es más, la decisión de Meta de utilizar la información pública disponible en todos sus productos y servicios para ayudar a mejorar sus ofertas de IA y tener la «La mejor tecnología de recomendación del mundo.» ha llevado a la empresa austriaca de privacidad noyb a presentar una queja en 11 países europeos alegando violación de las leyes de privacidad GDPR en la región.

«Esta información incluye cosas como publicaciones públicas o fotografías públicas y sus títulos», la compañía Anunciado a finales del mes pasado. «En el futuro, también podremos utilizar la información que la gente comparte cuando interactúan con nuestras funciones de IA generativa, como Meta AI, o con una empresa, para desarrollar y mejorar nuestros productos de IA».

Específicamente, noyb ha acusado a Meta de trasladar la carga a los usuarios (es decir, hacer que opten por no participar en lugar de optar por participar) y de no proporcionar información adecuada sobre cómo la empresa planea utilizar los datos de los clientes.

Meta, por su parte, ha señalado que «se basará en la base jurídica de los ‘intereses legítimos’ para procesar ciertos datos propios y de terceros en la región europea y el Reino Unido» para mejorar la IA y crear mejores experiencias. Los usuarios de la UE tienen hasta el 26 de junio para optar por no participar en el procesamiento, lo que pueden hacer mediante presentando una solicitud.

Si bien el gigante de las redes sociales se propuso explicar que el enfoque está alineado con la forma en que otras empresas tecnológicas están desarrollando y mejorando sus experiencias de IA en Europa, la autoridad noruega de protección de datos Datatilsynet dijo que tiene «dudas» sobre la legalidad del proceso.

«En nuestra opinión, lo más natural habría sido pedir el consentimiento de los usuarios antes de que sus publicaciones y fotografías se utilicen de esta manera», dijo la agencia. dicho en una oracion.

«El Tribunal de Justicia Europeo ya ha dejado claro que Meta no tiene ningún ‘interés legítimo’ en anular el derecho de los usuarios a la protección de datos en lo que respecta a la publicidad», afirmó Max Schrems de noyb. «Sin embargo, la empresa intenta utilizar los mismos argumentos para la formación de una ‘tecnología de inteligencia artificial’ indefinida».

El retiro del mercado de Microsoft enfrenta un mayor escrutinio

El último alboroto regulatorio de Meta también llega en un momento en que la propia característica impulsada por IA de Microsoft llamada Recall ha recibió reacción rápida debido a los riesgos de privacidad y seguridad que podrían surgir como resultado de capturar capturas de pantalla de las actividades de los usuarios en sus PC con Windows cada cinco segundos y convertirlas en un archivo con capacidad de búsqueda.

La seguridad cibernética

El investigador de seguridad Kevin Beaumont, en un nuevo análisis, descubrió que es posible que un actor malicioso implemente un ladrón de información y extraiga la base de datos que almacena la información analizada a partir de las capturas de pantalla. El único requisito previo para lograr esto es que el acceso a los datos requiera privilegios de administrador en la máquina del usuario.

«La recuperación permite a los actores de amenazas automatizar la extracción de todo lo que has visto en cuestión de segundos», Beaumont dicho. «[Microsoft] Deberíamos recordarlo y reelaborarlo para que sea la característica que merece ser, entregada en una fecha posterior».

Otros investigadores han demostrado de manera similar herramientas como TotalRecall que hacen que Recall sea propicio para el abuso y extraen información altamente confidencial de la base de datos. «Windows Recall almacena todo localmente en una base de datos SQLite no cifrada, y las capturas de pantalla simplemente se guardan en una carpeta de su PC», Alexander Hagenah, quien desarrolló TotalRecall, dicho.

A partir del 6 de junio de 2024, TotalRecall se actualizó para que ya no requiera derechos de administrador utilizando uno de los dos métodos que el investigador de seguridad James Forshaw describió para evitar el requisito de privilegios de administrador para poder acceder a los datos de Recall.

«Sólo está protegido siendo [access control list]»Está conectado al SISTEMA y, por lo tanto, cualquier escalada de privilegios (o límite no relacionado con la seguridad *tos*) es suficiente para filtrar la información», Forshaw dicho.

La primera técnica implica hacerse pasar por un programa llamado AIXHost.exe adquiriendo su token o, mejor aún, aprovechando los privilegios del usuario actual para modificar las listas de control de acceso y obtener acceso a la base de datos completa.

Dicho esto, vale la pena señalar que Recall se encuentra actualmente en versión preliminar y Microsoft aún puede realizar cambios en la aplicación antes de que esté disponible para todos los usuarios a finales de este mes. Se espera que esté habilitado de forma predeterminada para compatibilidad PC copiloto+.

¿Encontró interesante este artículo? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57