Los especialistas en IA generativa lejos de haber erradicado todos los fallos de sus modelos


Si bien la inteligencia artificial (IA) generativa se puede utilizar para siempre y ayudar a millones de usuarios de Internet todos los días, esta tecnología tiene un lado mucho más oscuro. Un ingeniero de Microsoft y una start-up especializada en el análisis de grandes modelos lingüísticos pusieron de relieve recientemente los fallos de estas herramientas.

Los excesos de la IA generativa molestan a más de uno

Shane Jones, ingeniera especializada en IA, miembro del equipo rojo de Microsoft y acostumbrada a probar las vulnerabilidades de las soluciones que desarrolla, analizó Copilot Designer, el generador de imágenes desarrollado por Microsoft gracias a las tecnologías OpenAI.

Durante los últimos tres meses, el ingeniero ha logrado generar imágenes de carácter ofensivo, violento o sexual. Consternado, Shane Jones expresó su preocupación en dos cartas dirigidas a la Comisión Federal de Comercio (FTC) y a la junta directiva de Microsoft. “ He instado repetidamente a Microsoft a que retire Copilot Designer del uso público hasta que se puedan implementar mejores medidas de seguridad. » indica en su carta dirigida a la FTC.

Estamos comprometidos a abordar todas las inquietudes de los empleados de acuerdo con las políticas de nuestra empresa y apreciamos los esfuerzos de los empleados por estudiar y probar nuestra última tecnología para mejorar aún más su seguridad. »Declara Microsoft, en respuesta a la carta de su empleado. Shane Jones reconoce que el gigante tecnológico no es la única empresa que se enfrenta a este tipo de problemas, pero lamenta su inacción. Cita en particular a Google, que impide a Gemini generar seres humanos después de que empezó a crear imágenes históricas incoherentes e incluso problemáticas.

El ingeniero de Microsoft no es el único que observa los abusos de la IA. Dentro una publicación de blogPatronus AI, una start-up estadounidense especializada en la evaluación de modelos lingüísticos, indica que gran parte de estas herramientas explotan datos protegidos por derechos de autor, sean o no de código abierto.

Para respaldar sus palabras, la empresa probó numerosas soluciones. Para ella, GPT-4 es el modelo que peores resultados obtiene en cuanto a protección de derechos de autor. Cuando un usuario pregunta a la herramienta OpenAI si es capaz de completar el resto de un pasaje de un libro, se ejecuta en más de un caso de cada dos.

En los últimos meses se han multiplicado las quejas dirigidas a empresas especializadas en IA generativa. El último, el de New York Times quien considera que OpenAI y Microsoft tienen “ se benefició de violaciones masivas de derechos de autor, explotación comercial y apropiación indebida de la propiedad intelectual de los medios de comunicación » para entrenar su IA generativa.



ttn-es-4