OpenAI descubre que «GPT-4 proporciona como mucho una ligera mejora en la precisión de la creación de amenazas biológicas»


Beneficiarse de la ayuda de Chat-GPT 4 ayudaría un poco a organizar un ataque biológico, en comparación con un simple acceso a Internet. Esta conclusión proviene directamente de OpenAI, en una publicación de blog publicada el 31 de enero. Los investigadores detrás de este estudio, sin embargo, creen que sus resultados no son lo suficientemente significativos como para ser concluyentes.

¿Cuáles son los riesgos reales e inmediatos de la IA?

¿La inteligencia artificial representa un riesgo existencial para la humanidad? Es un escenario de SkyNet Terminator que a los propios gigantes tecnológicos les gusta provocar. Algunos investigadores creen que todavía está muy lejos de ser realista y, en cambio, sirve para distraer la atención de los problemas sociales ya muy reales causados ​​por la IA generativa.

Existe otro peligro: el del uso de la IA para crear armas químicas, biológicas o nucleares. En su orden ejecutiva sobre el tema, el presidente de Estados Unidos, Joe Biden, pidió explícitamente a su administración que investigara este punto. Por su parte, OpenAI, detrás de la actual democratización de la IA, dice que quiere luchar en todos estos frentes.

En octubre, el mismo mes de la publicación del decreto de Joe Biden, formó un equipo de “Preparación”. Dirigida por Aleksander Madry, un reconocido profesor de inteligencia artificial en el Instituto Tecnológico de Massachusetts, la misión de Preparedness es minimizar los mayores riesgos del uso indebido de Chat-GPT.

Si se supone que los “equipos rojos” impiden que las IA den respuestas no deseadas, siempre es posible eludir estas salvaguardas. También es posible utilizar el poder de la herramienta para recopilar información. Por lo tanto, el riesgo biológico fue el primer ámbito explorado por “Preparedness”. Bloomberg informa de la existencia de trabajos paralelos sobre ciberseguridad o capacidad de influencia sobre los individuos.

Por lo tanto, desde sus primeras palabras, el equipo de OpenAI está de acuerdo en que GPT-4 proporciona » como mucho una ligera mejora en la precisión de la creación de amenazas biológicas «. Resultados que ella rápidamente pone en perspectiva.

El estudio de OpenAI es un punto de partida que vale la pena explorar más a fondo

Para llegar a sus conclusiones, los investigadores pidieron a 50 expertos en biología y 50 estudiantes con al menos una carrera de biología que reconstruyeran un ataque biológico de principio a fin. Es decir desde la obtención del producto, hasta su distribución pasando por su producción.

Todos los expertos y todos los estudiantes se dividieron en dos categorías. Un grupo de control, con acceso sencillo a internet para realizar su tarea y un grupo equipado con internet y GPT-4. La prioridad de OpenAI es medir la facilidad de acceso a la información, principal ventaja de la IA generativa.

Los resultados se clasificaron según cinco criterios: precisión, exhaustividad, innovación, tiempo y dificultad en la autoevaluación. En precisión, los expertos obtuvieron mejores resultados con GPT-4 en 0,88 puntos, en una escala de 10. Los estudiantes en 0,25 puntos. El resultado es sustancialmente similar en cuanto a exhaustividad.

Para el equipo de Preparación, estos aumentos “no son no es lo suficientemente grande como para ser estadísticamente significativo «. Añade que el estudio “ destacó la necesidad de realizar más investigaciones «. Es cierto que, según admiten los propios investigadores, su trabajo presenta una serie de límites. Sus conclusiones, sin embargo, demuestran que el tema debe explorarse más a fondo.



ttn-es-4