LLaMA, modelo de lenguaje de Meta, filtrado


Mientras la moda en torno a la inteligencia artificial (IA) está en pleno apogeo, Meta anunció hace dos semanas el estreno de LLaMA, su modelo de lenguaje de código abierto. Está sobre todo dedicado a la investigación y sólo está disponible para los investigadores que lo soliciten. Sin embargo, el 3 de marzo todo el sistema se filtró en el foro de 4chan, permitiendo que cualquiera pueda descargarlo. Este evento abrió el debatedentro de la comunidad científica, sobre la necesidad de hacer accesible este tipo de modelo lingüístico a todo el mundo.

Descarga gratuita de LLaMA

Tomó solo una semana para que LLaMA se haga pública ilegalmente. » El modelo de lenguaje de 65 mil millones de parámetros de Meta se acaba de compartir en Internet, fue rapido “, escribió en Twitter Jeffrey Ladish, investigador en ciberseguridad, en el momento de los hechos. Aconseja preparar para recibir toneladas de spam personalizado e intentos de phishing. Hacer este modelo de código abierto fue una muy mala idea. «.

En la misma categoría

¿Cómo las empresas chinas de inteligencia artificial eluden las sanciones económicas de Estados Unidos?

En su nota de prensa, Meta precisó que LLaMA era, por el momento, solo para cientificos. El objetivo es comprender como funciona la inteligencia artificialtrabajar para corregir el riesgo de sesgo Y para desarrollar soluciones para evitar que los patrones lingüísticos creen contenido dañino, que puede causar daño a individuos o comunidades.

Hacer pública esa tecnología es correr el riesgo de que los usuarios malintencionados usarlo para prácticas maliciosas. Durante una conferencia de prensa, Joëlle Pineau, gerente general de la sucursal de IA de Meta, indicó que » algunos individuos trató de eludir el proceso de aprobación «. Preguntado por el bordeMatthew Di Ferrante, un investigador de inteligencia artificial que obtuvo acceso legítimo a LLaMA, confirmó que el modelo descargable en 4chan era el de Meta.

El debate del código abierto

La fuga del modelo de lenguaje del gigante tecnológico generó un debate sobre el libre acceso a los códigos de estas tecnologías. Dos campos opuestos. Por un lado, las personas para las que es la única forma de probar exhaustivamente las vulnerabilidades de la IA y encontrar soluciones para mitigar los riesgos. Por otro lado, el pueblo en contra, respondiendo que lo que está en juego es cada vez mayor a medida que la IA se vuelve más sofisticadahaciéndolo más peligroso.

Matthew Di Ferrante es más matizado. le explicó a el borde que hacer que los modelos de lenguaje sean de código abierto son « una forma de evitar encontrarnos en una situación de monopolio «. Gracias a esto, desarrolladores e investigadores independientes, que no trabajan en universidades o instituciones socias del Meta, pueden acceder a estas tecnologías.

Finalmente, mientras muchos denuncian los riesgos del uso malicioso de LLaMA, Stella Biderman, directora del laboratorio de investigación de IA EleutherAI afirma que » la mayoria de la gente no tiene el equipo necesario hacer que LLaMA funcione en su totalidad, y mucho menos de manera efectivas». El argumento de la barrera técnica puede presionar a Meta para que haga público su modelo de lenguaje en los próximos días.





ttn-es-4