Reciba actualizaciones gratuitas de inteligencia artificial
Te enviaremos un Resumen diario de myFT correo electrónico redondeando lo último Inteligencia artificial noticias cada mañana.
El escritor es presidente de asuntos globales del Meta
Detrás de gran parte del entusiasmo y la inquietud por los avances en inteligencia artificial generativa se esconde una pregunta fundamental: ¿quién controlará estas tecnologías? ¿Las grandes empresas tecnológicas que tienen la gran potencia informática y los datos para construir nuevos modelos de IA o la sociedad en general?
Esto va al centro de un debate político sobre si las empresas deben mantener sus modelos de IA internamente o hacerlos disponibles de manera más abierta. A medida que avanza el debate, ha crecido el caso de la apertura. Esto se debe en parte a la practicidad (no es sostenible mantener la tecnología fundamental en manos de unas pocas grandes corporaciones) y en parte al historial de código abierto.
Es importante distinguir entre los modelos de IA actuales y los posibles modelos futuros. Las advertencias más distópicas sobre la IA son en realidad sobre un salto tecnológico, o varios saltos. Hay un mundo de diferencia entre las aplicaciones estilo chatbot de los grandes modelos de lenguaje actuales y los modelos de frontera de gran tamaño teóricamente capaces de una superinteligencia al estilo de la ciencia ficción. Pero todavía estamos en las colinas debatiendo los peligros que podríamos encontrar en la cima de la montaña. Siempre y cuando estos avances se vuelvan más plausibles, pueden requerir una respuesta diferente. Pero hay tiempo para que se desarrollen tanto la tecnología como las barandillas.
Como todas las tecnologías fundamentales, desde los transmisores de radio hasta los sistemas operativos de Internet, habrá una multitud de usos para los modelos de IA, algunos predecibles y otros no. Y como toda tecnología, la IA será utilizada tanto para fines buenos como malos por personas buenas y malas. La respuesta a esa incertidumbre no puede descansar simplemente en la esperanza de que los modelos de IA se mantengan en secreto. Ese caballo ya se ha desbocado. Muchos modelos de lenguaje grandes ya han sido de código abierto, como Halcón-40B, MPT-30B y decenas antes que ellos. Y la innovación abierta no es algo que se deba temer. La infraestructura de Internet funciona con código abierto, al igual que los navegadores web y muchas de las aplicaciones que usamos todos los días.
Si bien no podemos eliminar los riesgos relacionados con la IA, podemos mitigarlos. Aquí hay cuatro pasos que creo que las empresas de tecnología deberían tomar.
Primero, deben ser transparentes sobre cómo funcionan sus sistemas. En Meta, recientemente lanzamos 22 “tarjetas de sistema” para Facebook e Instagramque brindan a las personas información sobre la IA detrás de cómo se clasifica y recomienda el contenido de una manera que no requiere un conocimiento técnico profundo.
En segundo lugar, esta apertura debe ir acompañada de la colaboración entre la industria, el gobierno, la academia y la sociedad civil. Meta es miembro fundador de Asociación en IA, junto con Amazon, Google, DeepMind, Microsoft e IBM. Estamos participando en su Marco para la Acción Colectiva sobre Medios Sintéticos, un paso importante para garantizar que se establezcan barandillas en torno al contenido generado por IA.
En tercer lugar, los sistemas de IA deben someterse a pruebas de estrés. Antes de lanzar la próxima generación de Llama, nuestro modelo de lenguaje grande, Meta está realizando un “equipo rojo”. Este proceso, común en la seguridad cibernética, implica que los equipos asuman el papel de adversarios para buscar fallas y consecuencias no deseadas. Meta presentará sus últimos modelos Llama a la conferencia DEFCON en Las Vegas el próximo mes, donde los expertos pueden analizar más a fondo y poner a prueba sus capacidades.
Una suposición errónea es que la publicación del código fuente o de los pesos de los modelos hace que los sistemas sean más vulnerables. Por el contrario, los desarrolladores e investigadores externos pueden identificar problemas que llevarían mucho más tiempo a los equipos encerrados en los silos de la empresa. Los investigadores que probaron el modelo de lenguaje grande de Meta, BlenderBot 2, descubrieron que se podía engañar para que recordara información errónea. Como resultado, BlenderBot 3 fue más resistente.
Finalmente, las empresas deben compartir detalles de su trabajo a medida que se desarrolla, ya sea a través de artículos académicos y anuncios públicos, discusiones abiertas sobre los beneficios y riesgos o, si corresponde, poniendo la tecnología a disposición para la investigación y el desarrollo de productos.
La apertura no es altruismo: Meta cree que es de su interés. Conduce a mejores productos, una innovación más rápida y un mercado floreciente, lo que nos beneficia como a muchos otros. Y no significa que todos los modelos puedan o deban ser de código abierto. Hay un papel para los modelos de IA abiertos y propietarios.
Pero, en última instancia, la apertura es el mejor antídoto contra los temores que rodean a la IA. Permite la colaboración, el escrutinio y la iteración. Y brinda a las empresas, las empresas emergentes y los investigadores acceso a herramientas que nunca podrían construir por sí mismos, respaldadas por un poder de cómputo al que de otro modo no podrían acceder, abriendo un mundo de oportunidades sociales y económicas.