Cómo mantener la tapa sobre la caja de Pandora de la IA abierta


Manténgase informado con actualizaciones gratuitas

El escritor es fundador de tamizadoun sitio respaldado por FT sobre empresas emergentes europeas

Está surgiendo rápidamente como una de las divisiones tecnológicas, y cada vez más ideológicas, más importantes de nuestros tiempos: ¿deben estar abiertos o cerrados los poderosos sistemas de inteligencia artificial generativa? La forma en que se desarrolle ese debate afectará la productividad de nuestras economías, la estabilidad de nuestras sociedades y la suerte de algunas de las empresas más ricas del mundo.

Los partidarios de modelos de código abierto, como LLaMA 2 de Meta o Bloom de Hugging Face, que permiten a los usuarios personalizar ellos mismos un potente software de IA generativa, dicen que amplían el acceso a la tecnología, estimulan la innovación y mejoran la confiabilidad al fomentar el escrutinio externo. Los modelos abiertos más pequeños, mucho más baratos de desarrollar e implementar, también inyectan competencia en un campo dominado por grandes empresas estadounidenses como Google, Microsoft y OpenAI. Estas empresas han invertido miles de millones en el desarrollo de sistemas de IA generativos masivos y cerrados, que controlan de cerca.

Pero los detractores argumentan que los modelos abiertos corren el riesgo de levantar la tapa de una caja de Pandora de problemas. Los malos actores pueden explotarlos para difundir desinformación personalizada a escala global, mientras que los terroristas pueden usarlos para fabricar armas cibernéticas o biológicas. “El peligro del código abierto es que permite que más locos cometan locuras”, advirtió Geoffrey Hinton, uno de los pioneros de la IA moderna.

La historia de OpenAI, que desarrolló el popular chatbot ChatGPT, es en sí misma instructiva. Como su nombre indica, la empresa de investigación se fundó en 2015 con el compromiso de desarrollar la tecnología de la forma más abierta posible. Pero luego abandonó ese enfoque por razones tanto competitivas como de seguridad. «Rotundamente, estábamos equivocados», dijo a The Verge Ilya Sutskever, científico jefe de OpenAI.

Una vez que OpenAI se dio cuenta de que sus modelos de IA generativa iban a ser “increíblemente potentes”, tenía poco sentido abrirlos, dijo. «Espero que en unos años será completamente obvio para todos que la IA de código abierto simplemente no es prudente».

Los partidarios de los modelos abiertos respondieron, ridiculizando la idea de que los modelos abiertos de IA generativa permiten a las personas acceder a información que de otro modo no podrían encontrar en Internet o en un científico deshonesto. También destacan el interés competitivo de las grandes empresas tecnológicas al gritar sobre los peligros de los modelos abiertos. La siniestra intención de estas empresas, sugieren los críticos, es capturar a los reguladores, imponiendo mayores costos de cumplimiento a los insurgentes y afianzando así su propio dominio del mercado.

Pero este debate también tiene una dimensión ideológica. Yann LeCun, científico jefe de Meta, que ha roto filas con los otros gigantes de Silicon Valley al defender modelos abiertos, ha comparado los argumentos de las empresas rivales para controlar la tecnología con el oscurantismo medieval: la creencia de que sólo un sacerdocio de expertos autoseleccionados es sabio. suficiente para manejar el conocimiento.

En el futuro, me dijo recientemente, todas nuestras interacciones con el vasto depósito digital de conocimiento humano estarán mediadas por sistemas de inteligencia artificial. No deberíamos querer que un puñado de empresas de Silicon Valley controlen ese acceso. Así como Internet floreció al resistir los intentos de encerrarlo, la IA prosperará si permanece abierta, sostiene LeCun, “siempre que los gobiernos de todo el mundo no prohíban toda la idea de la IA de código abierto”.

Debates recientes en la cumbre sobre seguridad de la IA en Bletchley Park sugieren que al menos algunos responsables políticos podrían estar avanzando en esa dirección. Pero otros expertos proponen intervenciones más ligeras que mejorarían la seguridad sin acabar con la competencia.

Wendy Hall, profesora de informática en la Universidad de Southampton y miembro del órgano asesor de IA de la ONU.y, dice que no queremos vivir en un mundo donde sólo las grandes empresas ejecutan IA generativa. Tampoco queremos permitir que los usuarios hagan lo que quieran con modelos abiertos. «Tenemos que encontrar algún compromiso», sugiere.

Su solución preferida, que está ganando terreno en otros lugares, es regular los modelos de IA generativa de manera similar a la industria automovilística. Los reguladores imponen estrictas normas de seguridad a los fabricantes de automóviles antes de lanzar nuevos modelos. Pero también imponen responsabilidades a los conductores y los hacen responsables de sus acciones. «Si haces algo con código abierto que es irresponsable y que causa daño, deberías ir a la cárcel, como si matas a alguien mientras conduce un coche», dice Hall.

Ciertamente deberíamos resistir la tiranía de lo binario cuando se trata de pensar en modelos de IA. Tanto los modelos abiertos como los cerrados tienen sus ventajas y desventajas. A medida que las capacidades de estos modelos evolucionen, tendremos que ajustar constantemente la ponderación entre competencia y control.



ttn-es-56