Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
La inteligencia artificial de código abierto ha sido una de las historias tecnológicas más sorprendentes del año pasado. A medida que empresas como OpenAI y Google han invertido miles de millones de dólares en la creación de una IA cada vez más potente, los modelos “abiertos” que están disponibles de forma gratuita para que los desarrolladores los utilicen y adapten han cerrado la brecha de rendimiento.
Hay un solo inconveniente: la mayoría de estos sistemas de código abierto no son muy abiertos. Los críticos acusan a sus patrocinadores de “open washing” (lavado de imagen), es decir, de intentar beneficiarse del efecto halo del código abierto, con su libertad respecto de las limitaciones de los productos de software comerciales normales, pero sin estar a la altura de su nombre.
El esfuerzo por crear una versión de IA verdaderamente de código abierto finalmente está cobrando impulso, pero no hay garantía de que su progreso iguale al del software de código abierto, que ha llegado a desempeñar un papel fundamental en el mundo de la tecnología en los últimos 20 años. Con el software de código abierto tradicional, como el sistema operativo Linux, el código está disponible libremente para que los desarrolladores lo inspeccionen, utilicen y adapten. La denominada IA de código abierto ha sido muy diferente, sobre todo porque la mayoría de los sistemas de IA modernos aprenden de los datos en lugar de tener su lógica programada en código.
Tomemos como ejemplo el Llama de Meta. Solo se revelan los “pesos” que determinan cómo responde el modelo a las consultas. Los usuarios pueden tomarlo y adaptarlo, pero no pueden ver los datos subyacentes con los que se entrenó y no tienen suficiente información para reproducir el modelo desde cero.
Para muchos desarrolladores, esto todavía tiene algunas ventajas claras: pueden adaptar y entrenar modelos cuasi abiertos con su propia información sin necesidad de entregar datos internos confidenciales a otra empresa.
Pero no ser totalmente abierto tiene sus costos. Según Ayah Bdeir, asesor principal de la Fundación Mozilla, solo una tecnología verdaderamente de código abierto brindaría a las personas una comprensión completa de los sistemas que están comenzando a afectar todas las facetas de nuestras vidas, al tiempo que garantizaría que la innovación y la competencia no puedan ser aplastadas por un puñado de empresas dominantes de inteligencia artificial.
Una respuesta ha llegado de la Open Source Initiative, que estableció la definición de software de código abierto hace más de 20 años. Esta semana, publicó una definición casi final que podrían ayudar a dar forma a cómo se desarrolla el campo.
Para ello, no sólo se necesitarían los pesos de un modelo que se va a publicar, sino también información suficiente sobre los datos con los que se entrenó para permitir que alguien más lo reproduzca, así como todo el código que hay detrás del sistema. Otros grupos, como Mozilla y la Fundación Linux, están impulsando iniciativas similares.
Medidas como estas ya están generando una mayor segmentación en el mundo de la IA. Muchas empresas están siendo más cuidadosas con su terminología, tal vez conscientes de que la OSI es propietaria de la marca registrada del término “código abierto” y podría demandar para evitar que se utilice en modelos de IA que no se ajusten a su propia definición. Mistral, por ejemplo, llama a su Nemo un modelo de “pesos abiertos”.
Junto a los sistemas parcialmente abiertos, están empezando a aparecer modelos totalmente de código abierto, como el modelo de lenguaje grande Olmo desarrollado por el Instituto Allen para IA. Sin embargo, no está nada claro que esta versión vaya a tener un impacto tan grande en el mundo de la IA como el que ha tenido en el software tradicional. Para que esto ocurra, se requerirían dos cosas.
Una de ellas es que la tecnología tendrá que satisfacer una necesidad lo suficientemente grande como para atraer a una masa crítica de usuarios y desarrolladores. Con el software tradicional, el sistema operativo para servidores Linux representó una clara alternativa a Windows de Microsoft, lo que le permitió ganar una gran base de usuarios y un fuerte respaldo de los rivales de Microsoft, incluidos IBM y Oracle. Linux no tiene equivalente en el mundo de la IA. El mercado ya está más fragmentado y muchos usuarios encontrarán adecuados los LLM cuasi abiertos como Llama.
Los partidarios de la IA de código abierto también deben defender mejor su seguridad. La perspectiva de que una tecnología tan poderosa y de uso general se ponga a disposición de cualquiera que la utilice correctamente genera una preocupación generalizada.
Oren Etzioni, ex director del Instituto Allen, dice que muchos temores son exagerados. Cuando se trata de buscar en Internet cómo fabricar una bomba o un arma biológica: “No se puede sacar mucho provecho de estos [AI models] “Hay mucha información disponible, pero se presenta de forma diferente”, reconoce, y reconoce que hay algunas áreas en las que hacer que la IA esté más disponible podría causar daños, como la automatización de la creación de más desinformación en línea.
La IA “cerrada” también conlleva riesgos, pero hasta que no se haya estudiado más a fondo el riesgo marginal adicional de abrir el código fuente de la tecnología, junto con sus posibles beneficios, los temores seguirán existiendo.