Falta de ‘matices técnicos’: el CEO de OpenAI responde a una carta que denuncia la IA avanzada


El CEO de OpenAI, Sam Altman, finalmente respondió a la carta firmada por más de 1,000 personas, incluidos los principales investigadores de inteligencia artificial (IA), que piden que se detenga la investigación de sistemas de IA más avanzados que GPT-4.

La carrera por la IA denunciada por muchos expertos

El lanzamiento de ChatGPT en noviembre de 2022 sacudió a toda la industria tecnológica y desató una carrera frenética por la inteligencia artificial generativa. Microsoft, a través de una inversión masiva en OpenAI, está integrando gradualmente la tecnología en sus herramientas, mientras que Google también aumenta sus esfuerzos para no quedarse atrás.

Es justamente esta carrera que suscita la preocupación de muchos expertos. En su carta piden la interrupción durante al menos seis meses del desarrollo de IA más avanzadas que GPT-4. Según ellos, ” Los sistemas de IA poderosos solo deben desarrollarse cuando estamos seguros de que sus efectos serán positivos y sus riesgos son manejables. “, citando en particular los riesgos de la tecnología en el empleo y la desinformación.

Los firmantes de la carta, que apunta principalmente al modelo de lenguaje GPT de OpenAI, incluyen a Elon Musk, el cofundador de Apple, Steve Wozniak, el cofundador de Skype, Jaan Tallinn, y varios investigadores y directores ejecutivos conocidos en el campo de la IA.

Sam Altman, que aún no había hablado sobre la misiva, finalmente habló durante de una aparición en video como parte de un evento del MIT. Él cree que la carta, publicada por la ONG Future of Life, es ” desprovisto de la mayoría de los matices técnicos con respecto a las áreas en las que necesitamos un descanso “.

Sam Altman admite que es necesario mejorar la seguridad de estas herramientas

Creo que es muy importante actuar con cautela y mostrarmayor rigor en materia de seguridad “, concede el consejero delegado, pero afirma que la carta no” era la mejor manera de abordar la pregunta “. En el pasado, Altman reconoció que la IA presenta riesgos si no se regula de manera efectiva. Sus palabras siempre van en esta dirección.

También soy de la opinión de que a medida que las habilidades se vuelven más y más serias, la barra de seguridad debe estar levantada “, juzgó. Sin embargo, considera que la fijación en su negocio no es normal: ” Hacemos otras cosas además de GPT-4 que creo que tienen todo tipo de problemas de seguridad que son importantes de abordar y que se han pasado por alto por completo en la carta. “, denunció. También negó que su empresa estuviera planeando lanzar GPT-5 pronto.

La IA generativa impactará a todos, y tantas personas como sea posible deberían participar en las pruebas y el aprendizaje de estos sistemas, dijo. ” Creemos que el hecho deinvolucrar a todos en la discusiónpara poner estos sistemas en el mundo, a pesar de que son profundamente defectuosos en su estado actual, de modo que las personas pueden experimentarlos, pensar en ellos, comprender los pros y los contrasvale la pena, incluso si tendemos a avergonzarnos en público y tenemos que cambiar de opinión con frecuencia con nuevos datos “, concluyó el director general. Por lo tanto, su enfoque es diametralmente opuesto al de los investigadores en su carta; en lugar de ralentizar la investigación, quiere que involucre a muchas más personas para que se familiaricen con la tecnología lo más rápido posible.



ttn-es-4