La empresa desarrolladora de ChatGPT, OpenAI, está preocupada por cómo los humanos podrían controlar una posible “superinteligencia” digital.
“Los humanos no podrán supervisar de manera confiable los sistemas de inteligencia artificial que son mucho más inteligentes que nosotros”, señaló la compañía con sede en San Francisco en una publicación de blog el miércoles. Por lo tanto, se debe desarrollar un procedimiento automatizado para esto.
El objetivo es dominar los desafíos técnicos centrales para dicho sistema dentro de cuatro años, dijo. OpenAI quiere usar una quinta parte de la capacidad informática disponible para esto. El equipo de desarrollo debe estar dirigido por el científico jefe Ilya Sutskever. Incluso si la “superinteligencia” de la computadora todavía parece estar muy lejos, OpenAI todavía cree que es posible en esta década. Ayudará a resolver muchos problemas y será el invento más trascendental de la humanidad.
La medida sigue a una advertencia de expertos de la industria que creen que la inteligencia artificial corre el riesgo de presentar amenazas existenciales. Uno de los firmantes es el jefe de OpenAI, Sam Altman. La supuesta amenaza no se explicó en detalle, y los críticos acusaron a los expertos de que tales advertencias distrajeron la atención de los problemas de inteligencia artificial que ya existen en la actualidad, como la discriminación en los algoritmos.
Entre otras cosas, OpenAI desarrolló el chatbot ChatGPT, que provocó un nuevo entusiasmo por la inteligencia artificial. El programa puede crear oraciones que son casi indistinguibles de las de un humano. Para ello, fue entrenado con ingentes cantidades de datos y, en base a ello, estima palabra por palabra cómo debe continuar una oración. Sin embargo, este principio también asegura que ChatGPT a veces genera información completamente incorrecta.
/so/DP/por ejemplo
SAN FRANCISCO (dpa-AFX)