Google lanza AI chatbot en la UE. Asesor de ética: «Extraño el matiz cuando se trata del riesgo de la IA»


La coyuntura actual es “uno de esos momentos de los que todos quieren ser parte”, dice Ben Zevenbergen, asesor de ética de Google. Y así, los fundadores de Google, Larry Page y Sergey Brin, normalmente solo activos en segundo plano en Google, se unieron recientemente a las importantes reuniones sobre la estrategia de inteligencia artificial de Google. “La inteligencia artificial puede reinventar disciplinas enteras”, dice Zevenbergen, durante una conversación en la oficina de Google en Ámsterdam. «Es un momento tan interesante que todos quieren unirse a la conversación».

Desde 2020, Zevenbergen ha participado en su función de asesor en todos los lanzamientos de productos importantes de la empresa tecnológica estadounidense. Además, es responsable de “la oposición”, dice Zevenbergen. Tiene que asegurarse de que lo que desarrollan los ingenieros de Google también esté en consonancia con el principios de IA establecido por la empresa. En él, Google dice, entre otras cosas, que todos sus productos de IA deben «beneficiar a la sociedad» y no deben conducir a prejuicios o violaciones de la privacidad.

Zevenbergen fue uno de los autores del mismo. papel LaMDA, que apareció en febrero del año pasado y en el que Google presentó por primera vez su modelo de lenguaje. Esta tecnología constituye la base de la primera versión del chatbot Bard de Google, que se lanzó en el Reino Unido y Estados Unidos en marzo. Desde este jueves, el chatbot también estará disponible en los Países Bajos y otros países de la UE.

El lanzamiento europeo de Bard se pospuso después de las preguntas del regulador irlandés Comisión de Protección de Datos (DPC), que supervisa la aplicación de las normas de privacidad europeas en las principales preocupaciones tecnológicas. El DPC descubrió que Google había proporcionado «documentación insuficiente» para garantizar la privacidad del usuario. Google ahora ha cumplido con las condiciones de la UE. Entre otras cosas, los usuarios tendrán la opción de ver su actividad en Bard o eliminarla de su cuenta.

‘Pánico interno’

Bard es el resultado de años de investigación y experimentación en tecnología de IA. Además, Google tuvo una posición no amenazada durante mucho tiempo. Sus investigadores desarrollaron el primero en 2017. transformadores. Estas redes neuronales súper inteligentes son cruciales para las computadoras de voz y los chatbots. Hasta entonces, las computadoras eran especialmente buenas para traducir literalmente textos de un idioma a otro. Los transformadores también permitieron que las computadoras entendieran el contexto de las oraciones y pudieron mantener conversaciones.

Al final, no fue Google, sino OpenAI de San Francisco quien lanzó el primero de una nueva generación de chatbots de IA con ChatGPT en noviembre del año pasado. ChatGPT, basado en la tecnología de transformadores de Google, fue el primero en escribir obras de teatro, componer poemas, producir y programar textos para sitios web.

ChatGPT desató una exageración mundial. La red neuronal subyacente GPT-4 ahora es utilizada por innumerables empresas para automatizar tareas. Piense en escribir textos o responder automáticamente a correos electrónicos, asistentes digitales o escanear y evaluar cartas de solicitud. La exageración en torno a ChatGPT obligó a otras empresas tecnológicas a revisar o acelerar su estrategia de inteligencia artificial para no quedarse atrás en la carrera por la última tecnología.

En Google, la llegada de ChatGPT generó pánico interno, aunque el CEO de Google, Sundar Pichai, prefirió hablar de «un sentido de urgencia». La parte superior instó a los equipos dentro de Google a darse prisa con el desarrollo de Bard. Cuando se presentó Bard en febrero, el chatbot cometió un vergonzoso error de hecho durante la demostración. Bard, en respuesta a una pregunta, afirmó incorrectamente que la primera imagen de un planeta fuera de nuestro sistema solar fue tomada por el telescopio James Webb. Pichai dijo más tarde en un podcast de Los New York Times que la primera versión de Bard parecía que Google estaba «poniendo un Civic mejorado en una carrera con autos más potentes». La última versión de Bard es significativamente mejor, según las primeras pruebas realizadas por periodistas estadounidenses. Bard está directamente conectado a Internet y, por lo tanto, tiene la información más actualizada disponible, mientras que ChatGPT no tiene datos de eventos posteriores a 2021.

Sin embargo, ambos programas sufren lo que los científicos llaman «alucinaciones»: chatbots que inventan hechos. Es uno de los problemas más difíciles de resolver para los chatbots, teniendo Google la ventaja de que tiene acceso permanente a todo internet a través del buscador. “Podemos probar con bastante eficiencia si las respuestas se basan en fuentes existentes y si son correctas”, dice Zevenbergen.

Google reconoce que Bard “a veces da respuestas incorrectas” o puede hacer “declaraciones ofensivas”. Intenta un cierto sesgo (inclinación) al ofrecer a los usuarios más perspectivas. Y cuanto más se use a Bard, mejor obtendrá sus respuestas, o esa es la idea.

Según Zevenbergen, Google podría haber lanzado Bard «hace dos o tres años», pero la tecnología solo ahora es lo suficientemente confiable como para experimentar en vivo. “Pensamos mucho sobre los principios éticos detrás del tipo de sistemas que queremos traer al mundo. Y la velocidad no es una de ellas”, dice Zevenbergen. “No veo esto como una carrera para ser el primero en traer un dispositivo técnico al mundo. Google no fue el primer motor de búsqueda, pero al final fue el mejor”.

Lea más sobre cómo Europa quiere regular la IA: «El Parlamento Europeo quiere reglas estrictas para la IA, también para ChatGPT»

Fake news y cibercrimen

Sin embargo, existe preocupación, también dentro de Google, sobre la velocidad a la que se desarrolla la IA. El temor es que las partes malintencionadas utilicen sistemas de IA para noticias falsas y delitos cibernéticos. Existe el riesgo de que el auge de la IA provoque la desaparición de puestos de trabajo. La industria creativa se prepara para una serie de demandas, porque las empresas de IA violan los derechos de autor al usar textos e imágenes en internet para entrenar a sus modelos.

En los últimos meses, destacados científicos de IA han pedido una «pausa de desarrollo» de la tecnología a través de varias peticiones. Según los signatarios, antes de que las empresas ingresen al mercado con todo tipo de sistemas de IA, los gobiernos primero deben elaborar reglas sobre cómo la sociedad quiere usar la IA.

Todos los altos ejecutivos de las empresas de tecnología ahora se han pronunciado a favor de una mayor regulación gubernamental. Altos ejecutivos de OpenAI y Google han viajado a Bruselas en los últimos meses para mostrar que les gustaría aportar ideas sobre la AI Act, la mayor ley de IA de Europa que se está implementando actualmente. La ley determinará cómo las empresas tecnológicas pueden utilizar la IA en Europa.

La gran pregunta: ¿hasta qué punto una empresa como Google puede asumir la responsabilidad de tratar de manera responsable con una tecnología que tiene el potencial de tener un gran impacto en la humanidad? La mitad de los científicos de IA estiman que la probabilidad de que la IA conduzca a un «resultado extremadamente malo» para la humanidad es de al menos un 10 por ciento, según mostró un estudio del año pasado. Una encuesta. En mayo, el destacado científico de IA Geoffrey Hinton dejó Google para hablar sobre los peligros de la IA. Afirmó que la IA ahora se está haciendo cargo principalmente de «tareas aburridas» de las personas, «pero quizás mucho más en el futuro».

Zevenbergen afirma que ‘pierde el matiz’ cuando se trata de tales peticiones con conceptos como ‘riesgo existencial’. “Por supuesto, esto podría representar un riesgo para la humanidad. Es muy poco probable que suceda, pero es un escenario que estamos teniendo en cuenta”, dice. “Ahora estamos en una situación en la que podemos manejar todo esto adecuadamente. Construyendo escenarios que sean deseables”.



ttn-es-33