CEO de Google: Construir IA de manera responsable es la única carrera que realmente importa


El escritor es CEO de Google y Alphabet.

Este año, la IA generativa ha capturado la imaginación del mundo. Millones de personas ya lo están utilizando para impulsar la creatividad y mejorar la productividad. Mientras tanto, cada vez más empresas emergentes y organizaciones están introduciendo productos y tecnologías impulsados ​​por IA al mercado más rápido que nunca.

AI es la tecnología más profunda en la que la humanidad está trabajando hoy; tocará cada industria y aspecto de la vida. Dado lo mucho que está en juego, cuantas más personas trabajen para hacer avanzar la ciencia de la IA, mejor será en términos de ampliar las oportunidades para las comunidades de todo el mundo.

Si bien algunos han tratado de reducir este momento a solo una carrera competitiva de IA, lo vemos como mucho más que eso. En Google, llevamos más de una década incorporando IA a nuestros productos y servicios y poniéndolos a disposición de nuestros usuarios. Nos preocupamos profundamente por esto. Sin embargo, lo que importa aún más es la carrera para construir IA de manera responsable y asegurarnos de que, como sociedad, lo hagamos bien.

Estamos abordando esto de tres maneras. Primero, buscando audazmente innovaciones para hacer que la IA sea más útil para todos. Seguimos utilizando la IA para mejorar significativamente nuestros productos, desde la Búsqueda de Google y Gmail hasta Android y Maps. Estos avances significan que los conductores de toda Europa ahora pueden encontrar rutas más eficientes en combustible; se ayuda a decenas de miles de refugiados ucranianos a comunicarse en sus nuevos hogares; Las herramientas de pronóstico de inundaciones pueden predecir las inundaciones con mayor anticipación. El trabajo de Google DeepMind en AlphaFold, en colaboración con el Laboratorio Europeo de Biología Molecular, dio como resultado una comprensión innovadora de más de 200 millones de proteínas catalogadas conocidas por la ciencia, lo que abrió nuevas posibilidades para el cuidado de la salud.

Nuestro enfoque también está en permitir que otros fuera de nuestra empresa innoven con IA, ya sea a través de nuestras API y ofertas en la nube, o con nuevas iniciativas como la Programa de crecimiento de Google para empresas emergentes, que apoya a los empresarios europeos que utilizan la IA para beneficiar la salud y el bienestar de las personas. Estamos lanzando un fondo de innovación social en IA para ayudar a las empresas sociales a resolver algunos de los desafíos más apremiantes de Europa.

En segundo lugar, nos aseguramos de desarrollar e implementar la tecnología de manera responsable, lo que refleja nuestro profundo compromiso de ganarnos la confianza de nuestros usuarios. Es por eso que publicamos los principios de IA en 2018, arraigados en la creencia de que la IA debe desarrollarse para beneficiar a la sociedad y evitar las aplicaciones dañinas.

Tenemos muchos ejemplos de la puesta en práctica de esos principios, como la construcción de barandillas para limitar el uso indebido de nuestro traductor universal. Este servicio experimental de doblaje de video con IA ayuda a los expertos a traducir la voz de un orador y hacer coincidir los movimientos de sus labios. Tiene un enorme potencial para aumentar la comprensión del aprendizaje, pero sabemos los riesgos que podría presentar en manos de malos actores y, por lo tanto, lo hemos hecho accesible solo para socios autorizados. A medida que evoluciona la IA, también lo hace nuestro enfoque: este mes anunciamos que proporcionaremos formas de identificar cuándo la hemos usado para generar contenido en nuestros servicios.

Finalmente, aprovechar el potencial de la IA no es algo que una empresa pueda hacer sola. En 2020, compartí mi opinión de que la IA debe regularse de manera que equilibre la innovación y los daños potenciales. Ahora que la tecnología se encuentra en un punto de inflexión y regreso a Europa esta semana, sigo creyendo que la IA es demasiado importante para no regularla y demasiado importante para no regularla bien.

El desarrollo de marcos de políticas que anticipen daños potenciales y desbloqueen beneficios requerirá discusiones profundas entre gobiernos, expertos de la industria, editores, academia y sociedad civil. Es posible que los legisladores no necesiten comenzar desde cero: las regulaciones existentes brindan marcos útiles para gestionar los riesgos potenciales de las nuevas tecnologías. Pero la inversión continua en investigación y desarrollo para la IA responsable será importante, al igual que garantizar que la IA se aplique de manera segura, especialmente donde las regulaciones aún están evolucionando.

Una mayor cooperación internacional será clave. Estados Unidos y Europa son aliados y socios estratégicos. Es importante que los dos trabajen juntos para crear marcos robustos que favorezcan la innovación para la tecnología emergente, basados ​​en valores y objetivos compartidos. Continuaremos trabajando con expertos, científicos sociales y emprendedores que están creando estándares para el desarrollo responsable de IA en ambos lados del Atlántico.

AI presenta una oportunidad única en una generación para que el mundo alcance sus objetivos climáticos, genere un crecimiento sostenible, mantenga la competitividad global y mucho más. Sin embargo, todavía estamos en los primeros días, y hay mucho trabajo por delante. Esperamos hacer ese trabajo con otros y juntos construir IA de manera segura y responsable para que todos puedan beneficiarse.



ttn-es-56