OpenAI afronta un año lleno de elecciones


2024 ofrece un cóctel con potencial explosivo: una mezcla entre la democratización de la IA generativa y una impresionante ola de votos electorales en todo el mundo. En primera línea sobre el tema, OpenAI tomó la iniciativa en una publicación de blog publicada el 15 de enero de presentar su política para asegurar el uso de sus herramientas durante las campañas.

El espectro de las noticias falsas en un año electoral histórico

Las elecciones presidenciales y legislativas de Taiwán del 13 de enero no son las primeras que se celebran en 2024 y están muy lejos de ser las últimas. Durante el año se celebrarán unas 77 elecciones nacionales. Estados Unidos, Reino Unido, Corea del Sur, Sudáfrica, India… Esta es sólo una pequeña muestra de los países donde los ciudadanos serán llamados a las urnas. Sin olvidar las elecciones europeas de junio.

Los rumores y las noticias falsas siempre han existido más o menos durante las campañas electorales, pero las “noticias falsas” surgieron como una preocupación importante a mediados de la década de 2010. Si se ha dicho que la era de las redes sociales favorece su propagación, la de la IA generativa Es aún más temido.

Las herramientas de generación de texto, imágenes y vídeos pueden representar armas de desinformación masiva. OpenAI, como precursor y propietario de las herramientas más populares, está particularmente expuesto a este problema. La organización dijo que se esfuerza por “ prevenir abusos, garantizar la transparencia en el contenido generado por IA y mejorar el acceso a información confiable sobre la votación «.

En su publicación revela varias medidas futuras destinadas a limitar el riesgo. Las imágenes generadas por DALL-E deben codificarse para poder rastrear su procedencia. Se llevará a cabo un experimento para detectar imágenes creadas por IA. Finalmente, ChatGPT debe ser cada vez más transparente sobre las fuentes de sus respuestas a las noticias. OpenAI está discutiendo actualmente una serie de acuerdos con los principales medios internacionales.

La empresa también recordó algunas de sus reglas. Las aplicaciones basadas en sus tecnologías no se pueden utilizar para campañas políticas, lobbying o para disuadir a la gente de votar.

Un poco de emoción en OpenAI

El texto de OpenAI todavía parece revelar cierto entusiasmo cuando admite que “ Como cualquier tecnología nueva, estas herramientas conllevan beneficios y desafíos. «. Se reconoce implícitamente que los equipos de seguridad, “ multidisciplinario ”, aprenda a medida que surjan casos de uso.

Sin embargo, estos últimos están movilizados” para investigar y abordar rápidamente posibles abusos » asegura la empresa. También precisa que se esfuerza por anticipar y prevenir los riesgos más importantes, que son los deepfakes, las operaciones de influencia a gran escala o los chatbots que se hacen pasar por candidatos.



ttn-es-4