Será otro año importante para la IA. En noviembre habrá elecciones presidenciales en Estados Unidos. Las medidas deben evitar la manipulación y la influencia mediante inteligencia artificial. OpenAI, el fabricante de ChatGPT, ya bloqueó un chatbot que se hacía pasar por candidato presidencial esta semana.
In het kort
- OpenAI stelt regels op om misbruik van AI in aanloop naar de Amerikaanse presidentsverkiezingen te voorkomen.
- Die verantwoordelijkheid ligt volgens experts in eerste instantie bij bedrijven die AI ontwikkelen. Pas daarna ligt die bij de overheid.
- Een kant-en-klare oplossing tegen misbruik is er niet. Maar de komende tijd wordt duidelijk of strengere sancties nodig zijn.
Dos desarrolladores de Silicon Valley crearon un chatbot que habla como el candidato presidencial demócrata Dean Phillips. Se suponía que el robot ayudaría a recaudar fondos para la campaña de Phillips. “Suena como él y está programado según sus ideas”, escriben los creadores en el sitio. “Pero puede decir cosas equivocadas o incorrectas”.
El chatbot ya no funciona. OpenAI ha puesto fin a esto, escribe El Correo de Washington. Los creadores utilizaron tecnología de la empresa para crear el chatbot, pero rompieron las reglas. “Esta política prohíbe hacer campaña política o hacerse pasar por una persona sin permiso”, dijo un portavoz.
OpenAI es una de las empresas de IA más conocidas en la actualidad. Este año estará bajo la lupa en torno a las elecciones estadounidenses. OpenAI no querrá ser responsable de la difusión de manipulación y desinformación en las elecciones. En 2016, empresas como Facebook recibieron las mismas acusaciones.
Es por ello que OpenAI ha presentado una serie de medidas para evitar el mal uso de la tecnología. Una de ellas es la prohibición de crear aplicaciones para campañas políticas.
La primera responsabilidad recae en los creadores.
Los creadores de aplicaciones de IA deben asumir inicialmente la responsabilidad de evitar el uso indebido de la tecnología, afirma el ex diputado del D66 Kees Verhoeven. Actualmente es consultor en el campo de la digitalización.
“No se trata de que al sector tecnológico se le ocurra algo y el gobierno tenga que hacer ajustes”, afirma Verhoeven. “El gobierno siempre responde, pero la actitud proactiva viene de las empresas que están a la vanguardia”.
Daniel Mügge, profesor de Aritmética Política en la Universidad de Ámsterdam, considera bueno que OpenAI esté al tanto de todo y establezca reglas. “Las elecciones se acercan bastante rápido. Y le tomará mucho tiempo a la legislatura encontrar reglas claras y formas de hacerlas cumplir”, dice.
OpenAI querrá mostrar su mejor cara, piensa Mügge. Si la empresa demuestra que quiere tomar medidas contra el abuso y lo hace, puede evitar sanciones graves por parte del legislador.
¿Qué chatbot político está permitido y cuál no?
Hay cientos de chatbots en la tienda GPT de OpenAI. A pesar de las reglas más estrictas, entre ellos hay todo tipo de robots políticos. Por ejemplo, existen chatbots que imitan al expresidente estadounidense Donald Trump o brindan información sobre su campaña. No está claro por qué OpenAI abandona este. La empresa no respondió a las preguntas de NU.nl.
¿Dónde es agradable la ayuda de la inteligencia artificial y dónde es desagradable? El período previo a las elecciones estadounidenses será una prueba importante para ello. Los límites de la conveniencia de la IA son vagos.
“No se puede decir que se prohíba completamente la política”, afirma Mügge. “Ese tema es difícil de definir. Por ejemplo, ¿una conversación sobre el nitrógeno, por definición, tiene carga política?”
Según Mügge, las empresas de IA no pueden hacerlo bien rápidamente. “No existe una solución única para los posibles abusos”, afirma. “Pero eso no significa que deban simplemente encogerse de hombros”.
Los robots de IA políticos también tienen sus ventajas. “Pueden mejorar el contacto entre políticos y ciudadanos”, afirma Verhoeven. Por ejemplo, un chatbot puede resumir el lenguaje difícil de un manifiesto electoral en palabras sencillas. O haz que lo traduzcan. “Existe la posibilidad de bajar el umbral de información, pero hay que hacerlo con honestidad y veracidad”, afirma el asesor.
Imitando voces y retorciendo palabras.
Ahí es exactamente donde a veces radica el problema. La IA generativa, como este tipo de chatbots, puede proporcionar respuestas a todo. Pero no siempre está claro si las afirmaciones son objetivamente correctas.
La IA también puede plantear un problema fuera de los chatbots. “Lo que más preocupa es la manipulación del audio y el vídeo”, afirma Mügge. A partir de breves fragmentos de audio, ya puedes torcer palabras con la ayuda de la IA.
Esto ya sucede en la práctica. El martes se supo que miles de estadounidenses recibieron llamadas de una voz que sonaba como la del presidente Joe Biden. El mensaje llama a la gente a no votar en las primarias.
La llamada es falsa, confirma la Casa Blanca. La voz parece haber sido recreada con IA.
“Esta tecnología se basa en una enorme cantidad de datos que nadie puede supervisar”, afirma Verhoeven. “La IA en sí misma no tiene comprensión, no es ética ni poco ética en sí misma. Simplemente proporciona un resumen estratégico de los datos disponibles. Debemos seguir monitoreando esto para ver cuáles son las consecuencias”.