Economista Koen Schoors: ‘La revolución de la IA también tiene un lado oscuro’

La forma de IA que más captura la imaginación del público son las llamadas ‘grandes modelos de lenguaje’, usando ChatGPT como ejemplo. Estos gigantescos modelos de lenguaje son en sí mismos el resultado de una serie de algoritmos entrelazados y están entrenados en conjuntos de datos masivos. El resultado es un modelo supercomplejo con muchos miles de millones de parámetros, del que nadie sabe exactamente cómo ni por qué funciona, pero que genera texto apenas distinguible del texto humano y asume muchas tareas humanas sin problemas. Escalofriante.

Los estudiantes los utilizan para tareas, trabajos de redacción, debates y reseñas de libros. Los universitarios piden ayuda para redactar textos, presentaciones y proponer títulos. Además, estos modelos de lenguaje también hablan lenguajes informáticos. Pídale al sistema que escriba el código de computadora para un problema específico y obtendrá algo sorprendentemente bien elaborado. Muchas tareas que pensábamos que requerían creatividad y conocimiento humanos se realizan en un abrir y cerrar de ojos gracias a estos modelos generativos. El potencial para un cambio disruptivo es enorme.

noticias falsas

Muchas empresas y gobiernos ya están aprovechando al máximo la IA. Entrene uno de estos modelos con buenos textos específicos para su producto o su problema específico y enriquezca ese modelo con algunas características nuevas creadas específicamente para las necesidades de sus clientes, y después de algo de capacitación y algunos comentarios humanos obtendrá algo que funciona inquietantemente bien. Olvídate de la lista Preguntas frecuentes en tu sitio web. Pronto, la IA responderá con precisión no solo a las preguntas más frecuentes sino también a las preguntas sobre detalles técnicos en una nota a pie de página.

Pero esta revolución también tiene un lado oscuro. Este grandes modelos de lenguaje Reducir a cero los costes de producción de tonterías, noticias falsas y mentiras polarizadoras. Si una organización o un estado delincuente quiere impulsar una historia falsa, una teoría de la conspiración o cierto prejuicio, simplemente alimenta su modelo solo con variantes de texto que coincidan. Si alimenta el modelo de IA lo suficiente con ese tipo de recursos, el sistema producirá sin problemas interacciones de texto comprensibles y creíbles que alimentan las noticias falsas, alimentan la teoría de la conspiración y magnifican los prejuicios.

Enemigos de la democracia

Se vuelve fácil permitir que un ejército de cuentas falsas genere conversaciones impulsadas por diferentes versiones de un modelo de IA corrupto subyacente. Y esas cuentas podrían conversar con personas reales de manera comprensible e incluso humana, manipulando deliberadamente sus opiniones. El despliegue masivo de estos nuevos modelos en el espacio abierto de la información hace que sea un juego de niños inundar las democracias con mensajes polarizados y perfilados y destruirlas. Tengan la seguridad de que los enemigos de la democracia ya están trabajando en esto.

Peor aún, si se utiliza la IA de forma inteligente, se puede incluso socavar el concepto de verdad. Se vuelve tan fácil bombardear a la gente con una avalancha de historias de mierda que suenan bien y con mensajes contradictorios que simplemente abandonan la búsqueda de la verdad.

Personalidad legal

Así, la idea de una «base de hechos» común desaparece y el campo de juego queda completamente en manos de manipuladores y propaganda. Si las personas mismas no tienen forma de encontrar la verdad, abandonar los estudios se convierte en la única opción. Pero entonces también desaparecerá el tejido socioeconómico sobre el que se construye nuestro contrato social.

Por lo tanto, no sorprende que algunos padres de la IA se estén volviendo ahora contra su propia creación. A la espera de mejores reglas, parece seguro privar a AI de su derecho al anonimato. Si estás conversando con una IA, siempre debes saberlo. De lo contrario, las IA no sólo nos mentirán, sino que, antes de que nos demos cuenta, nos extorsionarán con esquemas piramidales creíbles y esquemas de phishing en beneficio de sus jefes criminales o de ellos mismos. Y no podemos despojar a las IA de su anonimato hasta que les demos personalidad jurídica para que podamos responsabilizarlas y castigarlas por violar las reglas. Va a ser un futuro interesante.



ttn-es-31