Inquietudes sobre ChatGPT: ¿nos estamos hundiendo en un atolladero de desinformación?


En poco tiempo, el impresionante software de inteligencia artificial ChatGPT conquistó el mundo. Tanto el público como la comunidad empresarial tienen grandes expectativas. Los críticos ven varios osos en el camino.

Lawrence Verhagen

‘Eso Parque jurásicomomento de la inteligencia artificial’, el experto estadounidense en IA Gary Marcus lo llamó recientemente en un pódcast. Está hablando de la muy discutida pieza de herramientas de IA ChatGPT. Eso no es algo que pueda dar vida a los dinosaurios, sino un programa de chat accesible que parece inocente.

Es difícil imaginar que ChatGPT se lanzó hace solo dos meses. Por primera vez, el público en general puede comenzar conscientemente con la IA asignando tareas al programa, desde hacer un resumen de un texto hasta mejorar el código de programación y escribir una receta en forma poética. Microsoft se comprometió la semana pasada a invertir otros miles de millones de dólares en él e integrará la tecnología en su motor de búsqueda y suites de Office.

De la admiración y el asombro iniciales («Wow, esto es bastante bueno») sobre ChatGPT, pasé del desprecio («Esto es bastante estúpido») al miedo («Espera un minuto, esto podría volverse realmente grande») y pánico (» ¡Ayuda, educación!, ¡Ayuda, nuestros trabajos!’). Si bien gran parte de la discusión hasta ahora se ha centrado en lo que significa ChatGPT para la educación, también hay otros aspectos que preocupan a los expertos.

La madre de Pete tiene cuatro hijos. Tres se llaman Sophie, Anna y Sem. ¿Cómo se llama el cuarto? El programa no tiene idea, aunque no se requiere ningún conocimiento más allá de esta oración para responder a la pregunta: «Si solo sé tres nombres, no puedo predecir el cuarto», responde el software de inteligencia artificial ChatGPT.

Tan bueno como ChatGPT puede parecer a menudo, ejemplos como este demuestran que la IA todavía está muy lejos de cualquier cosa que se parezca a la comprensión real o la inteligencia humana.

«ChatGPT solo puede razonar lógicamente hasta cierto punto», explica el experto en inteligencia artificial Laurens Vreekamp. ‘No es una máquina determinista, sino predictiva.’ Entonces, estadística: ¿cuál es la probabilidad más alta posible de que una persona use la palabra B después de la palabra A dentro de un contexto específico? No en vano, los expertos llaman a un modelo de lenguaje como ChatGPT un ‘loro estocástico’un sistema que recrea fragmentos de otros textos basándose en resultados fortuitos.

Mientras tanto, las expectativas del público en general son mucho más altas, presumiblemente alimentadas por las respuestas engañosamente bien redactadas que le dan al programa un aire de verdadera inteligencia. Y quizás también por las vistas soleadas delineadas por el fundador de OpenAI, Sam Altman, cuyo lenguaje es el del optimista tecnológico arquetípico. Altman, como Elon Musk por ejemplo, es una de las personas para las que está claro que AGI (Inteligencia artificial general) está viniendo; el tipo de inteligencia artificial que no sobresale en un área específica, pero que es superior a los humanos en todas las áreas.

ChatGPT es solo una escala insignificante en este camino de ensueño, dice Altman. La revolución tecnológica que ahora ha comenzado es según él, imparable. A diferencia de sus escépticos, Altman ve un futuro brillante en el que las máquinas hacen descubrimientos científicos por iniciativa propia, el precio de la mano de obra (suministrada por las máquinas) se reduce a cero y toda la humanidad se beneficia de una riqueza de tiempo libre sin precedentes.

Nuestra misión es garantizar que toda la humanidad se beneficie de AGI. lema de OpenAI. Nada nuevo bajo el sol de Silicon Valley: Google siempre quiso hacer lo correcto (no seas malvado), mientras que Facebook quería embellecer el mundo conectando a todas las personas. En resumen, la tecnología está para resolver problemas y hacer del mundo un lugar mejor. La retórica tecno-utópica de OpenAI es bien recibida por los inversores, pero aún no ha sido respaldada por la práctica.

Aprendido de ejemplos vergonzosos del pasado (piense en el chatbot de Microsoft que se transformó en un nazi agresivo en poco tiempo), OpenAI está aterrorizado de equivocarse con textos de odio, sexistas, agresivos o racistas. Por eso OpenAI, que ya se estima en unos 30.000 millones de dólares, está contratando a un ejército de kenianos para hacer menos tóxico el modelo lingüístico por un salario por hora muy bajo (entre 1,24 y 1,85 euros la hora). tan revelado revista tiempos. Doloroso para una empresa que simultáneamente dice que toda la humanidad se beneficiará de la IA. «Los multimillonarios que hacen alarde de su altruismo, eso también es demasiado bueno para ser verdad», dice Gys-Walt van Egdom, profesor de estudios de traducción en la Universidad de Utrecht. «En última instancia, OpenAI también se trata de dinero».

No es la única preocupación. Por ejemplo, los científicos se quejan de la (oh, ironía) naturaleza cerrada de OpenAI, que le ha dado a Microsoft acceso exclusivo a su código fuente. ¿Y hay preocupaciones sobre el impacto en el clima de los gigantescos modelos de lenguaje que usa OpenAI, porque entrenarlos y usarlos requiere una enorme cantidad de poder de cómputo y, por lo tanto, energía? Llevó a la profesora de AI de Nijmegen, Iris van Rooij, a llamar a sus colegas no unirse a la exageración de ChatGPT: ‘¿Por qué estamos dejando que la tecnología de IA impulsada por las ganancias dicte nuestras agendas académicas de investigación y debate? Deberíamos oponernos y reflexionar críticamente sobre ello’.

AI tiene el potencial de quitarle mucho trabajo, reduciendo los costos a cero, predice el fundador de OpenAI, Altman. Así es, pero no solo las empresas sensatas se beneficiarán. El científico de traducción Van Egdom cita los correos electrónicos de phishing notoriamente torpes del pasado, en los que los «príncipes nigerianos» seducen a las víctimas ingenuas para que transfieran dinero. Esos mensajes ruidosos se pueden actualizar en un instante con la ayuda de ChatGPT a textos convincentes y de buen funcionamiento en combinación con un sitio coincidente.

Otra forma de abuso es que la inteligencia artificial se utiliza para realizar campañas de desinformación, por ejemplo, por parte de actores estatales como Rusia. Mantener un sitio de noticias actualizado con información aparentemente convincente pero errónea nunca ha sido tan fácil. En resumen: el precio de costo de las tonterías y la desinformación también se está acercando a cero.

En unos tres años, hasta el 90 por ciento de todo el contenido de Internet será producido por computadoras, predice Nina Schick, especialista en falsificaciones profundas. Estos pueden ser textos, pero también material de audio, foto o video. El problema con esto: aunque la IA mejorará rápidamente en la creación de textos fluidos en los próximos años, no necesariamente obtendrá una mejor comprensión de la verdad.

Incluso ahora, las cosas no siempre salen bien y ChatGPT brinda información incorrecta, a pesar de que el modelo de lenguaje se alimenta con una gran cantidad de textos escritos por humanos. Pero, ¿qué sucede cuando la entrada está contaminada con tonterías, aunque bien escritas? Un ‘tsunami de mierda’, prevenido Phil Libin, el fundador de la aplicación para tomar notas Evernote, recientemente. El científico traductor Van Egdom avala este problema y perfila un nuevo capítulo en la posverdad, en el que a la IA le importará si difunde una verdad o una mentira. mierda llamadas el filósofo estadounidense Harry Frankfurt considera que este comportamiento es una amenaza mayor que una mentira, porque el mentiroso oscurece la verdad, pero aun así la respeta.

Escultura Joren Josué

Y esa mierda se multiplicará rápidamente, prevé Van Egdom: ‘Los modelos de lenguaje que vemos ahora son tan eficientes que el mundo digital se superpondrá cada vez más al mundo real, hasta que los contornos del mundo real apenas se puedan ver. .’ Van Egdom hace referencia al filósofo francés Jean Baudrillard, quien acuñó el término ‘hiperrealidad’ hace décadas para describir una situación en la que la realidad está tan inmersa en sus representaciones (‘simulaciones’) que es imposible distinguirlas.

En el caso de un aumento en los textos emitidos por ChatGPT, eso podría significar que los consumidores ya no pueden distinguir entre el material «real» (hecho por el hombre) y las copias sintéticas que solo dan una ilusión de autenticidad y comprensión del mundo.

¿Hay todavía una salida a este revoltijo de representaciones, contornos, presentaciones e imitaciones? «Dejamos que todo esto suceda y, mientras tanto, nos hundimos en el cenagal pantanoso de la tecnología», dice Van Egdom. La alfabetización digital podría ser parte de la solución, espera.

El experto en inteligencia artificial Vreekamp sigue siendo positivo: «El público ahora es consciente de los riesgos y las limitaciones de las soluciones impulsadas por la tecnología, que fue diferente con el auge de las redes sociales». Él espera que los textos sintéticos y hechos por el hombre continúen coexistiendo, o en forma híbrida. Servicios como ChatGPT no resultarán por tanto una solución total, pero sobre todo una ayuda sumamente útil en, por ejemplo, un buscador, un programa de correo o un procesador de textos.





ttn-es-23