La respuesta correcta a la IA es más mundana que el temor existencial


Este artículo es una versión en sitio del boletín Free Lunch de Martin Sandbu. Inscribirse aquí para recibir el boletín de noticias directamente en su bandeja de entrada todos los jueves

Cuando ChatGPT y otras instancias de software de inteligencia artificial se lanzaron a un público desprevenido hace unos meses, siguió un frenesí de asombro. A su paso, ha surgido una avalancha de preocupaciones acerca de hacia dónde llevarán a la sociedad humana los vertiginosos desarrollos en las capacidades del software, incluso, sorprendentemente, de personas que están muy cerca de la acción.

El mes pasado, el inversionista en IA Ian Hogarth insistió en la revista de fin de semana del FT que “debemos desacelerar la carrera hacia una IA parecida a Dios”. Unas semanas más tarde, el hombre conocido como el «padrino» de AI, Geoffrey Hinton, renunció a Google para poder expresar libremente sus preocupaciones, incluso en un entrevista con el New York Times. Profesor y emprendedor de IA Gary Marcus se preocupa sobre “lo que los malos actores pueden hacer con estas cosas”. Y justo hoy, el FT tiene una entrevista con el pionero de la IA, Yoshua Bengio, quien teme que la IA pueda «desestabilizar la democracia». Mientras tanto, una gran cantidad de inversores y expertos en IA han pedido una «moratoria» para desarrollar aún más la tecnología.

Llámame ingenuo, pero me he encontrado incapaz de quedar atrapado en gran parte de la emoción. No porque dude que la IA cambiará la forma en que vivimos nuestras vidas y especialmente las estructuras de nuestras economías, por supuesto que lo hará. (Vea esta lista de las muchas maneras en que las personas son ya empieza a usar IA.) Sino más bien porque me cuesta ver cómo incluso los peores escenarios contra los que nos advierten los expertos son cualitativamente diferentes de los grandes problemas que la humanidad ya ha logrado causar y tuvo que tratar de resolver por nosotros mismos.

Tome el ejemplo de Hogarth de un chatbot de IA que lleva a alguien al suicidio. En el siglo XVIII, la lectura de Goethe El Las penas del joven Werther supuestamente podría tener el mismo efecto. Cualquiera que sea la conclusión que debamos sacar, no es que la IA represente un peligro existencial.

O tomemos como ejemplo a Hinton, cuya «preocupación inmediata es que Internet se inundará con fotos, videos y textos falsos, y la persona promedio ‘ya no podrá saber qué es verdad'». La incapacidad de ver la verdad es un temor que parece compartido por todos los pensadores mencionados anteriormente. Pero la mentira y la manipulación, especialmente en nuestros procesos democráticos, son problemas que los humanos hemos sido perfectamente capaces de causar sin necesidad de IA. Un vistazo rápido a algunas opiniones mantenidas por grandes pluralidades del público estadounidense, por ejemplo, muestra que (para decirlo cortésmente) el acceso deficiente a la verdad no es nada nuevo. Y, por supuesto, la capacidad de la IA generativa para crear falsificaciones significa que tendremos que volvernos más críticos con lo que vemos y escuchamos; y los políticos sin escrúpulos utilizarán la acusación de falsificación profunda para desestimar las revelaciones dañinas sobre ellos. Pero, de nuevo, en 2017, Donald Trump no necesitaba que existiera la IA para poder revertir las acusaciones de “noticias falsas” contra sus detractores.

Así que creo que la bocanada de terror existencial que han provocado los últimos avances de la IA es una distracción. En cambio, deberíamos estar pensando en un nivel mucho más mundano. Marcus hace una buena analogía con los códigos y estándares de construcción para las instalaciones eléctricas, y ese, más que un intento de ralentizar los desarrollos tecnológicos en sí mismos, es el plano en el que se deben tener discusiones sobre políticas.

Hay dos preguntas particularmente serias (porque son las más procesables) que los formuladores de políticas deberían abordar, en particular, los formuladores de políticas económicas.

El primero es quién debe rendir cuentas por las decisiones tomadas por los algoritmos de IA. Debería ser fácil aceptar el principio de que no debemos permitir que la IA tome decisiones que no permitiríamos (o no querríamos permitir) si las tomara un ser humano. Tenemos mala forma en esto, por supuesto: dejamos que las estructuras corporativas se salgan con la suya con acciones que no permitiríamos por parte de seres humanos individuales. Pero con la IA en su infancia, tenemos la oportunidad de eliminar desde el principio la posible impunidad de personas reales basada en la defensa de que “fue la IA la que lo hizo”. (Este argumento no se limita a la IA, por cierto: deberíamos tratar los algoritmos informáticos no inteligentes de la misma manera).

Tal enfoque alienta los esfuerzos legislativos y regulatorios para no estancarse en la tecnología en sí, sino centrarse en sus usos particulares y los daños que se derivan. En la mayoría de los casos, no importa tanto si el daño es causado por una decisión de la IA o por una decisión humana; lo que importa es desincentivar y sancionar la decisión lesiva. Daniel Dennett exagera cuando dice en la revista The Atlantic que la capacidad de la IA para crear “personas digitales falsificadas corre el riesgo de destruir nuestra civilización”. Pero él tiene el buen punto de que si los ejecutivos de las empresas de tecnología que desarrollan IA pueden enfrentar la pena de prisión por el uso de su tecnología para facilitar el fraude, se asegurarán rápidamente de que el software incluya firmas que faciliten la detección si nos estamos comunicando con una IA. .

La Ley de Inteligencia Artificial que se está legislando en la UE parece estar adoptando el enfoque correcto: identificar usos particulares de la IA para prohibirlos, restringirlos o regularlos; imponer transparencia sobre cuándo se usa la IA; garantizar que las reglas que se aplican en otros lugares también se aplican en los usos de la IA, como los derechos de autor de las obras de arte en las que se puede entrenar a una IA; y especificar claramente dónde recae la responsabilidad, por ejemplo, si el desarrollador de un algoritmo de IA o sus usuarios.

El segundo gran problema al que los formuladores de políticas deberían prestar atención es cuáles serán las consecuencias distributivas de las ganancias de productividad que la IA debería traer eventualmente. Mucho de eso dependerá de los derechos de propiedad intelectual, que en última instancia se refieren a quién controla el acceso a la tecnología (y puede cobrar por ese acceso).

Debido a que no sabemos cómo se usará la IA, es difícil saber cuánto se controlará y monetizará el acceso a los usos valiosos. Así que es útil pensar en términos de dos extremos. Por un lado está el mundo completamente propietario, donde la IA más útil será la propiedad intelectual de las empresas que crean tecnologías de IA. Estos serán un puñado como máximo debido a los enormes recursos que se dedican a crear una IA utilizable. Un monopolio u oligopolio efectivo, podrán cobrar altas tarifas por licencias y cosechar la mayor parte de las ganancias de productividad que la IA puede traer.

En el extremo opuesto está el mundo del código abierto, en el que la tecnología de IA se puede ejecutar con muy poca inversión, por lo que cualquier intento de restringir el acceso solo provocará la creación de un rival de código abierto gratuito. Si el autor de la filtración Nota de Google «no tenemos foso» es correcto, el mundo de código abierto es lo que estamos viendo. Rebeca Gorman de IA alineada, argumenta lo mismo en una carta al FT. En ese mundo, las ganancias de productividad de la IA las obtendrá quien tenga el ingenio o la motivación para implementarlas: las empresas tecnológicas verán que su producto se mercantiliza y reduce el precio de la competencia.

Creo que es imposible saber ahora a qué extremo estaremos más cerca, por la sencilla razón de que es imposible imaginar cómo se usará la IA y, por lo tanto, qué tecnología se necesitará. Pero yo haría dos observaciones.

Una es mirar Internet: sus protocolos están diseñados para ser accesibles para todos y el lenguaje es, por supuesto, de código abierto. Sin embargo, eso no ha impedido que las grandes empresas tecnológicas intenten, y a menudo lo consigan, crear «jardines amurallados» con sus productos y, en consecuencia, extraer renta económica. Por lo tanto, deberíamos equivocarnos al preocuparnos de que la revolución de la IA se preste a la concentración del poder económico y las recompensas.

La segunda es que el lugar donde terminamos es, en parte, el resultado de las decisiones políticas que tomamos hoy. Para avanzar hacia un mundo de código abierto, los gobiernos podrían legislar para aumentar la transparencia y el acceso a la tecnología desarrollada por las empresas tecnológicas, convirtiendo de hecho la propiedad en código abierto. Entre las herramientas que tiene sentido considerar, especialmente para tecnologías maduras, grandes empresas o instancias de IA que los usuarios adoptan rápidamente, se encuentran las licencias obligatorias (a precios regulados) y el requisito de publicar el código fuente.

Después de todo, todos nosotros generamos los grandes datos en los que se habrá entrenado cualquier IA exitosa. El público tiene un fuerte reclamo sobre el fruto de su trabajo de datos.

Otros legibles

  • “No puede haber una orden comercial abierta que funcione sin una orden de seguridad correspondiente que la suscriba”, argumentan Tobias Gehrke y Julian Ringhof, del Consejo Europeo de Relaciones Exteriores, en un análisis importante de cómo la UE debe actualizar su pensamiento sobre la política comercial estratégica.

  • El proyecto del euro digital avanza a toda velocidad, pero todavía tiene que ganar un amplio apoyo público.

  • El Consejo de Europa es configurar un registro de los daños causados ​​por el ataque de Rusia a Ucrania. Como iniciativa multilateral formal, esto debería hacer que sea más fácil responsabilizar financieramente a Rusia por la destrucción que ha provocado, incluso mediante la eventual confiscación de sus activos.

  • La nueva plataforma de compra conjunta de gas natural de la UE lo hizo mejor de lo esperado en su primera licitación.

Noticias de números

Gran Bretaña después del Brexit — Manténgase al día con los últimos desarrollos a medida que la economía del Reino Unido se adapta a la vida fuera de la UE. Inscribirse aquí

Secretos comerciales — Una lectura obligada sobre el rostro cambiante del comercio internacional y la globalización. Inscribirse aquí



ttn-es-56