No se debe obligar a los buenos robots a aprender de los malos hábitos humanos


Manténgase informado con actualizaciones gratuitas

Hace unos meses, me encontré conduciendo detrás de un vehículo autónomo (es decir, sin conductor) en San Francisco. Fue desconcertante, pero no porque el AV condujera mal o peligrosamente; en cambio, conducía demasiado bien.

Específicamente, el conductor del robot se detuvo obedientemente en cada señal de «alto», frenó en el semáforo en ámbar y se mantuvo por debajo del límite de velocidad oficial. Eso me obligó a hacer lo mismo, para mi irritación, ya que hasta ahora (como la mayoría de los conductores humanos) a veces he eludido suavemente las normas de tráfico.

Es una anécdota trivial. Pero resalta una cuestión existencial que se cierne sobre la cumbre del gobierno del Reino Unido sobre inteligencia artificial la próxima semana: mientras corremos para construir sistemas que mejoren en el «juego de la imitación», ¿qué tipos de comportamiento humano deberían copiar los robots?

¿Debería ser ésta nuestra visión idealizada del comportamiento: digamos, un mundo en el que todos observemos las normas de tránsito? ¿O la tierra de los humanos “reales”, donde los conductores pasan sigilosamente las señales de alto? Y, sobre todo, ¿quién debería decidir?

La cuestión es importante en todos los campos donde se aplica la IA generativa, ya sean finanzas, medios, medicina o ciencia. Pero la historia de los vehículos autónomos cristaliza la cuestión con especial claridad, ya que empresas como Waymo, General Motors y Tesla, que ya tienen flotas en lugares como Arizona y California, están adoptando enfoques sutilmente diferentes.

Pensemos en Waymo, el grupo audiovisual propiedad de Alphabet. Sus vehículos han estado deambulando por Phoenix, Arizona, durante casi dos años con un sistema de inteligencia artificial que (en términos generales) se desarrolló utilizando principios preestablecidos, como las reglas de la Administración Nacional de Seguridad del Transporte en Carreteras.

A diferencia de los humanos, Waymo Driver está diseñado para seguir los límites de velocidad aplicables”, dice la compañía, citando su reciente investigación que muestra que los conductores humanos infringen las reglas de exceso de velocidad la mitad del tiempo en San Francisco y Phoenix.

Los vehículos también están entrenados para detenerse en los semáforos en rojo, un punto que deleita a la NHTSA, que revelado recientemente que casi 4,4 millones de estadounidenses se saltaron los semáforos en rojo en 2022, y que más de 11.000 personas murieron entre 2008 y 2021 porque alguien se pasó los semáforos.

Como era de esperar, esto parece hacer Los coches de Waymo. mucho más seguro que los humanos. (Es cierto que este es un listón muy bajo, dado que 42.000 personas murieron en accidentes automovilísticos en Estados Unidos el año pasado).

Pero lo que es realmente interesante es que los funcionarios de Waymo sospechan que la presencia de vehículos autónomos que siguen las reglas en Phoenix está animando a los conductores humanos a seguir las reglas también, ya sea porque están atrapados detrás de un vehículo autónomo o porque se avergüenzan de que un robot les recuerde inadvertidamente sobre el tráfico. normas. La presión de grupo funciona, incluso con robots.

Hay poca investigación al respecto… todavía. Pero refleja mi propia experiencia en San Francisco. Y un (limitado) estudio del MIT muestra que la presencia de vehículos autónomos en una carretera puede mejorar potencialmente el comportamiento de todos los conductores. Hurra.

Sin embargo, el Tesla de Elon Musk ha tomado un rumbo diferente. Como señala la biografía de Musk escrita por Walter Isaacson, inicialmente Musk intentó desarrollar IA con reglas preestablecidas. Pero luego se abrazó formas más nuevas de IA generativa o estadística (el enfoque utilizado en ChatGPT). Esto «entrena» a los sistemas de IA a conducir, no con un código preestablecido, sino observando a conductores humanos reales; aparentemente se utilizaron 10 millones de clips de vídeo de coches Tesla existentes.

Daval Shroff, un funcionario de Tesla, le dijo a Isaacson que los únicos videos utilizados en este entrenamiento eran “de humanos cuando manejaron bien una situación”. Esto significa que a los empleados de Tesla se les pidió que calificaran esos clips de 10 m y que solo enviaran ejemplos de conducción «buenos» para el entrenamiento de los bots, para entrenar a los bots en un buen comportamiento, no en un mal.

Tal vez sea así. Pero hay informes de que los vehículos autónomos de Tesla imitan cada vez más a los humanos al, por ejemplo, cruzar señales de alto o semáforos. De hecho, cuando Elon Musk transmitió en vivo un viaje que realizó en agosto en un vehículo audiovisual, tuvo que intervenir manualmente para evitar que se salte un semáforo en rojo. tLa NHTSA está investigando.

Por supuesto, Musk podría replicar que todos los conductores ocasionalmente necesitan infringir las reglas en circunstancias inusuales para preservar la seguridad. También podría replicar que es natural que las empresas adopten diferentes enfoques respecto de la IA y luego dejen que los clientes elijan; así es como normalmente funciona la competencia corporativa.

Sin embargo, algunos reguladores están preocupados: aunque el Cruise de GM produjo datos a principios de este año que muestran un buen historial de seguridad general, esta semana el Departamento de Vehículos Motorizados de California exigió que la empresa dejara de operar AV no tripulados después de un accidente. Y el problema es que, si bien los reguladores pueden, en teoría, examinar los AV utilizando reglas preestablecidas (si personas externas tienen acceso al código), es más difícil monitorear la IA generativa, ya que las consecuencias de imitar el comportamiento humano «real» son muy impredecibles, incluso para sus creadores. .

De cualquier manera, el punto clave que los inversores deben entender es que las variantes de este problema pronto afectarán también a campos como el financiero, como dijo recientemente al Financial Times Gary Gensler, el Comisionado de Bolsa y Valores. ¿Deberían los actores habilitados por la IA en los mercados financieros programarse con reglas preestablecidas de arriba hacia abajo? ¿O aprender imitando el comportamiento de los humanos que podrían “arbitraje” (es decir, alterar) las reglas para obtener ganancias? ¿Quién decide y quién tiene la responsabilidad si algo sale mal?

No hay respuestas fáciles. Pero cuanto más integrada se vuelve la IA, más difícil es el desafío, como saben los asistentes a la cumbre de la próxima semana. Quizás deberían empezar reflexionando sobre un semáforo.

[email protected]



ttn-es-56