‘Siempre hay algo que falta en la IA’

¿Puedes enseñarle a una computadora a no mentir a menos que la Gestapo esté en la puerta? ¿Y cómo sabe una máquina que no se trata de agentes ‘ordinarios’, que en las sociedades democráticas se llama tu mejor amigo?

Bueno, eso aún debería ser posible, dice el profesor de inteligencia artificial Jan Broersen. En realidad, es un ejemplo bastante simple de una excepción que va por encima de la regla general. “Ya tienes sistemas de razonamiento formales que pueden lidiar con reglas que también tienes que ser capaz de romper en ciertas situaciones. Hay ejemplos mucho más complicados, sistemas completos de reglas que interactúan. Pero en teoría todo eso se puede programar”.

La medida en que esto hace posibles las computadoras ‘morales’, sistemas automatizados que aprenden a tomar sus propias decisiones, ya asumir responsabilidades, es el foco de la investigación de Broersen, quien dio su conferencia inaugural en la Universidad de Utrecht a fines de marzo. Formado como matemático en Delft, quiere usar la lógica para tratar de desarrollar un cálculo moral para los sistemas de IA.

Tal «lógica deónica» (del griego deón: lo que es apropiado u obligatorio) se necesita desesperadamente, cree, para una sociedad que hace un uso cada vez mayor de la inteligencia artificial. “Todo el mundo habla de IA y ética, pero casi nadie hace nada al respecto. Al menos, se suele abordar como un problema social o jurídico. ¿Realmente queremos coches autónomos en la carretera? ¿Cómo deberíamos encajar eso legalmente? ¿Cuándo son responsables los fabricantes?

Todo muy importante, dice Broersen, pero ¿por qué no analizar si la responsabilidad moral se puede programar en los propios sistemas de IA? “Quiero saber: ¿cómo operacionalizas las teorías existentes sobre ética y las pones en una máquina para que sepa cómo lidiar con situaciones en las que las consideraciones morales son importantes?”.

Suponga que puede salvar a esas diez personas empujándose unas a otras sobre los rieles.

Simplemente explique, ¿cómo pone la ética en las máquinas?

“Por supuesto que comienza con teorías morales muy diferentes. Los filósofos han estado trabajando en esto sin cesar. Algunas teorías son más fáciles de imaginar automatizando que otras. Tome el utilitarismo, en términos generales, la opinión de que debe hacer lo que produce el mayor beneficio o felicidad para la mayor cantidad de personas posible. Ese es un enfoque bastante cuantitativo que puede capturar fácilmente en un programa. Encaja con la forma en que los informáticos ya piensan sobre la inteligencia: como un procedimiento para elegir acciones entre una serie de opciones con un objetivo claro”.

Entonces surge el ‘problema del tranvía’. ¿Tienes que dejar que un trolebús desbocado corra hacia diez personas para asegurarte de que mueran, o tienes que cambiar el interruptor a otra vía donde solo muera una persona?

“Sí, hay muchas variantes. Puedes ver que para muchas personas el utilitarismo es una teoría moral insatisfactoria. ¿Es la moral realmente un cálculo tan simple: diez víctimas o una? Las personas también marcan la diferencia entre no hacer nada e intervenir activamente, como accionar el interruptor. Esto tiene consecuencias sobre cómo percibimos la responsabilidad. Y suponga que puede salvar a esas diez personas empujando a otra persona sobre los rieles. eso es otra cosa Lo sentimos intuitivamente, y no, una computadora no lo hace”.

Las reglas dan dirección, pero también tienes que ser capaz de romperlas dependiendo del contexto.

¿Qué es posible entonces?

“El cálculo moral que defiendo no piensa principalmente en términos de resultados deseados, como el menor número de víctimas, sino en el seguimiento de reglas. El comportamiento moral es un comportamiento guiado por reglas. ¿Qué reglas se aplican en una situación y qué regla debe prevalecer sobre la otra? También enseñamos a los niños cómo comportarse. Las reglas brindan dirección, pero también debe poder romperlas según el contexto. Debe ser posible operacionalizar esto en un sistema formal”.

Sin embargo, en su conferencia inaugural se muestra escéptico sobre la posibilidad de una IA fuerte, máquinas para enseñar inteligencia humana ‘real’. ¿Por qué? Citas a Wittgenstein como apoyo. Pero también dice: seguimos las reglas a ciegas, sin pensar en ello. Una computadora también puede hacer eso, ¿verdad?

“Creo que todavía falta algo, a saber, la fuente moral. En nosotros es la razón y la comunidad, ambas nos hacen humanos. Aprendemos y ponemos a prueba nuestras percepciones e intuiciones morales entre sí, interpretamos reglas, las matizamos. Las máquinas no tienen eso. Puedes programar mucho, pero no esas intuiciones morales”.

¿No pueden desarrollarlos ellos mismos mientras aprenden?

“No, en mi opinión, un sistema así siempre perderá algo. Seguimos siendo los que determinamos cómo debe interpretarse una regla. En última instancia, una máquina no hace más que seguir las instrucciones que le hemos puesto. Por cierto, esto se aplica a las máquinas que usamos ahora. No se puede descartar que algún día sea posible. tomar computación cuántica, automatización con conocimientos de la mecánica cuántica. Si empiezas a entender la inteligencia y las elecciones morales de forma cuántica, será una historia diferente. Pero eso es muy especulativo. Esa área está abierta, todavía entendemos muy poco de ella. Personalmente soy un no determinista, creo que la realidad no está completamente fijada por la ley. Pero sí creo que al final somos máquinas. Pero no el tipo de máquinas que ahora llamamos computadoras”.

Ese auto no entenderá qué hacer cuando otros usuarios de la vía toquen la bocina

Más práctico: ¿cómo puede la lógica ética ayudar a las autoridades fiscales a prevenir un nuevo escándalo de desgravaciones?

“No creo que tenga mucho que ver con la IA. Simplemente hay conexiones estadísticas hechas de una manera que no encontramos deseable. Introduces casos, ‘sí/no fraude’, y luego esa computadora comienza a aprender. Luego busca correlaciones entre las características de las personas o los archivos, y ya no puede desactivar eso. También podría hacerlo de manera diferente y elaborar reglas de antemano sobre cómo una computadora puede buscar. Luego puedes programarlos de tal forma que sopesen ciertas características o no las incluyan. Tal como está ahora, no sabe cómo aprende el sistema, y ​​tampoco puede corregirlo. Sí, después en la Cámara de Representantes”.

El coche autónomo tiene ojos, memoria, puede tomar decisiones. ¿No es eso una IA fuerte?

“No, no lo creo. Ese auto no puede tener emociones o ver el significado como lo hacemos nosotros, no con nuestras computadoras actuales. No entenderá qué hacer cuando los demás usuarios de la vía empiecen a responder a un cartel que dice ‘toca la bocina si eres feliz‘ en él, como se puede ver en Estados Unidos. Por supuesto, puede programar algo en él, pero el comportamiento seguirá siendo diferente. No seguir de cerca, sí, puedes enseñarle eso”.



ttn-es-33