¿La pena de muerte para un robot? Esto ya no es sólo ciencia ficción, dice la abogada Alice Giannini


El sospechoso de un crimen pronto ya no será necesariamente un ser humano de carne y hueso. La inteligencia artificial que avanza rápidamente se considera a menudo súper eficiente y orientada a objetivos, pero también resulta falible y puede dañar a las personas. Piense en los coches autónomos que causan sensación. Y entonces parece concebible la responsabilidad penal por la inteligencia artificial. ¿O es eso exagerado y es impensable que los robots y los sistemas acaben algún día en el banquillo de los acusados?

La abogada italiana Alice Giannini (30) ha investigado este tema en los últimos años. Resultó en su tesis. Comportamiento criminal y responsabilidad de los sistemas de inteligencia artificialtras lo cual recibió su doctorado el 24 de noviembre en la Universidad de Maastricht, donde es profesora universitaria desde este año.

El tema se presentó con naturalidad, dice: “Después de mis estudios de Derecho, combiné unas prácticas en el Ministerio Público con un trabajo en una nueva empresa que desarrollaba IA”. Su infancia también influyó: “Cuando era joven veía muchas películas de ciencia ficción con mi padre. Es curioso ver cómo escenarios que en su momento se creían imposibles ahora se están haciendo realidad. Quizás también un poco de miedo, aunque yo no tengo miedo”.

¿En qué áreas la IA ha progresado hasta tal punto que podrían entrar en juego cuestiones de derecho penal?

“Yo diría: tráfico, atención sanitaria. Y no nos olvidemos de la aviación”.

¿Y dónde está la reflexión sobre esto en el derecho penal?

«Cuando comencé mi investigación en 2019, era realmente un nicho, pero en los últimos años se han publicado muchos artículos sobre IA y derecho penal».

¿Cómo procediste?

“Había mucho que asimilar. También es fundamental un poco de conocimiento técnico sobre IA. Y tuve que definir la IA. Es como intentar clavar pudín en un árbol. No sólo los abogados, sino también los técnicos no pueden ponerse de acuerdo en esto. Después de establecer finalmente una definición, mi investigación también tuvo un componente filosófico importante: ¿puede la IA ser una entidad legal? ¿Tiene libre albedrío? ¿Puede sentirse culpable? Es casi interminable: empiezas con cien preguntas y terminas con cien mil preguntas”.

Sin embargo, finalmente llegó al tema principal: la responsabilidad penal.

“Se pueden distinguir aproximadamente tres escuelas de pensamiento: los ‘expansionistas’, que defienden firmemente la responsabilidad y la modificación del derecho penal, los escépticos que consideran que estas tonterías no son realistas y los moderados. Están en el medio y dicen: ‘Todavía es demasiado pronto, pero cuando llegue el momento, el derecho penal puede ofrecer una solución’”.

«La investigación sobre la IA es casi infinita: empiezas con cien preguntas y terminas con cien mil preguntas».
Foto Alicia Giannini

¿Y, qué piensas?

“Empecé como un escéptico, como alguien que pensaba que era una tontería. Después de toda mi investigación, me cuento entre los moderados. A largo plazo, realmente podría llegar al punto en que sea necesario”.

¿Por qué no ahora?

“La ley existente es suficiente por el momento. Si algo sucede ahora, puedes procesar a los desarrolladores o empresas detrás de la IA. Y si se quiere regular con demasiada antelación, se detendrá la innovación en una fase temprana. Nadie quiere inventar nada si inmediatamente corre el riesgo de asumir una responsabilidad enorme”.

¿No corre el riesgo de que el legislador siga a la zaga de los hechos?

“El derecho penal no debería ser uno de los primeros en llegar a un partido. Está pensado como último recurso. Investiga el tema y debatelo, pero tómate tu tiempo y descansa. Además, es imposible predecir qué podría salir mal con la IA dentro de varios años, porque no podemos predecir qué es posible entonces. Para las aplicaciones actuales, por ejemplo en la atención sanitaria y en los vehículos autónomos, la ley existente sigue siendo suficiente”.

Ya estamos consiguiendo jueces y abogados de IA mucho más rápido que responsabilidad penal para la IA

¿Cuándo es necesaria una nueva legislación?

“Tan pronto como comenzamos a desarrollar máquinas, también las consideramos parte de nuestra comunidad. En ese momento también pueden amenazar a nuestra comunidad y cometer delitos en el sentido jurídico de la palabra. Para evitarlo, deben poder aprender reglas morales y legales.

¿Eso no es posible todavía?

“Se está trabajando en la moralidad de la IA, pero actualmente es imposible pensar en cada dilema de antemano o hacer que una máquina haga las concesiones que a veces hacemos en un abrir y cerrar de ojos. Un ejemplo clásico: un amigo tiene que ir corriendo a urgencias debido a dolencias agudas y peligrosas. Entonces no se trata simplemente de una cuestión de máxima urgencia o de respeto de las normas de circulación. No, la mayoría de las personas suelen intentar mantener el equilibrio entre llegar rápidamente a la sala de urgencias y mantener el riesgo de sufrir un accidente de tráfico lo más bajo posible”.

¿Cómo serían las sanciones para la IA?

“La pena de muerte es la más drástica: destruir un robot o apagar un sistema. Pero en muchos lugares hemos superado la etapa de castigar a la gente con la muerte. Y la IA realmente no puede sufrir. Multar es difícil. Actualmente, la IA no puede poseer dinero por sí sola. Me parece que la condena a reprogramación es la que tiene más sentido. Con las personas también esperas que después de cumplir una condena surjan como mejores personas, que no vuelvan a cometer el mismo error”.

¿Juzgarán entonces los jueces humanos o la IA pronto juzgará a la IA?

“Esto último parece muy probable. Los jueces y abogados de AI están avanzando mucho más rápido que la responsabilidad penal de AI. La inteligencia artificial ya tiene aplicaciones de este tipo, no tan extremas como los jueces robóticos, sino para calcular la posibilidad de reincidencia y el castigo más adecuado en función del delito, la situación y las circunstancias”.

Lea también
Los derechos humanos también desempeñan un papel en la IA, por eso Jan Kleijssen está trabajando en un tratado

<strong>Jan Kleijssen</strong> en un parque de Estrasburgo, donde se encuentra el Consejo de Europa.» class=»dmt-article-suggestion__image» src=»https://images.nrc.nl/6dr8mPmCnK2sSJ6PVZ3HnYK61Po=/160×96/smart/filters:no_upscale()/s3/static.nrc.nl/bvhw/files/2023/01/data94831917-9d3d4a.jpg»/></p><aside data-article-id=



ttn-es-33