Puedes golpearlo, empujarlo o sacudirlo hasta que empiece a llorar. O, aún más cruelmente, acostarlo de lado para que ya no pueda levantarse y comience a luchar impotente. Para su tesis, la psicóloga social Marieke Wieringa instaló una auténtica cámara de tortura científica para Cozmo, el robot social. No es una prueba con animales, sino con robots para investigar cómo reacciona la gente ante los robots “emocionales”.
Wieringa (31) obtuvo su doctorado en la Universidad de Radboud por un estudio sobre las respuestas a emociones robóticas simuladas. Llegó al mundo de los robots gracias a su licenciatura en ciencias de la comunicación en la Vrije Universiteit. “En ciencias de la comunicación se investiga mucho sobre marketing e influencia, pero yo quería algo diferente, algo nuevo. Después de una conferencia sobre robots sociales pensé: ajá, aparentemente esto también es ciencia de la comunicación”.
Un sonido muy patético.
Hizo su tesis de maestría en la Universidad de Ámsterdam y eso le supo a ascenso. “Se me ocurrió la idea de un vídeo de YouTube de dos niños sacudiendo un robot Cozmo. Luego hace un sonido muy patético. A uno de esos muchachos le pareció muy gracioso, pero al otro le dio pena”.
La tesis de Wieringa no trata de si los robots conocen “realmente” las emociones, sino que investiga cómo responden las personas a las emociones simuladas de un robot. Esto tiene un lado cognitivo (la gente atribuye una forma de conciencia al robot), un lado afectivo (cómo se siente la gente ante un robot que muestra emociones) y un lado moral (la interacción con un robot está sujeta a juicios morales).
“Ya se habían realizado investigaciones sobre cómo reacciona la gente ante una historia en la que se abusa de un robot. Entonces parecen inclinados a pensar que el robot tiene capacidades mentales. He ampliado esa investigación con robots que muestran y no muestran emociones cuando son abusados. En ambos casos, la gente seguía inclinada a pensar que el robot estaba sufriendo. Pero lo que también vimos es que es más probable que las personas estén de acuerdo con la afirmación de que un robot puede sufrir dolor si muestra emociones. Esa creencia no se ve reforzada por la violencia utilizada”.
Agarrando a un dinosaurio bebé por el cuello
Un experimento posterior dio a la gente espacio para la reflexión posterior. “Mostramos a la gente vídeos de un robot con forma de bebé dinosaurio siendo abusado. Si lo golpeas o lo recoges por la cola, se pone a llorar. Si lo agarras por el cuello, hace ruidos de asfixia, bastante realistas”. La gente miró dos veces, la primera vez tuvieron que responder de forma inmediata e intuitiva, la segunda vez se les permitió congelar el vídeo, rebobinarlo y pensar en ello después. “Incluso entonces, después del vídeo, la gente estaba más inclinada a estar de acuerdo con la afirmación de que los robots experimentan dolor, aunque cuando piensan en ello se dan cuenta de que el robot es sólo un objeto”.
Realizó una serie de pruebas afectivas en el laboratorio. A los sujetos de prueba se les asignó una tarea motora aburrida: girar clavijas en un tablero un cuarto de vuelta, cada vez hasta que recibieran nuevas instrucciones. “No sabían cuánto tiempo les llevaría y después de cinco minutos ya era tremendamente aburrido”. Luego jugaron con un robot Cozmo que estaba feliz cuando ganaba y triste cuando perdía, y luego tuvieron que sacudirlo. “Luego se les dio una opción: volver a realizar esa tarea intensamente aburrida de antes o volver a agitar el robot. Cuanto más agites, más corta será la tarea. Resultó que la gente se sentía más culpable y estaba mucho menos dispuesta a sacudir al robot cuando Cozmo mostraba emociones”.
¿Pero la gente realmente cree que el robot sintió dolor? ¿O simplemente les resulta desagradable llorar? “También hubo gente que dijo eso, pero la mayoría realmente se sintió culpable, se sintió mal y sintió pena. También hubo personas que se comprometieron consigo mismas y sacudieron muy brevemente el robot para reducir el tiempo que tenían para realizar esa aburrida tarea. Después dijeron: Pensé que todavía podría manejar esto”.
En una prueba final, las personas recibieron un robot social en su casa durante cinco días. Luego fueron interrogados y tuvieron que burlarse del robot, por ejemplo haciéndolo luchar. “La mayoría de la gente encontró esto moralmente objetable, incluso si dicen que ven al robot como un objeto. No está bien”. ¿No podría aplicarse esto también al abuso de un árbol o de una puerta? “Preguntamos: supongamos que hubieras hecho esto con una caja de cartón, ¿eso importa? El hecho de que el robot responda emocionalmente resulta crucial, ya sea que la gente crea que esas emociones son “reales” o no”.
Sencillo o racional
Una de sus conclusiones es que las respuestas humanas a los robots emocionales no son tan sencillas ni racionales como solemos pensar. “Nos gusta creer que somos muy racionales, pero todavía basamos nuestro comportamiento en gran medida en el apego emocional”. Riendo: “Eso es bueno, de lo contrario seríamos robots”.
Wieringa también ve riesgos. “Por supuesto, también se puede abusar del apego emocional. Puedes imaginar que las empresas crean un modelo de ingresos a partir de robots sociales para vender todo tipo de cosas. Ya lo viste en los años 90 con el Tamagotchi, el juguete digital al que la gente se encariñó. Había que darle de comer, sino se quejaría. Eso fue gratis. ¿Pero qué pasa si te piden que pagues por esa comida o que compres algo más?
Wieringa ya ha superado a los robots. Tiene un nombramiento como investigadora postdoctoral en Groningen. “Voy a investigar cómo podemos enseñar a la gente sobre los microplásticos de forma lúdica. Yo también soy de Groningen y siempre quise volver, así que por fin ha llegado el momento”.