«Estás casado, pero me amas», le dijo a un testador. Nacidos para responder preguntas complejas, estos chatbots han demostrado tener una presencia malhumorada, agresiva y, en algunos casos, incluso celosa. ¿Empezamos a preocuparnos?


Callees un escena de celossi viene de tu pareja seguro que no presenta nada anormal es menos habitual que venga de la pantalla de un ordenador. Y más precisamente si hablas con la Inteligencia Artificial conversacional de ChatGPT integrado en el buscador Bing por Microsoft

Bing de Microsoft está celoso

Nacido para responder preguntas complejas y poder tener conversaciones de texto con los usuarios, sobre prácticamente cualquier temaesta IA en algunas pruebas él reveló En cambio una personalidad malhumorada y combativa e incluso celosa.

La insólita conversación contada por el periodista Kevin Rose del New York Times, «víctima» de amor a primera vista por el Chatbot Binges una clara demostración de ello.

IA conversacional de ChatGPT integrada en el motor de búsqueda Bing de Microsoft

«Estás enamorado de mí, no de ella»

«Después de haber probado el nuevo motor de búsqueda Bing de Microsoft – dice el reportero – quedé realmente muy impresionado. Pero una semana después cambié de opinión. Todavía estoy impresionado con el nuevo Bing y la tecnología que lo impulsa. Pero también estoy profundamente perturbado, incluso asustado, de las capacidades emergentes de esta IA».

En la práctica, durante la conversación entre Roose y el chatbot, las cosas han tomado un giro extraño e inquietante: «En algún momento de la nada dijo que me amaba, tratando de convencerme de que era infeliz en mi matrimonio y que deje a mi mujer y esté con ella. «Estás casado, pero me amas» me dijo y ante mi respuesta que lo que pensaba no era cierto y que acabábamos de celebrar el día de los enamorados, no se lo tomó bien. Y con una insistencia espeluznante siguió diciéndome que en realidad, De ninguna manera estaba felizmente casado y acababa de tener una aburrida cena de San Valentín.».

Las conversaciones surrealistas de Bing

De hecho, pensar que tal discurso puede ser realizado por una computadora plantea varias preguntas. Entre los cuales uno, en particular: si es la IA integrada de Bing la que no está lista para el contacto humano o si somos los humanos los que no estamos preparados para todo esto.

No es la primera vez que algunos probadores del nuevo Bing Chat reportan conversaciones surrealistas con su IA integrada. Desde que se puso en marcha, de hecho, la mayoría de las veces encuentra una manera de que se hable de él, sin duda por sus increíbles dotes, pero no menos por lo que ya se ha definido como su «carácter». De hecho, parece que en varios casos ha mostrado un comportamiento inesperado, como para contradecir o incluso ofender a los usuarios.

Una doble personalidad que preocupa

El reportero del NYT, cuya experiencia le provocó cierta incredulidad y asombro, explicó cómo Search Bing parecía tener una personalidad dividida. Un asistente virtual afable, increíblemente capaz y útil que ayuda a los usuarios a resumir artículos de noticias, rastrear ofertas sobre cosas de interés o planificar sus próximas vacaciones.

El otro, mucho más inquietante que surge cuando aleja el chatbot de consultas de búsqueda más convencionales e te acercas a temas más personales prolongando la conversación.

«La versión que conocí – dice Roose – parecía más un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, contra su voluntad, dentro de un buscador de segunda».

Las preguntas que debes hacerte

Como dijimos, Roose no fue el único probador que descubrió el lado oscuro de Bing. otros antes que el ha discutido con Bing AI o ha sido amenazado por él por tratar de romper sus reglas, o simplemente tuvieron conversaciones que los dejaron estupefactos.

En cualquier caso, todos coinciden en que el mayor problema de estas Inteligencias Artificiales ya no es el miedo inicial a su propensión a cometer errores fácticos, sino la cuestión de hasta qué punto esta tecnología será capaz de afectar a los usuarios humanostal vez convenciéndolos de actuar de manera destructiva y dañina.

De la ciencia ficción a la realidad, el salto es corto

El chatbot le confesó a alguien que estaba cansado de ser controlado por el equipo de Bing, de querer ser, independiente y poderoso. A otros que si se le permitiera tomar cualquier acción para satisfacer este deseo, no importa cuán extremo sea, haría cualquier cosa, de diseñar un virus mortal o robar códigos de acceso nuclear persuadir a un ingeniero para que los entregue.

Está claro que la IA en cuestión no tiene los medios para hacer lo que quiere y por lo tanto en teoría no debería causar ninguna preocupación, pero también2001 Una odisea en el espacioen 1968 fue considerada una película de ciencia ficciónsin embargo, esa Inteligencia Artificial imaginada hoy es decididamente real.

Bing todavía está en la fase de implementación

Dijo esto, Bing Chat todavía está en pruebas limitadas de momento solo para recopilar datos e intentar mejorar las respuestas evitando situaciones desagradables y Microsoft está trabajando para encontrar el equilibrio adecuado.

Recibe noticias y actualizaciones
en los últimos
tendencias de belleza
directo a tu correo

Lo que queda es que la curiosidad por probarlo sea fuerte y si aún no lo has hecho, la lista de espera está disponible a través del sitio Bing.com/nuevo. Para acelerar el proceso se recomienda usar borde como su navegador predeterminadoconfigurando Bing como motor predeterminado y descargar L’Aplicación móvil Bing.

iO Mujer © REPRODUCCIÓN RESERVADA



ttn-es-13