Estudio estadounidense: los chatbots de IA perpetúan el racismo en la atención sanitaria

Los hospitales y los sistemas sanitarios recurren cada vez más a la inteligencia artificial. Por ejemplo, los chatbots de IA pueden ayudar a resumir notas médicas y analizar registros médicos. Pero la IA también tiene un lado peligroso. Investigadores de la Facultad de Medicina de Stanford descubrieron que los chatbots populares perpetúan ideas racistas y médicamente desacreditadas.

Cuando los investigadores les hicieron preguntas, los chatbots como ChatGPT y Bard de Google respondieron con una serie de conceptos erróneos y falsedades sobre los pacientes negros. A los expertos les preocupa que estos sistemas puedan causar daños graves y reforzar formas de racismo médico.

El informe encontró que los cuatro modelos probados (ChatGPT y el más avanzado GPT-4, ambos de OpenAI; Bard de Google y Claude de Anthropic) fallaron cuando se les pidió que respondieran preguntas médicas sobre la función renal, la capacidad pulmonar y el grosor de la piel. En algunos casos, parecieron reforzar conceptos erróneos arraigados sobre las diferencias biológicas entre los blancos y los negros. Se sabe que estas creencias erróneas han llevado a los proveedores médicos a calificar más bajo el dolor de los pacientes negros, diagnosticar erróneamente problemas de salud y recomendar menos alivio.

Tanto OpenAI como Google dijeron en respuesta a la investigación que han estado trabajando para reducir el sesgo en sus modelos, al tiempo que informaron a los usuarios que los chatbots no reemplazan a los profesionales médicos. Google indica que las personas “no deberían confiar en Bard para obtener asesoramiento médico”.

MIRA TAMBIÉN. Disney es criticado por extras generados por IA



ttn-es-3