Un algoritmo que está entrenado para predecir el cáncer de piel, pero del cual solo el 4 por ciento de los datos utilizados se refiere a personas con piel oscura, hace predicciones menos buenas para ellos. Un modelo estadounidense que calcula los riesgos para la salud de los pacientes y se basa en los costos de atención médica incurridos ofrece menos atención a la población negra, porque ya recibió menos atención en el pasado.
Estos son ejemplos de modelos de inteligencia artificial (IA) en el cuidado de la salud que funcionan mejor para uno que para el otro. Para tales modelos, los datos lo son todo. Pero solo cuando esos datos son realmente 100 por ciento representativos, estos modelos pueden funcionar bien para cada grupo. Esto es muy importante en el cuidado de la salud. Ya en 2021 expertos advirtieron en un informe por “discriminación algorítmica” por sesgo.
Un modelo que funciona mejor para un grupo que para otro puede mantener o incluso exacerbar la desigualdad, dice Michel van Genderen. Es internista-intensivista en el Erasmus MC de Rotterdam y co-iniciador del IA responsable y ética en el laboratorio de atención médica de ese hospital Ese laboratorio comenzó este mes. Médicos, técnicos, enfermeros y especialistas en ética reflexionan sobre la aplicación éticamente responsable de la inteligencia artificial en el cuidado de la salud. La idea detrás de esto: la consulta entre personas de la práctica clínica, técnicos que diseñan los modelos y especialistas en ética con sus propias consideraciones pueden traer problemas a la superficie y conducir a soluciones.
aliviar el cuidado
Hay poco tiempo para esas reflexiones, dice Van Genderen. La demanda de atención está aumentando, al igual que la escasez de personal. Se ha llegado al límite del sistema sanitario, según un informe del Consejo de Salud Pública y Sociedad de este mes. “Gran parte de la solución está en los modelos de IA que pueden aliviar la carga de la prestación de atención. No es posible detener la innovación: se necesita urgentemente ahora, tenemos suficientes problemas que resolver. Pero tenemos que idear marcos con los que esto se pueda hacer de manera segura”.
Las suposiciones y los sesgos pueden “atrincherarse” en los modelos de IA
El cuidado de la salud ya está utilizando ciertas aplicaciones de inteligencia artificial. Por ejemplo, el hospital OLVG en Amsterdam y el Hospital Maasstad en Rotterdam recientemente comenzaron a usar software de alta en cuidados intensivos. Aquí, un modelo informático calcula la probabilidad de que un paciente regrese rápidamente o muera después de ser dado de alta de la UCI. Erasmus MC también utiliza dicho software de alta para pacientes que se han sometido a una cirugía de cáncer. Este hospital también está desarrollando un ‘modelo de decúbito’ para predecir el riesgo de úlceras por presión en la UCI. Y está trabajando en un modelo que indica cuál será el mejor tratamiento para los pacientes con insuficiencia cardiaca.
Estas aplicaciones deberían reducir la presión sobre la asistencia sanitaria. En el caso de los pacientes cardíacos, por ejemplo, puede significar que los médicos cambien más rápidamente a medicamentos que el paciente pueda tomar en casa, para que el hospital no tenga que administrarlos. Como resultado, los pacientes pueden irse a casa antes. El software de descarga también cumple esa función y también puede ayudar al médico a tomar decisiones más rápido.
Van Genderen: “El gran temor es que la IA reemplace a los humanos en el cuidado de la salud. Pero si usamos la IA de la manera correcta, la atención se mantiene humana: el personal puede prestar más atención a los pacientes en lugar de correr de cama en cama sintiéndose exhausto”.
Lea también: La IA debería mejorar todo en la atención médica, pero hace tiempo que ha penetrado en la práctica médica
Pero: ¿cómo sabe si el modelo funciona tan bien para el paciente A como para el paciente B? Cuando las personas eligen, a menudo usan conocimientos previos, suposiciones, creencias, lo que hace que su elección sea sesgada: contiene ‘sesgo’. Y la gente crea y alimenta los modelos, como resultado de lo cual ese sesgo se ‘ancla’, dice Van Genderen. “Si podemos identificar las deficiencias de cada modelo en una etapa temprana, también podemos actuar sobre ellas”. Agregando más datos de grupos subrepresentados, por ejemplo, o corrigiendo esto con métodos matemáticos.
El software de alta para cirugía oncológica en Erasmus MC se ha desarrollado con datos de pacientes del propio hospital. Van Genderen: “Esa es una población completamente diferente a la del norte de los Países Bajos, por ejemplo. Pero quieres que el modelo funcione igual de bien allí”. Por eso aboga por el intercambio de ‘inteligencia’ entre hospitales.
Es importante que el médico siempre pueda verificar cómo y por qué un modelo llega a una predicción, dice Jessica Workum, intensivista del Hospital Elisabeth-TweeSteden y consultora de inteligencia artificial en la empresa de software Pacmed. “Los desarrolladores y proveedores deben proporcionar información sobre cómo se creó un modelo y cómo toma decisiones. ¿Qué cuenta en eso?
Los propios proveedores de atención médica deben convertirse en “alfabetizados en IA”, dice ella. “Necesitamos saber qué es un modelo y poder reconocer si es apropiado para el paciente que tenemos enfrente. Por ejemplo, conociendo el conjunto de datos en el que se ha entrenado el modelo”.
Es importante que los médicos estén a cargo de cada decisión, dice el experto estadounidense Reggie Townsend. Es asesor de ética de inteligencia artificial en la empresa de software SAS y miembro del Comité de IA NAIAC que asesora al gobierno de EE. UU. “El mayor escollo es que confiamos demasiado en la IA. A juzgar por las noticias, uno pensaría que la IA resolverá todos los problemas del mundo o hará obsoleta a la humanidad”.
Qué hacer si escuchas un ‘bip’
Los humanos, el médico, en este caso, deben tomar sus propias decisiones, con la ayuda de los consejos de los modelos de IA. Townsend: “Cuando caminas por un hospital, escuchas un ‘bip’ en todas partes. Son los médicos los que deciden qué hacer con ese ‘bip’. Debería ser lo mismo con la inteligencia artificial; deje que el médico decida qué hacer con los resultados de tal sistema”.
Van Genderen lo compara con el asunto suplementario, en el que los funcionarios públicos engañaban a las personas sobre la base de algoritmos “sesgados”. “¿Cuánto se ha seguido ciegamente el modelo allí? ¿Cuál fue el papel del funcionario en esto? Ya tenemos que pensar qué necesita el proveedor de atención médica para tomar decisiones basadas en modelos de IA. No es como ChatGPT: deja que la gente lo use y aprenderemos. En el cuidado de la salud, no podemos cometer errores y ver dónde van las cosas mal”.