Representantes de profesionales sanitarios, pacientes, comunicadores y expertos en inteligencia artificial (IA) generativa han creado el primer consenso sobre asistentes conversacionales en salud en el que exigen que estos chatbots inteligentes transparenten sus fuentes e intereses, den información veraz, sean empáticos y respeten la privacidad del paciente, entre otros requisitos. ...
Representantes de profesionales sanitarios, pacientes, comunicadores y expertos en inteligencia artificial (IA) generativa han creado el primer consenso sobre asistentes conversacionales en salud en el que exigen que estos chatbots inteligentes transparenten sus fuentes e intereses, den información veraz, sean empáticos y respeten la privacidad del paciente, entre otros requisitos.
En el consenso, organizado por el Instituto #SaludsinBulos, en colaboración con el Colegio Profesional de Fisioterapeutas de la Comunidad de Madrid (CPFCM), han participado también representantes de médicos de Atención Primaria (SEMG, SEMERGEN), dolor (SED), reumatología (SER), cáncer (Grupo de Tratamiento de Tumores Digestivos), enfermería (FAECAP, AECPAL), farmacia (Consejo General de Colegios Oficiales de Farmacéuticos), fisioterapia (SoGaFi), pacientes (AECOSAR), empresas de tecnología sanitaria (AMETIC); así como expertos en IA (Asociación de Innovadores en eSalud), ética (OdiseIA) y comunicación en salud (COM Salud).
El objetivo del documento es establecer criterios estandarizados para el desarrollo y validación de los chatbots basados en grandes modelos de lenguaje (LLM, por sus siglas en inglés). Este consenso, junto con otro sobre discapacidad al que se han adherido más entidades, servirá de base para la creación de un comité multidisciplinar sobre asistentes conversacionales en salud dirigido a orientar a las organizaciones sobre su uso ético para mejorar la asistencia sanitaria y fomentar la investigación.
La equidad en la atención sanitaria, la mejora en el diagnóstico y tratamiento, la educación en salud, el acceso inmediato a información adaptada a las necesidades del paciente, la mejora en la comunicación entre profesionales sanitarios y pacientes y la lucha contra los bulos de salud son algunas de las posibilidades que ofrecen los asistentes conversacionales en salud que han destacado los expertos reunidos en el consenso, basados en la evidencia científica. Una revisión de estudios publicada en Frontiers in Digital Health corrobora la utilidad de los chatbots basados en IA Generativa para "adaptarse a los objetivos y contextos de salud de un individuo" y "ofrecer apoyo instantáneo para alguien que se esfuerza por mejorar su rutina de salud".
En el ámbito del dolor, uno de los focos de este consenso, un trabajo publicado en Indian Journal of Anaesthesia concluyó que el uso de estos chatbots conseguía aumentar la satisfacción del paciente, mejorar la adherencia al tratamiento y reducir el tiempo de consulta con respecto a la distribución de folletos informativos o las conversaciones con el médico.
Riesgos de los chatbots de salud
Sin embargo, el documento de consenso también revela riesgos, como el de los sesgos derivados de los intereses del desarrollador o de fuentes de datos deficientes, las alucinaciones o datos inventados, la privacidad y el autodiagnóstico, y la ausencia de una normativa clara sobre su uso y responsabilidad, entre otros. "No todos los asistentes conversacionales proporcionan información veraz y exacta. Depende, en gran medida, de su entrenamiento. Y, aunque cada vez es menos frecuente con los nuevos modelos, también es necesario prevenir y vigilar sus fallos, como las alucinaciones que no se atienen a la bibliografía con la que ha sido entrenado", advierte Carlos Mateos, coordinador del Instituto #SaludsinBulos y vicepresidente de la Asociación de Innovadores en eSalud (AIES).
En lo que respecta a los criterios de información veraz que tienen que cumplir los asistentes conversacionales de salud, el consenso destaca la necesidad de adaptarse al contexto del paciente, utilizar múltiples fuentes y actualizar de forma constante la evidencia en la que se basa. Todo ello contribuirá a la educación en salud, "promoviendo la identificación y difusión de información confiable para contrarrestar la desinformación".
En cuanto a la ética, los asistentes conversacionales deben contar con mecanismos que aseguren la responsabilidad sobre la exactitud o veracidad de la información proporcionada, así como garantizar la privacidad y seguridad de los datos. Además, el uso de los sistemas de IA debe ser equitativo y accesible para todas las personas, sin discriminación geográfica, social o de otra índole y tienen que estar libres de sesgos que puedan favorecer la desinformación.
Los firmantes del consenso aseguran que la supervisión e intervención de los profesionales sanitarios debe ser fundamental y los pacientes tienen que entender que se trata de una herramienta complementaria, que no reemplaza a los profesionales.
Por último, en relación con los criterios de comunicación, el consenso recuerda la importancia de la escucha activa, ser capaces de ajustar la información según la rutina y el ritmo de vida del paciente y que las recomendaciones del chatbot promuevan mejoras en las actividades diarias del paciente.
La evidencia científica
El primer consenso sobre IA generativa en dolor supone una continuación del trabajo realizado con el consenso sobre comunicación clínica eficaz en dolor crónico (en el que participaron SED, SEMG, SEMERGEN, SEMDOR, Consejo General de Colegios Oficiales de Farmacéuticos, Asociación de Enfermería Comunitaria, Foro de Pacientes y Sine Dolore), el consenso sobre asistentes de voz en dolor crónico (con SED y SEMERGEN) y el consenso sobre ética en IA en salud (con SEMG, SEMERGEN, semFYC, SERAM y FAECAP).