Los médicos tienen el desafío de navegar por la heterogeneidad de la atención del cáncer, interpretar grandes conjuntos de datos de diversas fuentes, mantener el ritmo con nuevas evidencias y aprobaciones de medicamentos, comprender los numerosos campos de la biología molecular y el espectro de estados de enfermedad. Sin embargo, a ...
Los médicos tienen el desafío de navegar por la heterogeneidad de la atención del cáncer, interpretar grandes conjuntos de datos de diversas fuentes, mantener el ritmo con nuevas evidencias y aprobaciones de medicamentos, comprender los numerosos campos de la biología molecular y el espectro de estados de enfermedad.
Sin embargo, a los oncólogos y a otros profesionales sanitarios involucrados en la atención del cáncer les surgen preocupaciones importantes sobre cuestiones legales éticas y operativas, entre ellas, la información falsa o sesgada en los algoritmos, la posible pérdida de confianza y de autonomía del paciente, desdibujándose o incluso sustituyendo roles de los médicos, así como otras cuestiones en torno a la supervisión de la IA en su forma de funcionar, por poner solo unos ejemplos.
Es por ello, que la Sociedad Estadounidense de Oncología Clínica (ASCO, por sus siglas en inglés), coincidiendo con su última reunión anual, en Chicago, ha difundido un documento sobre los "Principios para el uso responsable de la inteligencia artificial en oncología" para guiar los aspectos clave de la inteligencia artificial (IA).
Seis principales principios
La ASCO parte de que el impacto y el papel de la inteligencia artificial en oncología siguen estando subexplorados. De ahí que establezca seis principios básicos:
1. Transparencia: Las herramientas y aplicaciones de IA deben ser transparentes durante todo su ciclo de vida.
2. Partes interesadas informadas: Los pacientes y los médicos deben saber cuándo se utiliza la IA en la toma de decisiones clínicas y en la atención al paciente en la toma de decisiones clínicas y la atención al paciente.
3. Equidad e imparcialidad: Los desarrolladores y usuarios de la IA deben protegerse contra los prejuicios en el diseño y uso de los modelos de IA y garantizar el acceso a las herramientas de inteligencia artificial.
4. Responsabilidad: Los sistemas de IA deben cumplir los requisitos legales, reglamentarios y éticos que rigen el uso de los datos. Los desarrolladores de IA deben asumir la responsabilidad de sus sistemas de IA, sus decisiones, y su cumplimiento de los estándares legales, regulatorios y éticos.
5. Supervisión y privacidad: Los responsables de la toma de decisiones deben establecer políticas de cumplimiento institucional que regulen el uso de la IA, incluidas las protecciones que protejan la autonomía del médico y del paciente en la toma de decisiones clínicas y la privacidad de la información sanitaria personal.
6. Aplicación centrada en el ser humano: La interacción humana es un elemento fundamental de la atención sanitaria; la IA no elimina la necesidad de interacción humana y no debe utilizarse como sustituto de interacciones sensibles que la requieran.
Al respecto, la Junta Directiva de ASCO anunció, además, la creación de un grupo de trabajo que explorará la aplicación de la IA en la atención e investigación del cáncer y que elabore recomendaciones sobre el papel de la ASCO en la evolución de los usos de la IA.
Asimismo, esta Sociedad científica se ha comprometido a seguir investigando el impacto de la IA en oncología con investigaciones continuas y análisis más profundos de su papel en la atención oncológica, y a partir de las nuevas lecciones aprendidas poder encaminarse al desarrollo de políticas futuras.