Publicación del volumen N° 177 de los Anales de Medicina Interna del ACP.
Autores: Nadia Daneshvar, JD, MPH, Deepti Pandita, Shari Erickson, MPH, Lois Snyder Sulmasy, JD, and Matthew DeCamp, MD, PhD, ACP Medical Informatics Committee and the Ethics, Professionalism and Human Rights Committee.
Resumen
Los médicos de medicina interna interactúan cada vez más con sistemas que implementan tecnologías de inteligencia artificial (IA) y aprendizaje automático (ML). Algunos médicos y sistemas de atención médica incluso están desarrollando sus propios modelos de IA, tanto dentro como fuera de los sistemas de registros médicos electrónicos (EHR). Estas tecnologías tienen diversas aplicaciones en toda la prestación de atención médica, como la documentación clínica, el procesamiento de imágenes de diagnóstico y el apoyo a las decisiones clínicas. Con la creciente disponibilidad de grandes cantidades de datos de pacientes y niveles sin precedentes de agotamiento de los médicos, algunos médicos acogen con cautela la proliferación de estas tecnologías. Otros piensan que presenta desafíos para la relación médico-paciente y la integridad profesional de los médicos. Estas disposiciones son comprensibles, dada la naturaleza de “caja negra” de algunos modelos de IA, para los cuales las especificaciones y los métodos de desarrollo pueden ser cuidadosamente guardados o patentados, junto con el relativo retraso o la ausencia de un escrutinio y validación regulatorios apropiados. Este documento de posición del Colegio Estadounidense de Médicos (ACP) describe las posiciones y recomendaciones fundamentales del Colegio con respecto al uso de herramientas y sistemas habilitados para IA y ML en la prestación de atención médica. Muchas de las posiciones y recomendaciones del Colegio, como las relacionadas con el enfoque centrado en el paciente, la privacidad y la transparencia, se basan en principios del Manual de Ética de la ACP. También se derivan de consideraciones sobre la seguridad clínica y la eficacia de las herramientas, así como de sus posibles consecuencias en relación con las disparidades en la salud. El Colegio pide más investigación sobre las implicaciones clínicas y éticas de estas tecnologías y sus efectos en la salud y el bienestar del paciente.
Las aplicaciones de la inteligencia artificial (IA) y el aprendizaje automático (ML) (consulte el Glosario) en medicina se han expandido de manera constante desde la década de 1970 y continúan creciendo a un ritmo rápido. Desde enero de 2020 hasta octubre de 2023, la Administración de Alimentos y Medicamentos de EE. UU. (FDA) revisó, aprobó, autorizó o autorizó más herramientas habilitadas para IA y ML que en los 25 años anteriores. Desde noviembre de 2022, el interés en la IA ha crecido significativamente junto con el auge de las herramientas de IA generativa, como ChatGPT de OpenAI, y el correspondiente aumento en la cobertura de los principales medios de comunicación.
La industria de la atención médica ha estado particularmente entusiasmada con la tecnología de inteligencia artificial y lo que puede significar para el futuro de la medicina y la prestación de atención médica. La cantidad de datos que se siguen recopilando sobre las personas a través de diversas aplicaciones de salud digitales orientadas a los consumidores y a los pacientes es imposible de examinar y procesar, incluso para los médicos más astutos, y mucho menos aplicarlos a las decisiones clínicas. Con el empeoramiento de la escasez nacional de médicos y los niveles récord de agotamiento de los médicos, existe un creciente entusiasmo por la expansión de herramientas aparentemente omniscientes que guían a los profesionales de la salud en la toma de decisiones clínicas y ayudan con las fuentes comunes de carga administrativa. Además, se espera que las tecnologías de inteligencia artificial, que pueden procesar grandes cantidades de datos de pacientes de diversas fuentes para informar decisiones médicas, permitan una atención al paciente más personalizada y basada en datos. Los beneficios esperados para la atención centrada en el paciente y la toma de decisiones se encuentran entre las razones por las que las herramientas y sistemas habilitados por IA no solo pueden esperarse sino ser necesarios en el futuro de la medicina y la atención médica.
Aunque la atención basada en datos es una piedra angular de la medicina moderna, la toma de decisiones basada en datos puede ser complicada y plagada de errores (1). De manera similar, aunque las herramientas de IA pueden transformar la práctica de la medicina de muchas maneras beneficiosas, el apoyo a las decisiones clínicas basado en resultados de IA sin una comprensión básica de la tecnología de IA puede tener consecuencias graves, incluso fatales, para los pacientes (2). Por lo tanto, es importante señalar que cuando se utiliza para la toma de decisiones clínicas, el término más apropiado es inteligencia "aumentada", lo que significa que continúa incorporando la inteligencia humana y se utiliza como herramienta para ayudar a los médicos (3, 4). Es necesaria una investigación exhaustiva para evaluar los riesgos y efectos a corto y largo plazo del uso clínico de la IA en la calidad de la atención, las disparidades en la salud, la seguridad del paciente, los costos de la atención médica, la carga administrativa y el bienestar y el agotamiento de los médicos. Es fundamental aumentar la conciencia general sobre los riesgos clínicos y las implicaciones éticas del uso de la IA, incluidas las medidas que se pueden tomar para mitigar los riesgos. Se necesitan recursos educativos integrales para ayudar a los médicos, tanto en la práctica como en la formación, a navegar en esta área de la tecnología en rápida evolución, incluida la mejora de su comprensión colectiva de dónde se puede integrar la tecnología en los sistemas que ya utilizan y el reconocimiento de sus implicaciones.
Además de las mejores prácticas, se necesitan investigación, orientación regulatoria y supervisión para garantizar el uso seguro, eficaz y ético de estas tecnologías. Este resumen ejecutivo proporciona una sinopsis de las posiciones políticas del Colegio Estadounidense de Médicos (ACP) sobre el uso de la IA en la prestación de atención médica. Los antecedentes completos, los fundamentos y las recomendaciones de políticas se pueden encontrar en el Apéndice 1. Las recomendaciones de este documento tienen como objetivo informar la defensa del Colegio con respecto a las políticas de IA tanto predictivas como generativas. Sin embargo, aunque vemos un gran potencial en la IA generativa que beneficia tanto a los médicos como a los pacientes, debido a que el panorama de este subconjunto de tecnología de IA aún está evolucionando, es demasiado pronto para comentar sobre su alcance e implicaciones completos. La ACP seguirá considerando esta tecnología en evolución a medida que madure. Además, la ACP reconoce que puede haber desafíos para implementar algunas de estas recomendaciones debido a la naturaleza dinámica y evolutiva de la tecnología de IA.
Metodología
El Comité de Informática Médica de la ACP, que aborda temas relacionados con la informática médica y la tecnología de la información en salud (TI), y el Comité de Ética, Profesionalismo y Derechos Humanos de la ACP desarrollaron este documento de posición sobre la base de una revisión de leyes y regulaciones, principios éticos y estudios empíricos y una amplia revisión de la literatura sobre los usos de la IA en la medicina y la atención sanitaria. Las bases de datos buscadas incluyeron Google y Google Scholar, y los términos de búsqueda utilizados incluyeron inteligencia artificial, medicina interna y atención primaria, entre otros. Los autores también consideraron los aportes de la Junta de Gobernadores, la Junta de Regentes, el Consejo de Médicos de Carrera Inicial, el Consejo de Miembros Residentes/Compañeros, el Consejo de Estudiantes Miembros y el Consejo de Sociedades de Subespecialidades de la ACP en el desarrollo de sus recomendaciones. Este documento de posición y las recomendaciones relacionadas fueron revisados y aprobados por el Comité de Informática Médica de la ACP en enero de 2024, el Comité de Ética, Profesionalismo y Derechos Humanos de la ACP en enero de 2024 y la Junta de Regentes en febrero de 2024.
Recomendaciones/declaraciones de posición
- La ACP cree firmemente que las tecnologías basadas en IA deben complementar y no suplantar la lógica y la toma de decisiones de los médicos y otros profesionales clínicos.
- La ACP cree que el desarrollo, las pruebas y el uso de la IA en la atención médica deben estar alineados con los principios de ética médica, sirviendo para mejorar la atención al paciente, la toma de decisiones clínicas, la relación médico-paciente y la equidad y justicia en la atención médica.
- La ACP reafirma su llamado a la transparencia en el desarrollo, las pruebas y el uso de la IA para la atención al paciente para promover la confianza en la relación médico-paciente. La ACP recomienda que los pacientes, médicos y otros profesionales sanitarios sean conscientes, cuando sea posible, de que es probable que se utilicen herramientas de IA en el tratamiento médico y en la toma de decisiones.
- La ACP reafirma que los desarrolladores, implementadores e investigadores de IA deben priorizar la privacidad y confidencialidad de los datos de pacientes y médicos recopilados y utilizados para el desarrollo y la implementación del modelo de IA.
- La ACP recomienda que la seguridad y eficacia clínicas, así como la equidad en salud, deben ser una prioridad máxima para los desarrolladores, implementadores, investigadores y reguladores de la tecnología médica basada en IA y que el uso de la IA en la prestación de atención médica debe ser abordado mediante el uso de un proceso de mejora continua que incluye un mecanismo de retroalimentación. Esto incluye necesariamente pruebas de usuarios finales en diversos contextos clínicos del mundo real, utilizando datos demográficos de pacientes reales e investigaciones revisadas por pares. Se debe prestar especial atención a los riesgos conocidos y en evolución asociados con el uso de la IA en medicina.
- La ACP reafirma que el uso de la IA y otras tecnologías emergentes en la atención médica debería reducir, en lugar de exacerbar, las disparidades en la salud y la atención médica. Para facilitar este esfuerzo:
a. La ACP exige que los datos de desarrollo de modelos de IA incluyan datos de diversas poblaciones para las cuales se puedan utilizar los modelos resultantes.
b. La ACP pide al Congreso, al HHS y a otras entidades clave que apoyen e inviertan en la investigación y el análisis de datos en sistemas de IA para identificar cualquier efecto dispar o discriminatorio.
c. La ACP recomienda que se produzcan colaboraciones multisectoriales entre el gobierno federal, la industria, las organizaciones sin fines de lucro, el mundo académico y otros que prioricen la investigación y el desarrollo de formas de mitigar los sesgos en cualquier tecnología algorítmica establecida o futura.
- La ACP recomienda que los desarrolladores de IA sean responsables del desempeño de sus modelos. Debería haber una estrategia federal coordinada de IA, construida sobre un marco de gobernanza unificado. Esta estrategia debe involucrar a entidades reguladoras gubernamentales y no gubernamentales para garantizar:
a. la supervisión del desarrollo, despliegue y uso de herramientas médicas basadas en IA;
b. la aplicación de políticas y orientaciones existentes y futuras relacionadas con la IA; y
c. mecanismos para permitir y garantizar la notificación de eventos adversos resultantes del uso de IA.
- La ACP recomienda que en todas las etapas de desarrollo y uso, las herramientas de IA deben diseñarse para reducir la carga de los médicos y otros profesionales sanitarios en apoyo de la atención al paciente.
- La ACP recomienda que se brinde capacitación en todos los niveles de la educación médica para garantizar que los médicos tengan el conocimiento y la comprensión necesarios para ejercer en sistemas de atención médica basados en IA.
- La ACP recomienda que los impactos ambientales de la IA y su mitigación se estudien y consideren durante todo el ciclo de la IA.
Conclusión
La expansión de las tecnologías de inteligencia artificial y aprendizaje automático en los sistemas de atención médica significa que los médicos están encontrando nuevas herramientas que antes no conocían o que aún no comprenden completamente. Para garantizar el máximo beneficio y el mínimo daño a los pacientes a partir de estas nuevas tecnologías, y para garantizar que se utilicen en consonancia con las responsabilidades éticas de los médicos y la profesión médica, se necesita más orientación, supervisión regulatoria, investigación y educación para los médicos, otros médicos y sistemas de atención de salud. La ACP espera que las recomendaciones contenidas en este documento de posición sirvan de base para el desarrollo de políticas en esta área crítica de las TI para la salud.
Glosario
- Algoritmo: “Un procedimiento sistemático que produce, en un número finito de pasos, la respuesta a una pregunta o la solución de un problema” (5). “Un conjunto de reglas que definen con precisión una secuencia de operaciones” (6).
- Inteligencia artificial: “Una colección de algoritmos informáticos que muestran aspectos de la inteligencia humana para resolver tareas específicas” (7).
- Procesamiento del lenguaje natural: “Un tipo de IA que se refiere a algoritmos que emplean lingüística computacional para comprender y organizar el habla humana” (7).
- Inteligencia aumentada: “Una conceptualización de la inteligencia artificial que se centra en la función de asistencia de la IA, enfatizando que su diseño mejora la inteligencia humana en lugar de reemplazarla” (4).
- Aprendizaje automático: “Un subconjunto de IA que aprovecha una familia de enfoques de modelado estadístico para aprender automáticamente tendencias a partir de los datos de entrada y mejorar la predicción de un estado objetivo” (7).
- Red neuronal: “Un programa informático que funciona de una manera inspirada en la red neuronal natural del cerebro” (8).
- Aprendizaje profundo: "Un subconjunto de ML que consta de múltiples capas computacionales entre la entrada y la salida que forman una 'red neuronal' utilizada para el aprendizaje de funciones complejas" (7).
- Red neuronal convolucional: “Un subconjunto de técnicas de DL que es particularmente eficiente en el reconocimiento de patrones basado en IA. Es la base de muchos algoritmos de IA de procesamiento de imágenes, por ejemplo en radiología” (7).
- Chatbot: “Un programa informático que simula una conversación humana con un usuario final” (9).
- Software de soporte a decisiones clínicas: “Software que tiene como objetivo brindar soporte a las decisiones para el diagnóstico, tratamiento, prevención, cura o mitigación de enfermedades u otras condiciones” (10).
- Visión por computadora: “Campo científico que se ocupa de cómo las computadoras procesan, evalúan e interpretan imágenes o videos digitales” (7).
- IA generativa: “Modelos de aprendizaje profundo que pueden generar texto, imágenes y otros contenidos de alta calidad en función de los datos con los que fueron entrenados” (11).
- Equidad en salud: “El logro del nivel más alto de salud para todas las personas, donde todos tengan una oportunidad justa y equitativa de alcanzar su salud óptima independientemente de su raza, origen étnico, discapacidad, orientación sexual, identidad de género, nivel socioeconómico, geografía o idioma preferido. u otros factores que afectan el acceso a la atención y los resultados de salud” (12).
- Modelo de lenguaje grande: “Los modelos de lenguaje grande utilizan algoritmos de inteligencia artificial computacional para generar un lenguaje similar al producido por los humanos” (13).
- Riesgo: “La combinación de la probabilidad de que ocurra un daño y la gravedad del daño potencial” (14).
- Software: “Instrucciones que le dicen a una computadora qué hacer” (15).
Referencias bibliográficas
- Obermeyer Z, Powers B, Vogeli C, et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science. 2019;366:447-453. [PMID: 31649194] doi: 10.1126/science.aax2342
- Lyell D, Wang Y, Coiera E, et al. More than algorithms: an analysis of safety events involving ML-enabled medical devices reported to the FDA. J Am Med Inform Assoc. 2023;30:1227-1236. [PMID: 37071804] doi: 10.1093/jamia/ocad065
- McNemar E. How does artificial intelligence compare to augmented intelligence? HealthITAnalytics. 24 September 2021. Accessed at https://healthitanalytics.com/news/how-does-artificial-intelligence-compare-to-augmented-intelligence on 10 January 2024.
- AMA. Augmented intelligence in medicine. Accessed at www.ama-assn.org/practice-management/digital/augmented-intelligence-medicine on 14 February 2024.