La respuesta de Javier García Alegría


Javier García Alegría

Javier García Alegría Javier García Alegría es médico internista, Director del Servicio de Medicina Interna del Hospital Costa del Sol de Marbella. Ha sido Presidente de la Sociedad Española de Medicina Interna (SEMI) y en la actualidad es el Presidente de la Federación Española de Asociaciones Científico Médicas de España (FACME).

10/07/2024

¿Qué se puede esperar a corto, medio y largo plazo de la interacción de la denominada inteligencia artificial con la inteligencia humana?


Desde hace tiempo veníamos leyendo en la literatura científica acerca de Inteligencia artificial (IA) en Medicina distintos conceptos que aparecían en nuestras fuentes, aunque percibíamos que los avances eran lentos y no se disponía de aplicaciones para nuestra práctica diaria o eran en un ámbito muy limitado. Sin embargo la aparición de los modelos de IA generativa o basadas en el lenguaje natural, han supuesto una transformación radical y lo que hace poco parecía una especulación, se ha convertido ya en una realidad incontestable.

La IA es una tecnología completamente disruptiva que está cambiando la humanidad y de manera muy especial la Medicina y la asistencia sanitaria. Las herramientas actuales de IA cubren toda la vida de los humanos, abarcando desde el diagnóstico genético prenatal, la interpretación de imágenes, la estratificación del riesgo en urgencias, el diagnóstico diferencial en escenarios complejos, hasta la identificación de dianas terapéuticas y el diseño acelerado de fármacos. Los sumarios de las revistas médicas están llenos de artículos relacionados y de experiencias prácticas, en muchos casos con decenas de miles de pacientes, muchas de ellas con un impacto impresionante.

Para vislumbrar la potencial reducción del error con la IA en Medicina hay que entender la forma de razonamiento humano y la de actuación de las herramientas de IA. La mente humana procesa la información de dos maneras fundamentales con el llamado sistema de procesamiento dual: Tipo 1: intuitivo o automático; Tipo 2: analítico o controlado. En realidad hay poco razonamiento en la forma 1, que se adquiere por la repetición de experiencias previas, es muy rápido-cuasi inconsciente-altamente eficaz para muchas tareas de la vida diaria y se aplica en la mayor parte de las decisiones de la práctica médica (reglas de oro del pensamiento automático), también conocido como heurística. Hay reglas que pasan de generación en generación entre médicos; sin embargo esta modalidad, está muy expuesta a las distracciones por factores del contexto y yerra en algunos pacientes, generando la mayoría de los errores diagnósticos.  En situaciones especiales se requiere una reflexión consciente (razonamiento hipotético-deductivo), deliberada, lenta, y fiable, siguiendo la lógica racional y las leyes de la ciencia, que está menos expuesta al error (forma 2). Esta modalidad consume muchos recursos y tiempo, por lo que no se puede usar de manera generalizada y sistemática. La ventajas de IA en la potencial reducción del error respecto al razonamiento humano, es que no usa la forma 1 de toma de decisiones y que no consume tiempo ni recursos en la forma 2 de “razonamiento”. Posiblemente uno de los mayores desafíos de la aplicación de las herramientas de IA en Medicina es como complementar la inteligencia y conseguir una secuencia de actuación de forma 2 con la IA, seguido de forma 1 o 2 del médico en función de la complejidad del caso, lo que sería una combinación de “inteligencia natural” e “inteligencia artificial”.

La introducción de una tecnología tan poderosa y transformadora, implica unos riesgos y potenciales perjuicios que no pueden ser soslayados. Varios de ellos son de índole ético-legal, como el mantenimiento de la privacidad y la seguridad de la información, la evitación de los sesgos y la discriminación,  la clarificación de la propiedad intelectual, la responsabilidad y la rendición de cuentas, la garantía de transparencia, el consentimiento informado y su potencial impacto en la relación médico-enfermo. Otros dilemas que se plantean tienen que ver con los criterios de evaluación de acuerdo con unos estándares como se hace con de otras tecnologías médicas o fármacos antes de su aprobación e incorporación a la práctica, la estandarización, el riesgo de pérdida de destrezas por parte de los expertos, el impacto en la automatización de procesos y en el empleo, o la posibilidad de oligopolio de esta tecnología. Según de vaya expendiendo el uso de la IA en Medicina se incrementarán los problemas éticos dependiendo de cómo se hayan entrenado los modelo y de cómo se formulen la consultas; los usuarios tienen que entender que las decisiones y los valores humanos pueden influir en los resultados.

La regulación de la IA generativa en medicina y en asistencia sanitaria sin limitar ni cohibir todo su potencial es oportuna y crítica para garantizar la seguridad, mantener los estándares éticos y proteger la privacidad de los pacientes. El liderazgo de la innovación en Medicina reside en los expertos y en las sociedades científicas en su campo de conocimiento tenemos que estar preparados para este desafío.

Ante esta encrucijada hay numerosas preguntas esenciales que deberíamos contestar con premura:

•     ¿Cómo se van a evaluar la herramientas de IA antes de su aprobación e incorporación a los centros sanitarios?

•     ¿Cuál va a ser el papel de los médicos en el desarrollo de estas herramientas?

•     ¿Podrá imponer una herramienta determinada o un paciente que la use su criterio al del clínico? ¿Qué ocurrirá en casos de discrepancia y cuál será la responsabilidad médico-legal en ambas situaciones?

•     ¿Cuál será el impacto en cada una de las especialidades médicas y en sus oportunidades laborales?

•     ¿Podrá la IA disminuir el incentivo profesional y el interés de los médicos por hacerse expertos en un campo de la Medicina? ¿Perderemos muchos expertos, y ante su falta quién corregirá los errores de las herramientas de IA?

•     ¿Cuál va a ser el impacto de la IA en la relación médico-enfermo?

•     ¿Como se van a considerar las características individuales del paciente que son esenciales para tomar una decisión?

•     ¿Cómo se van a formar los médicos residentes, de qué manera se van a renovar los programa formativos de las especialidades y cómo se van a actualizar los especialistas con experiencia para incorporar estas herramientas de IA?

•     ¿Vamos a poder financiar públicamente las tecnologías diagnósticas y terapéuticas de la Medicina de Precisión basadas en la IA?

•     ¿Va la IA a generar inequidad entre la población?

Demasiados interrogantes y pocas respuestas. Sin embargo, contestar preguntas bien formuladas es la esencia del progreso científico. Este panorama es un reto apasionante para estas generaciones al que tenemos que contribuir los médicos sin perder una perspectiva inmutable: los principios éticos tradicionales de la Medicina de aplicar el mejor conocimiento científico vigente en beneficio del paciente individual y, a la vez, la consideración de su impacto global en la sociedad.

¿Qué podemos esperar a corto, medio y largo plazo de la IA?

-     Corto plazo: incertidumbre, desconcierto profesional, inseguridad de los clínicos, problemas éticos y médico-legales, introducción de tecnologías sin suficiente evaluación, explosión de conocimiento, regulación de uso y liderazgo de los adaptadores tempranos.

-     Medio plazo: evaluación tecnológica estandarizada, incorporación de tecnología a la práctica rutinaria, cambio en los sistemas formativos de pre y postgrado, normas de uso claras, involucración progresiva de los profesionales, optimización del tiempo médico, cambio cultural en médicos y pacientes.

-     Largo plazo: integración completa de la IA en la toma de decisiones rutinaria, cambio en el paradigma de la Medicina y en el rol de los médicos, y difusión entre los pacientes.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *