Máster de Cultura Científica EHU/UPNA 2023/2024 Introducción a la Inteligencia Artificial. Tarea 6.

La tarea consiste en aportar nuestra visión crítica sobre la IA en su totalidad o sobre algún aspecto concreto, desde un punto de vista científico y ético, argumentando desde casos considerados en la materia y con referencias.

 

Imagen generada gracias a la IA generativa de Adobe Firefly.


 Hace solo unos meses hice una entrevista (1) a uno de los “popes” de la radiología y el radiodiagnóstico por imagen españoles, Luis Martí Bonmatí. El valenciano, gracias a la carrera investigadora que le avala (2), ha sido elegido para coordinar varios de los proyectos que la Comisión Europea (3) está llevando a cabo para ver cómo la Inteligencia Artificial y, en concreto el machine learning y el deep learning pueden llegar a revolucionar la forma en la que actualmente abordamos problemas de salud como el cáncer de mama o el de próstata.

En esa charla, y en un puñado de preguntas resumidas, quedó claro la visión crítica que tengo de la IA y de cómo está impactando en el mundo de la salud aunque, por aquel entonces todavía desconocía en gran parte su funcionamiento. La aplicación de algoritmos de aprendizaje supervisado y no supervisado va a traer mejoras inmensas en el área de la sanidad, por ejemplo en el diagnóstico previo, pero planean sobre su aplicación y puesta en marcha cuestiones éticas, legales e incluso en qué lugar van a quedar los expertos (radiólogos, oncólogos y clínicos) cuando se impongan los sistemas inteligentes de apoyo en la toma de decisiones médicas.

Las cuestiones éticas sobre la recogida de datos, el papel de los expertos radiólogos en un futuro, el cómo la detección del cáncer va a dar un salto de gigante centraron, de hecho, las preguntas de la entrevista. El diagnóstico por imagen es una de las ramas sanitarias que actualmente más está avanzando en la aplicación de la IA para inferir resultados y hacer predicciones gracias al machine learning y a las redes neuronales (4). La capacidad de atesorar imágenes de pruebas juega a su favor ya que, con ellas, pueden alimentar con miles de datos el algoritmo para ser entrenado o, en su caso, que él sea el que encuentre esas pequeñas relaciones que pasan desapercibidas gracias al análisis capa a capa de una red neuronal y que pueden ser la clave para avanzarse en el diagnóstico de un tumor aun cuando la propia radiología no dé pruebas de ello.

El saber que una persona va a desarrollar un cáncer de mama con años de anticipación puede cambiar las actuales reglas del juego en el tratamiento de la enfermedad pero, por el camino, se deben de tener en cuenta las deficiencias y riesgos que, ahora mismo, todavía lastran la forma de trabajar de la Inteligencia Artificial aplicada a la salud.

Por ejemplo, cómo se obtienen los datos, cómo se utilizan y cómo se guardan. Bonmatí, de hecho, apostaba por cambiar la legislación para permitir que los pacientes dieran un tipo de autorización “universal” para el uso en investigación de sus pruebas de imagen y así no perder la cantera de datos que suponían las radiografías o resonancias que nos hacemos de por vida. Sin ellas, el sistema no puede funcionar y esta es una de sus debilidades a tener en cuenta en un futuro.

También el cómo se entrena a esos modelos y los posibles sesgos que puedan acarrear por haber sido entrenados con las pruebas médicas de mujeres caucásicas y no de otra raza o con problemas de salud que aparecen a una cierta edad y no a otra teniendo en cuenta su nivel socioeconómico. ¿Seguirá siendo ese modelo válido si se utiliza en personas de otra raza? ¿Se están teniendo en cuenta los sesgos que el entrenamiento por este tipo de imágenes pueden incluir “de fábrica” y los errores que pueden aparecer al ser aplicados en otros contextos? (4)

Otro de los problemas que actualmente tienen los algoritmos de deep learning y que abordamos en la tarea anterior también aparecieron de soslayo en la entrevista. Es el problema de la interpretación de los resultados que aporta el modelo, el no conocer en profundidad cómo se ha llegado a tomar esa decisión. Esa inescrutabilidad de la red neuronal (el fenómeno conocido como caja negra) puede suponer un gran problema cuando la utilización de herramientas de toma de decisiones sea intensiva en el ámbito de la medicina. ¿Qué papel tendrán los expertos en hacer un diagnóstico cuando ya lo haga la IA? ¿Se atreverán a contradecirla? ¿Seguirán fiándose de su intuición aun cuando el modelo diga que ahí no hay previsión de un cáncer? 

Charlando con Bonmatí, su posición fue categórica: “Por mucho que confíes en las máquinas, hay una parte de arte en todo lo que hacemos”, respondió. En definitiva, para él y viendo cómo está siendo la evolución por ahora de estos modelos, el ojo del clínico siempre iba a tener peso en la decisión final. Por ahora, la comunidad científica está dando pasos hacia la búsqueda de modelos de interpretabilidad de estas cajas negras (5) conscientes del peso que supone tomar una decisión basada en la IA cuando hay vidas en juego.

Pero, aún siendo así, también habrá que tener en cuenta otras consideraciones, en este caso de tipo legal. ¿Qué pasará en el caso de que un diagnóstico (positivo o negativo) tomado con la ayuda de la IA sea erróneo? ¿A quién se deberán de pedir explicaciones y compensaciones, en sus casos? Los gobiernos y entidades supranacionales tienen aquí una tarea ingente para no quedarse atrás y procurar marcos legales adecuados y suficientes para adelantarse a estas casuísticas y no dejar a los pacientes en tierra de nadie, pese a que la IA en sanidad haya venido para quedarse y mejorar la forma en la que hacemos las cosas. 

Porque los expertos entienden que la mejora en el diagnóstico previo o en predecir el riesgo de eventos cardiovasculares, por ejemplo, es solo el principio. La IA ya está ayudando en el tratamiento personalizado de enfermedades, la analítica predictiva, el descubrimiento de fármacos, el seguimiento de pacientes en remoto, la optimización de procesos... (6) pero conforme se descubran nuevos algoritmos de aprendizaje no supervisado, la eficiencia del deep learning crecerá exponencialmente en los próximos años y sus potenciales aplicaciones en el cuidado de la salud y otros campos, aumentará rápidamente (7). 


---------


1. Bonmatí, Luis M. (5 de noviembre de 2023). "Gracias a la IA vamos a detectar tumores años antes de que se vean". Levante-EMV. https://www.levante-emv.com/comunitat-valenciana/2023/11/05/gracias-ia-detectar-tumores-anos-94186171.html

2. https://en.wikipedia.org/wiki/Luis_Marti-Bonmati 

3. https://cancerimage.eu/

4. Celi LA, Cellini J, Charpignon ML, Dee EC, Dernoncourt F, Eber R, Mitchell WG, Moukheiber L, Schirmer J, Situ J, Paguio J, Park J, Wawira JG, Yao S; for MIT Critical Data. Sources of bias in artificial intelligence that perpetuate healthcare disparities-A global review. PLOS Digit Health. 2022 Mar 31;1(3):e0000022. doi: 10.1371/journal.pdig.0000022. PMID: 36812532; PMCID: PMC9931338

5. Teng Q, Liu Z, Song Y, Han K, Lu Y. A survey on the interpretability of deep learning in medical diagnosis. Multimed Syst. 2022;28(6):2335-2355. doi: 10.1007/s00530-022-00960-4. Epub 2022 Jun 25. PMID: 35789785; PMCID: PMC9243744.

6. López DM. Retos de la inteligencia artificial y sus posibles soluciones desde la perspectiva de un editorialista humano. Biomédica. 2023;43:309-14

7. Hinton G. Deep Learning—A Technology With the Potential to Transform Health Care. JAMA. 2018;320(11):1101–1102. doi:10.1001/jama.2018.11100

Comentarios

Entradas populares de este blog