Máster de Cultura Científica EHU/UPNA 2023/2024 Introducción a la Inteligencia Artificial. Tarea 5.

 

Tarea 5. La tarea consiste en resumir las críticas desde el punto de vista científico que se han planteado al aprendizaje profundo o deep learning en una breve entrada al blog


Un coche de conducción autónoma en una ciudad. Imagen generada por IA generativa.

El aprendizaje profundo o deep learning es un conjunto de algoritmos que se utilizan en el machine learning y que buscan emular matemáticamente el comportamiento del cerebro generando redes neuronales. Este entramado de neuronas está dispuesto en capas (de entrada, intermedias u ocultas y de salida) que están interconectadas y cada una gestiona un nivel de análisis aportando unos datos que son utilizados de forma sucesiva por las siguientes para elaborar abstracciones y encontrar estructuras intrincadas en grandes paquetes de datos. A diferencia del machine learning o aprendizaje automático, el deep learning no es una inteligencia “supervisada” ya que no se aportan las reglas para analizar los datos sino que el propio algoritmo aprende sobre ejemplos extrayendo patrones. Para ello se apoya en algoritmos como el backpropagation gracias al que corrigen los errores y aprende de ellos desde la capa de salida hacia atrás, modificando los valores aportados para afinar su respuesta.

Esta nueva forma de Inteligencia Artificial ha protagonizado un desarrollo muy importante desde 2012 y ahora es vital en los programas de reconocimiento de imágenes, objetos o de voz que están en la base de la conducción autónoma, por ejemplo; de avances en la medicina ya que ayuda en la predicción de aparición de enfermedades gracias al estudio de millones de pruebas de imagen, por ejemplo, o a la evaluación de enfermos o de recomendación de medicación; y también se está empleando en el análisis de mercados financieros o en algoritmos de recomendaciones.

Pese a la revolución que ha supuesto, la comunidad científica entiende que el deep learning aún tiene puntos de mejora.

Críticas

Algunas de las principales críticas que se han hecho se centran en que este tipo de redes neuronales necesitan una cantidad ingente de datos para aprender y no siempre es fácil, barato o ético recabar esta información para “nutrir” el conocimiento del algoritmo. Para solventar este problema se están abordando diferentes estrategias como transferir lo aprendido, es decir que un modelo entrenado para una tarea pueda servir como punto de partida para otra tarea, generar datos sintéticos que parezcan reales o añadir aprendizaje semi-supervisado.

Otra de las críticas al deep learning es, precisamente, esa dificultad para ser usado en otra tarea para la que no se haya entrenado: la falta de capacidad de transferencia o de generalización. Si ha aprendido sobre una base, puede generar errores aunque los cambios sean menores.

Los expertos apuntan a que el deep learning funciona mejor en ambientes estables como puede ser un juego de mesa como el Go o el ajedrez con reglas invariables, pero no en ambiente cambiante; que funciona bien como aproximación pero no es enteramente fiable y en cuestiones como la conducción autónoma la tasa de fiabilidad que se requiere deber rozar el 100 %; que puede ser vulnerable a ataques o que no es bueno infiriendo el contexto (por ejemplo al analizar lenguaje natural no puede conocer las intenciones de alguien si no las explicita, aunque esto se está intentando mejorar a través del aprendizaje multimodo de texto, imágenes y audio).

Sin embargo, para mí la crítica que más me preocupa es la referente a la opacidad del deep learning, es decir, en muchos casos su predicciones o decisiones inferidas de ejemplos son opacas, son como una caja negra en la que es imposible saber cómo se ha llegado a tomar esa decisión.

Si estamos hablando de cuestiones menores como el algoritmo que nos recomienda una película puede ser admisible pero no cuando se trata de decisiones que involucran a vidas humanas. Por ejemplo, no nos podríamos fiar al 100 % de un diagnóstico médico de un paciente asistido por IA si no sabemos cómo se ha llegado a esa decisión, al igual que si estamos hablando de modelos predictivos para tomar decisiones en el ámbito legal (riesgo de reincidencia, por ejemplo). En estos contextos necesitamos confiar en cómo se han tomado las decisiones y, si no conocemos cómo se ha hecho, no podremos hacerlo.

Comentarios

Entradas populares de este blog