Máster de Cultura Científica EHU/UPNA 2023/2024 Introducción a la Inteligencia Artificial. Tarea 1.

La tarea 1 consiste en reflexionar sobre lo que es para nosotros la IA, sobre cuáles deben ser sus objetivos y cuáles son sus riesgos. 

Imagen generada por la herramienta de IA generativa Adobe Firefly.

 

Siempre me he acercado con aprensión a esos relatos que nos hablan de un futuro cercano en el que las máquinas y los tipos de inteligencia que artificialmente el hombre había creado pasaban a tener autoconsciencia, poniendo en peligro a la humanidad. Y lo hago porque creo que no están tan desencaminados esos futuros distópicos donde una inteligencia artificial generalista o fuerte pueda ser desarrollada, aunque ahora parezca una utopía. Tampoco nadie podía imaginar hace solo unas décadas que podríamos conducir coches sin nadie al volante. Está claro que nada tiene que ver automatizar una tarea (por compleja que sea) con replicar una mente humana que ni siquiera nosotros entendemos cómo funciona. Pero, una vez lo hagamos, veo plausible que se pudiera remedar algún tipo de "inteligencia humana" y no solo sistemas inductivos que cada vez son capaces de resolver más problemas.

De esta rapidez en su desarrollo entiendo que deriva ese significado “líquido” de IA: donde antes la veíamos con avances punteros (como los reconocimientos de voz) ahora solo vemos herramientas prácticas del día a día y dejamos el término (futurista, aún por construir) para los modelos generativos, que pronto dejarán de ser considerados también como “inteligencia” artificial.

Para mí, el objetivo de la IA debería estar siempre centrado en servir a la humanidad. Robots que puedan automatizar funciones y liberar de cargas a los trabajadores; softwares que puedan automatizar la lectura de miles de resonancias para aprender en cuáles una microscópica variación llevó al desarrollo de un cáncer de mama... pero todos para ayudar, no para sustituir ni reemplazar. La visión humanista y benefactora de la IA es la que debería primar pero, como en toda nueva tecnología, los grandes avances se han realizado primero dirigidos a tener unas aplicaciones de defensa. Lo fueron la bomba atómica y la vacuna de la gripe, por ejemplo, así que ¿quién va a controlar que en esta ocasión no sea así? Por ejemplo, la empresa Neuralink de Elon Musk ya está probando su implante cerebral que “conecta” a humanos directamente con máquinas. Las aplicaciones para personas con problemas de movilidad pueden ser impresionantes pero también lo podrían ser otro tipo de desarrollos.

La Unión Europea aprobó en marzo la primera ley para regular la IA pero, tanto en este caso como en las próximas leyes que lleguen, entiendo que se va a ir por detrás de los avances y este es uno de los principales riesgos de la IA y de la rapidez con la que se está desarrollando. Los problemas con las herramientas generativas (de propiedad intelectual en los datos usados para “nutrirlas”) ya se están dando y también, y es más alarmante, las campañas de acoso o desinformación en las que se han utilizado fotos alteradas con IA o vídeos deep fake, sin que haya todavía una legislación que pongo coto a estas prácticas.

Comentarios

Entradas populares de este blog