Algoritmos de caja negra y racionalidad científica. Cómo la inteligencia artificial puede cambiar nuestra comprensión de autonomía en la toma de decisiones médicas. (original) (raw)

Desde hace dos décadas los hospitales vienen incorporando softwares de Inteligencia Artificial (IA) para el procesamiento de datos (en especial imágenes radiológicas) y, más recientemente, para la toma efectiva de decisiones terapéuticas. Por otro lado, con el más reciente proceso de digitalización del servicio sanitario ambulatorio, reforzado por la pandemia mundial, la IA está siendo introducida también en nuestros hogares. La teleconsulta no es el único ejemplo. Muchas de las nuevas tecnologías en torno a la llamada salud digital (Digital Health) incluyen IA para asistir tareas de televigilancia domiciliaria de enfermedades crónicas, pero también para facilitar pruebas de salud de rutina e incluso para hacer seguimiento de estilos de vida saludables. Lo particular de estas nuevas tecnologías es que no solo sirven para apoyar la atención humana que tradicionalmente reciben los pacientes, sino que en algunos casos pueden llegar a reemplazarla. Esta situación parece estar afectando la relación médico-paciente pues, por una parte, el médico acusa cierto debilitamiento en la atribución de sus responsabilidades y, por la otra, el paciente siente que su confianza ha de repartirse entre un médico al que reconoce y una tecnología a la que no o, si lo hace, de manera vaga (Jongsma et al. 2021, Bleher & Braun 2022). La mella que la IA causa en la relación médico-paciente puede ser corregida en la medida en que el médico sea capaz de entender y explicar correctamente el funcionamiento de la IA. Esta tarea es relativamente sencilla en softwares que operan en situaciones de transparencia algorítmica (típica en los llamados modelos interpretables) es decir, en las que son claros y accesibles a) los datos con los que se alimenta el algoritmo y b) los tipos de algoritmo utilizados. Resulta más difícil cumplir con dicho doble objetivo cuando el software maneja algoritmos de caja negra (también llamados modelos explicables), esto es, cuando ni el propio programados es capaz de acceder al funcionamiento interno del algoritmo y, por tanto, necesita de técnicas externas a éste para poder interpretarlo. Paradójicamente, este segundo tipo de IA parece que acabará imponiéndose al basado en los modelos interpretables dada su mayor capacidad predictiva. Queda así enmarcado, en definitiva, un problema creciente sobre el que los intelectuales han de tratar de anticipar sus reflexiones sobre los riesgos y las potenciales soluciones. Mi intervención está centrada, en concreto, sobre cómo los algoritmos de caja negra –nuevas figuras seculares de los oráculos de la antigüedad– pueden llegar a inducir experiencias deterministas en la toma y recepción de decisiones a menos que se inserte dicha tecnología en una narrativa en la que la persona sea clave como elemento diferenciador y a la vez integrador entre los conceptos de computación e inteligencia, por un lado, y de autonomía y responsabilidad, por el otro.