IA en los hospitales: estos son los derechos que podrían estar en riesgo.
La inteligencia artificial ya se
utiliza en hospitales para priorizar pacientes, apoyar diagnósticos o
recomendar tratamientos. Estas herramientas prometen mayor eficiencia y rapidez
e, incluso, pueden ayudar a reducir listas de espera.
Sin embargo, junto a estas
ventajas surgen preguntas que no son solo técnicas, sino también jurídicas:
¿qué ocurre si un algoritmo ignora las preferencias del paciente? ¿Quién
responde cuando una decisión automatizada afecta a derechos fundamentales?
La inteligencia artificial ya
está transformando la medicina. Ahora toca preguntarse cómo garantizar que esa
transformación respete los derechos de pacientes y profesionales.
Cuando el algoritmo no ve a la
persona
La práctica sanitaria nunca ha
sido completamente neutral. Las decisiones médicas están atravesadas por
valores, creencias y preferencias personales.
Un
paciente puede rechazar una transfusión de sangre, solicitar una dieta
específica por motivos religiosos o expresar preferencias sobre el final de la
vida. Estas decisiones forman parte del ejercicio de la autonomía personal y
del derecho a la salud.
Sin embargo, muchos sistemas de
inteligencia artificial no están diseñados para tener en cuenta esas
dimensiones. Funcionan a partir de grandes volúmenes de datos y patrones
estadísticos, pero no siempre incorporan variables relacionadas con las
convicciones personales o culturales.
Esto puede generar situaciones
problemáticas: recomendaciones médicas que no respeten la voluntad del paciente
o decisiones automatizadas que, sin pretenderlo, ignoren aspectos esenciales de
su identidad.
El riesgo de una discriminación
invisible
Otro de los grandes desafíos es
el de los sesgos algorítmicos. Si los sistemas de inteligencia artificial se
entrenan con datos incompletos o poco representativos, pueden reproducir
desigualdades existentes.
Este debate ya está presente en
la literatura científica y también en el ámbito divulgativo. En relación al uso
de la IA para la prevención de enfermedades, surgen interrogantes sobre
privacidad, equidad y control de los datos.
En
el ámbito clínico, el problema puede ser aún más delicado.
Una herramienta que priorice
pacientes o recomiende tratamientos podría perjudicar indirectamente a
determinadas minorías, si sus necesidades específicas no están contempladas en
los datos de partida.
No se trataría de una
discriminación directa, sino de algo más difícil de detectar: una desigualdad
incorporada en el propio sistema.
¿Qué ocurre con los profesionales
sanitarios?
La introducción de la
inteligencia artificial también plantea preguntas para médicos y personal
sanitario. ¿Y si un algoritmo recomienda una actuación que entra en conflicto
con las convicciones del profesional? ¿Debe seguir la indicación técnica o su
propio criterio ético?.
Un sistema informático no puede
sustituir el juicio clínico ni la responsabilidad profesional. Los sistemas
deben entenderse como herramientas de apoyo, no como sustitutos de la decisión
humana. De lo contrario, existe el riesgo de desdibujar tanto la
responsabilidad como la libertad de conciencia en la práctica médica.
Datos sensibles y decisiones
automatizadas
Para que la inteligencia
artificial tenga en cuenta las preferencias del paciente, sería necesario
incorporar información especialmente sensible, como sus creencias religiosas o
convicciones personales.
Aquí
aparece otro problema jurídico relevante: la protección de datos.
La religión es considerada un
dato especialmente protegido por la normativa europea y su uso exige garantías
estrictas.
Esto obliga a encontrar un
equilibrio complejo: cómo respetar las convicciones del paciente sin
comprometer su privacidad.
Investigaciones recientes han
subrayado estos desafíos, como un trabajo reciente sobre inteligencia
artificial y diversidad religiosa en sanidad publicado en la revista Religions,
donde destacamos la necesidad de adaptar el marco jurídico a los entornos
sanitarios digitalizados e incorporar garantías frente a posibles vulneraciones
de derechos.
Asimismo, otros estudios han
señalado la importancia de repensar la gobernanza de la inteligencia artificial
en el ámbito del derecho a la salud para evitar que la innovación tecnológica
genere nuevas desigualdades o erosione la autonomía del paciente.
¿Qué garantías necesitamos?
Ante estos desafíos, la clave no
es frenar la innovación, sino acompañarla de garantías adecuadas. Entre ellas,
destacan la supervisión humana de las decisiones automatizadas, la
transparencia de los algoritmos, la evaluación de impacto en derechos
fundamentales y la incorporación de acomodaciones razonables en entornos
digitales.
Esto implica diseñar sistemas
capaces de adaptarse a las necesidades reales de los pacientes, incluyendo sus
convicciones personales, sin comprometer la equidad del sistema sanitario.
La inteligencia artificial puede
mejorar la medicina, hacerla más eficiente y, en muchos casos, más precisa.
Pero también puede transformar silenciosamente la forma en que se toman
decisiones sobre la salud.
Por eso, el debate no es solo
tecnológico. Es, ante todo, un debate sobre derechos. Si los sistemas de
inteligencia artificial no se diseñan con estos principios en mente, corremos
el riesgo de que decisiones aparentemente neutras terminen afectando a la autonomía
del paciente, la igualdad o la libertad de conciencia.
La inteligencia artificial ya
está en los hospitales. La verdadera cuestión no es si debemos usarla, sino
cómo garantizar que refuerce –y no debilite– los derechos fundamentales que
sustentan la atención sanitaria.
María
José Parejo Guzmán

Comentarios
Publicar un comentario