• Futuro,  Sesgos

    SESGOS “OBJETIVOS”: CUANDO EL ALGORITMO DISCRIMINA SIN DECIR TU NOMBRE

    Uno de los riesgos más delicados de los algoritmos de salud no es que fallen, sino que acierten “según sus datos” reproduciendo injusticias antiguas con apariencia científica. Los modelos se entrenan con historiales que ya contienen desigualdades: accesos distintos a tratamientos, diagnósticos tardíos, sesgos profesionales, diferencias socioeconómicas. El resultado es una predicción que no describe sólo biología, sino también la huella social del pasado. Y lo hace con una máscara poderosa: la objetividad matemática.

    El problema se agrava cuando el sistema usa indicadores indirectos —proxies— que parecen neutrales, pero codifican discriminación. Si se utiliza el coste sanitario como señal de “necesidad”, quienes recibieron menos atención por barreras estructurales pueden aparecer como “más sanos” en los datos. De ese modo, el algoritmo puede asignar menos recursos precisamente a quienes más los necesitan, sin mencionar jamás variables sensibles. Es una discriminación sin culpable claro: la decisión se diluye entre diseñadores, proveedores de datos y gestores, y el ciudadano queda frente a un veredicto estadístico difícil de impugnar.

    Aquí la “presunción de inocencia médica” se erosiona por dos vías: primero, porque todos pasan a ser sospechosos de enfermar; segundo, porque algunos quedan sospechosos por pertenecer a entornos vulnerables que el sistema interpreta como riesgo. Se invierte la lógica de la protección social: la vulnerabilidad deja de ser razón para cuidar y se convierte en razón para vigilar, penalizar o restringir. Si el ODS3 busca equidad sanitaria, el criterio crítico es claro: sin transparencia, auditoría y derecho efectivo de apelación, la salud algorítmica puede convertirse en una fábrica automática de desigualdad legitimada.