• Economía

    DEL “TENER” AL “PODER SER” (1 de 6)

    Durante mucho tiempo hemos hablado de bienestar como si fuese una simple suma de bienes: renta, consumo, infraestructura, acceso. Pero hay una pregunta anterior —y más humana— que suele quedar fuera del tablero: ¿qué puede hacer realmente una persona con lo que tiene? El enfoque de las capacidades desplaza el foco desde los medios hacia las posibilidades reales de vida: no solo recursos, sino libertades efectivas.

    La idea es sencilla y, a la vez, revolucionaria: dos individuos con el mismo “paquete” de recursos pueden transformar esos recursos en vidas muy distintas. La salud, la seguridad, el entorno, la discriminación, la calidad institucional o la red social funcionan como “puentes” o “muros” entre el recurso y la vida posible. Por eso, hablar de pobreza no es solo hablar de ingresos, sino de privación de capacidades: de oportunidades reales que no existen.

    En tiempos de tecnología omnipresente, el enfoque también sirve como alerta: “acceso” no equivale a “autonomía”. Tener conexión no garantiza poder aprender; tener información no garantiza poder discernir; tener derechos formales no garantiza poder ejercerlos.

  • Futuro,  Sesgos

    SESGOS “OBJETIVOS”: CUANDO EL ALGORITMO DISCRIMINA SIN DECIR TU NOMBRE

    Uno de los riesgos más delicados de los algoritmos de salud no es que fallen, sino que acierten “según sus datos” reproduciendo injusticias antiguas con apariencia científica. Los modelos se entrenan con historiales que ya contienen desigualdades: accesos distintos a tratamientos, diagnósticos tardíos, sesgos profesionales, diferencias socioeconómicas. El resultado es una predicción que no describe sólo biología, sino también la huella social del pasado. Y lo hace con una máscara poderosa: la objetividad matemática.

    El problema se agrava cuando el sistema usa indicadores indirectos —proxies— que parecen neutrales, pero codifican discriminación. Si se utiliza el coste sanitario como señal de “necesidad”, quienes recibieron menos atención por barreras estructurales pueden aparecer como “más sanos” en los datos. De ese modo, el algoritmo puede asignar menos recursos precisamente a quienes más los necesitan, sin mencionar jamás variables sensibles. Es una discriminación sin culpable claro: la decisión se diluye entre diseñadores, proveedores de datos y gestores, y el ciudadano queda frente a un veredicto estadístico difícil de impugnar.

    Aquí la “presunción de inocencia médica” se erosiona por dos vías: primero, porque todos pasan a ser sospechosos de enfermar; segundo, porque algunos quedan sospechosos por pertenecer a entornos vulnerables que el sistema interpreta como riesgo. Se invierte la lógica de la protección social: la vulnerabilidad deja de ser razón para cuidar y se convierte en razón para vigilar, penalizar o restringir. Si el ODS3 busca equidad sanitaria, el criterio crítico es claro: sin transparencia, auditoría y derecho efectivo de apelación, la salud algorítmica puede convertirse en una fábrica automática de desigualdad legitimada.