• Futuro,  Tecnología

    LO QUE NO CABE EN DATOS ¿DEJA DE EXISTIR?

    La digitalización tiende a reforzar el dominio biomédico por una razón simple: es lo más algoritmizable. Historias clínicas electrónicas, códigos diagnósticos, biomarcadores, guías clínicas, wearables… todo está diseñado para convertir el cuerpo en datos estructurados. El problema no es medir, sino lo que queda fuera de la medición: ¿cómo se codifica la armonía, el equilibrio, el sentido comunitario, la conexión con la tierra o dimensiones espirituales que muchas tradiciones consideran centrales para la salud?

    En ese punto, la infraestructura técnica se convierte en infraestructura cultural. Lo que no se puede digitalizar se vuelve invisible para el sistema: no porque sea falso, sino porque no encaja en sus categorías. La consecuencia práctica es potente: si una comunidad necesita hablar de su bienestar en su propio lenguaje, el sistema le exige traducirse al lenguaje biomédico para ser escuchada. Y esa traducción no es neutra: cambia prioridades, redefine problemas y condiciona las soluciones disponibles.

    Así, la estandarización necesaria para operar a escala puede transformarse en homogeneización. No hace falta prohibir otros enfoques: basta con no reconocerlos como “reales” a efectos de diagnósticos, seguros, prestaciones o legitimidad institucional. Si el ODS3 busca bienestar, el reto es evitar que la salud digital convierta el pluralismo humano en una nota al pie.

  • Futuro

    WEARABLES Y LA NUEVA OBLIGACIÓN DE “PROBAR” QUE ESTÁS BIEN

    Los dispositivos de monitorización prometen salud: pasos, sueño, frecuencia cardíaca, variabilidad, estrés, hábitos… En sí mismos, pueden ser herramientas útiles. El problema aparece cuando, sin decirlo abiertamente, pasan de ser opción a convertirse en lenguaje obligatorio para acreditar normalidad. Ya no basta con no tener síntomas o con sentirse bien: ahora la salud se traduce en producción constante de datos que confirmen adhesión a parámetros “óptimos” definidos algorítmicamente.

    Este giro instala una asimetría radical. Las instituciones acceden a modelos opacos y a millones de datos agregados; el individuo, en cambio, rara vez comprende cómo se calcula su riesgo, qué variables pesan más o cómo corregir un error de clasificación. Si el sistema etiqueta a alguien como “alto riesgo”, su experiencia subjetiva —“me encuentro bien”— pierde autoridad frente a un número que se presenta como conocimiento superior. Y lo decisivo es que ese número puede condicionar primas de seguros, acceso a servicios, recomendaciones clínicas, e incluso oportunidades laborales, aunque se base en correlaciones imperfectas o sesgadas.

    Así, lo que nace como prevención puede evolucionar hacia un régimen de autocontrol: el cuerpo se convierte en interfaz de cumplimiento y el ciudadano aprende que conviene comportarse como alguien “de bajo riesgo”. El ODS3 pretende proteger la salud; pero si la protección se transforma en un sistema de clasificación permanente, el bienestar puede acabar confundido con conformidad. Y entonces la pregunta ética cambia de forma: ¿estamos mejorando la salud o estamos gestionando poblaciones según perfiles, con incentivos y castigos invisibles?