• Actualidad,  Seguridad,  Tecnología

    LA IA YA NO SÓLO RESPONDE: EMPIEZA A OPERAR

    La inteligencia artificial está dejando de ser una simple asistente para convertirse en una capa operativa del mundo digital. Cuando empieza a programar, auditar, detectar vulnerabilidades, actuar como agente e insertarse en la lógica del conflicto y de las infraestructuras críticas, ya no basta con admirar su eficacia: hay que preguntarse quién la gobierna, sobre qué opera y con qué controles.

    Durante años hemos hablado de la inteligencia artificial como si fuera, ante todo, una asistente avanzada: redactaba, resumía, traducía, sugería ideas y ayudaba a programar. Pero esa imagen empieza a quedarse atrás. Hoy emergen sistemas que no sólo producen contenido, sino que también programan, detectan vulnerabilidades, encadenan herramientas, actúan como agentes y se insertan en procesos técnicos y estratégicos cada vez más sensibles. La gran novedad no es sólo que la IA “sepa más”, sino que empieza a operar sobre el mundo digital.

    Este Focus parte de esa constatación. Su idea central es que el verdadero problema ya no es únicamente la potencia de la IA, sino su combinación con varios factores que, juntos, alteran el equilibrio entre capacidad técnica, juicio humano y control político. Entre ellos destacan el potencial disruptivo de estas herramientas en manos equivocadas, la expansión de agentes con supervisión cada vez más tenue, la autonomía instrumental de sistemas que pueden optimizar más allá de lo previsto, el bycoding como nueva capa de producción de software opaco, y la concentración privada de capacidades con relevancia pública creciente.

    Uno de los cambios más importantes afecta al software. La IA ya no sólo ayuda a escribir código: empieza a convertirse en la capa a través de la cual se produce. Eso acelera la creación, pero también puede multiplicar la opacidad, la dependencia y la vulnerabilidad. La misma inteligencia artificial que ayuda a construir sistemas puede llegar a conocer mejor que nadie sus puntos débiles. Y cuando se combinan producción acelerada de software, revisión insuficiente y modelos cada vez más capaces de auditar o explotar fallos, aparece un círculo inquietante que no puede analizarse sólo en términos de productividad.

    A esto se suma la cuestión de los agentes IA. Cuando un sistema ya no se limita a responder, sino que encadena acciones, usa herramientas y mantiene objetivos a lo largo del tiempo, la supervisión humana puede degradarse. El humano sigue apareciendo en el esquema, pero muchas veces ya no gobierna de verdad el proceso. Por eso no basta con repetir que “hay un humano en el circuito”. La pregunta seria es otra: qué ve ese humano, cuándo interviene, qué comprende y si realmente puede detener o corregir lo que está ocurriendo.

    El problema se vuelve aún más grave cuando se observa quién controla estas capacidades. Una parte creciente de la seguridad digital, de la auditoría de software y de la gestión del riesgo técnico depende de actores privados con acceso privilegiado y con niveles altos de opacidad. Esto significa que infraestructuras cada vez más decisivas para la vida colectiva quedan mediadas por poderes técnicos que no están sometidos a un control democrático equivalente a su importancia real.

    Finalmente, todo esto tiene una dimensión geopolítica ineludible. La guerra actual no se libra sólo con medios cinéticos. El plano cibernético es ya un frente decisivo, y la IA introduce en él un salto cualitativo al acelerar reconocimiento, selección de objetivos y operaciones complejas bajo esquemas de supervisión insuficiente. En este contexto, la cuestión ya no es sólo tecnológica. Es también política, estratégica y cultural.

    En breve publicaré un DG Focus sobre este argumento. Lo encontrarás en:

    dinamicasglobales.es

    La conclusión es clara: ya no basta con preguntar qué puede hacer la IA; hay que preguntar quién la gobierna, sobre qué opera y con qué controles efectivos. Cuando una tecnología deja de ser sólo una herramienta y empieza a convertirse en capa operativa del mundo, el pensamiento crítico debe ensancharse. Ya no basta con examinar mensajes o detectar sesgos; hace falta aprender a pensar en términos de infraestructuras, dependencia, supervisión real y poder opaco.

  • Futuro,  Tecnología

    EL RIESGO DE PATOLOGIZAR LA VIDA

    Cuando el sistema define salud con umbrales, métricas y categorías, no sólo describe: prescribe. La medicalización amplía el territorio de lo clínico: variaciones humanas se convierten en trastornos; el envejecimiento se trata como enfermedad; el malestar social se reinterpreta como disfunción individual. Y los algoritmos aceleran este proceso al codificar qué es “normal” y qué es “riesgo” mediante parámetros que parecen objetivos, pero son productos de consensos sociales, incentivos institucionales y marcos culturales concretos.

    El ejemplo de los “10.000 pasos” ilustra el mecanismo: una métrica convertida en norma que puede etiquetar como “inactiva” a una persona cuya vida, trabajo o condición física no encaja en ese molde, aunque su bienestar sea alto por otras vías. Lo mismo ocurre en salud mental cuando una app traduce el sufrimiento a un único marco terapéutico: útil para muchos, insuficiente para otros. En poblaciones marginadas, el impacto es mayor: tradiciones indígenas, personas con discapacidad o minorías históricamente patologizadas pueden experimentar la estandarización como una presión para verse a sí mismos bajo categorías deficitarias.

    La OMS propone una definición amplia de salud (bienestar físico, mental y social), pero los sistemas digitales tienden a operar con lo estrecho porque es lo medible. Por eso, resistir la definición tecnocrática de salud no significa negar la ciencia, sino recordar que la salud también es una cuestión de sentido, valores y convivencia. Si el ODS3 quiere ser humano, el sistema debería admitir deliberación democrática sobre qué se mide, por qué se mide y quién decide los umbrales que gobiernan vidas.

  • Futuro,  Tecnología

    LO QUE NO CABE EN DATOS ¿DEJA DE EXISTIR?

    La digitalización tiende a reforzar el dominio biomédico por una razón simple: es lo más algoritmizable. Historias clínicas electrónicas, códigos diagnósticos, biomarcadores, guías clínicas, wearables… todo está diseñado para convertir el cuerpo en datos estructurados. El problema no es medir, sino lo que queda fuera de la medición: ¿cómo se codifica la armonía, el equilibrio, el sentido comunitario, la conexión con la tierra o dimensiones espirituales que muchas tradiciones consideran centrales para la salud?

    En ese punto, la infraestructura técnica se convierte en infraestructura cultural. Lo que no se puede digitalizar se vuelve invisible para el sistema: no porque sea falso, sino porque no encaja en sus categorías. La consecuencia práctica es potente: si una comunidad necesita hablar de su bienestar en su propio lenguaje, el sistema le exige traducirse al lenguaje biomédico para ser escuchada. Y esa traducción no es neutra: cambia prioridades, redefine problemas y condiciona las soluciones disponibles.

    Así, la estandarización necesaria para operar a escala puede transformarse en homogeneización. No hace falta prohibir otros enfoques: basta con no reconocerlos como “reales” a efectos de diagnósticos, seguros, prestaciones o legitimidad institucional. Si el ODS3 busca bienestar, el reto es evitar que la salud digital convierta el pluralismo humano en una nota al pie.

  • Futuro,  Sociedad,  Tecnología

    ¿QUIÉN DECIDE QUÉ ES “ESTAR SANO” EN LA ERA DEL ALGORITMO?

    Cuando la salud se centraliza y se digitaliza, ocurre algo más profundo que una mejora administrativa: se consolida una definición tecnocrática de salud. Lo que cuenta como “bienestar” empieza a depender menos de preferencias personales, contextos culturales o visiones del mundo, y más de criterios fijados por comités de expertos, protocolos y modelos algorítmicos. Y, en ese giro, comunidades con nociones distintas del bienestar pueden verse empujadas a adoptar el molde biomédico occidental como condición para acceder a servicios o reconocimiento.

    El modelo biomédico ha sido muy eficaz en infecciones, traumas, cirugía o patologías con base biológica clara. Pero cuando se convierte en la única gramática legítima, reduce la salud a parámetros medibles y empuja a segundo plano dimensiones psicológicas, sociales, culturales y espirituales. Una persona puede “dar bien” en indicadores y vivir mal por soledad, estrés o falta de sentido; otra puede convivir con una condición crónica y gozar de bienestar gracias a vínculos sólidos y significado vital. Si el sistema sólo reconoce lo cuantificable, termina confundiendo salud con conformidad biométrica.

    La pregunta crítica para el ODS3 es inevitable: si las definiciones de salud son también valorativas, ¿por qué se delegan como si fueran puramente técnicas? Estandarizar puede ser necesario para gestionar, pero no debería equivaler a imponer una antropología única. Si la sanidad digital decide por defecto qué vida es “normal”, el debate deja de ser médico y pasa a ser democrático.

  • Libertad,  Tecnología

    TECNOLOGÍA AL SERVICIO DE LA PERSONA

    Toda economía, ya sea analógica o digital, debería responder a una única pregunta ética: ¿está al servicio de la persona humana y del bien común? El desarrollo del euro digital y de sistemas de identidad digital solo será legítimo si se subordinan a este principio. No basta con que funcionen; deben respetar la dignidad de cada ser humano, promover la libertad real y fortalecer el tejido social.

    El riesgo no está solo en el control o la vigilancia, sino en la deshumanización: que el ciudadano se convierta en un dato, el pobre en un problema logístico y el bien común en una estadística. Frente a esto, hay que recordar que la persona es más que su huella digital. Tiene conciencia, historia, vínculos, valores. Y todo sistema que ignore esto está condenado a convertirse, más tarde o más temprano, en herramienta de dominación.

    Por eso, la subordinación de la tecnología al bien común no es una opción, sino una exigencia moral. Necesitamos repensar el diseño de nuestras herramientas desde la ética, no desde la eficiencia. Porque una economía digital que no puede garantizar libertad, justicia e inclusión no es un progreso: es una trampa. Y el verdadero futuro está en sistemas que liberen, no que condicionen; que respeten, no que manipulen.

  • Religión,  Tecnología

    EL ROL DE LA IGLESIA EN UN MUNDO TECNOCRÁTICO

    El Papa Francisco ha advertido sobre los peligros del paradigma tecnocrático, subrayando que el mayor peligro no reside en la tecnología misma, sino en cómo los seres humanos la utilizan. La fragilidad humana y la inclinación al egoísmo son las verdaderas amenazas. En su encíclica Fratelli Tutti, Francisco critica la subordinación de la política a la economía y de esta a la eficiencia tecnocrática.

    La Iglesia tiene un papel crucial en la defensa de la dignidad humana en medio del relativismo y el secularismo de la modernidad. Debe ser capaz de abordar estas cuestiones no solo desde una perspectiva teológica, sino también filosófica, enfrentando los prejuicios que obstaculizan su misión en un mundo cada vez más tecnocrático.

  • Ética,  Tecnología

    EL PODER DE LA TECNOLOGÍA EN LAS MANOS EQUIVOCADAS

    La tecnología moderna ha permitido que el ser humano controle la naturaleza con una intensidad sin precedentes, pero también ha fomentado una hybris peligrosa, similar al mito de Faust. La creencia de que la técnica puede mejorar al ser humano, relegando su humanidad a algo anticuado y obsoleto, es una tentación insidiosa del mundo moderno.

    El avance tecnológico ha generado una carrera sin fin hacia el poder, pero ¿a qué costo? El control y la manipulación tecnológica parecen haber desplazado valores fundamentales de la vida humana. Esta realidad nos invita a reflexionar sobre si la tecnología está realmente al servicio del hombre o si es el hombre quien ha quedado subyugado a los dictados de un paradigma tecnocrático.

  • Naturaleza Humana,  Tecnología

    TECNOLOGÍA Y DEMOCRACIA: DOS CARAS DE LA MISMA MONEDA

    Empezamos hoy un ciclo de 10 entradas breves cuyo argumento arranca con temas relacionados con la tecnología y deriva luego en reflexiones acerca de la naturaleza humana.

    La relación entre tecnología y democracia está en el centro del debate público contemporáneo. La tecnología, como un medio poderoso de conexión entre la persona y el mundo, no es intrínsecamente buena ni mala. La ambigüedad de la técnica es que puede usarse tanto para el bien como para el mal, como lo ejemplifica la energía nuclear, capaz de iluminar una ciudad o destruirla.

    Aunque la tecnología tiene el potencial de fortalecer las democracias, también puede corromperlas. El control que la tecnología ejerce sobre la naturaleza, y la visión del mundo a través de una lente tecnocrática, margina otros aspectos fundamentales de la vida humana, lo que lleva a una ecuación peligrosa entre homo technicus y homo humanus. ¿Estamos cediendo demasiado poder a la tecnología, comprometiendo así el verdadero propósito de la democracia?