• Actualidad,  Seguridad,  Tecnología

    LA IA YA NO SÓLO RESPONDE: EMPIEZA A OPERAR

    La inteligencia artificial está dejando de ser una simple asistente para convertirse en una capa operativa del mundo digital. Cuando empieza a programar, auditar, detectar vulnerabilidades, actuar como agente e insertarse en la lógica del conflicto y de las infraestructuras críticas, ya no basta con admirar su eficacia: hay que preguntarse quién la gobierna, sobre qué opera y con qué controles.

    Durante años hemos hablado de la inteligencia artificial como si fuera, ante todo, una asistente avanzada: redactaba, resumía, traducía, sugería ideas y ayudaba a programar. Pero esa imagen empieza a quedarse atrás. Hoy emergen sistemas que no sólo producen contenido, sino que también programan, detectan vulnerabilidades, encadenan herramientas, actúan como agentes y se insertan en procesos técnicos y estratégicos cada vez más sensibles. La gran novedad no es sólo que la IA “sepa más”, sino que empieza a operar sobre el mundo digital.

    Este Focus parte de esa constatación. Su idea central es que el verdadero problema ya no es únicamente la potencia de la IA, sino su combinación con varios factores que, juntos, alteran el equilibrio entre capacidad técnica, juicio humano y control político. Entre ellos destacan el potencial disruptivo de estas herramientas en manos equivocadas, la expansión de agentes con supervisión cada vez más tenue, la autonomía instrumental de sistemas que pueden optimizar más allá de lo previsto, el bycoding como nueva capa de producción de software opaco, y la concentración privada de capacidades con relevancia pública creciente.

    Uno de los cambios más importantes afecta al software. La IA ya no sólo ayuda a escribir código: empieza a convertirse en la capa a través de la cual se produce. Eso acelera la creación, pero también puede multiplicar la opacidad, la dependencia y la vulnerabilidad. La misma inteligencia artificial que ayuda a construir sistemas puede llegar a conocer mejor que nadie sus puntos débiles. Y cuando se combinan producción acelerada de software, revisión insuficiente y modelos cada vez más capaces de auditar o explotar fallos, aparece un círculo inquietante que no puede analizarse sólo en términos de productividad.

    A esto se suma la cuestión de los agentes IA. Cuando un sistema ya no se limita a responder, sino que encadena acciones, usa herramientas y mantiene objetivos a lo largo del tiempo, la supervisión humana puede degradarse. El humano sigue apareciendo en el esquema, pero muchas veces ya no gobierna de verdad el proceso. Por eso no basta con repetir que “hay un humano en el circuito”. La pregunta seria es otra: qué ve ese humano, cuándo interviene, qué comprende y si realmente puede detener o corregir lo que está ocurriendo.

    El problema se vuelve aún más grave cuando se observa quién controla estas capacidades. Una parte creciente de la seguridad digital, de la auditoría de software y de la gestión del riesgo técnico depende de actores privados con acceso privilegiado y con niveles altos de opacidad. Esto significa que infraestructuras cada vez más decisivas para la vida colectiva quedan mediadas por poderes técnicos que no están sometidos a un control democrático equivalente a su importancia real.

    Finalmente, todo esto tiene una dimensión geopolítica ineludible. La guerra actual no se libra sólo con medios cinéticos. El plano cibernético es ya un frente decisivo, y la IA introduce en él un salto cualitativo al acelerar reconocimiento, selección de objetivos y operaciones complejas bajo esquemas de supervisión insuficiente. En este contexto, la cuestión ya no es sólo tecnológica. Es también política, estratégica y cultural.

    En breve publicaré un DG Focus sobre este argumento. Lo encontrarás en:

    dinamicasglobales.es

    La conclusión es clara: ya no basta con preguntar qué puede hacer la IA; hay que preguntar quién la gobierna, sobre qué opera y con qué controles efectivos. Cuando una tecnología deja de ser sólo una herramienta y empieza a convertirse en capa operativa del mundo, el pensamiento crítico debe ensancharse. Ya no basta con examinar mensajes o detectar sesgos; hace falta aprender a pensar en términos de infraestructuras, dependencia, supervisión real y poder opaco.