Durante años hablamos de “ética de la IA” como si fuera un debate filosófico. Hoy el centro es más prosaico: gestión del riesgo. El NIST, por ejemplo, publicó su AI Risk Management Framework como marco voluntario para incorporar confiabilidad y evaluación de riesgos a lo largo del ciclo de vida de sistemas de IA. Esto se ha convertido, de facto, en un idioma común para empresas y administraciones.
En paralelo, aparecen “acuerdos blandos” que buscan ordenar el comportamiento de los actores más avanzados: principios y códigos voluntarios para sistemas avanzados, incluyendo prácticas de evaluación y mitigación. Aunque no sean tratados, crean expectativas, reputación y —con el tiempo— costumbre.
Europa, por su parte, ha institucionalizado la gobernanza con la creación del AI Office dentro de la Comisión Europea, apuntalando un sistema europeo más centralizado para coordinar implementación y supervisión. El mensaje geopolítico es claro: “no basta con inventar, hay que gobernar”.
Estamos pasando de la retórica moral a la ingeniería institucional. En ese tránsito, la confianza deja de ser un eslogan y se convierte en un activo estratégico: quien demuestre controlable su IA, tendrá ventaja para desplegarla en sectores críticos, compras públicas y alianzas internacionales.