La fiabilidad de un modelo se asienta en la fiabilidad de sus datos. El primer paso es lo que se denomina provenance: registrar quién, cuándo y cómo se generó cada fichero mediante estándares como W3C PROV‑DM y firmar los lotes con Sigstore o TUF para garantizar que nadie los altera en tránsito.
Una vez dentro, herramientas como TensorFlow Data Validation o Great Expectations comparan estadísticas de cada columna con un esquema base y alertan de valores fuera de rango o tipos inesperados. Paralelamente, sistemas de versionado (DVC, LakeFS) vinculan cada versión de datos con el código y los pesos resultantes, asegurando auditoría end‑to‑end. En la fase de entrenamiento, entornos reproducibles y secure aggregation para aprendizaje federado aíslan procesos y detectan clientes maliciosos que envían gradientes amañados. Ya en producción, la monitorización de data drift y kill switches automáticos permiten cortar modelos que empiezan a desviarse de la línea base.
Espero que esta pequeña serie te haya gustado; si quieres algo más «operativo» tendrás que esperar hasta septiembre, cuando preveo lanzar el PROYECTO RADAR. ¿Qué es? Te lo explicaré, pero no en este post y no ahora…