Un ejemplo crucial de gobernanza algorítmica es el empleo de sistemas algorítmicos para la evaluación del riesgo en decisiones judiciales y penitenciarias. Instrumentos como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) se usan en varios estados de Estados Unidos para predecir la probabilidad de reincidencia de un acusado y decidir sobre libertad condicional o sentencia.
Estos sistemas, desarrollados a partir de datos históricos y algoritmos opacos, han sido criticados por reproducir y amplificar sesgos raciales y socioeconómicos existentes en el sistema de justicia. Por ejemplo, los algoritmos tienden a asignar mayor riesgo a personas de minorías étnicas, lo que conduce a decisiones judiciales discriminatorias aunque no haya intención explícita.
El análisis crítico destaca aquí cómo la adopción de tecnologías aparentemente objetivas oculta procesos de exclusión estructural y opresión institucionalizada. El legitimar la gobernanza algorítmica a través de la científica neutralidad supuesta, refuerza relaciones desiguales de poder y dificulta la rendición de cuentas.