• Geopolítica

    GESTIÓN ALGORÍTMICA EN EL MERCADO LABORAL (V)

    Las plataformas digitales laborales, como Uber, Deliveroo o Amazon Mechanical Turk, usan algoritmos para asignar tareas, evaluar desempeño y controlar remotamente a trabajadores. Estas tecnologías permiten una flexibilización extrema del mercado laboral, pero simultáneamente reproducen relaciones asimétricas de poder en las que los trabajadores están permanentemente monitorizados y sometidos a evaluación cuantitativa opaca.

    Un análisis crítico evidencia que estos sistemas transforman la concepción del trabajo y la autonomía laboral, sustituyendo contratos sociales por relaciones algorítmicas que precarizan el empleo y diluyen responsabilidades patronales concretas. La racionalidad instrumental que impulsa la gobernanza algorítmica deshumaniza el ejercicio laboral y genera nuevas formas de explotación.

    Todos los ejemplos concretos que he propuesto a lo largo de estos días muestran cómo la gobernanza algorítmica constituye un espacio donde la teoría crítica sigue manifestándose vigorosamente a nivel planetario, poniendo en evidencia desafíos claves para la libertad, la justicia y la dignidad humana y, al mismo tiempo, revelan la urgencia de reflexiones críticas fundamentadas que contribuyan a diseñar políticas y tecnologías que respeten plenamente los derechos y valores humanos.

  • Globalización

    SISTEMAS DE CRÉDITO SOCIAL Y VIGILANCIA MASIVA (IV)

    Modelos de crédito social, como el desarrollado en China, ilustra de manera extrema la gobernanza algorítmica aplicada a la vigilancia y el control social. A través de la recopilación masiva de datos sobre comportamientos individuales -financieros, sociales, legales- se asignan puntuaciones que influyen en el acceso a servicios, movilidad y oportunidades de vida.

    Este sistema establece una forma totalitaria de control suave que penetra cada ámbito de la vida cotidiana y normaliza la conformidad a normas de comportamiento aceptadas. La evaluación automática basada en algoritmos multiplica las sanciones y recompensas, en un entramado que mina la privacidad y reduce la libertad a la sumisión a una lógica computacional distante.

    Desde una óptica crítica, esto ejemplifica la biopolítica más avanzada, donde la tecnología no solo informa decisiones sino que condiciona subjetividades y relaciones sociales, ampliando los mecanismos de opresión de manera disciplinaria pero difusa.

  • Globalización,  Manipulacion

    EVALUACIÓN Y SELECCIÓN EN RECURSOS SANITARIOS (III)

    Durante la pandemia de COVID-19, se implementaron algoritmos para priorizar la asignación de recursos médicos escasos, como ventiladores o camas de UCI. Estas decisiones automatizadas buscaban optimizar la eficiencia y justicia distributiva pero enfrentaron críticas por criterios opacos y la posibilidad de sesgos que desfavorecieran determinados grupos por edad, discapacidad u otros factores.

    Asimismo, en la salud pública y clínica, los algoritmos usados en diagnósticos o recomendaciones médicas han mostrado sesgos importantes cuando los datos de entrenamiento no reflejan adecuadamente la diversidad poblacional, lo que puede conducir a diagnósticos erróneos o inequidades en tratamientos.

    En estos casos, la teoría crítica ayuda a revelar cómo la dependencia excesiva en tecnologías algorítmicas puede invisibilizar valores éticos fundamentales y profundizar brechas sociales bajo la cobertura de “neutralidad” técnica, exigiendo la participación activa y crítica de la sociedad en la evaluación y regulación de estas tecnologías.

  • Globalización,  Manipulacion

    ALGORITMOS EN JUSTICIA PENAL (II)

    Un ejemplo crucial de gobernanza algorítmica es el empleo de sistemas algorítmicos para la evaluación del riesgo en decisiones judiciales y penitenciarias. Instrumentos como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) se usan en varios estados de Estados Unidos para predecir la probabilidad de reincidencia de un acusado y decidir sobre libertad condicional o sentencia.

    Estos sistemas, desarrollados a partir de datos históricos y algoritmos opacos, han sido criticados por reproducir y amplificar sesgos raciales y socioeconómicos existentes en el sistema de justicia. Por ejemplo, los algoritmos tienden a asignar mayor riesgo a personas de minorías étnicas, lo que conduce a decisiones judiciales discriminatorias aunque no haya intención explícita.

    El análisis crítico destaca aquí cómo la adopción de tecnologías aparentemente objetivas oculta procesos de exclusión estructural y opresión institucionalizada. El legitimar la gobernanza algorítmica a través de la científica neutralidad supuesta, refuerza relaciones desiguales de poder y dificulta la rendición de cuentas.

  • Globalización,  Manipulacion

    SEGMENTACIÓN Y CONTROL EN REDES SOCIALES (I)

    Uno de los ejemplos paradigmáticos de gobernanza algorítmica son los algoritmos que regulan la visibilidad y circulación de contenidos en plataformas como Facebook, Twitter, Instagram o TikTok. Estos algoritmos priorizan contenidos que generan mayor interacción—comúnmente contenidos emocionales, polarizadores o sensacionalistas—para maximizar el tiempo de permanencia y la publicidad.

    Esta priorización, a partir de un diseño tecnológico aparentemente neutral, configura en la práctica burbujas de filtro que segmentan a los usuarios en comunidades herméticas, reforzando sesgos y poniendo en tensión el espacio público democrático. Los contenidos que desafían las creencias dominantes o las corrientes activistas hegemónicas pueden ser invisibilizados mediante shadowbanning o reducción algorítmica del alcance sin transparencia ni apelación.

    Desde la perspectiva crítica, este ejemplo revela cómo un sistema técnico puede reproducir dinámicas de poder simbólico e instaurar una hegemonía cultural digital sin necesidad de coerción explícita: las opiniones discrepantes se vuelven invisibles socialmente, y las audiencias son moldeadas por una arquitectura algorítmica que privilegia ciertos discursos y perspectivas políticas.

  • Totalitarismo

    EL NUEVO CENSOR NO GRITA: ENTIERRA

    En la era digital, la censura ha cambiado de rostro. Ya no llega con tijeras ni con policías uniformados. Ahora es un algoritmo quien decide lo que vemos, lo que ignoramos y lo que, sin saberlo, dejamos de pensar. La censura algorítmica no prohíbe: simplemente hace que el contenido desaparezca sin desaparecer. Y lo hace en nombre de la seguridad, la salud pública o la lucha contra la desinformación.

    El mecanismo es técnico, pero su efecto es político. Cada publicación que subimos a redes sociales se somete a un análisis automático: palabras clave, tono emocional, perfil del emisor, temas sensibles. A partir de ahí, el sistema decide si lo que has dicho merece ser visto, enterrado, marcado o eliminado. Es un proceso sin juicio, sin apelación, sin transparencia. Y lo más inquietante es que ya nos hemos acostumbrado a ello.

    Los regímenes autoritarios utilizan este filtro con descaro —como en China o Irán—, pero lo verdaderamente peligroso es que también se emplea en democracias formales como Canadá, España, India o Estados Unidos. El poder no necesita prohibir la crítica si puede invisibilizarla. Por eso, el totalitarismo del siglo XXI no necesitará silenciarte: le basta con hacer que nadie te escuche.