Opiniones – Rudy Gallardo

Algoritmos sin rostro: decisiones invisibles que afectan tu vida

Ya no es necesario que una persona te diga “sí” o “no”. Hoy, basta con un sistema. Sin rostro, sin firma y sin explicación, un algoritmo puede decidir si obtienes un crédito, si accedes a una beca, si pasas un filtro de empleo o si apareces en una lista de riesgo. Lo inquietante no es que eso ocurra… es que ni siquiera lo sepas.

Vivimos en una época en la que muchas decisiones relevantes para nuestra vida cotidiana ya no las toman personas, sino sistemas automáticos.

  • Algoritmos que aprueban o rechazan préstamos.
  • Motores de recomendación que moldean opiniones y hábitos.
  • Plataformas que evalúan el “riesgo” de un usuario en función de sus datos pasados.
  • Sistemas predictivos que sugieren medidas policiales o sociales antes de que ocurra un delito o una infracción.

Y la mayoría de estos algoritmos no son transparentes, ni auditables, ni comprensibles para los ciudadanos que son afectados por ellos.

El problema no es solo técnico, es democrático

Delegar decisiones a máquinas no es necesariamente malo. De hecho, puede ayudar a reducir corrupción, agilizar procesos y optimizar recursos.

El problema surge cuando esas decisiones afectan derechos —educación, salud, trabajo, reputación, movilidad— y no hay forma clara de saber:

  • ¿Cómo se llegó a esa conclusión?
  • ¿Qué datos se usaron?
  • ¿Se puede apelar?
  • ¿Hay sesgos?

Los algoritmos están asumiendo funciones de jueces invisibles, sin asumir las responsabilidades de transparencia y rendición de cuentas que tiene un juez humano.

Ejemplos reales, impactos invisibles

En diversos países del mundo ya se han documentado casos donde sistemas automatizados:

  • Rechazaron solicitudes de subsidio por errores de lectura de ingresos pasados.
  • Reforzaron sesgos raciales o socioeconómicos en admisiones escolares.
  • Priorizaron perfiles laborales según género, edad o zona de residencia.
  • Emitieron alertas policiales erróneas sobre personas inocentes.

Estos casos muestran que los algoritmos no son neutrales. Reflejan las lógicas, prejuicios y valores de quienes los diseñan y los alimentan con datos.

Y en países con poca regulación tecnológica, como Guatemala, el riesgo es aún mayor: el ciudadano no tiene herramientas para entender, reclamar o corregir una decisión algorítmica injusta.

El mito de la objetividad automatizada

Se suele pensar que lo digital es “más justo” porque no tiene emociones. Pero la justicia no consiste en eliminar emociones, sino en aplicar principios.

Cuando un algoritmo es entrenado con datos históricos sesgados, aprende a discriminar con precisión matemática.

Por eso es tan urgente revisar los sistemas que automatizan decisiones, especialmente en servicios públicos:

  • ¿Cómo decide el sistema a qué beneficiario darle un bono?
  • ¿Cómo filtra a quién se asigna una plaza?
  • ¿Quién controla los sistemas de scoring crediticio automatizado?
  • ¿Cómo saber si el modelo que niega una beca no está castigando sin saberlo a ciertos barrios, edades o tipos de escuela?

Lo que no se regula, se automatiza a ciegas.

Guatemala: entre el rezago y la urgencia regulatoria

Actualmente en Guatemala:

  • No existe una ley que regule la automatización de decisiones públicas.
  • No hay una norma de transparencia algorítmica obligatoria.
  • Las instituciones que usan tecnología no informan si sus sistemas toman decisiones automatizadas.
  • No hay una política nacional de ética algorítmica.

Esto deja al ciudadano en una desventaja estructural: no sabe cómo se deciden cosas que afectan su vida, y no tiene mecanismos para intervenir.

Es como vivir bajo una burocracia fantasma.

¿Qué debemos exigir como sociedad?

Un marco mínimo de protección frente a los sistemas automatizados debería incluir:

  1. Derecho a ser informado cuando una decisión es tomada por un sistema automático.
  2. Derecho a entender cómo funciona el sistema (explicabilidad algorítmica).
  3. Derecho a reclamar o solicitar revisión humana.
  4. Auditoría externa de los sistemas que impactan derechos.
  5. Obligación estatal de publicar los modelos algorítmicos aplicados en servicios públicos.

Esto no es un lujo. Es una condición para vivir en una democracia digital con justicia.

Automatizar sí, pero con responsabilidad

La automatización puede traer muchos beneficios. Pero cuando se usa sin reglas, sin ética y sin mecanismos de corrección, se convierte en una herramienta de exclusión silenciosa.

No es el algoritmo el que discrimina. Es el sistema que lo permitió sin control.

Urge una legislación nacional que defina los límites y deberes de los sistemas algorítmicos, sobre todo en:

  • Salud
  • Justicia
  • Educación
  • Trabajo
  • Finanzas
  • Procesos electorales

El derecho a entender cómo se toman decisiones sobre uno mismo no debe perderse en el código fuente.

“Todo algoritmo que afecta derechos debe ser tan comprensible como una sentencia judicial».