La IA como herramienta de control social: cuando la democracia se vuelve simulacro
La conversación pública dominante insiste en presentar la inteligencia artificial como un salto tecnológico inevitable y neutro: eficiencia, innovación, nuevas oportunidades. Sin embargo, cuando se analiza quién controla la infraestructura, quién financia el desarrollo y para qué usos concretos está siendo ya desplegada, aparece un cuadro mucho menos naïf. La IA no es una fuerza de la naturaleza; es una arquitectura de control diseñada por quienes tienen el capital, los datos y el mandato de defender sus intereses. Y en un mundo donde la concentración de riqueza no deja de aumentar, es ingenuo suponer que quienes acumularon poder de manera histórica permitirán que las sociedades sigan decidiendo libremente su destino.
La élite económica aprendió una lección fundamental del
siglo XX: controlar por la fuerza es caro, visible e inestable; controlar la
percepción es barato, invisible y eficaz. Las herramientas de IA aplicadas a
publicidad conductual, manipulación de microaudiencias, modulación emocional
del discurso político y vigilancia predictiva constituyen una expansión
cuantitativa y cualitativa de ese principio. No hace falta cerrar un parlamento
si se puede inducir a la ciudadanía a votar siempre dentro de los límites del
menú aceptable.
Lo que ya ocurre, no lo que vendrá
No se trata de hipótesis futuristas. Algunos hechos instalados:
* Campañas electorales optimizadas por IA que ajustan
mensajes distintos para millones de personas en tiempo real, según sesgos
cognitivos y fragilidades emocionales detectadas por perfiles psicométricos.
* Plataformas financieras automatizadas que identifican
en qué climas políticos conviene provocar corridas, presiones cambiarias o
desestabilización de bonos para disciplinar gobiernos y condicionar agendas
económicas.
* Sistemas de vigilancia predictiva en ciudades que no
solo detectan conductas consideradas “riesgosas”, sino que anticipan
concentraciones, movilizaciones y redes sociales susceptibles de protesta antes
de que existan en la calle.
* Modelos de lenguaje aplicados a saturación discursiva: generación masiva de contenido que desplaza narrativas alternativas por simple volumen, sin que el público distinga lo orgánico de lo fabricado.
Nada de esto requiere distopías futuras: ya está operativo
en países democráticos, sin leyes previas, sin deliberación pública y con un
consenso mediático que normaliza la opacidad bajo el rótulo de “innovación”.
Qué cambia con la IA: la escala y la invisibilidad
Los mecanismos de domesticación social existieron siempre: propaganda, censura, guerra psicológica, lawfare, carrot-and-stick económico. La novedad de la IA no es moral sino de escala y opacidad.
* Escala: lo que antes requería ejércitos de operadores
ahora lo realiza software entrenado en millones de patrones conductuales. La
manipulación deja de ser quirúrgica y pasa a ser masiva.
* Opacidad: los modelos son cajas negras propiedad privada. Los ciudadanos afectados por sus decisiones no pueden auditarlos, impugnarlos ni siquiera saber que operan sobre ellos.
La democracia supone deliberación pública bajo información
accesible. La IA, tal como está desplegada hoy, privatiza la infraestructura de
percepción y disuelve el espacio público en flujos adaptativos controlados por
actores sin mandato democrático.
La falacia de la neutralidad tecnológica
Todo aparato construye realidad según la lógica de su diseñador. Cuando la IA se entrena con datos producidos dentro de un orden social desigual, reproduce esa desigualdad con apariencia de objetividad. El discurso tecnocrático asegura que la IA “optimiza” sistemas; pero nunca discute a favor de quién optimiza. La eficiencia es un valor vacío si no se nombra el beneficiario.
La concentración contemporánea es inédita: un puñado de corporaciones tiene simultáneamente el capital, los datos, el hardware de cómputo, la propiedad intelectual y la influencia regulatoria. Nunca en la historia humana una infraestructura de poder cultural y político estuvo tan verticalizada y tan blindada frente al control social.
La deriva previsible
Si nada interviene, el vector es claro:
1. Normalización de la manipulación invisible como
“ciencia de la persuasión”.
2. Transferencia de soberanía cognitiva desde ciudadanos hacia sistemas que filtran qué es creíble, plausible o pensable.
3. Elecciones formalmente libres pero materialmente
dirigidas: la gente votará, pero dentro de un perímetro mental preprogramado.
4. Estado capturado desde fuera: gobiernos electos
gobernarán bajo amenaza permanente de castigo financiero o de demolición
reputacional algorítmica.
5. Democracias convertidas en decorado: la palabra seguirá existiendo, pero la sustancia habrá migrado a centros de cálculo sin rostro.
Quien controle los flujos de información y los estímulos que
modulan conducta no necesita violencia para gobernar; necesita solo ventanas de
atención y un modelo entrenado.
Advertencia final
El mayor error conceptual sería pensar que el riesgo es futurista. Lo que se teme para mañana es, en versión reducida, lo que ya está funcionando hoy. Queda por delante un dilema elemental: o las sociedades someten a control público la infraestructura algorítmica del poder antes de que se consolide, o aceptan que la noción misma de ciudadanía será sustituida por una coreografía de percepciones administrada desde arriba.
Las democracias no suelen caer con tanques ni golpes televisados, mueren cuando la población deja de tener agencia real y no lo percibe. En ese punto, ya no hay retroceso posible porque no hay sujeto político que pueda deshacer lo que no advierte.
Ese umbral no está lejos: está en curso.
FUENTES
— Reporte Mozilla Foundation (2023) sobre uso político de IA
en campañas digitales
— Centro para la Gobernanza de la IA de la Universidad de
Oxford (traducciones al español disponibles en su web y repositorios)
— Observatorio de Algoritmos en Latinoamérica (ODAL) sobre
impacto de sistemas automatizados en políticas públicas
— Informe de la UNESCO sobre regulación de IA y derechos
humanos
— Documentación del caso Cambridge Analytica – Cobertura de
The Guardian en español
— Estudios del CIPER Chile y el COLNODO Colombia sobre
vigilancia y plataformas
— Investigaciones del Citizen Lab (U. Toronto) difundidas en
medios latinoamericanos
— Informes del Parlamento Europeo sobre microtargeting y
propaganda política personalizada

Comentarios
Publicar un comentario