¿Qué ocurre con la democracia cuando una parte creciente de las decisiones deja de ser objeto de deliberación y pasa a estar mediada, orientada o directamente automatizada por sistemas algorítmicos?
Durante mucho tiempo pensamos la tecnología como algo externo a la política: un medio disponible para fines previamente definidos. La inteligencia artificial vuelve insostenible esa comodidad conceptual. Los algoritmos no se limitan a ejecutar órdenes; configuran el entorno mismo en el que las decisiones se vuelven posibles, clasificando, prediciendo y haciendo recomendaciones. Determinan qué opciones aparecen primero, cuáles se vuelven invisibles y qué riesgos son considerados aceptables. No sustituyen simplemente la decisión humana: rediseñan el escenario en el que decidir tiene sentido.
La decisión como problema político central
Esta mutación plantea un problema político de primer orden y es que la democracia moderna se apoya en la posibilidad de atribuir decisiones y discutirlas públicamente. Pero, ¿cómo sostener esa lógica cuando los procesos decisionales se vuelven opacos y estadísticos? ¿Quién es responsable cuando nadie decide en sentido estricto?
Estas preguntas atraviesan, de modo más o menos explícito, el debate contemporáneo sobre la inteligencia artificial. Sin embargo, rara vez son abordadas con la profundidad conceptual que requieren desde la filosofía política. En este contexto resulta especialmente relevante el reciente libro de Daniel Innerarity, Una teoría crítica de la inteligencia artificial (Galaxia Gutemberg, 2025). La obra va más allá de la habitual reflexión sobre riesgos tecnológicos y propone una auténtica filosofía política de la inteligencia artificial.
[Lee: La inteligencia artificial y su impacto en los procesos electorales]
El mérito central de su enfoque consiste en desplazar la atención desde la máquina hacia la decisión. No le interesa especular sobre una hipotética superinteligencia ni alimentar temores distópicos. Su pregunta es más incómoda y más fecunda: ¿cómo se transforma la decisión democrática en un entorno crecientemente automatizado? La inteligencia artificial no aparece aquí como un mero problema técnico ni como un dilema ético accesorio, sino como una nueva constelación racional que obliga a revisar categorías políticas fundamentales.
Determinismo y distopía
Desde el inicio, el autor toma distancia de dos posiciones que dominan el debate público. Por un lado, el determinismo tecnológico, que presenta el desarrollo algorítmico como una fuerza imparable ante la cual solo cabría adaptarse. Por otro, la narrativa distópica que imagina escenarios de sustitución total de lo humano por la máquina. Frente a ambos extremos, Innerarity propone algo más exigente: comprender la lógica interna de la razón algorítmica y examinar críticamente sus efectos políticos.
También cuestiona tanto la idea de una moratoria tecnológica como el enfoque puramente ético. Frenar el desarrollo de la inteligencia artificial resulta poco realista en un contexto de competencia global, pero tampoco basta con multiplicar códigos de buenas prácticas que terminan funcionando como acompañamiento decorativo del statu quo. El desafío no es solo normativo, es institucional y conceptual. Todavía no sabemos cómo pensar democráticamente una sociedad en la que decisiones relevantes son delegadas a sistemas opacos y adaptativos.

Dos inteligencias, dos racionalidades
En este debate resulta crucial distinguir entre distintos tipos de inteligencia. Innerarity dedica especial atención al tema, en el que pocos investigadores se detienen. La inteligencia artificial contemporánea —especialmente la basada en aprendizaje automático y grandes modelos de lenguaje— muestra una capacidad extraordinaria para procesar datos, detectar patrones y optimizar funciones. Pero esa potencia no equivale a comprensión. Estos sistemas aprenden a partir de regularidades estadísticas del pasado. No comprenden el mundo, no generan sentido y no se enfrentan a lo nuevo en cuanto tal.
[Lee: Inteligencia artificial, ética y política]
La inteligencia humana, en cambio, no se define solo por la eficacia instrumental. Incluye juicio, imaginación, comprensión contextual y capacidad de deliberar en condiciones de incertidumbre, incluso a partir de un solo caso singular. Su rasgo distintivo no es la velocidad ni la acumulación de información, sino la posibilidad de redefinir fines, introducir rupturas y hacerse cargo de lo indeterminado.
La cuestión no es establecer una jerarquía tranquilizadora entre humanos y máquinas. El punto es otro: si confundimos cálculo con juicio, terminaremos organizando la vida pública como si todo conflicto pudiera resolverse mediante optimización. Y allí la política deja de ser deliberación sobre fines para convertirse en una mera gestión de probabilidades en manos de algoritmos. El problema no es que la máquina piense demasiado, sino que nosotros pensemos cada vez menos en términos políticos.
El mito de la neutralidad algorítmica
Allí donde antes había debate y conflicto, proliferan ahora sistemas que anticipan comportamientos futuros a partir de patrones pasados, negando la posibilidad de lo que no es tan predecible: la libertad humana. La deliberación es desplazada por la predicción. Cuando la política se deja guiar exclusivamente por lo que funciona estadísticamente, el futuro deja de ser un horizonte abierto y se convierte en extrapolación de lo ya conocido, cayendo en un círculo de sesgo confirmatorio, que solo se repite lo esperado.
[Lee: La libertad y la verdad secuestradas por la inteligencia artificial]
La democracia no es solo un método para detectar preferencias existentes. Es también un espacio donde esas preferencias pueden transformarse. En sociedades marcadas por desigualdades estructurales y por instituciones democráticas aún frágiles —como ocurre en buena parte de América Latina— este desplazamiento hacia la predicción corre el riesgo de consolidar, bajo apariencia técnica de neutralidad, decisiones que afectan de manera desigual a los sectores más vulnerables.
Se suele afirmar que los algoritmos son objetivos y libres de prejuicios. Pero los datos no hablan por sí solos. Son seleccionados, organizados y ponderados según criterios que responden a intereses, prioridades y supuestos normativos. Incluso el aprendizaje automático opera dentro de marcos diseñados por alguien. La supuesta neutralidad técnica es, en realidad, una forma sofisticada de decisión previa.
Paradójicamente, cuanto más complejos y adaptativos se vuelven estos sistemas, más difícil resulta identificar dónde se ejerce el poder. La dominación ya no adopta la forma visible de la orden o la prohibición, sino la forma discreta de la recomendación, la optimización o la personalización. No se nos obliga: se nos orienta. Y esa orientación, precisamente por su carácter técnico, tiende a naturalizarse como si no fuera una decisión política.

Transparencia, opacidad y control democrático
Ante este escenario, la respuesta habitual es apelar a la transparencia y se nos dice: “Si los algoritmos fueran auditables y abiertos el problema estaría resuelto”. Innerarity muestra por qué esta respuesta es insuficiente. No toda transparencia es políticamente relevante, ni toda opacidad es antidemocrática. Conocer el código de un sistema no garantiza comprender su impacto social ni habilita un control democrático efectivo.
La pregunta decisiva no es simplemente cómo regular la inteligencia artificial, sino cómo insertarla en la cadena de legitimidad democrática. Cuando intervienen sistemas que aprenden y se adaptan, ¿quién asume la representación? ¿Cómo se mantiene la igualdad en un entorno de decisiones personalizadas? ¿Qué ocurre con la deliberación cuando las preferencias son moldeadas antes de que lleguen a expresarse públicamente?
[Lee: Inteligencia artificial: modelos de regulación para Latinoamérica]
La inteligencia artificial se ha convertido en una infraestructura normativa. Organiza comportamientos, distribuye oportunidades y condiciona expectativas. No puede ser pensada como un ámbito externo a la política. Regularla no consiste solo en imponer límites técnicos, sino en diseñar instituciones capaces de integrar la automatización sin renunciar al autogobierno.
Democracia sin ingenuidad
Tal vez el riesgo más profundo de la inteligencia artificial no sea la dominación tecnológica, sino algo más sutil: la renuncia progresiva a decidir. Automatizar no es solo delegar tareas; es aceptar que ciertas decisiones ya no merecen deliberación humana porque el sistema “lo hace mejor”. Esta lógica puede ser razonable en ámbitos técnicos específicos, pero se vuelve problemática cuando se extiende a decisiones que involucran valores y derechos humanos. Si nadie decide, nadie responde.
La inteligencia artificial no anuncia el fin de la política. Pone en crisis cierta comodidad intelectual con la que pensábamos la democracia como si bastara con procedimientos formales. Nos obliga a revisar algo más elemental: qué significa decidir juntos cuando las condiciones mismas de la decisión están mediadas por sistemas que operan según lógicas que pocos comprenden.
Tal vez el problema no sea que deleguemos tareas en máquinas —eso ha ocurrido siempre—, sino que deleguemos la responsabilidad de preguntarnos por los fines. Allí donde la optimización sustituye al juicio, la política se empobrece sin que necesariamente lo notemos. Y ese empobrecimiento no es un problema técnico: es una forma de renuncia.
Te puede interesar:
- ⁠ AI Steve, el primer candidato a un cargo político no humano
- ⁠ ¿Cómo sería aplicar inteligencia artificial en política?
- ⁠ Inteligencia artificial: modelos de regulación para Latinoamérica