La libertad y la verdad secuestradas por la inteligencia artificial

La libertad y la verdad secuestradas por la inteligencia artificial

Resumen La inteligencia artificial es una nueva realidad con la que convivimos y que transforma también lo que somos, cómo […]

Por: Miguel Pastorino13 Ene, 2025
Lectura: 17 min.
La libertad y la verdad secuestradas por la inteligencia artificial
Compartir
Artículo original en español. Traducción realizada por inteligencia artificial.

Resumen

La inteligencia artificial es una nueva realidad con la que convivimos y que transforma también lo que somos, cómo nos pensamos y cómo vivimos, como un nuevo medio ambiente. Su impacto es transformador y radical, desde la educación hasta la medicina, desde la economía y la política hasta el trabajo y los vínculos entre las personas.

La llamada inteligencia artificial (IA) no es solamente un salto tecnológico, sino que ha generado un cambio antropológico, porque redefine la vida humana, las formas de pensar y vivir, de conocer, de aprender, de relacionarse, las formas del poder y los límites de los derechos, la concepción de la libertad y de la verdad. Representa una de las cuestiones filosóficas más relevantes de nuestro tiempo. Porque no es una simple herramienta, sino que comienza a fusionarse con nuestro ambiente y con quienes somos, transformando nuestra vida cotidiana y su impacto no deja ambiente sin transformar, desde la educación hasta la medicina, desde la economía y la política, hasta el trabajo y los vínculos entre las personas.

A la vez que hemos moldeado a las máquinas, las mismas máquinas nos han moldeado a nosotros. El mundo construido por el ser humano, el mundo de las máquinas o los sistemas sociotécnicos, nos ha rediseñado en parte afectando a nuestras habilidades y dando forma a nuestros propios valores y creencias (Savulescu y Lara, 2021).

La IA no es ni moral ni filosóficamente neutra, no es un instrumento, sino una nueva realidad con la que convivimos y que transforma también lo que somos, cómo nos pensamos y cómo vivimos, un nuevo medio ambiente. Nos encontramos en una dinámica de interacción mutua, de coparticipación de operaciones.

El ambiente tecnológico tiene sus propias dinámicas y su propia lógica, no ha reemplazado el ambiente natural, sino que lo ha transformado, lo ha reconfigurado totalmente: «La tecnología ya no es un medio, sino que es el Medio, el ambiente en el que vivimos. Se trata de un Medio porque, debido a su autorregulación y sus automatismos, se configura como algo independiente y en continua evolución, capaz de rodearnos y de crear siempre nuevos contextos para el ser humano… Las nuevas tecnologías interactúan con el ambiente que las rodea, respondiendo a estímulos que llegan a ellas y que modifican sus comportamientos de manera independiente…». (Varela, 2022)

Que la tecnología abra nuevos espacios de acción implica necesariamente abrir una discusión sobre esas acciones, que nunca son neutras. Nos exige pensar en las consecuencias sociales, económicas y políticas, pero antes es necesario preguntarse por lo que realmente es y su impacto sobre la condición humana.

¿De qué inteligencia hablamos?

La inteligencia humana es irreductible a las funciones que puedan compararse metafóricamente con las que le atribuimos a la IA. Confundir funciones con la singularidad humana es un reduccionismo bastante habitual. De hecho, nos tienen acostumbrados al uso prestado de nociones tomadas de las ciencias cognitivas para aplicarlo a los sistemas informáticos, sin las debidas aclaraciones conceptuales. Los términos que usamos forjan nuestras representaciones mentales: Se habla de chips sinápticos, redes de neuronas artificiales, procesadores neuronales, etc.

«El principio de una inteligencia computacional modelada sobre nuestra inteligencia es erróneo, porque una y otra no mantienen casi ninguna relación de similitud» (Sadin, 2020), salvo que se caiga en la tentación de reducir la inteligencia a algunas funciones y que se reduzca la realidad a códigos binarios excluyendo así una infinidad de dimensiones que nuestra subjetividad humana puede experimentar y que escapan a una modelización matemática. «Estamos frente a una concepción trunca, restringida y sesgada de lo que supone el proceso de la inteligencia, que es indisociable de su tensión con una aprehensión multisensorial y no sistematizable del medio ambiente» (Sadin, 2020).

El big data apareció como una forma de conocimiento absoluto, a partir del cual las cosas revelan sus correlaciones secretas, pero olvidamos preguntarnos por el sentido de las cosas, por el por qué, por la razón última de los acontecimientos y por el significado de la vida.

«Todo se vuelve calculable, predecible, controlable. Se anuncia toda una nueva era del saber. En realidad, se trata de una forma de saber bastante primitiva. La minería de datos (data mining) descubre correlaciones. Según la lógica de Hegel, la correlación representa la forma más baja del saber» (Han, 2021), porque con las correlaciones no sabemos por qué suceden las cosas, simplemente sabemos que suceden.

A pesar de los impresionantes avances con la inteligencia artificial generativa y nuevas transformaciones en ciencia y tecnología, lo cierto es que no hablamos de inteligencia en el sentido humano, porque aunque la IA pueda realizar por aprendizaje automático una serie de funciones que hacemos los humanos (cálculo, procedimientos matemáticos, selección de información, detección de patrones, reproducción de lo aprendido) en un tiempo y cantidad de información imposible para un ser humano, eso no significa que piense humanamente. La IA no tiene conciencia ni subjetividad, aunque pueda simular emociones e interactuar con humanos aprendiendo y reaccionando a la información que recibe. El problema es cuando reducimos inteligencia a cálculo y manejo de información. Las máquinas no producen sabiduría porque no tienen subjetividad, no tienen autoconciencia, aunque puedan simularla y hacernos creer que sí e impresionarnos.

La IA no es artificial ni inteligente. Más bien existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones. Los sistemas de IA no son autónomos, racionales ni capaces de discernir algo sin un entrenamiento extenso y computacionalmente intensivo, con enormes conjuntos de datos o reglas y recompensas predefinidas. De hecho, la IA como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y debido al capital que se necesita para construir IA a gran escala y a las maneras de ver que optimiza, los sistemas de IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes. (Crawford, 2022)

Sumisión al oráculo artificial

Con el pretexto de tomar las mejores decisiones en todas las esferas de la vida (financieras, transporte, salud, deporte, justicia, etc.), los asuntos humanos comienzan a resolverse desde las alturas de la superinteligencia artificial, desde donde se tienen y procesan mayor cantidad de datos. Asistimos a una creciente consulta de oráculos artificiales que hacen las veces de gurús o directores espirituales que imponen rutinas diarias como poseedores de un conocimiento superior e incuestionable. Y así podemos ver cómo todo puede empezar por un nivel básico, de coaching, donde una aplicación opera sobre la vida emocional, sobre la nutrición o los vínculos, pautando cómo pensar y actuar, hasta niveles más prescriptivos donde la IA decidirá el futuro laboral o si se es digno de un préstamo bancario. Sadin refiere a un nivel más radical al que se ha llegado, un nivel coercitivo donde la IA terminará decidiendo gastos, recortes e incluso a impartir justicia.

La humanidad se está dotando a grandes pasos de un órgano de prescindencia de ella misma, de su derecho a decidir con plena conciencia y responsabilidad las elecciones que la involucran. Toma forma un estatuto antropológico y ontológico inédito que ve cómo la figura humana se somete a las ecuaciones de sus propios artefactos con el objetivo prioritario de responder a intereses privados y de instaurar una organización de la sociedad en función de criterios principalmente utilitaristas. (Sadin, 2020)

Es preciso hacerse preguntas y reflexionar críticamente sobre ello. ¿Qué desafíos presenta la IA a la filosofía política? ¿Cómo manejar los sesgos de la programación de la IA a la hora de contratar personas, evaluarlas en su trabajo o en la persecución del crimen sabiendo que alucina, se equivoca y también discrimina? ¿Cuáles serán los efectos políticos de la robótica en términos de justicia e igualdad? ¿Cuáles son los impactos que tiene sobre la democracia a la hora de manipular votantes? ¿Cómo está transformando el periodismo y la generación de noticias? ¿Cómo transforma las relaciones humanas, el aprendizaje y la salud mental? ¿Cuál debería ser el grado de participación ciudadana en la regulación de la IA? ¿Cómo impacta en los animales y en la producción agrícola? ¿Qué efectos puede tener sobre el clima y el medioambiente? ¿Cómo serían los derechos digitales para la protección de datos y asegurar el respeto por la dignidad de las personas?

Por otra parte, confundimos predicciones con futuro, como si una nueva forma de superstición nos diera la certeza de un futuro controlable o cognoscible.

La inteligencia artificial aprende del pasado. El futuro que calcula no es un futuro en el sentido propio de la palabra. Aquella es ciega para los acontecimientos. Pero el pensamiento tiene un carácter de acontecimiento. Pone algo distinto por completo en el mundo… La inteligencia artificial solo elige entre opciones dadas de antemano, últimamente entre el uno y el cero. No sale de lo antes dado hacia lo intransitado. (Han, 2021)

Sedentarismo cognitivo

¿Qué pasaría si le pidiéramos a alguien que hiciera ejercicios físicos por nosotros y nos librara del esfuerzo que implican tales actividades? Lo obvio: perderíamos la posibilidad de mejorar nuestra condición física, nuestra salud, y nos iríamos atrofiando físicamente, con todas las consecuencias que no es necesario explicar. Incluso en la retórica del gimnasio a nadie le parece un exceso que se hable de sacrificio, esfuerzo, dedicación, dejarlo todo, hasta que duela, y que a cuanto más tiempo y más esfuerzo, lograremos mejores resultados: No pain, no gain. El cultivarse como persona en todas las dimensiones posibles es un imperativo presente en todo tiempo y cultura. Normalmente todos quieren ser mejores de lo que son y desarrollarse en distintos aspectos de su vida. Nada de esto nos resulta extraño. Sin embargo, convivimos con una paradoja en cuanto al cuidado y desarrollo de nuestras capacidades, porque no sucede lo mismo con el cultivo intelectual. ¿Qué pasaría si los criterios que usamos para el cultivo del cuerpo, del entrenamiento físico, se trasladaran a la vida intelectual? ¿Imaginan a un profesor hablando hoy de sacrificio, esfuerzo, dedicación…? Desde los padres hasta los colegas lo mirarían con extrañeza como a un dinosaurio. ¿Por qué?

Parece que asistimos a una atrofia del pensamiento, a una promoción de la cultura del atajo y del mínimo esfuerzo intelectual. Si alguien nos puede ahorrar el tiempo para pensar, leer, escribir, comparar, calcular, sintetizar, analizar, se lo agradecemos como si nos hiciera un gran favor. Y ahora que gracias a la inteligencia artificial generativa (IAG) podemos ahorrarnos de hacer trabajos académicos que desarrollan habilidades intelectuales, asistimos a cerebros que se irán atrofiando en capacidades fundamentales para pensar lúcidamente. Y no es que no sea útil usar colaborativamente la IAG para el estudio y el trabajo, sino que el problema es hasta dónde queremos entregar nuestra libertad y qué habilitades estamos dispuestos a perder por comodidad. El riesgo sustancial es que dejemos de enseñar el valor del esfuerzo y de la concentración, del ser capaces de permanecer unas horas sentados enfocados en algo difícil con el propósito de resolverlo. ¿Cómo desarrollar tenacidad y resiliencia si al instante abandonamos para que alguien o algo lo resuelva y nos ahorre el esfuerzo?

Perder la capacidad de calcular, de mantener la atención o de realizar durante un tiempo un esfuerzo deliberado para resolver un problema difícil forma parte de un fenómeno que llamamos sedentarismo cognitivo. (Sigman y Bilinkis, 2023)

La mejor forma de hacer frente al sedentarismo cognitivo es transmitir la propia pasión por el saber y los beneficios de desarrollar habilidades intelectuales que nos permitan pensar por nosotros mismos con mayor profundidad y sin renunciar a nuestra libertad para elegir quienes queremos ser y a dónde queremos llegar.

¿Qué estamos dispuestos a perder?

En los sistemas automatizados actuales el ordenador asume con frecuencia el trabajo intelectual —observando y percibiendo, analizando y valorando, tomando incluso decisiones— que hasta hace poco era considerado terreno acotado para los humanos. La persona que maneja el ordenador ocupa el rol de un empleado de la tecnología que introduce datos, monitoriza las respuestas y busca fallos. En lugar de abrir nuevas fronteras de pensamiento y acción a sus colaboradores humanos, el software estrecha nuestra perspectiva. Cambiamos talentos sutiles y especializados por otros más rutinarios y menos distintivos. (Carr, 2014)

Dia tras día podemos convertirnos en seres incapaces de escribir un correo, hacer una lista de compras, ubicarnos en nuestra propia ciudad, pensar una estrategia de empresa, escribir un mensaje, un discurso o un ensayo. Con gran entusiasmo y comodidad nos abandonamos a las siempre solícitas invitaciones: «¿qué puedo hacer por usted?», sintiéndonos al mismo tiempo mimados y servidos por la tecnología, mientras la sacralizamos como una instancia superior que lo hará casi todo por nosotros, y sabrá cómo hacerlo mejor.

¿Podemos imaginar los efectos en las psychés individuales y colectivas de estar en la posición de esperarlo todo —como si estuviéramos tirados en nuestro sofá— de sistemas con aspecto de mayordomos infinitamente superiores a nosotros? Este entorno organiza la atrofia tanto de nuestro impulso hacia la exterioridad como de nuestras facultades intelectuales… (Sadin, 2024)

Según Sadin, nos encontramos en una era donde todo buscará satisfacer en tiempo real objetivos bien definidos y donde no hay lugar para la espontaneidad, ni para actividades que sean consideradas inútiles o ineficientes.

En el trabajo, muchas veces importa más el desafío que el resultado final, el proceso y el significado de lo que hacemos, que nos llena de sentido. Por ello, en el mundo laboral, la clave para la autovaloración reside en el sentido de la propia obra y saber que producimos un impacto significativo.

Nos gustan aquellas cosas que hemos hecho, nuestras propias creaciones, por el hecho de ser nuestras y de saber el esfuerzo que requirieron. Quizá en algunos años solo una pequeña minoría acceda a esos desafíos que dan sentido a la vida. De ser así, esto podría ser uno de los mayores impactos de la IA en el mundo laboral. (Sigman y Bilinkis, 2023)

La verdad reducida a datos

La IA desarrolla un tipo de funciones de manejo de datos que nos supera ampliamente en capacidad y velocidad, pero no sustituye otro tipo de capacidades humanas que tienen que ver con cómo nos relacionamos, con el sentido de la vida, que no se resuelven con datos, estadísticas y patrones. La reducción del conocimiento a información lleva a un ingenuo optimismo sobre diversas posibilidades de la IA respecto de la vida humana.

Sea cual sea la dirección que tome el desarrollo de la IA, no podemos delegarle la responsabilidad ni la sabiduría. Todavía existe cierta ingenuidad en pensar que todo se soluciona con mayor cantidad de datos, como si la respuesta a los dramas humanos dependiera exclusivamente de manejo de información y no de una profunda reflexión sobre lo que somos y qué queremos realmente hacer con el futuro de los que vendrán. Es claro que no podemos esquivar el progreso tecnocientífico y es deseable que pensemos responsablemente en cómo acompañamos estos procesos. Sería irresponsable caer en un determinismo que suponga que solo hay que subirse a la ola sin pensar, como si nada dependiera de nosotros más que aceptar un futuro ya programado por fuerzas incontrolables.

El futuro lo escribimos con nuestras decisiones del presente y es de celebrar que los actores políticos estén pensando en anticiparse a lo que vendrá, de modo responsable y escuchando a los que saben desde diversas disciplinas. La gobernanza de la tecnología será cada vez más un problema ineludible en la agenda política. El secuestro de la verdad por su reduccionismo a los datos convierte a la IA es un poder sagrado, en fuente segura para juzgar la realidad.

«Lo digital se erige como un órgano habilitado para peritar lo real de modo más fiable que nosotros mismos, así como para revelarnos dimensiones ocultas a nuestra conciencia» (Sadin, 2020). Se antropomorfiza a las máquinas como si ellas hicieran el mejor discernimiento, y a las que solo resta obedecer y aliviar el peso de tener que pensar. Ahorramos tiempo y esfuerzo mental, al mismo tiempo que entregamos nuestra libertad sin resistencia y aceptamos la nueva verdad sin reparos.

Si bien podemos trabajar colaborativamente y aprovechar las posibilidades de la tecnología, el mayor desafío es pensar responsablemente a qué estamos dispuestos a renunciar de nuestra condición humana por comodidad y cuáles son nuestros mínimos no negociables.

El pensamiento humano es más que cálculo y resolución de problemas. Despeja e ilumina el mundo. Hace surgir un mundo completamente diferente. La inteligencia de las máquinas entraña ante todo el peligro de que el pensamiento humano se asemeje a ella y se torne él mismo maquinal. (Han, 2021)

Ciberleviatán y el poder tecnocrático

En su obra Ciberleviatán (2019), José María Lasalle plantea la encrucijada que tenemos delante como humanidad en ir perdiendo libertad por mayor seguridad o que, con responsabilidad política, exista un auténtico pacto que asegure la libertad de los ciudadanos, que proteja los datos y establezca nuevos derechos digitales.

Nos encontramos sumergidos en un enjambre de humanos «sin capacidad crítica y entregado al consumo de aplicaciones tecnológicas dentro de un flujo asfixiante de información que crece exponencialmente» (Lasalle, 2019).

Según este filósofo español, el liberalismo humanista tiene por vocación primera limitar el poder y ahora se enfrenta a la seducción del poder tecnológico que quiere ser omnipresente y omnisciente, sin resistencias. Asistimos a una nueva reconfiguración del poder:

Hoy, los datos que genera internet y los algoritmos matemáticos que los discriminan y organizan para nuestro consumo son un binomio de control y dominio que la técnica impone a la humanidad. Hasta el punto de que los hombres van adquiriendo la fisonomía de seres asistidos digitalmente debido, entre otras cosas, a su incapacidad para decidir por sí mismos. (Lasalle, 2019)

La fascinación con un poder ilimitado de la tecnología, entendido como inevitable e ineludible, que asegura mayor control y niveles de certeza en decisiones, va desconfiando paulatinamente de la fragilidad y espontaneidad del factor humano. Así, la libertad tan valorada y defendida, comienza a ser vista como un problema para el progreso, por lo cual los humanos deberían aceptar que su libertad sea asistida por una inteligencia superior, cuasi divina: la inteligencia artificial. Algunos autores comienzan a ver en este cambio sociocultural tecnocrático la promesa de proteger a los humanos de su peligrosa espontaneidad y, bajo una preferencia determinista, sería mejor programarnos para lo que se considere mejor según criterios utilitaristas.

Vamos perdiendo libertades con la ilusión de que podemos acceder a nuevas posibilidades de desarrollo, como si para ser ilusoriamente más libres tuviéramos que ir renunciando a libertades fundamentales. Y lo hacemos pasivamente y con cierta naturalidad y fascinación.

Nos encontramos así con un alineamiento entre lo técnico, lo económico y lo político donde el poder se centraliza de forma desmesurada sobre un progresivo número de actividades, incluyendo la salud, la educación y el trabajo. Según Lasalle, «el despotismo algorítmico está haciendo volver a los hombres a una nueva minoría de edad que desanda la tradición liberal del conocimiento que propició la Ilustración».

Bibliografía para profundizar

Carr, N. (2014). Atrapados. Cómo las máquinas se apoderan de nuestras vidas. Barcelona: Taurus.

Coeckelbergh, M. (2021). Ética de la inteligencia artificial. Madrid: Cátedra.

Coeckelbergh, M. (2023). La filosofía política de la inteligencia artificial. Madrid: Cátedra.

Crawford, K. (2022). Atlas de la inteligencia artificial. Poder, política y costos planetarios. Buenos Aires: FCE

Han, B.-Ch. (2021). No-cosas: quiebres del mundo de hoy. Buenos Aires: Penguin Random House.

Lasalle, J. M. (2019). Cyberleviatán: El colapso de la democracia liberal frente a la revolución digital. Madrid: Arpa.

Sadin, E. (2020). La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Buenos Aires: Caja Negra.

Sadin, E. (2022). La era del individuo tirano. El fin del mundo común. Buenos Aires: Caja Negra.

Sadin, E. (2024). La vida espectral. Pensar la era del metaverso y las inteligencias artificiales generativas. Buenos Aires: Caja Negra.

Savulescu, J., y Lara, F. (2021). Más que humanos. Biotecnología, inteligencia artificial y ética de la mejora. Madrid: Tecnos.

Sigman, M., y Bilinkis, S. (2023). Artificial. La nueva inteligencia y el contorno de lo humano. Barcelona: Penguin Random House.

Varela, L. (2022). Espejos: filosofía y nuevas tecnologías. Barcelona: Herder.

Miguel Pastorino

Miguel Pastorino

Doctor en Filosofía. Magíster en Dirección de Comunicación. Profesor del Departamento de Humanidades y Comunicación de la Universidad Católica del Uruguay.

newsletter_logo

Únete a nuestro newsletter