Resumen
El poder transformador y el potencial disruptivo de la ia requieren de una gobernanza ética. La anticipación responsable y el uso alfabetizado del futuro son elementos clave en la formulación de políticas. Las comisiones parlamentarias del futuro ofrecen recomendaciones para una gobernanza inclusiva y basada en la cooperación, la transparencia y la inteligencia colectiva.
El desarrollo de la inteligencia artificial (IA) ha alcanzado un punto de inflexión en el que su capacidad transformativa y disruptiva exige una reflexión profunda sobre cómo gobernarla de manera ética y responsable. El concepto de inteligencia artificial general (AGI, por sus siglas en inglés) refiere a un tipo de IA capaz de realizar cualquier tarea intelectual humana y plantea desafíos sin precedentes que requieren otros marcos epistémicos y metodológicos para su gobernanza. Estos marcos deben ser capaces de no solo reaccionar a los cambios tecnológicos luego de ocurridos, sino también anticipar los riesgos y oportunidades asociados con la evolución de la IA, dentro de una concepción más amplia, de complejidad sistémica anticipatoria apoyada en inteligencia colectiva y valores éticos.
En este artículo se propone que una gobernanza anticipatoria efectiva requiere un enfoque fundamentado en capacidades y competencias anticipatorias, así como en principios éticos sólidos. La anticipación responsable se presenta aquí como una capacidad y cualidad clave para la toma de decisiones previsora y proactiva, creando las condiciones necesarias para que el desarrollo de la IA evolucione de manera ética, controlada y beneficiosa para toda la sociedad. Esto implica establecer principios que orienten su evolución hacia una AGI segura y ética, y un enfoque que permita gestionar sus efectos futuros ex ante.
El texto articula aspectos de la ética, la complejidad y el uso del futuro en la toma de decisiones, aplicándolos al contexto de la gobernanza anticipatoria de la IA. También se incluye la experiencia de la Comisión Especial de Futuros del Parlamento del Uruguay y los aportes recientes de la Segunda Cumbre Mundial de Comisiones de Futuros en Parlamentos.
El trabajo se estructura en tres secciones principales. En primer lugar, se analiza la naturaleza evolutiva de la IA y su potencial disruptivo. En segundo lugar, se exploran los desafíos que el uso del futuro plantea para una práctica de gobernanza anticipatoria. Finalmente, se discuten las consideraciones prácticas para una gobernanza responsable de la IA, destacando el papel crucial que desempeñan los Parlamentos y otras instituciones en el diseño de marcos flexibles, anticipatorios y adaptativos.
La naturaleza evolutiva de la IA y su alcance disruptivo
Hay múltiples definiciones para lo que se ha dado en llamar inteligencia artificial. Algunos debates se centran en las diferencias con la inteligencia humana. En este texto no nos enfocaremos en este aspecto. Su potencial disruptivo va más allá de las similitudes o diferencias (que generalmente son discutidas desde una visión antropomórfica y antropocéntrica); en cambio, colocamos la cuestión en su alcance, es decir, en sus actuales y potenciales capacidades que pueden ser oportunidades para el bien de la humanidad o graves amenazas.
El otro aspecto que interesa es el carácter evolutivo de la IA (y esto es justamente lo que las más de las veces genera esas diferencias y falta de consenso sobre una única definición), ya que una característica inherente es su cambio permanente. La OCDE modificó en diciembre de 2023 su definición para los sistemas de inteligencia artificial:
Un sistema de IA es un sistema basado en una máquina que para un conjunto de objetivos explícitos o implícitos infiere a partir de la entrada que recibe cómo generar salidas en la forma de predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después de la implementación.1
De manera simplificada, podemos decir que la IA no es estática; está en constante evolución, expandiendo sus capacidades y modificando su relación con las dinámicas tecnológicas y sociales que la rodean. Este proceso evolutivo, caracterizado por una autonomía creciente y una capacidad disruptiva, plantea desafíos complejos para los tomadores de decisión, y cuestiona las capacidades tradicionales de los sistemas de gobernanza. Además, este proceso se entrelaza con otras tecnologías emergentes como el internet de las cosas (IoT), los sistemas autónomos, la robótica, la bio y nanotecnología, y las ciencias cognitivas y neurociencias, lo que amplifica aún más su impacto. Un ejemplo de este entrelazamiento se observa en la medicina de precisión, donde la IA, junto con la biotecnología y la nanotecnología, permite desarrollar tratamientos personalizados, pero también plantea desafíos éticos y de privacidad que requieren nuevas formas de gobernanza.
Desde sus inicios, la IA ha demostrado ser una herramienta poderosa para resolver problemas específicos. Sin embargo, estamos a punto de un salto hacia la inteligencia artificial general, un tipo de IA con la capacidad de realizar tareas generales de manera similar a los humanos, incluyendo la resolución de problemas complejos sin preprogramación específica. Esta transición plantea preguntas fundamentales sobre cómo debemos gobernar estas tecnologías y qué tipo de futuros deseamos construir en relación con ellas.
Comprender la naturaleza evolutiva de la IA es crucial para diseñar marcos de gobernanza que permitan gestionar su impacto. Se tomará como base la distinción que hace el Millennium Project, Futures Studies and Research2 de distintos tipos de IA.
IA estrecha, IA general y superinteligencia artificial
La gobernanza de la IA debe partir de una distinción fundamental entre tres tipos de IA: la inteligencia artificial estrecha (Artificial Narrow Intelligence, ANI), la inteligencia artificial general (artificial general intelligence, AGI) y la superinteligencia artificial (Artificial Super Intelligence, ASI). Esta distinción es crítica porque cada una de estas formas de IA presenta riesgos, oportunidades y desafíos diferentes.
— ANI (inteligencia artificial estrecha) es el tipo de IA que tenemos en la actualidad, diseñada para realizar tareas específicas como el reconocimiento facial, la conducción autónoma o los sistemas de recomendación en plataformas de streaming. Estas ANI son herramientas limitadas en su capacidad y no pueden operar fuera de los parámetros para los que fueron diseñadas. La inteligencia artificial generativa (como el Chat GPT o similares) está demostrando en sus avances actuales estar en transición hacia un tipo o fase siguiente.
— AGI (inteligencia artificial general) representa un salto cualitativo en la evolución de la IA. A diferencia de la ANI, la AGI tiene la capacidad de resolver problemas no específicos, operar en una amplia gama de contextos sin intervención humana constante, adaptarse a nuevas situaciones y aprender de manera autónoma. Esto convierte a la AGI en un agente autónomo que podría actuar de maneras no anticipadas por los humanos que la desplieguen. La AGI puede mejorar su propio código y evolucionar rápidamente, lo que plantea preocupaciones sobre su control y las consecuencias imprevistas de su desarrollo. Los desarrollos actuales sugieren que la AGI podría estar próxima (los expertos discuten entre cinco años a un par de décadas para que se llegue a esa fase), y su impacto será profundo, ya que permitirá que los sistemas de IA actúen como agentes autónomos con capacidades comparables, o incluso superiores, a las humanas.
— ASI (superinteligencia artificial) es la evolución posterior a la AGI, una inteligencia tan avanzada que podría establecer sus propios objetivos y actuar de manera completamente independiente de los humanos. Aunque la ASI aún es una especulación, la posibilidad de que emerja de la AGI exige una gobernanza anticipatoria que contemple no solo las fases actuales del desarrollo de la IA, sino también sus posibles derivas.
En pocas palabras, mientras que la AI actual presenta retos en la transparencia y equidad de los algoritmos y de la privacidad personales, la AGI y la ASI amplifican estos desafíos, introduciendo cuestiones existenciales sobre el control, la autonomía y la influencia potencial en la estructura de la sociedad y humanidad (Glenn y Garrido, 2023).
Complejidad relacional y la necesidad de un cambio paradigmático
El carácter evolutivo de la IA, particularmente en su transición hacia la AGI y la ASI, requiere un cambio paradigmático en la forma de abordar su gobernanza. Es necesario pasar de un enfoque lineal y simplista a uno basado en la complejidad relacional, donde se reconozcan las múltiples interdependencias entre la tecnología y el resto de diversos sistemas sociales y naturales (económicos, culturales, medioambientales, entre otros). La gobernanza no puede limitarse a la regulación reactiva de los problemas actuales o a intervenir después de que ocurran; debe ser anticipatoria y abrir alternativas en el presente mediante acciones preventivas y generativas, creando condiciones consensuadas socialmente que consideren el cambio cualitativo de estas tecnologías en su evolución. Esto requiere modelos participativos inter y transdisciplinarios, como modos reticulares (en red) basados en la inteligencia colectiva y la participación social.
La gobernanza debe ser anticipatoria y abrir alternativas en el presente mediante acciones preventivas y generativas.
Este enfoque de gobernanza anticipatoria no solo aborda los riesgos, sino que también explora las oportunidades que presenta la IA, y permite a los tomadores de decisiones gestionar crisis y, más importante aún, tener incidencia para transformar antes (ya sea evitando o creando condiciones deseadas).
La creación de la Comisión Especial de Futuros en el Parlamento de Uruguay es un claro ejemplo de este cambio. Al adoptar un enfoque más complejo e interrelacionado, la comisión trabaja para integrar perspectivas diversas e introducir aspectos del futuro, propulsando así acciones para un innovativo ecosistema de gobernanza anticipatoria.
Desafíos de la gobernanza anticipatoria y la anticipación responsable
Se propone una reflexión para la gobernanza anticipatoria de la IA desde la práctica de una anticipación responsable. El futuro en sí mismo no existe, lo cual coloca una dificultad ontológica que debe ser tomada en cuenta dentro de la dimensión epistémica del problema. Dado el carácter evolutivo de la IA, es vital no solo enfocarse en los problemas actuales, sino en incluir todas las fases posibles de desarrollo de la IA dentro de las estrategias de gobernanza. Sin embargo, surge una pregunta fundamental: ¿cómo asumir responsabilidad por futuros que aún no existen? A continuación, se plantea una reflexión y un abordaje para esta cuestión.
Ética y el imperativo de responsabilidad
La anticipación responsable busca articular una postura ética que vaya más allá de los enfoques puramente filosóficos o aquellos limitados a la previsión o prospectiva tradicional. En este contexto, se ubica la práctica ética en una conjunción consciente y reflexiva que permite traer el futuro al presente en diversas fases del proceso de toma de decisiones. Esto implica abrirlo para incluir el futuro desde la formulación de problemas, la construcción de alternativas y la selección de acciones, todo ello basado en insumos que estén alineados en clave de futuros (Garrido, 2024).
El trabajo pionero de Hans Jonas en la década de 1970 subrayó la importancia de integrar las implicaciones futuras en las decisiones éticas contemporáneas. Jonas desafiaba los estándares éticos predominantes al introducir un marco orientado al futuro que consideraba el impacto de las acciones presentes en las generaciones futuras y el medio ambiente. Su propuesta de una responsabilidad extendida requería una reflexión ética que no solo abordara las consecuencias inmediatas, sino también los efectos a largo plazo. En su obra, Jonas formuló el imperativo de responsabilidad: «Actúa de tal manera que los efectos de tu acción sean compatibles con la permanencia de la vida humana genuina en la Tierra». Este imperativo, profundamente relevante en nuestra era tecnológica, enfatiza la obligación moral de salvaguardar la dignidad, autonomía e integridad tanto de la vida presente como de la futura.
Jonas no solo alteró el enfoque ético tradicional, sino que revitalizó el pensamiento anticipatorio, alineándolo con el concepto aristotélico de causa final como una guía práctica y ética para la acción. Esta perspectiva propone un retorno a los principios fundamentales de previsión y responsabilidad, que son cruciales para la preservación de la vida humana en un contexto en el que lo natural y lo artificial se entrelazan cada vez más.
La noción de anticipación responsable que se propone implica tanto un actuar de manera ética, considerando las consecuencias futuras (ética consecuencialista), como las obligaciones morales (ética deontológica) de nuestras acciones, además de adoptar una postura proactiva que promueva el cuidado responsable (ética de la virtud). Este enfoque es esencial en ámbitos como la atención médica, la educación y, por extensión, en la gobernanza de la IA, donde la vulnerabilidad del bien común debe ser protegida.
La estructura moral de los seres humanos proporciona una visión de nuestra capacidad única como agentes reflexivos con la responsabilidad de tomar decisiones que tienen implicaciones éticas. Como destaca Adela Cortina (2013), la existencia humana es inherentemente dramática debido a la necesidad constante de tomar decisiones y justificar nuestros actos. Nuestra libertad, aunque es un privilegio, también impone la carga de la justificación moral. Esta dinámica de libertad, decisión y responsabilidad constituye el eje ético de nuestra acción, y nos hace responsables no solo por las decisiones de alcance inmediato, sino por los futuros que contribuimos a crear.
La anticipación responsable responde a la pregunta crítica de los tomadores de decisiones: «¿Qué debería hacer ahora?». Esta interrogante, central en el enfoque de Robert Rosen (1985), nos lleva a considerar un enfoque paradigmáticamente diferente para la toma de decisiones. Su desarrollo conceptual sobre sistemas anticipatorios proporciona una nueva comprensión de cómo los sistemas biológicos y sociales pueden tomar decisiones informadas por el futuro, a diferencia de los sistemas reactivos, que simplemente responden a estímulos pasados.
A través de sistemas anticipatorios a nivel de los procesos cognitivos, se genera información y conocimiento que alimenta la toma de decisiones. La anticipación explícita (Poli, 2010) es la capacidad consciente de incorporar o generar información sobre un momento posterior para actuar en consecuencia. Los supuestos anticipatorios son las piezas operativas concretas de este proceso. Su consideración permite explorar la sinergia entre ética, intención y futuros potenciales, enriqueciendo tanto nuestra comprensión teórica como la aplicación ética práctica. Pueden actuar como un puente entre la teoría ética y la práctica, ofreciendo un enfoque matizado para la anticipación responsable que combina la reflexión ética con el pensamiento orientado al futuro.
El proceso de usar el futuro en la toma de decisiones
Aunque el futuro en sí mismo no existe, lo usamos cada vez que estamos anticipando. Este es el significado abreviado de uso del futuro y abarca los muchos propósitos y formas de anticipación, entre ellas, la preparación, la planificación, así como la exploración y creación de alternativas en el presente (Miller, 2018, p. 10).
Un uso del futuro alfabetizado requiere una comprensión sobre cómo usamos aquello no existente (el futuro) para generar conocimiento y para informar la toma de decisiones. Aquí, comenzar por reconocer los sistemas y supuestos anticipatorios y cómo influyen en la manera que percibimos el presente, se vuelve un aspecto esencial. Al mismo tiempo, si reconocemos la naturaleza contingente del futuro —modelado por una multitud de posibles eventos y decisiones en creación permanente—, podemos entender mejor y relacionarnos con la incertidumbre y la complejidad.
Esto implica no solo imaginar una gama de futuros potenciales —como objetivos o escenarios adelante en el tiempo, es decir, futuros sustantivados— y evaluarlos en términos de deseabilidad y viabilidad, sino también el reconocimiento y selección de diferentes sistemas y supuestos anticipatorios (modelos subyacentes) que participan en esa percepción y la modelan, por lo que deben estar alineados con el propósito y con la naturaleza misma de los fenómenos y problemas.
En otras palabras, se trata de comprender y usar de manera diestra los sistemas y modelos que permiten incorporar lo no existente aún, a través de la reflexividad sobre los modos epistémicos en que esto se hace, ya que esto cambia lo que vemos en el presente, las oportunidades y desafíos que percibimos (que puede estar sesgado, incompleto o equivocado). Como resultado, la toma de decisiones se vuelve más informada, matizada y alineada con consideraciones de valor éticas, porque hay una mayor destreza para incorporar el futuro en el análisis.
Si bien esto puede resultar muy abstracto así planteado, lo es, porque nos estamos refiriendo a procesos de alta cognición que hacen posible la anticipación misma (que es una acción con implicaciones prácticas). Además, la anticipación es esencialmente contrafactual, ya que incide antes y puede cambiar aquello a suceder, un aspecto más que fundamenta la necesidad de otras lógicas, metodologías y destrezas.
La alfabetización en futuros se convierte en una habilidad clave en este contexto y podemos equipararla a cualquier otro tipo de alfabetización (alfanumérica, computacional, emocional). Esta capacidad permite a individuos y organizaciones introducir el futuro más allá de la palabra futuro o de proyecciones o extrapolaciones del pasado (que es lo que suele hacerse), y en cambio, propiciar la reflexividad y creatividad necesarias para navegar la incertidumbre con agilidad y responsabilidad, asegurando que sus acciones presentes estén mejor informadas.
En la práctica, este enfoque transforma la forma en que se formulan las políticas, permitiendo que el uso del futuro se convierta en una herramienta poderosa para la gobernanza anticipatoria y la anticipación responsable.
Siguiendo el trabajo de Sripada (2016), podemos distinguir entre las fases de construcción y selección en los procesos de toma de decisiones. La fase de construcción implica la creación de opciones significativas basadas en la imaginación y la prospección de posibilidades futuras. Este proceso es fundamental para ampliar el conjunto de alternativas posibles, enriqueciendo así la toma de decisiones. La fase de selección, por su parte, implica evaluar y asignar valor a las opciones generadas, asegurando que las decisiones finales estén alineadas con principios éticos y futuros deseables.
De este modo, la anticipación responsable no se limita a la mera predicción o a la responsabilidad por tareas específicas, sino que implica una actitud cuidadosa y reflexiva que atraviesa todo el proceso de toma de decisiones. Desde la formulación del problema y su replanteo, hasta una comprensión más profunda que se expresa en la capacidad de diversificar alternativas y elegir mejores opciones con capacidad de transformar antes, la anticipación responsable guía a los tomadores de decisiones a actuar con un sentido profundo de responsabilidad ética. Este enfoque garantiza que las decisiones presentes contribuyan a la creación de futuros deseables, mientras se minimizan los riesgos inherentes a la incertidumbre.
Consideraciones aplicadas para una gobernanza anticipatoria de la IA
Los Parlamentos son quizás las instituciones con mayor intensidad en el uso del futuro y, por lo tanto, responsabilidad con las sociedades y la humanidad en general, en términos de proporcionar garantías para una evolución segura de la IA: IA responsable, IA para el bien común.
A través de sus funciones principales, como la rendición de cuentas, supervisión, representación y legislación, tienen una influencia directa y concreta en las directrices para el desarrollo de la AI. Por este motivo, el Parlamento del Uruguay creo una Comisión Especial de Futuros como propuesta innovadora que le permita recorrer una curva de aprendizaje para la gobernanza anticipatoria. Como espacio plural de interrelación con su ciudadanía y con los demás ámbitos y niveles de gobierno, es una gran oportunidad para propulsar un ecosistema de gobernanza anticipatoria.
En este caso aplicado sobre gobernanza de la IA, el imperativo de una práctica de anticipación responsable es una condición sine qua non.
Algunas recomendaciones para la gobernanza anticipatoria de la IA
Estas recomendaciones surgieron en el marco de la Segunda Cumbre Mundial de Comisiones de Futuros en Parlamentos, reunida en Montevideo, Uruguay, en 2023.
1. Desarrollo de un marco de gobernanza anticipatorio de la IA. Es crucial establecer un marco regulatorio global articulado con directivas a nivel internacional y regional. Este marco debe promover la cooperación internacional, asegurar el uso ético y responsable de la IA y regular su evolución para mitigar riesgos y maximizar beneficios.
2. Promoción de la transparencia y explicabilidad de los algoritmos. Implementar marcos que exijan la transparencia en el desarrollo de los algoritmos, para garantizar que las decisiones tomadas por los sistemas de IA sean comprensibles y auditables. La explicabilidad es crucial para evitar sesgos y fomentar la confianza pública. Se deben desarrollar sistemas de auditoría continua para monitorear el comportamiento de la IA. En la promoción de la transparencia y explicabilidad de los algoritmos, se puede destacar el caso de la Unión Europea, que ha establecido directrices claras para garantizar la responsabilidad y auditabilidad de los sistemas de IA, marcando un estándar global en el ámbito de la regulación tecnológica.
3. Fomento de una gobernanza inclusiva y participativa. Es esencial diseñar una gobernanza de IA que promueva la inclusión de diversas partes interesadas (gobiernos, sector privado, sociedad civil, academia) y asegure que la tecnología beneficie a toda la sociedad. Se deben priorizar políticas que garanticen el acceso equitativo a las tecnologías emergentes, evitando que las brechas tecnológicas perpetúen desigualdades.
4. Fortalecimiento de capacidades anticipatorias. Los Parlamentos deben desarrollar capacidades anticipatorias para gestionar la evolución de la IA y prepararse para los cambios disruptivos. Esto incluye la creación de unidades especializadas en el uso del futuro dentro de los Parlamentos y el desarrollo de programas de capacitación para legisladores en temas de futuros, IA y complejidad. Esto es deseable que se extienda de manera articulada a otros espacios de gobierno y de la sociedad a modo de ecosistema de gobernanza anticipatoria.
5. Uso de sandboxes regulatorios. Implementar entornos de experimentación controlados (sandboxes) para probar y ajustar las regulaciones de la IA de manera iterativa. Esto permitirá a los Parlamentos adaptarse flexiblemente a los cambios tecnológicos, garantizando que las normativas evolucionen junto con la tecnología.
6. Adopción de principios éticos fundamentales. Incluir principios éticos en la gobernanza de la IA, tales como la transparencia, la equidad, la privacidad y la seguridad. Estos principios deben aplicarse a lo largo de todo el ciclo de vida de los sistemas de IA, desde su diseño hasta su implementación y uso.
7. Promoción de la educación y la alfabetización en IA. Desarrollar programas de educación y capacitación en IA para parlamentarios, ciudadanos y profesionales de distintos sectores. Esto fomentará una mayor comprensión de los riesgos y oportunidades de la IA, preparando a la sociedad para participar de manera activa en los procesos de gobernanza.
8. Cooperación internacional en gobernanza tecnológica. Fomentar la cooperación internacional y el intercambio de mejores prácticas entre países para abordar los desafíos globales de la IA, promoviendo soluciones compartidas que puedan ser aplicadas a nivel local y global.
Estas recomendaciones buscan fortalecer la capacidad de los Parlamentos y otras instituciones de gobierno, de la academia, los desarrolladores y la sociedad civil en la gestión anticipatoria de la IA, y promover una gobernanza anticipatoria, participativa y basada en principios éticos que garantice el uso seguro y beneficioso de esta tecnología para el bien común, que incluye lo social y medioambiental.
Hacia una gobernanza anticipatoria responsable
La gobernanza anticipatoria de la IA es una necesidad fundamental en un contexto de cambios tecnológicos acelerados y profundos. El desarrollo de la AGI y la eventual aparición de la ASI plantean desafíos existenciales que no pueden ser abordados con enfoques tradicionales de gobernanza. La anticipación responsable, basada en la ética y la reflexividad, debe guiar el diseño de marcos regulatorios flexibles y colaborativos que permitan gestionar tanto los riesgos como las oportunidades que presenta la evolución de la IA.
El futuro de la IA no está escrito, y depende de las decisiones que tomemos hoy. La alfabetización en futuros, la ética de la anticipación y el desarrollo de capacidades anticipatorias en los tomadores de decisión son esenciales para asegurar que la IA se desarrolle para el bien común, garantizando que sus beneficios alcancen a toda la sociedad sin comprometer su seguridad o dignidad, asegurando que la IA evolucione de manera beneficiosa y equitativa para toda la humanidad.
Referencias bibliográficas
Arendt, H. (2008)
Cortina, A. (2013). ¿Para qué sirve realmente la ética? Madrid: Paidós.
Garrido, L. (2024). Responsible Anticipation. Futures literacy capacities to enhance ethical stance in anticipatory governance decision-making. Learnings and applications in Parliaments.En T. Fuller et al. (ed). Towards Principles for Responsible Futures. Lincoln University, Taylor and Francis (en imprenta).
Glenn, J., y Garrido, L. (2023). Parliaments and Artificial General Intelligence (AGI). An Anticipatory Governance Challenge. IDEA Internacional.
Jonas, H. (2014)
Miller, R. (2018). Transforming the Future: Anticipation in the XXI Century. París: UNESCO. Nueva York: Routledge
Miller, R., y Poli, R. (2010). Anticipatory Systems and the Philosophical Foundations of Futures Studies. Foresight, 12(3), 3-6.
Poli, R. (2010). An Introduction to the Ontology of Anticipation. Futures, 42(7), 769-776.
Rosen, R. (1985). Anticipatory Systems: Philosophical, Mathematical, and Methodological Foundations. Oxford: Permagon Press.
Russell, S., Perset, K., y Grobelnik, M. (2023). Updates to the OECD’s definition of an AI system explained. OECD.AI Policy Observatory. https://oecd.ai/en/wonk/ai-system-definition-update
Sripada, Ch. (2016). Free Will and the Construction of Options. En M. Seligman, P. Railton, R. Baumeister y Ch. Sripada (eds.), Homo Prospectus. Nueva York: Oxford University Press.
1 Uno de los ajustes principales que se hicieron a esta definición fue quitarle que tanto las entradas como las reglas pueden ser colocadas o no por un humano; en cambio, se reconoce que el sistema es capaz de aprender nuevos objetivos por sí mismo.
2Think Tank con más de setenta nodos país de profesionales futuristas que se originó como grupo asesor para lo que fueron los primeros Objetivos del Milenio. Actualmente lleva adelante un estudio Delphi sobre Global Artificial General Intelligence Governance. https://www.millennium-project.org/seeking-delphi-on-ai-implications-and-regulation-april-9-2024/