2026: IA y libertad académica: Desafíos para la educación superior en Las Américas
Por: Ricardo Villalobos Fontalvo

Ricardo Villalobos Fontalvo-. Mientras la inteligencia artificial se consolida en 2025 como el motor invisible de la vida cotidiana y la administración pública en las Américas, un vacío regulatorio crítico está dejando a la deriva derechos fundamentales como la libertad académica. Desde la automatización judicial en Colombia hasta la opacidad algorítmica que hoy bloquea el acceso universitario en Venezuela, Aula Abierta advierte que la falta de estándares internacionales vinculantes amenaza con transformar la eficiencia tecnológica en una herramienta de exclusión y erosión de la libertad académica y la autonomía en la educación superior.
El 2025 ha sido el año de la inteligencia artificial, donde los Modelos de Lenguaje Largo (LLM por sus siglas en inglés) como Chat GPT, Google Gemini, Antropic’s Claude, Deep Seek, desarrollados por grandes compañías internacionales han profundizado su presencia en las aplicaciones y tecnologías utilizadas en el día a día por las personas, consciente o inconscientemente, en computadoras, dispositivos telefónicos móviles e inclusive como parte de herramientas en procesos de adquisición de bienes y servicios en entornos digitales .
Los Estados y sus gobiernos, también han encontrado en la inteligencia artificial una herramienta que permite automatizar procesos de interés público como la recaudación de impuestos, la emisión de documentos de identidad civil, la vigilancia policial, entre otros procesos de carácter legal, administrativo y asistencial, reduciendo grandemente los costos de producción asociados al presupuesto público. La Organización para la Cooperación y el Desarrollo Económicos (OCDE) hace eco en su informe“ Gobernar con la inteligencia artificial” de como países, entre ellos algunos latinoamericanos, han ido integrando en la administración pública el uso de la inteligencia artificial. Por ejemplo, el informe refiere al sistema PretorIA de Colombia, el cual asiste a la Corte Constitucional en la gestión del elevado volumen de casos de tutela o acciones legales presentadas para proteger los derechos humanos. Con más de 600 000 tutelas recibidas anualmente, PretorIA ayuda a preseleccionar casos para revisión mediante la detección de criterios legales predefinidos (pp 294).
En paralelo a la implementación de la Inteligencia Artificial en la administración pública y en general cada aspecto de la cotidianidad, académicos como Geoffrey Hinton o Yoshua Bengio, conocidos como los padrinos de la Inteligencia Artificial, han manifestado como una de las grandes preocupaciones la falta de regulaciones legales sobre el uso y desarrollo de esta tecnología. Miembros de la sociedad civil e inclusive funcionarios públicos también han alertado de los graves riesgos que acompañan a la IA. En Estados Unidos, se han manifestado preocupaciones sobre la falta de una ley federal integral que regule la materia, dejando la protección de los ciudadanos en manos del vacío legislativo y un “mosaico regulatorio” estatal y órdenes ejecutivas no vinculantes, lo que favorece el dominio de la “IA corporativa” sobre las libertades individuales. Esto es particularmente preocupante, considerando el impacto global que la falta de regulación en empresas tecnológicas americanas puede ocasionar, teniendo en cuenta que 3 de los 4 modelos mencionados al inicio pertenecen a compañías americanas.
La situación en América Latina también es desafiante, países como Argentina, Brasil, Chile, Colombia, Costa Rica, Ecuador, México, Panamá, Perú y Uruguay están debatiendo legislación general sobre IA (OECD 2025, pp 148), aunque aún sin un resultado en concreto y no en todos los casos existe un proceso de participación abierta en el diseño y análisis del posible impacto de la legislación. Mientras tanto, el uso de las tecnologías es regulado de manera residual por leyes de protección de datos y algunos instrumentos orientativos como principios o planes de acción en materia de Inteligencia Artificial.
La utilización de la IA de manera oscura ha empezado a generar retos para el ejercicio de los derechos humanos en el marco de la educación superior en América Latina. En Venezuela, Aula Abierta ha documentado denuncias de profesores universitarios sobre la falta de transparencia respecto a los indicadores de asignación de plazas de estudios por parte del sistema digital del Ministerio de Educación Superior, cuyo algoritmo y sistema de valoración ha derivado en estudiantes universitarios denunciando la asignación de plazas de estudios no ajustadas a sus aptitudes académicas y en oportunidades en áreas geográficas que hacen materialmente imposible su acceso a la universidad, por mencionar algunos ejemplos.
Desde el Observatorio Latinoamericano de Libertad Académica y Autonomía Universitaria de Aula Abierta reconocemos el potencial del uso de esta tecnología para garantizar la libertad académica y la educación de calidad en la región. Sin embargo, es necesaria la adopción de estándares internacionales vinculantes en la materia, así como su rápida adopción en los ordenamientos jurídicos internos de la región, para prevenir, investigar, sancionar y reparar posibles violaciones a derechos humanos derivados de la IA. Durante el 2026 continuaremos monitoreando el uso de esta tecnología en el marco de la educación superior, identificando situaciones que representan retos para el ejercicio de los derechos humanos en la Educación Superior en Latinoamérica.
*Ricardo Villalobos Fontalvo es abogado, coordinador de investigación e incidencia internacional de Aula Abierta, con maestría en Derecho Internacional de los Derechos Humanos por la Universidad de Essex (Reino Unido). Desde el año 2021 ha realizado investigación sobre el impacto de la Inteligencia Artificial en los derechos humanos, habiendo trabajo con la Clinica de Derechos Humanos de la Universidad de Essex y Amnistía Internacional (Reino Unido) en la realización de un estudio sobre el impacto del uso de las tecnologías de inteligencia artificial en el derecho a la reunión pacífica. Ricardo también cuenta con formación en Ética de la Inteligencia Artificial por el London School of Economics and Political Sciences (Reino Unido).*








