Por Gabriela Baltodano
En el mundo universitario, la irrupción de la inteligencia artificial (IA) ya no es una posibilidad futura: está aquí y está transformando la manera en que investigamos, enseñamos y evaluamos. La verdadera pregunta no es si las universidades van a usar IA, sino cómo lo harán sin perder de vista la autonomía académica, la integridad del conocimiento y los derechos de su comunidad.
La UNESCO lo ha dicho con claridad: la ruta debe ser humanocéntrica, con salvaguardas de privacidad y transparencia desde el diseño de políticas. Sin embargo, cuando uno revisa la realidad, el panorama es desigual. Un comentario publicado en Nature Human Behaviour (marzo 2025) reveló que menos del 10% de universidades en Estados Unidos cuentan con políticas formales sobre IA, pese a que su uso ya se normalizó en aulas y laboratorios. Un vacío que no es menor: ahí donde no hay reglas claras, se multiplican riesgos de sesgo, dependencia tecnológica y opacidad.
Si miramos más allá, tampoco existe, con la excepción de algunos Estados asiáticos o de Oriente Medio que optaron por prohibiciones generales, un país que haya decretado vetos nacionales para el ámbito académico. La postura predominante ha sido la cautela propositiva al reconocer beneficios y riesgos al mismo tiempo. En otras palabras, se permite la incorporación de la IA, pero con lupa y con la exigencia de acompañamiento humano en cada decisión importante.
Europa ofrece ejemplos útiles. En el Reino Unido, Jisc, una organización británica que brinda servicios tecnológicos y de información a universidades, ya diseñó guías para consejos universitarios, con herramientas de madurez institucional y criterios de seguridad y equidad. En España, la Conferencia de Rectores de las Universidades Españolas CRUE publicó lineamientos que invitan a repensar la docencia universitaria frente a la IA generativa. Ambas experiencias muestran que gobernar la IA en la academia no es prohibir ni dejar hacer: es trazar rutas claras para un uso responsable.
En México, la conversación se acelera. La ANUIES abrió debates nacionales sobre ética e inteligencia artificial; el Tec de Monterrey estableció once lineamientos para garantizar transparencia e integridad académica; la UNAM, a través de IAGEN, un grupo académico de IA generativa en educación, impulsa recomendaciones para la enseñanza; la UANL va un paso más allá con programas de licenciatura y doctorado en IA, además de aprobar su uso en proyectos de investigación. Estos casos no son uniformes, pero sí dibujan un terreno fértil para ensayar una gobernanza con sello propio.
¿Qué hace falta? A mi juicio, tres compromisos inmediatos por parte de los órganos colegiados universitarios:
- Institucionalizar políticas claras con comités ético-técnicos que evalúen el impacto algorítmico y expliquen decisiones.
- Garantizar transparencia y derechos mediante declaraciones obligatorias de uso de IA, protección de datos y mecanismos de apelación cuando haya automatización en evaluaciones o procesos administrativos.
- Invertir en alfabetización crítica en IA, no solo para estudiantes, sino también para profesores y directivos.
La gobernanza universitaria frente a la IA no puede reducirse a protocolos de software ni a manuales de buenas intenciones. Lo que está en juego es la capacidad de las universidades de seguir siendo guardianas del conocimiento, espacios de pensamiento crítico y laboratorios democráticos de decisión.
La IA es una herramienta poderosa, pero su sentido dependerá de cómo la incorporemos en nuestras instituciones. Si lo hacemos con equilibrio, con modelos híbridos que sumen inteligencia artificial y juicio humano, podremos convertir esta tecnología en verdadero valor público universitario. De lo contrario, corremos el riesgo de delegar a los algoritmos lo que siempre debió permanecer en el ámbito del debate académico y la deliberación democrática.