El bloc de apuntes vs la autoridad algorítmica.
- Dr. Jorge Nicolas Russ Moreno

- 24 dic 2025
- 5 Min. de lectura

Jorge Russ
La incorporación acelerada de inteligencia artificial (IA) conversacional en la vida académica no es una moda tecnológica más. Representa un cambio de infraestructura: modifica la manera en que los estudiantes acceden a información, elaboran explicaciones y, de forma creciente, deciden qué consideran verdadero. Para la docencia universitaria, el reto no es elegir entre entusiasmo o rechazo, sino construir un marco institucional que permita aprovechar capacidades nuevas sin debilitar competencias centrales de la formación profesional: comprensión conceptual, pensamiento crítico, método y responsabilidad epistémica.
Este texto propone una lectura institucional y crítica del fenómeno. Crítica no en el sentido de oposición automática, sino en el sentido universitario del término: capacidad de distinguir, contrastar, justificar y delimitar.
Un cambio de régimen: del conocimiento internalizado al conocimiento “en acceso”
Toda educación superior se apoya en una tensión productiva: por un lado, el estudiante debe adquirir conocimiento declarativo y procedimental; por otro, debe aprender a usar herramientas para operar en entornos reales. En décadas recientes, el ecosistema digital favoreció un desplazamiento gradual hacia el conocimiento “en acceso”: importa menos recordar el dato y más saber localizarlo. Ese desplazamiento puede ser funcional en múltiples ámbitos profesionales.
Sin embargo, la IA conversacional introduce un salto cualitativo. A diferencia del buscador, que remite a fuentes externas, el chatbot produce respuestas con apariencia de cierre y conclusión: explica, sintetiza y redacta. Ese “cierre o conclusión” tiende a reducir fricción cognitiva, y con ella disminuye la pausa donde se activa una práctica esencial del aprendizaje universitario: la formulación de dudas pertinentes y la verificación de supuestos.
La universidad, por definición, no solo transmite respuestas; forma capacidades para construirlas. Cuando el régimen de acceso se vuelve predominante, aparece un riesgo formativo: que el estudiante aprenda a resolver sin consolidar comprensión, a redactar sin sostener argumentación, y a citar sin evaluar.
De la externalización cognitiva a la tercerización epistémica
Es legítimo que el estudiante use herramientas para descargar parte del esfuerzo mental. Tomar apuntes, consultar bibliografía o usar un buscador son formas de externalización cognitiva: transferir al entorno cierta carga de memoria o de procesamiento. El problema no emerge por externalizar, sino por el tipo de actividad que se externaliza.
En el contexto de IA generativa, conviene distinguir entre dos niveles:
1. Externalización cognitiva: delegar tareas como recordar, organizar o buscar.
2. Tercerización epistémica: delegar el juicio de validez, es decir, asumir que algo es verdadero porque “suena correcto o se ve correcto”, porque aparece repetido o porque una herramienta lo formula con seguridad.
Esta segunda forma de delegación merece atención institucional porque afecta el núcleo de la formación universitaria: la construcción de conocimiento con criterios de evidencia. Cuando el estudiante desplaza la responsabilidad de validar hacia señales de fluidez, popularidad o autoridad algorítmica, el aprendizaje se vuelve vulnerable a errores persuasivos. Y la IA, por diseño, puede producirlos con gran coherencia superficial. Peor aún, admitir el error y adoptarlo como propuesta o eliminarlo a modo.
Fragilidad del consenso factual y costos pedagógicos
En un entorno informativo saturado, la universidad necesita un piso mínimo compartido para sostener la deliberación académica: definiciones operativas, criterios de evidencia, distinciones entre dato e interpretación, entre explicación y opinión. Ese piso no es ideológico; es metodológico.
Permite que disciplinas distintas dialoguen y que el desacuerdo sea productivo.
La fragilidad del consenso factual se vuelve un problema pedagógico cuando se incrementan tres condiciones:
• exposición repetida a afirmaciones dudosas,
• sustitución del contraste por señales rápidas (“me hace sentido”, “lo vi muchas veces”, “la IA lo dijo”),
• debilitamiento de hábitos de verificación.
Esto no significa que “los estudiantes ya no sepan nada”. Significa que el ecosistema compite activamente con la formación de criterio. Si no se interviene desde la institución, el aula corre el riesgo de transformarse en un espacio donde se discute el estatus de hechos básicos con la misma intensidad con la que se discuten interpretaciones complejas. Así, el docente tendría que comprobar cualquier supuesto, generación tras generación. Supuestos que las ciencias y el conocimiento de la humanidad han acobijado con un método. Por ejemplo, el docente tendría que comprobar la gravedad a algún grupo de estudiantes que vean videos sobre cómo los héroes la desafían, vuelan, y cuya popularidad y viralidad contenga un “la ciencia siempre se ha equivocado…hay mundos y/o estados mentales que podrían hacer que el hombre volara fácilmente...” El resultado suele ser desgaste docente, aprendizaje superficial y una cultura académica menos exigente (sin contar el daño a generaciones subsecuentes y a los mismos alumnos, en la aceptación de las reglas de la realidad).
Integración responsable: no prohibición general, pero tampoco permisividad sin método
Una posición institucional madura evita extremos. La prohibición total tiende a ser impracticable y, en algunos casos, contraproducente: empuja el uso a la opacidad y desperdicia oportunidades de mejora pedagógica. La permisividad total, en cambio, puede erosionar competencias básicas si la IA sustituye sistemáticamente la elaboración intelectual del estudiante.
La alternativa institucional es clara: integración con reglas de método. Esto implica orientar el uso de IA hacia funciones compatibles con los fines universitarios y exigir trazabilidad cuando la herramienta participa en productos evaluables.
Una política docente viable debería contemplar, al menos, tres principios:
1) La IA no es autoridad epistémica.
Puede ser asistente, tutor, generador de hipótesis o revisor de estilo. No es, por sí misma, criterio de verdad. En el aula, el estándar sigue siendo evidencia, argumentación y fuentes verificables.
2) Trazabilidad como condición de legitimidad académica.
Si una herramienta interviene en un producto, el estudiante debe poder explicar qué pidió, qué aceptó, qué rechazó y por qué. No para castigar, sino para formar responsabilidad intelectual.
3) Evaluación orientada a comprensión y defensa, no solo a producción.
La docencia universitaria debe privilegiar tareas donde el estudiante explique mecanismos, justifique decisiones, reconozca límites y sostenga su postura en diálogo breve. En esos formatos, la IA puede apoyar, pero no puede reemplazar la competencia.
Implicaciones para la práctica docente en la universidad
Desde una perspectiva institucional, hay dos desplazamientos que vale la pena asumir explícitamente:
• del énfasis en el producto al énfasis en el proceso, y
• de la instrucción “verifica” a la enseñanza de prácticas verificables.
En términos concretos, la formación docente puede fortalecerse si se promueven diseños de evaluación que incorporen:
• preguntas abiertas orientadas a causalidad y condiciones (explicación),
• ejercicios de contraste entre fuentes (no solo “citas”, sino evaluación de calidad),
• microdefensas orales o reflexiones breves sobre decisiones metodológicas,
• y tareas donde la IA se use como “objeto de contraste” (comparar, detectar inconsistencias, identificar supuestos).
Estas medidas no son burocracia. Son una respuesta académica a un entorno donde la persuasión se volvió barata; si no, gratutita y la verificación, opcional.
Una agenda de investigación institucional
En un contexto universitario, también es razonable producir evidencia propia para guiar decisiones pedagógicas. La institución puede investigar, por ejemplo:
• si el uso de IA mejora el desempeño inmediato pero reduce retención o comprensión conceptual,
• si la confianza excesiva en IA correlaciona con menor verificación,
• qué prácticas didácticas promueven un uso más responsable y transparente.
El valor de esta agenda no es “probar que la IA es mala” o “probar que la IA es buena”, sino identificar condiciones bajo las cuales la herramienta contribuye a aprendizaje profundo y condiciones bajo las cuales favorece rendimiento superficial.
La universidad no compite con la IA por velocidad de respuesta. Compite por algo más importante: la formación de profesionales capaces de sostener afirmaciones con razones, de distinguir evidencia de opinión, de reconocer incertidumbre legítima y de actuar con responsabilidad intelectual.
La pregunta institucional no es si la IA entrará al aula; ya entró. La pregunta es si entrará como atajo que debilita la formación o como herramienta integrada a un proyecto académico exigente. La diferencia no la hará el software, sino la arquitectura pedagógica, la claridad normativa y la cultura de verificación que la universidad decida sostener.




Comentarios