Docta Magazine

El mayor riesgo de la IA en la educación superior no es hacer trampa, sino la erosión del aprendizaje en sí

Foto de Matheus Bertelli: https://www.pexels.com/es-es/foto/hombre-gente-mujer-ordenador-portatil-16094038/

Las personas pueden utilizar la IA para hacer trampa o eludir tareas. Pero los múltiples usos de la IA en la educación superior y los cambios que presagian plantean una pregunta mucho más profunda.

El debate público sobre la inteligencia artificial en la educación superior se centra principalmente en una preocupación común: las trampas. ¿Usarán los estudiantes chatbots para escribir ensayos? ¿Pueden detectarlo los profesores? ¿Deberían las universidades prohibir la tecnología? ¿Aceptándola?

Estas preocupaciones son comprensibles. Pero centrarse tanto en las trampas pasa por alto la transformación más amplia que ya está en marcha, una que se extiende mucho más allá de la mala conducta estudiantil e incluso del aula.

Las universidades están adoptando la IA en muchas áreas de la vida institucional. Algunos usos son en gran medida invisibles, como los sistemas que ayudan a asignar recursos, identificar a los estudiantes “en riesgo”, optimizar la programación de cursos o automatizar decisiones administrativas rutinarias. Otros usos son más visibles.

Los estudiantes utilizan herramientas de IA para resumir y estudiar, los profesores las utilizan para crear tareas y programas de estudio, y los investigadores las utilizan para escribir código, escanear bibliografía y condensar horas de trabajo tedioso en minutos.

Las personas pueden utilizar la IA para hacer trampa o eludir tareas. Pero los múltiples usos de la IA en la educación superior y los cambios que presagian plantean una pregunta mucho más profunda: a medida que las máquinas se vuelven más capaces de realizar la labor de investigación y aprendizaje, ¿qué ocurre con la educación superior? ¿Qué propósito cumple la universidad?

Durante los últimos ocho años, hemos estado estudiando las implicaciones morales de la interacción generalizada con la IA como parte de un proyecto de investigación conjunto entre el Centro de Ética Aplicada de UMass Boston y el Instituto de Ética y Tecnologías Emergentes. En un informe reciente, argumentamos que, a medida que los sistemas de IA se vuelven más autónomos, aumentan los riesgos éticos de su uso en la educación superior, al igual que sus posibles consecuencias.

A medida que estas tecnologías mejoran la producción de conocimiento (diseñando clases, redactando trabajos, proponiendo experimentos y resumiendo textos complejos), no solo aumentan la productividad de las universidades, sino que también corren el riesgo de socavar el ecosistema de aprendizaje y mentoría sobre el que se construyen estas instituciones y del que dependen.

El software impulsado por IA ya se utiliza en la educación superior en la revisión de admisiones, compras, asesoramiento académico y evaluación de riesgos institucionales. Estos se consideran sistemas “no autónomos” porque automatizan tareas, pero una persona está “al tanto” y utiliza estos sistemas como herramientas.

Estas tecnologías pueden suponer un riesgo para la privacidad y la seguridad de los datos de los estudiantes. También pueden ser sesgadas. Y a menudo carecen de la transparencia suficiente para determinar el origen de estos problemas. ¿Quién tiene acceso a los datos de los estudiantes? ¿Cómo se generan las “puntuaciones de riesgo”? ¿Cómo evitamos que los sistemas reproduzcan desigualdades o traten a ciertos estudiantes como problemas que deben gestionarse?

Estas preguntas son serias, pero no son conceptualmente nuevas, al menos en el campo de la informática. Las universidades suelen contar con oficinas de cumplimiento, juntas de revisión institucional y mecanismos de gobernanza diseñados para ayudar a abordar o mitigar estos riesgos, incluso si a veces no alcanzan estos objetivos.

IA Híbrida

Los sistemas híbridos abarcan una gama de herramientas, como chatbots de tutoría asistida por IA, herramientas de retroalimentación personalizada y soporte automatizado para la escritura. Suelen basarse en tecnologías de IA generativa, especialmente en modelos lingüísticos extensos. Si bien los usuarios humanos establecen los objetivos generales, los pasos intermedios que el sistema toma para alcanzarlos no suelen especificarse.

Los sistemas híbridos están moldeando cada vez más el trabajo académico diario. Los estudiantes los utilizan como compañeros de escritura, tutores, colaboradores para la lluvia de ideas y explicadores a demanda. El profesorado los utiliza para generar rúbricas, redactar clases y diseñar programas de estudio. Los investigadores los utilizan para resumir trabajos, comentar borradores, diseñar experimentos y generar código.

Aquí es donde se habla de “hacer trampa”. Dado que tanto estudiantes como profesorado recurren cada vez más a la tecnología, es razonable preguntarse qué tipos de aprendizaje podrían perderse en el camino. Sin embargo, los sistemas híbridos también plantean cuestiones éticas más complejas.

Una de ellas tiene que ver con la transparencia. Los chatbots de IA ofrecen interfaces de lenguaje natural que dificultan distinguir cuándo se interactúa con un humano y cuándo con un agente automatizado. Esto puede resultar alienante y distractor para quienes interactúan con ellos.

Un estudiante que revisa material para un examen debería poder distinguir si está hablando con su asistente de profesor o con un robot. Un estudiante que lee la retroalimentación de un trabajo final necesita saber si fue escrito por su profesor. Cualquier falta de transparencia total en estos casos resultará alienante para todos los involucrados y desviará el enfoque de las interacciones académicas del aprendizaje a los medios o la tecnología del aprendizaje.

Investigadores de la Universidad de Pittsburgh demostraron que estas dinámicas generan sentimientos de incertidumbre, ansiedad y desconfianza en los estudiantes. Estos son resultados problemáticos.

Una segunda cuestión ética se relaciona con la responsabilidad y el reconocimiento intelectual. Si un profesor utiliza IA para redactar una tarea y un estudiante utiliza IA para redactar una respuesta, ¿quién realiza la evaluación y qué se evalúa exactamente? Si la retroalimentación es parcialmente generada por máquinas, ¿quién es responsable cuando induce a error, desalienta o infunde suposiciones ocultas? Y cuando la IA contribuya sustancialmente a la síntesis o redacción de investigaciones, las universidades necesitarán normas más claras en torno a la autoría y la responsabilidad, no solo para los estudiantes, sino también para el profesorado.

Finalmente, está la cuestión crucial de la descarga cognitiva. La IA puede reducir el trabajo pesado, y eso no es intrínsecamente malo. Pero también puede disuadir a los usuarios de las partes del aprendizaje que desarrollan competencias, como generar ideas, lidiar con la confusión, revisar un borrador torpe y aprender a detectar los propios errores.

Agentes autónomos

Los cambios más significativos podrían venir de sistemas que se parecen menos a asistentes y más a agentes. Si bien las tecnologías verdaderamente autónomas siguen siendo una aspiración, el sueño de un investigador “en una caja” —un sistema de IA agéntico capaz de realizar estudios por sí solo— se está volviendo cada vez más realista.

Se prevé que las herramientas agénticas liberen tiempo para trabajos centrados en capacidades más humanas como la empatía y la resolución de problemas. En la docencia, esto puede significar que el profesorado pueda seguir enseñando en el sentido general, pero una mayor parte de la labor docente diaria puede delegarse en sistemas optimizados para la eficiencia y la escalabilidad. De igual manera, en la investigación, la trayectoria apunta hacia sistemas que pueden automatizar cada vez más el ciclo de investigación.

En algunos ámbitos, esto ya se asemeja a laboratorios robóticos que funcionan continuamente, automatizan gran parte de la experimentación e incluso seleccionan nuevas pruebas basándose en resultados previos.

A primera vista, esto puede parecer un bienvenido impulso a la productividad. Pero las universidades no son fábricas de información; son sistemas de práctica. Dependen de un grupo de estudiantes de posgrado y académicos en sus inicios de carrera que aprenden a enseñar e investigar participando en ese mismo trabajo.

Si los agentes autónomos asumen más responsabilidades rutinarias que históricamente sirvieron como acceso a la vida académica, la universidad podría seguir produciendo cursos y publicaciones, mientras que, discretamente, reduce las estructuras de oportunidades que sustentan la experiencia a lo largo del tiempo.

La misma dinámica se aplica a los estudiantes de grado, aunque en un registro diferente. Cuando los sistemas de IA pueden proporcionar explicaciones, borradores, soluciones y planes de estudio a demanda, la tentación es delegar las partes más desafiantes del aprendizaje. Para la industria que está impulsando la IA en las universidades, puede parecer que este tipo de trabajo es ineficiente y que los estudiantes estarán mejor dejando que una máquina se encargue.

Pero es la naturaleza misma de esa lucha la que construye una comprensión duradera. La psicología cognitiva ha demostrado que los estudiantes crecen intelectualmente mediante el trabajo de redactar, revisar, fallar, volver a intentarlo, lidiar con la confusión y revisar argumentos débiles. Este es el trabajo de aprender a aprender.

En conjunto, estos avances sugieren que el mayor riesgo que plantea la automatización en la educación superior no es simplemente la sustitución de tareas específicas por máquinas, sino la erosión del ecosistema más amplio de prácticas que ha sostenido durante mucho tiempo la enseñanza, la investigación y el aprendizaje.

Un punto de inflexión incómodo

¿Cuál es entonces el propósito de las universidades en un mundo donde el trabajo del conocimiento está cada vez más automatizado?

Una posible respuesta considera a la universidad principalmente como un motor para generar credenciales y conocimiento. En este caso, la pregunta central es el resultado: ¿Se gradúan los estudiantes con títulos? ¿Se generan artículos y descubrimientos? Si los sistemas autónomos pueden generar esos resultados de forma más eficiente, la institución tiene todas las razones para adoptarlos.

Pero otra respuesta considera a la universidad como algo más que una máquina de resultados, reconociendo que el valor de la educación superior reside en parte en el propio ecosistema. Este modelo asigna un valor intrínseco a la fuente de oportunidades a través de las cuales los principiantes se convierten en expertos, a las estructuras de mentoría mediante las cuales se cultiva el juicio y la responsabilidad, y al diseño educativo que fomenta el esfuerzo productivo en lugar de optimizarlo.

En este caso, lo que importa no es solo si se producen conocimientos y títulos, sino cómo se producen y qué tipo de personas, capacidades y comunidades se forman en el proceso. En esta versión, la universidad está destinada a servir como nada menos que un ecosistema que forme de forma fiable la experiencia y el juicio humanos.

En un mundo donde el trabajo del conocimiento está cada vez más automatizado, creemos que las universidades deben preguntarse qué debe la educación superior a sus estudiantes, a sus jóvenes académicos y a la sociedad a la que sirve. Las respuestas determinarán no solo cómo se adopta la IA, sino también en qué se convertirá la universidad moderna.

Artículo tomado de Forbes, lea el original aquí.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.