
Durante años, las universidades han premiado el desempeño sobre la comprensión, la fluidez sobre la profundidad y apariencia de dominio sobre el pensamiento genuino. Creamos sistemas de evaluación que pedían productos y los consideraban como evidencia de aprendizaje. Nos salimos con la nuestra. Hasta ahora.
La inteligencia artificial generativa no ha creado un nuevo problema en la educación. Esto hizo que un acontecimiento muy antiguo fuera imposible de ignorar. Cuando un estudiante puede completar un trabajo complejo en minutos Al ingresar algunas instrucciones en ChatGPT, la pregunta ya no es si nuestras tareas miden el aprendizaje, sino por qué fingimos durante tanto tiempo que así lo hacían.
Hay cierta ironía histórica en todo esto. Fue aquí en Dartmouth, New Hampshire, en el verano de 1956, donde John McCarthy acuñó el término “inteligencia artificial”. 70 años después, los herederos del proyecto de aquel verano escriben prosa, escriben código y sintetizan argumentos con una facilidad que, a primera vista, podría pasar por el trabajo de una persona bien formada. El problema no es que a veces cometan errores. La cuestión es que a menudo son plausibles.
No hace mucho, un estudiante vino a mi oficina con un borrador que era impresionante. Las frases eran claras, las transiciones correctas y el argumento llegó a tiempo. Cuando hice una pregunta simple -por qué una afirmación se deriva de otra- el estudiante dudó y comenzó a describir el texto como se describiría un paquete: qué contiene, para qué está destinado. El proyecto fue creado utilizando un modelo de lenguaje. El estudiante lo editó pero no lo completó. Lo que me molestó fue no utilizar la herramienta. Era la división entre fluidez y pensamiento.
Esto es lo que la IA nos hace ver claramente: Existe una diferencia fundamental entre obtener un resultado y formarse un juicio.. El carpintero puede subcontratar el corte a una sierra mejor. El investigador no puede delegar la tarea de notar lo extraño, prestar atención a lo que no encaja y hacer preguntas que nadie pensó en formular. Estas acciones no tienen efecto a menos que sean realizadas por una persona. Su objetivo no es obtener resultados. Se trata de formar a quienes lo hacen.
Los modelos lingüísticos funcionan con asombrosa facilidad en un único centro de conocimiento: un enorme un archivo de lo que la humanidad ya ha dicho y verificado. Pero se pierden en la frontera donde termina el conocimiento establecido y comienzan las verdaderas preguntas. Sólo repiten lo que ya está planeado. Una pregunta verdaderamente nueva, que aún no figura en los datos de entrenamiento, sólo puede ser formulada por una mente dispuesta a situarse en la incertidumbre y pensar desde allí con disciplina y coraje. La IA puede escribir un ensayo. No puede probar la mente.
Teniendo esto en cuenta, hay dos respuestas erróneas que se repiten en los campus de todo el mundo. Primero esto es una prohibición: detectores, códigos de honor, videovigilancia. El impulso es comprensible, pero es una estrategia perdedora. Estas herramientas ya son demasiado comunes para controlarlas, y necesitamos graduados que sepan cómo trabajar con las tecnologías más revolucionarias de su tiempo, no graduados que las eviten. La segunda respuesta es una capitulación disfrazada de adaptación: convertir la universidad en una escuela vocacional para la economía de la IA, cuyo propósito es enseñar qué herramientas usar y qué instrucciones formular. El estudiante se convierte esencialmente en técnico.
La respuesta correcta es rediseñar. Más escritura hecha en clase. Más defensa oral de los argumentos: una conversación de diez minutos revela si el estudiante entendió el reclamo o simplemente lo hizo. Se organizan más talleres en torno a preguntas en vivo. Cuando los estudiantes utilicen la IA, exija transparencia: Explique qué pidieron, qué produjo el sistema, qué guardaron y qué tiraron. El objetivo no es la observación. Esta es una responsabilidad intelectual.
El mercado laboral ya está enviando una señal que las universidades no pueden ignorar. Los investigadores de Stanford han documentado una disminución relativa del empleo entre los trabajadores más jóvenes en los sectores más expuestos a la IA, mientras que a los trabajadores más experimentados les va mejor. La razón es clara: la IA no puede reemplazar los juicios formados a lo largo del tiempo. Es este juicio el que la universidad debe enseñar con más rigor que nunca.
Era de la IA Esto no arruinará la educación. Pero expondrá a todas las instituciones que confunden lograr resultados aceptables con formar mentes. Quienes sobrevivan a este momento serán quienes puedan responder con claridad y sin pudor para qué creen que sirve la educación. Y aquellos que sean capaces de construir su práctica en base a esta respuesta.
Cuando las respuestas se vuelven baratas, los juicios se vuelven valiosos. Esto es algo que ningún contestador automático puede enseñarte.
0 Comments