El dilema de la IA en la Educación: más allá de prohibir el ChatGPT en el aula
Sinceramente, la conversación sobre la IA en las escuelas me resulta la más incómoda y reveladora de todas.
Hace unos meses, estaba en un evento de tecnología y me encontré a un directivo de una gran corporación de servicios financieros. Me preguntó, algo avergonzado:
“¿Cómo podemos tener una política de gobernanza robusta en la oficina si mi hija, de 14 años, está aprendiendo activamente a sortear los detectores de IA de sus profesores para hacer sus trabajos?”
Me contó que, de hecho, la niña utilizaba la IA para generar el trabajo y luego le introducía “errores humanos” sutiles para evitar ser marcada por el software anti-plagio.
¿Ves el problema?
No era si usaba o no la IA, sino cómo aprendía a burlar el sistema.
Prohibir la Inteligencia Artificial en el aula o poner el foco sólo en el “cheating” es una estrategia de avestruz.
Lo que estamos viendo en la educación es un espejo del reto corporativo: la tecnología está forzando a redefinir el valor de lo que hacemos, y la verdadera solución pasa por cambiar la forma en que evaluamos el conocimiento y la capacidad.
Llevamos cuatro años conviviendo con ChatGPT y otras herramientas de IA Generativa. El 89% de los estudiantes de secundaria y universitarios ya las utilizan para tareas académicas, una cifra que crece año tras año. Esta no es una moda, es una nueva infraestructura para pensar y producir. Y mientras la tecnología avanza a un ritmo vertiginoso, las políticas de los distritos escolares van a paso de tortuga, generando una zona gris que beneficia a los que tienen más recursos y fomenta la picaresca.
¿Qué está cambiando realmente?
La mayoría de las escuelas que no permiten el uso de herramientas de IA en sus dispositivos oficiales están, irónicamente, enseñando a los estudiantes una lección perversa: que la IA es algo que deben ocultar y que el sistema se basa en prohibir, no en educar en el uso responsable.
El punto de inflexión no es la disponibilidad de la herramienta, sino la reacción del sistema ante ella. La IA ha desnudado la debilidad de los métodos de evaluación tradicionales.
Si una tarea puede ser resuelta perfectamente por un LLM, la tarea en sí misma no está midiendo una habilidad crítica o el valor añadido humano. Lo que la IA nos obliga a evaluar es la síntesis, el juicio crítico, la aplicación contextual y la interacción, no la simple acumulación o reproducción de información.
El problema no es el “plagio con IA”; es que la IA ha hecho que nuestras preguntas (o las tareas) sean demasiado fáciles de responder.
Mientras los distritos con menos recursos se limitan a “bloquear” herramientas en los dispositivos escolares, otros con más capacidad están experimentando activamente.
Para el directivo, esto es crítico. Si en su equipo se siguen evaluando métricas o tareas que un Agente Inteligente (o AIgent) puede automatizar al 100%, su equipo no está generando automatización significativa. Están malgastando talento en tareas de reproducción. La prohibición en el aula se traduce en su empresa en políticas de restricción de acceso a Copilot, Claude o Gemini, que solo fomentan soluciones en la sombra, minando la confianza y la transparencia.
FRAMEWORK: El marco de valor sobre la reproducción
La solución para el aula y para la oficina no es la prohibición, sino un marco de tres pasos que redefina el valor. Este es el camino hacia la gobernanza de agentes inteligentes.
Auditoría de la tarea (o el Objetivo): clasifica las tareas en tu equipo (o las evaluaciones en el aula) en dos categorías:
Reproducción (tareas de búsqueda de información, resumen, borradores, formatos, etc.)
y Creación (juicio, síntesis, estrategia, persuasión, ejecución relacional). La IA debe ser la responsable del 90% de la Reproducción. Todo el talento humano debe centrarse en la Creación. Si el 80% del tiempo de un planner o product manager es Reproducción, tenemos un problema de malgasto de talento, no de IA.
Transición de la propiedad (del resultado al proceso): deja de valorar solamente el entregable final. En su lugar, exige el “rastreo” del proceso:
En la oficina: si un informe ha sido generado por IA, el empleado debe mostrar y justificar los prompts utilizados (lo que yo llamo el Answer Engine Optimization o AEO interno) y los datos de grounding (las fuentes de la empresa) que se usaron. La evaluación es sobre la calidad del prompt y el juicio para seleccionar el output, no el output en sí.
En el aula: el estudiante debe entregar el borrador de IA (el “plagio”) y justificar qué quitó, qué añadió, y qué decisión humana tomó para transformar el output sintético en un trabajo con propósito.
El elemento Relacional y Humano: reintroduce el elemento de interacción. Las tareas más valiosas son aquellas que requieren una defensa oral, un debate improvisado, una aplicación inmediata al contexto de un cliente o una interacción con otro humano. La IA puede generar el plan, pero sólo el humano puede venderlo, negociarlo o consolar al cliente.
Este marco exige que el directivo se mueva del miedo al control, entendiendo que el riesgo está en la inacción y en la falta de claridad, no en la herramienta.
El directivo, al que hacía referencia al principio, me llamó hace unos días. Habían adoptado el marco de tres pasos para el equipo de onboarding de nuevos clientes. El AIgent hacía todo el trabajo de recopilación de documentos (la Reproducción)
El comercial se enfocaba en la conversación con el cliente, el seguimiento y la personalización.
La niña, me dijo, había dejado de introducir errores en sus trabajos; su profesor le había pedido que creara una presentación sobre su proceso de uso de la IA, siendo la primera en su clase en recibir una nota por su capacidad de prompting avanzado.
El círculo se cierra. El problema de gobernanza corporativa empieza y termina en la forma en que definimos lo que tiene valor. La IA no es un atajo para hacer el trabajo mediocre más rápido; es la oportunidad para que el humano se concentre en el trabajo que solo él puede hacer.
Cinco acciones concretas para empezar:
Crea un “AIgent de reproducción”: identifica una tarea de un departamento (como por ejemplo: resumen de reuniones, borradores de email, búsqueda de datos, etc.) y crea un agente interno que lo automatice al 100%.
Redefine el KPI: por cada tarea automatizada, cambia la métrica de éxito de “entregado en X horas” a “calidad del juicio/adaptación/estrategia aplicada al resultado”.
Forma en Prompting Avanzado: entiende que saber usar la IA es una nueva alfabetización. La formación debe ser sobre cómo preguntar y guiar a la IA, no sobre sus funcionalidades. Pensar en IA.
Establece una política de transparencia: los equipos deben declarar qué partes del trabajo fueron generadas por IA y mostrar el prompt de origen. El secreto es el riesgo.
Mueve el 20% del talento: reasigna el 20% del tiempo ahorrado de cada empleado a una tarea de “Creación” o “Estrategia” que antes no podían hacer por falta de tiempo.
Referencias:


