Saltar al contenido principal
LearnIA Expertiot

Recurso

Enseñar es preguntar bien

Lleva un siglo escrito en la literatura: el contenido transmite, la pregunta consolida. Pero seguimos invirtiendo el 90% del esfuerzo editorial en el contenido y un 10% improvisado en las preguntas.

Equipo LearnIA · publicado 2026-05-02 · 7 min de lectura

El cuestionario que no preguntaba nada

Acaba el módulo. Aparece el cuestionario final. Cinco preguntas de opción múltiple. La primera te pide elegir la definición correcta de un término del módulo. La segunda, lo mismo con otro término. La tercera, otra definición. La cuarta, una variante. La quinta, casi un calco de la primera.

Pasas el cuestionario con un 8/10 sin haber pensado. Acabas de demostrar que te acuerdas de cinco palabras que viste hace 20 minutos. No has demostrado que entiendas el módulo. Y el sistema, contento, da el módulo por superado.

Esto es el grueso de la “evaluación” en formación online hoy. No porque sea fácil hacerlo así — es fácil — sino porque pocos se han parado a preguntarse qué deberían medir las preguntas.

Bloom, sesenta años después

En 1956 un comité de psicólogos educativos publicó la Taxonomía de Bloom, una jerarquía de niveles cognitivos que distingue qué tipo de operación mental implica cada pregunta:

  1. Recordar: traer a memoria una definición, un dato, un nombre.
  2. Comprender: explicar una idea con palabras propias, dar un ejemplo.
  3. Aplicar: usar lo aprendido en una situación concreta.
  4. Analizar: descomponer un problema en partes, identificar relaciones.
  5. Evaluar: juzgar qué solución es mejor según criterios.
  6. Crear: producir algo nuevo combinando lo aprendido.

La taxonomía se actualizó en 2001 con cambios menores. Sigue siendo el marco de referencia más sólido para pensar evaluación.

El problema no es que la taxonomía no se conozca. Cualquier máster de formación de profesorado la enseña. El problema es que rara vez se aplica al diseñar Quick-Checks reales, sobre todo en formación corporativa y MOOCs.

La distribución que sí funciona

Una distribución sensata por nodo, en una primera vuelta del programa, sería:

  • 2 preguntas de Recordar (40%): definiciones, identificación, datos.
  • 2 preguntas de Comprender (40%): explicar con palabras propias, dar ejemplo, distinguir de un concepto cercano.
  • 1 pregunta de Aplicar (20%): usar el concepto en un caso pequeño.

Las de Analizar/Evaluar/Crear caben mejor en evaluación sumativa final, no en Quick-Checks intercalados — son más caras de calificar y más caras de diseñar.

Esa distribución 2+2+1 es lo que hace que un Quick-Check verifique consolidación, no solo memoria de paso. El alumno que recuerda el término pero no sabe ponerle un ejemplo propio falla el Comprender. El que pone el ejemplo pero no sabe aplicarlo a un caso concreto falla el Aplicar. La señal es accionable.

Cómo se redacta una buena Quick-Check

Tres reglas operativas, cada una con su trampa:

Una sola idea por pregunta. Si una pregunta combina dos conceptos, fallarla no te dice cuál de los dos es el problema. La trampa: en redacción rápida es habitual encadenar dos ideas en un mismo enunciado.

Distractores plausibles, no absurdos. Los distractores deben ser respuestas que un alumno con comprensión parcial podría elegir, no opciones obviamente falsas. La trampa: poner distractores cómicos para “facilitar” descalibra la pregunta y la convierte en regalo.

Anclaje en un dato verificable, no en opinión. Una pregunta cuya respuesta correcta dependa del autor del material no es Quick-Check, es lealtad. La trampa: en disciplinas blandas (gestión, comunicación, liderazgo) hay que cuidar especialmente que la respuesta correcta esté justificada por evidencia, no por escuela de pensamiento.

El papel de la IA en la generación

La buena noticia: redactar Quick-Checks calibradas a escala — 200 por curso — es exactamente el tipo de tarea donde la IA generativa rinde bien. Le das un nodo (su definición, su rol en el grafo, sus dependencias), le pides 5 preguntas con la distribución 2+2+1, y obtienes un primer draft en segundos.

La realista: ese draft siempre necesita revisión humana editorial. La IA tiende a producir distractores demasiado fáciles, a confundir Comprender con Aplicar, a generar preguntas técnicamente correctas pero pedagógicamente flojas. El ratio que vemos funcionar bien en producción es: el modelo redacta, el editor corrige el 30-40%.

En LearnIA usamos un agente especializado (Haiku 4.5 con un prompt afinado) que genera el primer draft, y un editor humano que revisa cada Quick-Check antes de publicarlo. Eso saca el cuello de botella sin renunciar al rigor.

Qué pasa cuando dejas de tratar la pregunta como adorno

Tres cosas, en orden:

  1. El contenido se vuelve más simple. Cuando sabes que vas a verificar consolidación con preguntas de aplicación, te das cuenta de cuánto del material original era relleno. El curso adelgaza.
  2. La señal pedagógica aparece. Empiezas a ver patrones: “el 70% del aula falla la pregunta de Aplicar del nodo ‘Reserva de capitalización’”. Eso no se sabe sin Quick-Checks calibrados.
  3. El alumno se da cuenta antes. “Creía que lo entendía hasta que vi la pregunta de Aplicar.” Esa frase, repetida en feedback, es el indicador de que el sistema funciona.

Si tu programa tiene más contenido que preguntas

Es probable. Casi todos los programas corporativos y muchos universitarios están en ese desequilibrio. La forma de empezar a rebalancearlo es metódica: nodo a nodo, redactar las 5 preguntas distribuidas por Bloom, revisar editorialmente, integrar.

En seis semanas, un programa de 40 nodos puede tener sus 200 Quick-Checks listas, calibradas y publicadas. Es exactamente el alcance de Curso a medida en 6 semanas.