No somos un app PAES más. El sistema combina cuatro marcos científicos validados — cada uno con evidencia experimental publicada — implementados de forma auditable.
Corbett & Anderson · 1995 · Carnegie Mellon University
Lo que valida la ciencia
Modelo bayesiano de 4 parámetros (pInit, pTransit, pGuess, pSlip) que estima probabilidad de dominio tras cada respuesta. Validado en 30+ años de Cognitive Tutor con efecto medido de +0.4 a +1.0 sigma sobre instrucción tradicional en matemática.
Cómo lo implementamos
Cada vez que respondes una pregunta, actualizamos tu pMastery del subtema con la regla bayesiana. La dificultad de la siguiente pregunta se elige donde tu pMastery es más informativo (≈ 0.5).
src/lib/bkt.tsBjork & Bjork · 2011 · UCLA — Bjork Learning & Forgetting Lab
Lo que valida la ciencia
Practica espaciada en el tiempo + dificultad calibrada al borde de tu zona de desarrollo produce retención 2-3× mejor que práctica masiva fácil. La sensación subjetiva de fluidez es engañosa: el aprendizaje real requiere un poco de fricción.
Cómo lo implementamos
El selector adaptativo distribuye 60% subtemas débiles, 30% repaso espaciado (curva de olvido SM-2 simplificada), 10% exploración. Si te aburres con lo fácil o te frustras con lo difícil, no aprendes.
src/lib/cat.ts + src/lib/spacing.tsSadler · 1998 · Harvard — Smithsonian Center for Astrophysics
Lo que valida la ciencia
En preguntas multi-opción, cada distractor incorrecto puede mapear a una concepción errónea específica. Saber CUÁL distractor eligió el alumno es más diagnóstico que saber solo si acertó. Es la base de detección de brechas con evidencia.
Cómo lo implementamos
Cada pregunta del banco tiene un distractorMap: opción incorrecta → misconception del catálogo. Cuando fallas, sabemos exactamente qué confusión conceptual estás teniendo. Las brechas se confirman con ≥3 incidencias del mismo error.
src/lib/traceability.ts + db: distractorMap, misconceptions, gap_lifecycleStanford HAI · Khan Academy (Khanmigo) · OpenAI · 2024 · Stanford Institute for Human-Centered AI
Lo que valida la ciencia
Un tutor LLM bien-promptado con scaffolding socrático (preguntas que guían sin dar respuesta) logra efectos comparables a tutoría humana 1-a-1 en tareas estructuradas. Aproxima al 'problema de los 2-sigma' de Bloom (1984): tutoría individualizada produce +2 sigma sobre clase masiva.
Cómo lo implementamos
Cuando fallas, te pide que verbalices tu razonamiento, te hace una pregunta intermedia que despeja la confusión, y solo si insistes te muestra la solución. Modelo: Claude Haiku 4.5 con system prompt cacheado + contexto de tu misconception específica.
src/lib/tutor-stream.ts + Vercel AI SDK + @ai-sdk/anthropicReferencia obligada en literatura hispana sobre Tests Adaptativos Computarizados (TAC/CAT).
Tutoría 1-a-1 con maestro experto produce +2 sigma sobre clase tradicional. Es el norte hacia el que tiende la combinación BKT + tutor IA.
Define qué evaluamos y con qué ponderaciones. Versionado en código (PAES_SPEC_VERSION).
DEMRE define qué evaluar (temario, ponderaciones, calendario). Pero no dice cómo enseñar para llegar allí. Edukapi llena ese vacío con un método que combina los marcos validados de arriba — no opiniones pedagógicas, sino evidencia experimental publicada en revistas peer-review de las mejores universidades.
Cada parte del sistema es auditable: el código está organizado por archivo (puedes pedir ver src/lib/cat.ts y verás la regla 60/30/10 implementada literal).
¿Eres profesor o coordinador? También tenemos la propuesta B2B para colegios con reportes agregados anonimizados.