Artículos de Investigación
La evaluación desde el modelo por competencias: Análisis del currículo prescrito, implementado y vivido
Assessment from the competency model: Analysis of the prescribed, implemented and lived curriculum
La evaluación desde el modelo por competencias: Análisis del currículo prescrito, implementado y vivido
Revista Virtual Universidad Católica del Norte, núm. 78, pp. 53-86, 2026
Fundación Universitaria Católica del Norte

Recepción: 08 Septiembre 2025
Aprobación: 23 Abril 2026
Resumen: La educación basada en competencias establece características y lineamientos claros para el proceso evaluativo. Entre esos lineamientos, su implementación y la experiencia de los estudiantes existen aciertos y distancias que configuran tensiones. Este estudio tuvo como objetivo analizar las tensiones entre la evaluación como se concibe en el currículo prescrito basado en competencias, el currículo implementado y el currículo vivido en un programa de Psicología de una universidad pública del Caribe colombiano. El enfoque adoptado en el estudio fue cualitativo. Las técnicas para la recolección de los datos fueron la observación abierta, la entrevista semiestructurada y la revisión documental. Los hallazgos se sometieron a un análisis temático. Los resultados arrojaron que la evaluación sumativa es predominante, la retroalimentación integral es escasa y la implementación de la evaluación programática resulta insuficiente. De igual manera, se identificó arbitrariedad en la aplicación de criterios y una tendencia a privilegiar niveles cognitivos básicos. Por tanto, se concluye que es necesario fortalecer el desarrollo real de niveles cognitivos superiores, la evaluación formativa, el uso adecuado de los criterios de evaluación y los procesos de retroalimentación, de tal forma que se estimule el aprendizaje significativo y exista coherencia con el modelo basado en competencias.
Palabras clave: Currículo, Diseño curricular, Educación por competencias, Evaluación, Evaluación formativa, Universidad.
Abstract: Competency-based education establishes clear characteristics and guidelines for the assessment process. Between these guidelines, their implementation, and student experience, there are strengths and weaknesses that create tensions. This study aimed to analyze the tensions between assessment as conceived in the prescribed competency-based curriculum, the implemented curriculum, and the lived curriculum in a Psychology program at a public university in the Colombian Caribbean. The approach adopted in the study was qualitative. Data collection techniques included open observation, semi-structured interviews, and documentary review. The findings were subjected to thematic analysis. The results showed that summative assessment predominates, comprehensive feedback is scarce, and the implementation of programmatic assessment is insufficient. Similarly, arbitrariness in the application of criteria and a tendency to privilege basic cognitive levels were identified. Therefore, it is concluded that it is necessary to strengthen the real development of higher cognitive levels, formative assessment, the appropriate use of assessment criteria, and feedback processes, in such a way as to stimulate meaningful learning.
Keywords: Curriculums, Curriculum Design, Competency-based education, Evaluation, Formative assessment, University.
Introducción
Las universidades latinoamericanas han experimentado cambios organizacionales y pedagógicos, producto de reformas estatales y de dinámicas globales, que les han dado un papel central al aseguramiento de la calidad y a las lógicas del mercado (Martínez Rojas, 2025). Precisamente, la adopción del modelo curricular basado en competencias obedece a la alineación con estándares internacionales que se justifican por la búsqueda de la coherencia entre la formación profesional y las necesidades de la sociedad actual (Jalixto Erazo et al., 2022). Transitar de un modelo tradicional a uno por competencias no es sencillo, porque emergen resistencias de los actores y otro tipo de obstáculos que producen tensiones y suponen desafíos (Katoue & Schwinghammer, 2020). Dentro del mencionado modelo, la evaluación es una dimensión clave que puede socavarlo o reforzarlo.
A nivel de evaluación, la literatura informa sobre la existencia de tensiones en la evaluación por competencias en el Sur Global. Morales y Zambrano Quezada (2016) afirman que el modelo basado en competencias (MBC) no se encuentra alineado con las prácticas evaluativas, lo que demanda investigaciones a mayor profundidad. Asimismo, Pinto-Delacadena et al. (2024) concluyen que la implementación de modelos que no consideran las particularidades económicas y sociales de las universidades del Cono Sur conlleva dificultades. Dentro de las distancias entre el deber ser y lo que ocurre, la tendencia en universidades de la región son los exámenes centrados en contenidos teóricos, limitándose en muchos casos a evaluar contenidos, no competencias (Ochoa Jaramillo et al., 2025).
Otro de los desafíos a los que se enfrenta el MBC es la paradoja de necesitar instrumentos de medición estandarizados, a la vez que se requiere de una evaluación flexible porque no todas las competencias pueden evaluarse de la misma forma ni ser aplicables iguales lineamientos evaluativos a todos los contextos (Birman et al., 2025). La implementación del MBC y, concretamente, de sus aspectos evaluativos requiere de un liderazgo comprometido, un diseño curricular pertinente y acciones tendientes a la formación de los equipos docentes Lo retador es que las capacitaciones suponen una mayor carga de trabajo que resta tiempo para otras tareas, lo que puede convertirlas en obstáculo para la implementación (Aube-Peterkin et al., 2022; Tomiak et al., 2022; Wentzell et al., 2020).
La percepción de carga resulta esperable, en contextos como el latinoamericano, donde las políticas neoliberales han producido condiciones laborales desfavorables para los docentes y, especialmente en Colombia, situaciones de precariedad (Vela Murillo et al., 2022). Además, aunque existan capacitaciones, surgen problemas porque los profesores, muchas veces, prefieren continuar enseñando de la forma en la que lo han venido haciendo o la instrucción que reciben no incluye su aplicación en actividades prácticas y menos evaluativas (Martín-Alonso et al., 2021).
En América Latina, existen desafíos culturales y estructurales porque las universidades todavía operan con esquemas tradicionales que marcan el proceso enseñanza-aprendizaje y, específicamente, la evaluación (Sánchez & Jara, 2021). Los profesores suelen tener menor conocimiento sobre la pedagogía por competencias, a lo que se le suman problemas locales que también repercuten (Arévalo Coronel & Juanes Giraud, 2022). Implementar este modelo requiere que los docentes cambien sus identidades y enfrenten desafíos relacionados con la comunicación, el tiempo y la alineación (Bingham et al., 2021).
Con las circunstancias y obstáculos mencionados, resulta esperable que la evaluación desde el MBC se vea limitada y exista distancia entre los lineamientos, su planeación y su implementación. La presente investigación, en el marco del Doctorado en Educación, Interculturalidad y Territorio de la Universidad del Magdalena, se inserta en esta discusión al analizar cómo la evaluación en la educación superior se aparta o se acerca al modelo basado en competencias; es decir, se analizan las tensiones entre la evaluación establecida en el currículo prescrito basado en competencias, el currículo implementado y el currículo vivido. El análisis de las tensiones aporta a la comprensión profunda de los desafíos que enfrenta la enseñanza por competencias y permite vislumbrar estrategias para una evaluación más coherente y efectiva.
Ahora bien, al estar las posibilidades de implementación de la evaluación en el marco del MBC determinadas por el lugar en el que se educa, siendo crucial el dinamismo, las particularidades y variabilidad de cada institución educativa, resulta clave conocer cómo opera y se ajusta en cada contexto, para que, a partir de esa comprensión, se pueda accionar en función del mejoramiento. Si bien las investigaciones cualitativas no pretenden generalizar, es posible extrapolar los hallazgos a realidades similares con las respectivas consideraciones.
Marco teórico
El marco teórico contribuye a situar la investigación en el debate contemporáneo sobre modelo basado en competencias, evaluación y educación superior. En particular, en este apartado se describen los aspectos generales del modelo, aquellos relacionados con la evaluación, algunas de sus limitaciones y críticas, así como elementos curriculares. De esa manera, el marco teórico no solo contribuye a la comprensión del fenómeno de estudio, también orienta el análisis de los hallazgos.
El modelo basado en competencias
En su concepción el MBC no se limita al aprendizaje de conocimientos teóricos, sino que prioriza lo que el estudiante es capaz de hacer. Su énfasis son las habilidades y actitudes específicas que se pueden demostrar. Está pensado para estimular el desarrollo integral en sociedades inmersas en la globalización y con altos avances tecnológicos Se ha investigado como forma de modernizar la educación superior y de preparar mejor a quienes se forman profesionalmente (Alt et al., 2023). Es eficaz y se convierte en crucial para la educación global (Álvarez Urda, 2022). De hecho, repercute positivamente en las habilidades críticas cuando de estudiantes universitarios se trata y sigue impactando en el mundo laboral (Hida et al., 2025). Aspectos del MBC como los métodos de enseñanza, despiertan el entusiasmo de los estudiantes, aunque puede resultar estresante cuando la duración del tiempo de formación es insuficiente (Patil et al., 2023).
Desde la pedagogía basada en competencias, es prioridad la aplicación de habilidades de forma contextual y la transmisión de herramientas para los problemas complejos (Dierendonck et al., 2024). Sin embargo, el interés por el propio contexto en Latinoamérica se encuentra con actitudes que conducen a que lo foráneo reciba mayor valoración y frente a lo propio se experimente vergüenza; por tanto, menor identificación con el territorio. Es un desafío para la universidad lograr que los estudiantes se reconozcan en su propia historicidad y transformen su realidad, lo que requiere acercamientos continuos con el contexto en el que se está inmerso (Herrera et al., 2017).
Dentro de los retos pedagógicos e institucionales se halla la reconfiguración del rol del profesorado y la transformación de las prácticas evaluativas tradicionales (Bingham et al., 2021). Algunas características clave de la enseñanza basada en competencias son que asume como eje las necesidades individuales y el desempeño; que es posible que el estudiante reciba retroalimentación inmediata; las competencias se establecen basadas en el análisis de lo esperado; se enseña a partir de metas medibles; y se evalúa por medio de estándares de desempeño (Cao et al., 2022). Para su implementación efectiva, es fundamental precisar las competencias que se requieren e implementar estrategias evaluativas (Álvarez Cazón et al., 2023).
La evaluación en el modelo basado en competencias
Desde el MBC la evaluación debe reflejar el nivel de logro de quien aprende y ser longitudinal, no limitarse a un único momento. Si bien requiere medidas objetivas mediante instrumentos, también demanda el juicio subjetivo de expertos, especialmente, para las evaluaciones formativas (Shah et al., 2024). El desarrollo progresivo de las habilidades requeridas y la retroalimentación sostenida son características clave.
En el Cono Sur se han adoptado las rúbricas específicas y portafolios de desempeño como metodologías acordes (Jaramillo et al., 2023). Se ha entendido que, más allá de los instrumentos de evaluación, la coherencia con los objetivos de aprendizaje evita que se transforme en una forma de control (Navas-Ríos & Ospina-Mejía, 2020). También se convierte en un componente esencial para el aprendizaje basado en competencias cuando está presente la retroalimentación como potenciadora del desarrollo de habilidades (Jaramillo et al., 2023). Por el contrario, al priorizarse la verificación del aprendizaje y mantenerse evaluaciones normativas, sumativas y sin procesos reflexivos; se establece una distancia con el enfoque por competencias (Sánchez & Jara, 2021).
Críticas y dificultades de la evaluación en el modelo basado en competencias
Una de las principales críticas al modelo basado en competencias es la diversidad de interpretaciones que existen sobre qué se considera una competencia y cómo debe evaluarse (Holmes et al., 2021). Esto genera discrepancias en la manera en la que el profesorado aplica las estrategias de evaluación, afectando la coherencia entre el currículo prescrito y el currículo implementado (Martín-Alonso et al., 2021). Persiste una brecha significativa entre la teoría y la práctica, ya que muchos docentes continúan aplicando exámenes sumativos tradicionales que no reflejan el desarrollo integral de competencias (Kamar, 2020). Desde este modelo el riesgo está en pasar por alto aspectos procesales al poner mayor énfasis en el resultado (Peterson & Lundquist, 2021).
Lo paradójico es que, si bien se reconoce la importancia de la retroalimentación para el MBC, no siempre se utiliza de manera efectiva para promover la autorregulación y mejorar el aprendizaje (Van der Linden et al., 2023). Sin embargo, aunque en algunos lugares sigue manteniendo un sesgo sumativo, se ha involucrado al estudiante en la reflexión sobre su propio aprendizaje mediante la implementación de coevaluaciones y autoevaluaciones (Besser & Newby, 2019; Lu et al., 2021).
Currículo prescrito, vivido e implementado
Neagley y Evans (1980) entienden el currículo como la planificación de experiencias para facilitar que el estudiantado obtenga los objetivos de aprendizaje. No se trata de una simple abstracción, sino de una forma de organizar el proceso educativo de manera más amplia y con mayores precisiones. Stenhouse (2003) asume el currículo como un intento por comunicar los elementos esenciales del proyecto educativo, permaneciendo abierto al debate crítico y materializado en la práctica. Se proyecta como posibilidad y, posteriormente, como objeto de prueba, por lo que debe fundamentarse en la práctica. Guzmán (2013) lo define como la forma como se concreta y expresa una concepción de educación y los distintos aspectos de un proyecto educativo específico que orienta cómo se desarrolla la práctica.
Ahora bien, se entiende por currículo prescrito los documentos oficiales que describen qué, cómo se enseñará y de qué manera se evaluará en un programa educativo (El-Astal, 2023). Lo establecen las autoridades académicas de cualquier nivel. En ese sentido, la política educativa es clave en la concepción del currículo y, por tanto, en la selección de contenidos. El despliegue del currículo se conceptualiza como currículo implementado, es decir, el proceso en el que se desarrollan los planes y documentos con sus respectivos objetivos de aprendizaje (Callahan, 2021). Como una alternativa a las conceptualizaciones técnicas, surge la noción de currículo vivido que es la experiencia singular vivida por los estudiantes y docentes. Es la subjetividad de cada persona interpretando lo que sucede (Martín-Alonso et al., 2021).
La articulación entre estas tres dimensiones curriculares y el MBC no es casual ni meramente operativa: responde a una lógica teórica precisa. El currículo prescrito representa la intención institucional de implementar el MBC, plasmada en documentos que establecen las competencias esperadas, los criterios de evaluación y las estrategias didácticas. El currículo implementado es el espacio donde esa intención se confronta con la realidad del aula, con las capacidades, disposiciones y condiciones de los docentes. El currículo vivido, en cambio, captura la experiencia subjetiva que emerge de esa confrontación: lo que el estudiante efectivamente aprende, siente y significa a partir de lo que ocurre en clase.
Desde la articulación expuesta, la evaluación no puede comprenderse solo como un instrumento técnico del MBC, sino como el punto de mayor visibilidad de las tensiones entre estos tres niveles. Cuando el currículo prescrito contempla evaluación formativa, retroalimentación continua y desarrollo de competencias complejas, pero el implementado se reduce a exámenes sumativos y el vivido se traduce en angustia e incertidumbre, la distancia entre los tres niveles revela no solo una falla de implementación, sino una ruptura en la coherencia del proyecto formativo (Martín-Alonso et al., 2021; Navas-Ríos & Ospina-Mejía, 2020).
Metodología
La metodología orientó la investigación asegurando la coherencia con los objetivos planteados y el logro de estos. En este apartado se presenta el enfoque epistemológico que subyace al estudio, su diseño, los participantes, el muestreo, las estrategias de análisis y de validez. De esa manera, se transparenta el camino recorrido y se justifica cada elección, precisando la pertinencia de cada aspecto metodológico.
Enfoque de investigación/Supuestos iniciales
La investigación fue desarrollada desde una perspectiva cualitativa. Este enfoque aporta conocimientos profundos y centrados en el estudio de la subjetividad de una manera contextual y holística, por lo que es esencial para el análisis de fenómenos complejos (Lim, 2024). Se partió de conceptos sensibilizadores (Blumer, 1982), entendidos como ideas que orientan la exploración inicial sin imponer estructuras rígidas, por lo tanto, flexibles y que se complejizaron de acuerdo con los hallazgos. En ese sentido, como supuesto inicial se estableció que la implementación del MBC en el Programa de Psicología de la universidad en cuestión no era completamente coherente con los lineamientos del modelo; por tanto, los procesos evaluativos no tenían las características requeridas y se estaban produciendo tensiones.
Contexto y participantes
El estudio se realizó en una universidad pública del Caribe colombiano, una institución de educación superior que responde a políticas nacionales e internacionales de calidad educativa y que ha adoptado el MBC. El caso investigado fue el Programa de Psicología. Las unidades de análisis fueron los planes de desarrollo de asignaturas elaborados por cada docente al comienzo del semestre académico y alineados con los planes de asignatura; la experiencia de la evaluación según la interpretan los estudiantes; y las clases desarrolladas en el aula, con docentes y estudiantes como actores.
Muestreo y saturación de categorías
El muestreo de estudiantes tuvo como criterios de selección que estuvieran activos en el Programa de Psicología, que se tratara de diversos semestres, la heterogeneidad de edades, la representatividad de sexos y distintos niveles de desempeño académico. Como criterios de exclusión, se consideró que fueran estudiantes inactivos; que no hubieran cursado asignaturas evaluadas bajo el modelo por competencias; que tuvieran algún conflicto de interés evidente con la investigadora, como una relación de dependencia académica; y que estuvieran en sus prácticas profesionales, teniendo en cuenta que la experiencia de los practicantes está condicionada por las exigencias externas y el sesgo de memoria puede llevarles a reinterpretar el pasado con la evaluación desde la óptica actual. Por tanto, se adoptó un muestreo intencional por criterios con variación máxima (Patton, 2002), estrategia coherente con el enfoque cualitativo y el diseño de estudio de caso, en tanto buscó maximizar la diversidad de perspectivas dentro de la población estudiantil. En total participaron 20 estudiantes.
La saturación de categorías se alcanzó cuando los datos obtenidos comenzaron a mostrar redundancia y no aportaron información novedosa. Se entiende por saturación el logro de un punto de datos satisfactorios, de tal manera que no es necesaria más recolección. Además, se tuvo en cuenta el principio de suficiencia, es decir, un número pertinente para reflejar diversidad de participantes y perspectivas (Mthuli et al., 2022).
En cuanto a las clases observadas, se seleccionaron según la calificación semestral que los estudiantes dieron a los docentes, eligiendo un número equilibrado entre aquellos que estuvieran ubicados en la escala como sobresaliente, aceptable y deficiente. Además, se consideró la diversidad de semestres y asignaturas. En total fueron 20 clases. Sobre los criterios de exclusión, no se tuvieron en cuenta aquellas clases que en su dinámica natural no contemplaran evaluaciones, las que fueran impartidas por docentes en situación de reemplazo y las asignaturas que no estaban dirigidas desde el Programa de Psicología.
En relación con los documentos, se analizaron 25 planes de desarrollo de asignatura. Al respecto, se incluyeron los que eran oficiales y estaban validados por el Comité Curricular; los que estaban siendo utilizados al momento de la recolección de los datos; los que estaban completos y firmados; y que, además, correspondían a diversas áreas de formación. Frente a los criterios de exclusión, se evitó que estuvieran duplicados y que correspondieran a asignaturas ubicadas en los semestres octavo, noveno y décimo; es decir, semestres de prácticas profesionales.
Diseño del estudio y recolección de datos
Para la investigación se diseñó un estudio de caso. El estudio de caso buscó la comprensión profunda desde la complejidad y particularidad de una entidad delimitada y contemporánea. Dentro de los tipos, se eligió un estudio instrumental en el que el caso fue el recurso para entender el fenómeno (Stake, 1995). La unidad delimitada fue el Programa de Psicología, entendido como el segmento institucional y programático en el que confluyen un plan de estudios, cuerpo docente, estudiantes, recursos, entre otros. La elección fue pertinente porque este diseño posibilita sumergirse en los detalles del programa obteniendo del fenómeno estudiado profundidad y perspectivas variadas. Los datos fueron recabados en el segundo semestre del 2024 y el primer semestre del 2025.
En cuanto a las técnicas para recabar los datos, las entrevistas semiestructuradas permitieron explorar las vivencias del estudiantado sobre la evaluación. Para Elhami & Khoshnevisan (2022) se trata de un método muy cercano a la conversación cotidiana en la que se utilizan preguntas guía de carácter abierto y flexible. Sin ser un cuestionario ni un libreto, se planifica. Su flexibilidad y naturalidad la hizo pertinente para crear un ambiente más cómodo con los estudiantes, motivando una mayor honestidad y apertura. Esto es fundamental en temas con aristas como los educativos y, especialmente, lo evaluativo. En la guía de entrevista se establecieron dos preguntas por cada categoría. Las categorías a priori fueron: Tipos y funciones de la evaluación, instrumentos y criterios, retroalimentación, nivel cognitivo, experiencia subjetiva y reacciones estudiantiles, propuestas. A excepción de propuestas, todas las demás categorías también fueron utilizadas para la observación. De igual manera, propuestas y experiencia subjetiva fueron excluidas de la revisión documental.
La observación abierta facilitó el acercamiento a las dinámicas de evaluación en el aula. Para Noble et al. (2025) la investigación con este método permite la comprensión matizada de las actividades e interacciones en su contexto natural. La técnica resultó apropiada porque el tipo de fenómeno estudiado se comprende mejor situado y desde la perspectiva de quien los vive en el ambiente natural. Si bien se trató de una observación abierta, se usaron ejes de indagación definidos previamente para obtener uniformidad en el registro.
La revisión documental posibilitó conocer el contenido prescrito del currículo. Para Morgan (2022) cualquier documento es susceptible de ser analizado, ya sea que se utilicen métodos cuantitativos y cualitativos. En este caso, se abordó cualitativamente a nivel descriptivo buscando el significado explícito en los datos, concretamente en los planes de desarrollo de asignatura, en los que se revisaron los aspectos evaluativos que los docentes planeaban semana a semana. Para lo anterior, se diseñó una matriz de análisis documental con los criterios previamente enunciados.
Estrategia de análisis
Se eligió el análisis temático propuesto por Braun y Clarke (2006), técnica ampliamente utilizada para identificar, organizar y describir patrones en los datos. Se comenzó con la familiarización con la información, el reconocimiento de códigos iniciales, la exploración, la definición y denominación de los temas y la redacción del informe. Con esta secuencia se logró organizar la información según categorías que describen las similitudes y contradicciones entre los tres niveles de análisis del currículo.
Estrategia de validez
Además de la rigurosidad del proceso y la devolución a los participantes, la validez de la investigación se estableció mediante triangulación múltiple. Es entendida la triangulación como la combinación, con fines de complementariedad, de diferentes técnicas de producción de datos (Denzin, 1978). En primera medida, se realizó la triangulación por datos, comparando los resultados de las entrevistas a estudiantes, la revisión de los planes de desarrollo de asignatura y la observación en las clases; en segundo lugar, la triangulación metodológica incorporó las tres técnicas para obtener una visión más integral del fenómeno; finalmente, la triangulación teórica se realizó al contrastar los hallazgos con las teorías e investigaciones previas sobre el tema en cuestión, favoreciendo el análisis crítico de los resultados.
Consideraciones éticas
Se partió de los principios éticos de Beauchamp y Childress (2019) sometidos a las reflexiones que, al respecto, han hecho autores como Fals Borda (1987), Freire (2005) o Walsh (2009), llevando los principios más allá y enfocándolos con mirada crítica. Entonces, fue fundamental el respeto a las personas y la autonomía. Entendida esta última como autonomía relacional por las desigualdades de poder presentes. En este caso, la investigadora era docente y, por tanto, parte de la comunidad educativa. Así que, fue clave que no se percibiera ninguna forma de coerción. Se enfatizó en que la decisión de no participar no tendría ningún tipo de repercusión.
Dado que se trató de un estudio de caso en un contexto pequeño, frente a la confidencialidad y el anonimato, hubo consideraciones importantes. Se explicaron los riesgos a este nivel y se extremaron precauciones para que no pudiera inferirse o deducirse la fuente de la información. Se habló de confidencialidad, mencionando el cómo y los riesgos. Esto también implicó la explicación de cada uno de los puntos del consentimiento informado. Ahora bien, frente a la no maleficencia, considerando que se trató de situaciones potencialmente problemáticas que involucraron a todos los actores, y que hablar de fallos o tensiones puede despertar temores de sanciones o de críticas, se garantizó un espacio seguro y sin juicios para expresar opiniones.
Resultados
Antes de presentar los hallazgos, la Tabla 1 sintetiza la correspondencia entre las tres técnicas de recolección, las categorías de análisis y las unidades de análisis implicadas en cada caso. Esta organización permite visualizar la lógica de triangulación metodológica que estructura los resultados y orienta su lectura comparada.
| Entrevista semiestructurada | Estudiantes (currículo vivido) | Tipo de evaluación, retroalimentación, instrumentos, periodicidad, nivel cognitivo, experiencia subjetiva, propuestas. | 20 estudiantes |
| Observación abierta | Clases (currículo implementado) | Tipo de evaluación, retroalimentación, instrumentos, periodicidad, nivel cognitivo | 20 clases |
| Revisión documental | Planes de asignatura (currículo prescrito) | Tipo de evaluación, retroalimentación, instrumentos, periodicidad, nivel cognitivo | 25 planes de asignatura |
El análisis de los datos condujo a la agrupación de cinco categorías que se relacionaron con códigos aplicados a las transcripciones de entrevistas hasta su saturación. En los tres casos se utilizó el mismo sistema de códigos para facilitar la comparación directa y la integración. Se presentan cinco tablas; en cada una de ellas se muestra una categoría distinta y los hallazgos por cada técnica de recolección. La presentación de las tablas por categoría facilita la comprensión, descripción y comparación.
Categoría: Tipo de evaluación
Hace referencia a las formas de evaluación según su función. A partir de los códigos que emergieron puede ser diagnóstica, sumativa, formativa e híbrida. En la primera, se identifica lo que se conoce y desconoce al inicio del proceso enseñanza-aprendizaje. En la sumativa, se valora el aprendizaje en función de una calificación. En la formativa, el aprendizaje va acompañado de retroalimentación. La evaluación híbrida es la conjugación de sumativa y formativa.
| Hallazgos en Planes | Hallazgos en Entrevistas a Estudiantes | Hallazgos en Observación de Clases |
| 17 planes de desarrollo de asignaturas incluyen evaluación diagnóstica. Todos incorporan la evaluación sumativa, pero no de manera explícita la evaluación formativa. Tampoco hacen referencia la evaluación formativa asociada con la sumativa. No hay menciones a la coevaluación y autoevaluación | “Algunos profes evalúan lo que uno sabe a principio del semestre” (p.20) “Él lo que hacía era cambiar los porcentajes para que no perdiéramos tantos. Si en un principio había acordado, por ejemplo, que el parcial costaba el 60 % y las actividades tenían un 40 %, los acomodaba como 50-50 %” (p.4) “Todas mis evaluaciones han sido escritas, con preguntas abiertas y nota, pero casi no nos dicen por qué acertamos o no, nos dan el número y ya, a veces necesitamos saber cómo mejoramos (…) uno vive con la angustia de sacar malas notas” (p.2) | “Durante la clase la profesora evidenció en su lenguaje no verbal el descontento porque el grupo de estudiantes no leyó lo asignado, por lo que procedió a evaluarlos” (BO 18/02/2025) “Una clase más en la que se evalúa brindando nota numérica y la profesora no dio retroalimentación” (BO 20/11/2024) “La docente no incluyó evaluaciones en la clase” (BO 26/09/2024) “Segunda clase durante la semana de la misma docente y tampoco evalúa” (BO 11/10/2024) |
Como lo indican los datos de la Tabla 2, para las tres técnicas de recolección, todas las actividades evaluativas están mediadas por la calificación; es decir, reciben una nota que determina si aprueban o no, lo que en algunos casos ha producido angustia en los estudiantes. La evaluación formativa emerge en el marco de un examen que representa un porcentaje de la asignatura. Los porcentajes asignados han llegado a modificarse con cierta arbitrariedad por parte del docente, buscando favorecer cuantitativamente al estudiante y que así menos personas suspendan la asignatura, tal como lo informan en las entrevistas los estudiantes.
La centralidad atribuida a la nota desplaza, en gran medida, la incorporación de evaluaciones formativas que suelen ser demandadas por los estudiantes. El hecho de que los planes de desarrollo de asignatura no mencionen las evaluaciones formativas es coherente con la escasa presencia de estas, según lo experimenta el estudiantado y se observa en las aulas. Su presencia está supeditada a la iniciativa y consideración de cada profesor.
Categoría: Retroalimentación
Indica que se ofreció a los estudiantes información cualitativa sobre su desempeño. En los códigos emergentes se denomina retroalimentación omitida cuando no se realiza; hostil, cuando es descalificadora o se percibe como un ataque; inoportuna, cuando se da en un momento inadecuado; y retroalimentación sin acción, que, si bien señala aciertos y errores, no ofrece guía ni herramientas para que el estudiante mejore.
| Ningún plan de desarrollo de asignatura incorpora espacios o tiempos para la retroalimentación dentro de la estructura secuencial de la que informa | “Muchas veces uno no podía ver el parcial, no sabías en qué te equivocaste y en que estás bien” (p.19) “Hay docentes que reaccionan de mala manera se enfocan solo en errores y debilidades y no en cómo mejorar o buscar una solución para que eso deje de suceder” (p.9) “Hay profes que dicen, muchachos qué les pasó, que sucedió, hay que trabajar más en estos temas, pero se queda en palabras porque nos lo dejan todo a nosotros” (p.7) “No nos dejó exponer todo, a mitad nos paró y nos hizo las críticas en ese preciso momento” (p.15) | “La docente entrega rápidamente la hoja del cuestionario con la nota del parcial y no brinda otro tipo de información” (BO 11/08/2024) “Cada grupo expuso y al finalizar la profesora no les mencionó nada sobre su desempeño ni les daba la calificación. Cuando pregunté a una estudiante cuándo lo haría, respondió que no sabían, podía ser la siguiente o varias clases después” (BO 17/09/2024) “Primer docente que toma tiempo considerable para retroalimentar integralmente a cada estudiante” (BO 25/09/2024). |
Los datos de la Tabla 3 evidencian que la devolución de las evaluaciones suele limitarse a la nota; es decir, tiene un enfoque cuantitativo. La retroalimentación, entendida cualitativamente, siempre emerge ligada a la nota. Como se evidencia en la observación y confirman los relatos, es frecuente que la devolución cualitativa no se realice, lo que es coherente con la ausencia explícita en los planes de desarrollo de asignatura.
Ahora bien, cuando ocurre la retroalimentación puede ser inoportuna; es decir, por fuera de los tiempos que corresponden, como lo señalan los estudiantes y como también se pudo observar; en ocasiones, se realiza de forma hostil. En otros casos, se efectúa, pero no se acompaña de una guía o curso de acción sugerido por el docente, limitándose a la mención de fortalezas y debilidades. Muy raras veces ocurre una retroalimentación integral.
Categoría: Instrumentos de evaluación
Se asumieron como instrumentos de evaluación las herramientas para recabar información sobre el desempeño de los estudiantes. De acuerdo con los códigos emergentes, se identificaron cuestionarios, rúbricas estructuradas por criterios y niveles, y diarios reflexivos en los que el estudiante y/o docente consignaron sus percepciones sobre el proceso educativo.
| Hallazgos en Planes de Asignatura | Hallazgos en Entrevistas a Estudiantes | Hallazgos en Observación |
| El instrumento de evaluación más mencionado fue el cuestionario en forma de examen parcial, seguido por la rúbrica. Estuvieron ausentes las listas de cotejo, la observación estructurada y las escalas de valoración, entre otros; sin embargo, dos planes incluyen diarios reflexivos | “Nunca hubo rúbricas, eso influye a la hora de tu nota” (p.4) “No revisan las rúbricas (…) si no das las indicaciones, ¿qué pretendes? Vas a recibir quejas, vas a recibir un mal trabajo” (p.2) “Era exposición y cuestionarios todos los cortes” (p.19) “Nunca supimos cómo evaluaba, parecía al ojo, como lo que le pareciera” (p.20) | “Les comunicó la nota sin explicarles por qué el resultado ni mencionar rúbrica o criterios de evaluación” (BO 27/09/2024) “La presentación de los proyectos de aula fue en medio de un evento organizado de cara a todo el programa. Dos evaluadores pasaban con rúbrica en mano haciendo una mezcla de evaluación formativa y sumativa” (BO 05/03/2025). |
La Tabla 4 muestra que todos los planes de desarrollo de asignatura incluyeron, semana a semana, instrumentos de evaluación en los campos que el formato establece para este fin; sin embargo, contrasta con las observaciones y las afirmaciones de los estudiantes que revelan instrumentos omitidos y una percepción de arbitrariedad. Ahora bien, en ocasiones se contó con instrumentos y se les dio un uso adecuado, pero otras veces se les ignoró o fueron utilizados de forma inapropiada. Tanto en la revisión de los planes de desarrollo de asignatura como en la observación y la entrevista se coincidió en la escasa diversidad de instrumentos de evaluación.
Categoría: Periodicidad y frecuencia
La frecuencia con la que se evaluó fue el eje que agrupó los códigos de esta categoría. Uno de ellos se denominó “única nota”, y se aplicó cuando solo se realizó una evaluación por corte académico correspondiente al parcial obligatorio. El código “dos o más notas”, evidenció que la evaluación parcial estuvo acompañada de otras evaluaciones durante un corte académico. El código “frecuencia imprevista” se usó para indicar que el número de evaluaciones varió sin criterio conocido, solo por la consideración del docente. Los hallazgos de esta categoría se sintetizan en la tabla 5.
| Hallazgos en Planes de Asignatura | Hallazgos en Entrevistas a Estudiantes | Hallazgos en Observación Directa |
| Los planes incluyen en cada semana académica, por lo menos, una estrategia evaluativa. Por tanto, hay regularidad y constancia en las prácticas evaluativas planeadas. La mayoría de los planes empieza con una evaluación diagnóstica | “Hay profes que toman una nota por corte” (p.17) “Con la semana de parciales encima corren a poner alguna actividad pa poder agarrar otra nota” (p.8) “Ella toma dos, tres o cuatro notas por corte, nunca sabemos cuántas serán” (p.11) “Solo nos quería hacer los parciales, pareciera que le diera flojera calificar porque nunca dejaba taller, ni exposiciones, ni nada” (p.20) | “En la secuencia académica de toda una semana la docente nunca evaluó” (BO 18/09/2024) “Otra clase sin evaluación, simplemente la omitió” (BO 15/08/2024) “Aplicó un cuestionario que los estudiantes no esperaban, aunque sí estaba contemplado en el plan de desarrollo” (BO 27/08/2025) |
Si bien desde lo prescrito se estableció que, para todas las semanas, debía haber por lo menos una actividad evaluativa, esa regularidad no coincidió con lo vivido por el estudiantado ni con lo observado en las aulas; en ambos casos se percibió que la evaluación era eventual y sujeta a las consideraciones del profesorado. Muchas veces, el criterio para evaluar fue el cumplimiento forzado de los parciales exigidos en los planes de desarrollo de asignatura y en la normatividad de la institución, de ahí que quienes lo experimentaron percibieron que las pocas actividades que se realizaron fueron solo para reportar la nota.
Categoría: Nivel cognitivo
Para definir la categoría nivel cognitivo se utilizó la Taxonomía de Bloom (1956). Al establecer códigos se emplearon verbos que coincidían con procesos complejos, básicos e intermedios. En los primeros se encuentran códigos como evaluar y crear; en los segundos, recordar y comprender; y en los procesos intermedios se halla aplicar y analizar. La Tabla 6 permite contrastar los hallazgos de las tres técnicas de recolección utilizadas.
| Hallazgos en Planes de Asignatura | Hallazgos en Entrevistas a Estudiantes | Hallazgos en Observación |
| Los resultados de aprendizaje indican diferentes niveles cognitivos. En algunos planes se propone un nivel analítico, siguiendo la taxonomía de Bloom, otros niveles aplicados y un número significativo se mantiene en nivel comprensivo. Algunos resultados de aprendizaje no se encuentran conforme la estructura del MBC | “Los parciales son muy memorísticos” (p.13) “No me sirve lo verbal porque se olvida” (p.10) “Con ese tipo de preguntas respondías con lo que tú sabías, interpretabas el caso y analizabas” (p.4) “Eran preguntas de razonamiento lógico, como si fueran del ECAES, de lectura crítica” (p.6) “Valoro mucho las evaluaciones prácticas y los proyectos” (p.9) | “Entregó cuestionario escrito durante la semana oficial de evaluaciones” (BO 21/02/2025) “Las preguntas del cuestionario solo requerían de información previamente memorizada” (BO 20/02/2025) “El examen escrito incluyó casos para analizar” (BO 24/09/2024) “La prueba escrita tenía preguntas abiertas con interrogantes que requerían respuestas crítico-reflexivas” (BO 15/11/2024) |
Siguiendo la Tabla 6, los planes de desarrollo de asignatura contienen resultados de aprendizaje planteados desde distintos niveles cognitivos que, con frecuencia, no correspondieron con las evaluaciones implementadas en el aula ni con las experimentadas por varios estudiantes. Es común que las evaluaciones implementadas se mantuvieran en niveles básicos, como conocer y comprender, experimentados por los estudiantes como poco útil; de manera similar, estuvieron presentes aquellas que concordaron con niveles cognitivos intermedios, como aplicar y analizar, valorados por las personas entrevistadas; y un número menor persiguió la evaluación de niveles cognitivos complejos.
Discusión
Los hallazgos de este estudio se analizaron a partir de la comparación sistemática entre tres niveles curriculares. La triangulación de estos tres niveles reveló tensiones consistentes que no son reducibles a decisiones individuales de los docentes, sino que expresan contradicciones estructurales entre el modelo formal adoptado por la institución y las condiciones reales en que dicho modelo opera.
Ahora bien, la discusión de los hallazgos no es solo un ejercicio de contraste con otras investigaciones; también es una invitación a interrogar desde distintos marcos teóricos. Las dinámicas identificadas en torno a la evaluación no pueden entenderse solo como prácticas aisladas, sino como expresiones de un contexto específico con sus políticas, aspectos económicos y culturales que reflejan contradicciones con los modelos pedagógicos globales. En ese sentido, resulta pertinente considerar las implicaciones teóricas, prácticas y limitaciones del estudio.
Implicaciones teóricas
En el Programa de Psicología la evaluación sumativa tiene un lugar central, pero carece de criterios claros y específicos indispensables para cumplir con su función como mediadora del aprendizaje. Hoepner y Hemmerich (2020) constatan la necesidad de estos criterios para su fundamento. La inexistencia de pautas claras, el hecho de que sean ignoradas o aplicadas con arbitrariedad acentúa las emociones negativas ligadas a la evaluación. Al respecto, varios estudios han identificado que la evaluación sumativa, cuando no es usada de forma pertinente, puede ser fuente de estrés al estar asociada con angustia. Además, quienes regularmente pierden no suelen tener disposición de volver a intentarlo (Chamberlin et al., 2018; Rodríguez Rincón et al., 2024). Este hecho coincide con lo que experimentaron los estudiantes del lugar del estudio.
Lo llamativo en el contexto específico de un programa de Psicología es que la angustia evaluativa no constituye solo un obstáculo pedagógico, sino una contradicción epistemológica: una disciplina que forma profesionales para acompañar procesos emocionales en otros reproduce, en su propia práctica formativa, las condiciones que generan malestar psicológico. Esta paradoja no es menor y merece atención institucional específica.
Esta dimensión adquiere especial relevancia en el contexto del Caribe colombiano, donde las condiciones de desigualdad estructural —pobreza, primera generación universitaria, acceso diferenciado al capital cultural— hacen que la retroalimentación no sea solo una herramienta pedagógica, sino un acto de reconocimiento y validación de saberes situados. Negarla reproduce jerarquías epistémicas que el MBC, en su formulación más crítica, debería contribuir a desmontar.
La angustia como emoción ligada a la evaluación y su naturalización no conviene interpretarla únicamente como un fenómeno psicológico individual y obviar el orden estructural al que corresponde. La naturalización de la evaluación como fuente de estrés responde a lógicas neoliberales de estandarización que privilegian medición sobre aprendizaje significativo. Ese modelo global es señalado por Giroux (1990) como desplazador de la formación crítica hacia una lógica del rendimiento cuantificable. Las tensiones señaladas revelan la reproducción de prácticas evaluativas tradicionales y normativas que limitan la puesta en práctica de ejercicios realmente formativos y dialógicos.
Esta lectura se profundiza al dialogar con los referentes teóricos del marco. Desde el MBC, la evaluación debe ser un proceso longitudinal que refleja el desarrollo progresivo de competencias (Shah et al., 2024); sin embargo, los hallazgos del currículo implementado muestran que la lógica predominante es puntual y sumativa, orientada al corte académico más que al seguimiento del aprendizaje. Esta brecha coincide con lo que Holmes et al. (2021) identifican como el principal nudo crítico del MBC: la diversidad de interpretaciones sobre qué es una competencia y cómo evaluarla produce, en la práctica, que los docentes operen con marcos evaluativos dispares, aunque compartan el mismo currículo prescrito.
En el PP (Programa de Psicología), la heterogeneidad evaluativa fue consistente a través de las cinco categorías analizadas: los criterios se aplican de modo arbitrario, los instrumentos se omiten o reutilizan sin variación, y la retroalimentación, cuando ocurre, carece de orientación formativa. Kamar (2020) y Martín-Alonso et al. (2021) señalan que esta brecha entre lo prescrito y lo implementado es estructural en contextos donde la adopción del MBC ha sido normativa antes que pedagógica; es decir, se cambia el documento sin transformar la cultura evaluativa. El currículo vivido que emerge de estos hallazgos confirma esa dinámica: los estudiantes no reconocen en la evaluación un proceso de aprendizaje, sino un mecanismo de control, lo que reproduce exactamente la distancia con el enfoque por competencias que Sánchez y Jara (2021) documentan en otras universidades latinoamericanas.
Ahora bien, no basta la recopilación de datos de desempeño; se requiere también de una retroalimentación que estimule la reflexión. Para Cheung et al. (2024), quien estudia necesita de la retroalimentación para comprender su proceso y, en esa medida, hacer los ajustes necesarios que mejoren su desempeño; se trata de un diálogo formativo. Si la ausencia de retroalimentación en el contexto estudiado se lee desde la noción de justicia epistémica que propone Fricker (2007) se hace evidente que lo que realmente se le niega al estudiante es el reconocimiento de su voz y de su agencia, al reducirlo a mero receptor de calificaciones. Por tanto, no se omite únicamente orientación académica; también se desconoce al sujeto como agente epistémico con capacidad interpretativa clave para dar sentido a su propio proceso.
De hecho, para Hoepner y Hemmerich (2020), la evaluación formativa puede mejorar el desempeño de la evaluación sumativa; sin embargo, en el programa de psicología estudiado, las evaluaciones integrales fueron la excepción. De ahí que fortalecer la evaluación holística no constituya solo una mejora metodológica sino también una condición para equilibrar relaciones de poder en el aula y sumar a la justicia epistémica.
Ahora bien, el MBC requiere que la evaluación sea programática, lo que implica longitudinalidad, es decir, que se mantenga a lo largo del programa académico y no solo en momentos específicos (Westermann & Bok, 2023). Sin embargo, la realidad del entorno es opuesta y revela una tensión entre lo que el modelo establece como ideal y lo fáctico marcado por las condiciones estructurales del contexto como la elevada carga laboral y escasa formación específica. La ausencia de continuidad debilita la coherencia del MBC y se impide el seguimiento al proceso; por tanto, el potencial de identificar problemas relacionados.
En cuanto a los niveles cognitivos, los documentos microcurriculares siguen la taxonomía de Bloom en coherencia con el esquema del MBC, pero en el aula esa coherencia no siempre se refleja limitándose muchas veces a un nivel comprensivo. El hecho coincide con investigaciones que arrojan que en educación superior se tiende a centrarse en niveles cognitivos de menor nivel, como entender o recordar (Mustafidah et al., 2022; Ramavat et al., 2024). Interpretar la mencionada tendencia como prácticas evaluativas aisladas es limitado, en la medida en que factores como prácticas pedagógicas tradicionales arraigadas marcan estilos evaluativos que, de acuerdo con Freire (2005), reducen el aprendizaje a la transmisión de información y eluden la problematización central en el desarrollo de la criticidad.
En conjunto, las tensiones identificadas entre el currículo prescrito, el implementado y el vivido no responden únicamente a deficiencias individuales de los docentes, sino a la articulación de tres factores estructurales: la precariedad de las condiciones laborales docentes en la universidad pública colombiana, la débil apropiación institucional del MBC más allá del discurso normativo, y la persistencia de culturas evaluativas sedimentadas históricamente que no se transforman con la sola adopción formal de un modelo. Esta lectura estructural es indispensable para que las recomendaciones no caigan en el voluntarismo.
Teóricamente, este estudio aporta evidencia empírica situada sobre las condiciones de implementación del MBC en un contexto universitario del Caribe colombiano, subrepresentado en la literatura sobre evaluación por competencias en el Sur Global. Los hallazgos sugieren que las distancias entre currículo prescrito e implementado no son anomalías locales, sino expresiones de una tensión estructural entre la racionalidad técnica del modelo y las condiciones materiales y culturales de su aplicación. Esta tensión, leída desde perspectivas críticas como las de Giroux (1990) y Fricker (2007), devela que la evaluación es siempre también un ejercicio de poder y de reconocimiento, y que su reforma exige no solo voluntad pedagógica, sino transformación institucional.
Implicaciones prácticas
Las aplicaciones prácticas que se proponen demandan intervenciones en distintas dimensiones interrelacionadas. Con respecto a la docencia, esta investigación reconoce la importancia de que los criterios de evaluación se definan con claridad y se apliquen de forma consistente para que desaparezca la percepción de arbitrariedad identificada. Hacerlo requiere mayor atención al componente pedagógico, con la correspondiente formación profesional e, incluso, espacios de reflexión colectiva que permitan contar con marcos interpretativos compartidos, como lo indica la literatura sobre coherencia curricular (Richmond et al., 2019).
De esa manera, la atención institucional sobre el componente pedagógico también podría direccionarse hacia la evaluación programática mediante el seguimiento institucional que se reflejaría en una mayor consistencia entre lo que se establece en los planes de asignatura y lo que realmente ocurre en el aula. Así se superaría la lógica fragmentada que se ha evidenciado en la evaluación actual dentro del PP. Finalmente, el proceso de enseñanza -aprendizaje podría beneficiarse si se diseñan más estrategias que evalúen niveles cognitivos superiores. La formación de orden superior se beneficia si se generan actividades que metodológicamente y a nivel evaluativo posibiliten el análisis, la síntesis y el desarrollo del pensamiento crítico. Las acciones propuestas tienen el potencial de contribuir a la coherencia con el MBC y, por tanto, una mayor pertinencia para el PP.
Sin embargo, cabe advertir que la sola diversificación instrumental no garantiza coherencia con el MBC si no va acompañada de un rediseño del tiempo curricular disponible para la retroalimentación, una política institucional de acompañamiento docente sostenida en el tiempo, y mecanismos de rendición de cuentas pedagógica que vayan más allá de la evaluación docente estudiantil, históricamente reducida a índices de satisfacción. La coherencia evaluativa es, ante todo, un problema de diseño institucional, no solo de buenas intenciones individuales.
En ese sentido, este estudio recomienda la diversificación de los instrumentos evaluativos, la aplicación efectiva de la evaluación programática y el fortalecimiento de la evaluación formativa como prioridades de gestión curricular. Implementar el MBC con coherencia real exige repensar las condiciones en que se ejerce la docencia, los tiempos destinados a la retroalimentación, los sistemas de formación pedagógica continua y los mecanismos de seguimiento al desarrollo curricular. Sin estas condiciones, la distancia entre el currículo prescrito y el vivido seguirá siendo no una excepción, sino la norma.
Limitaciones del estudio
Las elecciones metodológicas suelen suponer aciertos en algunos niveles y limitaciones en otros, de ahí la importancia de considerarlas reflexivamente. Si bien las prácticas en el aula y la perspectiva del estudiantado son valiosas, es importante que futuras investigaciones incluyan las percepciones de los docentes frente a dificultades, aciertos y desafíos del proceso evaluativo, así como las de los egresados. También es cierto que, como suele ocurrir con los estudios basados en observación, la presencia de una observadora durante las clases pudo condicionar, en alguna medida, los comportamientos. Esto exige un ejercicio de reflexividad sobre los datos de parte de quien investiga. Finalmente, la exhaustividad del enfoque metodológico cualitativo aporta profundidad, pero no permite dimensionar qué tan extendidas se encuentran las situaciones halladas. Estudios posteriores podrían beneficiarse al complementar con un enfoque mixto que enriquecería al articular profundidad cualitativa con mediciones cuantitativas que aportarían ampliando el alcance y la integralidad de la perspectiva.
El diseño de estudio de caso con triangulación múltiple permitió capturar la complejidad del fenómeno desde tres ángulos complementarios, ofreciendo una imagen más integrada de las tensiones que una aproximación unimodal no habría podido revelar. No obstante, futuras investigaciones podrían abordar las preguntas que este estudio deja abiertas: ¿a qué estrategias podría recurrirse para garantizar que la evaluación programática no se limite a la retórica de los planes de asignatura?, ¿de qué manera se impulsaría la retroalimentación como proceso sistemático y protagónico?, ¿qué estrategias innovadoras posibilitarían la evaluación de niveles cognitivos superiores en el contexto universitario del Caribe colombiano? Estudios posteriores podrían también beneficiarse al complementar con un enfoque mixto, articulando la profundidad cualitativa con mediciones cuantitativas que amplíen el alcance y la integralidad de la perspectiva.
Conclusiones
La evaluación en el Programa de Psicología estudiado no falla por accidente ni por descuido individual, lo hace de manera coherente y predecible porque el MBC fue adoptado como marco normativo sin que se transformaran las condiciones estructurales que hacen posible su implementación real. Esta es la conclusión central que los tres niveles curriculares analizados sostienen de forma convergente.
Lo que el currículo prescrito promete (evaluación longitudinal, retroalimentación formativa, desarrollo de competencias complejas) encuentra en el currículo implementado una cultura evaluativa sedimentada en la lógica del control y la calificación, que el currículo vivido traduce en angustia, incertidumbre y desconexión entre el acto de evaluar y el acto de aprender. No se trata de una brecha entre ideal y realidad, sino de una contradicción entre dos proyectos pedagógicos que coexisten sin resolverse: el del modelo adoptado y el de las prácticas heredadas.
Este hallazgo tiene implicaciones que van más allá del caso estudiado. En el contexto latinoamericano, donde la adopción del MBC ha respondido con frecuencia a presiones de alineación con estándares internacionales antes que a transformaciones pedagógicas genuinas, la distancia entre currículo prescrito y vivido es una expresión de una tensión estructural ampliamente documentada. Lo que este estudio aporta es evidencia empírica situada y triangulada de cómo esa tensión opera concretamente en un programa de psicología del Caribe colombiano, y de que sus efectos recaen desproporcionadamente sobre los estudiantes, quienes asumen el costo subjetivo de una coherencia institucional que no se ha logrado.
Referencias
Alt, D., Naamati-Schneider, L., & Weishut, D. J. N. (2023). Competency-based learning and formative assessment feedback as precursors of college students' soft skills acquisition [El aprendizaje basado en competencias y la retroalimentación de la evaluación formativa como precursores de la adquisición de habilidades blandas en estudiantes universitarios]. Studies in Higher Education, 48(12), 1901-1917. https://doi.org/10.1080/03075079.2023.2217203
Álvarez Cazón, C. V., Villaroel Siles, M., Avilés Estrada, C., Fernández Terrazas, E., Vergara Zutara, M., & Pérez Pozo, H. F. (2023). Diseño curricular complejo con enfoque de competencias. Revista Guatemalteca de Educación Superior, 6(2), 41-71. https://doi.org/10.46954/revistages.v6i2.119
Álvarez Urda, P. (2022). Investigación e internacionalización en la formación basada en competencias. Revista Española de Pedagogía, 80(282), 396-399. https://doi.org/10.22550/2174-0909.3141
Arévalo Coronel, J. P., & Juanes Giraud, B. Y. (2022). La formación de competencias desde el contexto latinoamericano. Revista Universidad y Sociedad, 14(1), 517-523. https://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2218-36202022000100517&lng=es&tlng=es
Aube-Peterkin, M., Ehlebracht, A., & Petrella, F. (2022). Feedback and formative assessment in Competency by Design: The experience of residents and supervisors within a urology training program [Retroalimentación y evaluación formativa en Competency by Design: la experiencia de residentes y supervisores en un programa de urología]. Canadian Urological Association Journal, 17(4), 94-100.https://doi.org/10.5489/cuaj.8103
Beauchamp, T. L., & Childress, J. F. (2019). Principles of Biomedical Ethics: Marking Its Fortieth Anniversary [Principios de ética biomédica: marcando su cuadragésimo aniversario]. The American Journal of Bioethics, 19(11), 9-12. https://doi.org/10.1080/15265161.2019.1665402
Besser, E. D., & Newby, T. J. (2019). Exploring the Role of Feedback and its Impact within a Digital Badge System from Student Perspectives [Explorando el papel de la retroalimentación y su impacto en un sistema de insignias digitales desde la perspectiva estudiantil]. TechTrends, 63(4), 485-495. https://doi.org/10.1007/s11528-019-00386-2
Bingham, A. J., Adams, M., & Stewart, R. L. (2021). Competency-based education: Examining educators' experiences [Educación basada en competencias: examinando las experiencias de los educadores]. Qualitative Report, 26(3), 674-695. https://doi.org/10.46743/2160-3715/2021.4383
Birman, N. A., Vashdi, D. R., Miller-Mor Atias, R., Riskin, A., Zangen, S., Litmanovitz, I., & Sagi, D. (2025). Unveiling the paradoxes of implementing post graduate competency based medical education programs [Develando las paradojas de la implementación de programas de educación médica de posgrado basados en competencias]. Medical Teacher, 47(4), 622-629. https://doi.org/10.1080/0142159X.2024.2356826
Bloom, B. S. (Ed.). (1956). Taxonomy of educational objectives: The classification of educational goals. Handbook I: Cognitive domain [Taxonomía de los objetivos educativos: la clasificación de las metas educativas. Manual I: Dominio cognitivo]. Longmans, Green and Co.
Blumer, H. (1982). El interaccionismo simbólico: Perspectiva y método. Hora, S.A. (Obra original publicada en 1969).
Braun, V., & Clarke, V. (2019). Reflecting on reflexive thematic analysis [Reflexionando sobre el análisis temático reflexivo]. Qualitative Research in Sport, Exercise and Health, 11(4), 589-597. https://doi.org/10.1080/2159676X.2019.1628806
Callahan, C. M. (2021). Curriculum implementation, management, and assessment: Special consideration and best practices [Implementación, gestión y evaluación del currículo: consideraciones especiales y mejores prácticas]. En K. R. Stephens & F. A. Karnes (Eds.), Introduction to curriculum design in gifted education (pp. 223-240). Routledge. https://doi.org/10.4324/9781003235842-14
Cao, C. D., Vu, H. T. T., Nguyen, T. T., & Nguyen, H. T. (2022). Teaching according to the competency-based at technical pedagogical universities [La enseñanza según el enfoque basado en competencias en universidades pedagógicas técnicas]. The Open Psychology Journal, 15, Article e187435012211251. https://doi.org/10.2174/18743501-v15-e221129-2022-29
Chamberlin, K., Yasué, M., & Chiang, I.-C. A. (2018). The impact of grades on student motivation [El impacto de las calificaciones en la motivación estudiantil]. Active Learning in Higher Education, 24(2), 109-124. https://doi.org/10.1177/1469787418819728
Cheung, W. J., Bhanji, F., Gofton, W., Hall, A. K., Karpinski, J., Richardson, D., Frank, J. R., & Dudek, N. (2024). Design and Implementation of a National Program of Assessment Model – Integrating Entrustable Professional Activity Assessments in Canadian Specialist Postgraduate Medical Education [Diseño e implementación de un modelo nacional de evaluación: integración de evaluaciones de actividades profesionales confiables en la educación médica de posgrado especializada en Canadá]. Perspectives on Medical Education, 13(1), 44-55. https://doi.org/10.5334/pme.956
Denzin, N. K. (1978). The Research Act: A Theoretical Introduction to Sociological Methods [El acto de investigar: una introducción teórica a los métodos sociológicos]. McGraw-Hill.
Dierendonck, C., Poncelet, D., & Tinnes-Vigne, M. (2024). Why teachers do (or do not) implement recommended teaching practices? An application of the theory of planned behavior [¿Por qué los docentes implementan (o no) las prácticas pedagógicas recomendadas? Una aplicación de la teoría del comportamiento planificado]. Frontiers in Psychology, 15, Article 1269954 https://doi.org/10.3389/fpsyg.2024.1269954
El-Astal, M. (2023). What is Curriculum? Building a Broader Understanding of the Term [¿Qué es el currículo? Construyendo una comprensión más amplia del término]. Journal of Curriculum and Teaching, 12(6), 188. https://doi.org/10.5430/jct.v12n6p188
Elhami, A., & Khoshnevisan, B. (2022). Conducting an Interview in Qualitative Research: The Modus Operandi [La realización de entrevistas en investigación cualitativa: el modus operandi]. Mextesol Journal, 46(1), 1-7. https://doi.org/10.61871/mj.v46n1-3
Fals Borda, O. (1987). La investigación-acción participativa: Política y epistemología. Editorial Carlos Valencia.
Freire, P. (2005). Pedagogía del oprimido (J. Mellado, Trad.). Siglo Veintiuno Editores. (Obra original publicada en 1968)
Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing [Injusticia epistémica: el poder y la ética del conocer]. Oxford University Press.
Giroux, H. (1990). Los profesores como intelectuales: hacia una pedagogía crítica del aprendizaje. (I. Arias, Trad.). Paidós; Ministerio de Educación y Ciencia. (Obra original publicada en 1988)
Guzmán, V. (2013). Metodología para el diseño de objetivos educacionales. Red tercer Milenio. http://www.aliat.org.mx/BibliotecasDigitales/Educacion/Metodologia_para_el_diseno_de_obj_educ.pdf
Herrera, O., López, M., Osorio, L., Tamayo, M., & Hernández, H. (2017). Educación a lo largo de la vida: aperturas y posibilidades en la educación superior. Revista Virtual Universidad Católica del Norte, (52), 119-142. https://revistavirtual.ucn.edu.co/index.php/RevistaUCN/article/view/947
Hida, E., Ben Ouahi, M., Hassouni, T., & El Mehdi, E. M. (2025). Impact of the competency-based approach on the development of students competences in higher education [Impacto del enfoque basado en competencias en el desarrollo de las competencias de los estudiantes en la educación superior]. Journal of Southwest Jiaotong University, 60(1). https://doi.org/10.35741/issn.0258-2724.60.1.1
Hoepner, J. K., & Hemmerich, A. L. (2020). Using formative video competencies and summative in-person competencies to examine preparedness for entry-level professional practice [El uso de competencias formativas en video y competencias sumativas presenciales para examinar la preparación para la práctica profesional de nivel inicial]. Seminars in Speech and Language, 41(4), 310-324. https://doi.org/10.1055/s-0040-1713782
Holmes, A. G. D., Tuin, M. P., & Turner, S. L. (2021). Competence and competency in higher education, simple terms yet with complex meanings: Theoretical and practical issues for university teachers and assessors implementing Competency-Based Education (CBE) [Competencia y competencias en la educación superior, términos simples pero con significados complejos: cuestiones teóricas y prácticas para docentes y evaluadores universitarios que implementan la educación basada en competencias]. Educational Process: International Journal, 10(3), 39-52. https://doi.org/10.22521/EDUPIJ.2021.103.3
Jalixto Erazo, H. M., Ponce Pardo, J. E., Chiri Saravia, P. C., & Asmad Mena, G. R. (2022). Currículo por competencias en tiempos de virtualidad en estudiantes universitarios. Horizontes. Revista de Investigación en Ciencias de la Educación, 6(25), 1768-1778. https://doi.org/10.33996/revistahorizontes.v6i25.452
Jaramillo, J. G., Rivadeneira, J. C., & Peña, E. C. (2023). Competency-Based Evaluation in the Context of Higher Education: A Systematic Review of the Last Five Years [La evaluación basada en competencias en el contexto de la educación superior: una revisión sistemática de los últimos cinco años]. International Journal of Religion, 5(11), 6965-6975. https://doi.org/10.61707/6p0cx830
Kamar, D. (2020). The politics of education reforms in Kenya: Critical assessment of the education system from 1963-2020 [La política de las reformas educativas en Kenia: evaluación crítica del sistema educativo de 1963 a 2020]. Journal of Community Positive Practices, 20(2), 11-30. https://doi.org/10.35782/JCPP.2020.2.02
Katoue, M. G., & Schwinghammer, T. L. (2020). Competency-based education in pharmacy: A review of its development, applications, and challenges [La educación basada en competencias en farmacia: una revisión de su desarrollo, aplicaciones y desafíos]. Journal of Evaluation in Clinical Practice, 26(4), 1114-1123. https://doi.org/10.1111/jep.13362
Lim, W. M. (2024). What Is Qualitative Research? An Overview and Guidelines [¿Qué es la investigación cualitativa? Una visión general y directrices]. Australasian Marketing Journal, 33(2), 199-229. https://doi.org/10.1177/14413582241264619
Lu, K., Yang, H. H., Shi, Y., & Wang, X. (2021). Examining the key influencing factors on college students' higher-order thinking skills in the smart classroom environment [Examinando los factores clave que influyen en las habilidades de pensamiento de orden superior de los estudiantes universitarios en el entorno del aula inteligente]. International Journal of Educational Technology in Higher Education, 18(1). https://doi.org/10.1186/s41239-020-00238-7
Martín-Alonso, D., Sierra, E., & Blanco, N. (2021). Relationships and tensions between the curricular program and the lived curriculum. A narrative research [Relaciones y tensiones entre el programa curricular y el currículo vivido. Una investigación narrativa]. Teaching and Teacher Education, 105, Article 103433. https://doi.org/10.1016/j.tate.2021.103433
Martínez Rojas, E. S. (2025). Mutaciones institucionales y Neoliberalismo: El cambio organizacional en la universidad latinoamericana. Revista Virtual Universidad Católica Del Norte, (75), 1-5. https://doi.org/10.35575/rvucn.n75a1
Morales, B. S., & Zambrano Quezada, H. (2016). Coherencia evaluativa en formación universitaria por competencias: estudio en futuros educadores en Chile. Infancias Imágenes, 15(1), 9-26. https://doi.org/10.14483/udistrital.jour.infimg.2016.1.a01
Morgan, H. (2022). Conducting a Qualitative Document Analysis [La realización de un análisisdocumental cualitativo]. The Qualitative Report, 27(1), 64-77. https://doi.org/10.46743/2160-3715/2022.5044
Mthuli, S. A., Ruffin, F., & Singh, N. (2022). 'Define, Explain, Justify, Apply' (DEJA): An analytic tool for guiding qualitative research sample size ['Definir, Explicar, Justificar, Aplicar' (DEJA): una herramienta analítica para orientar el tamaño de muestra en investigación cualitativa]. International Journal of Social Research Methodology, 25(6), 809-821. https://doi.org/10.1080/13645579.2021.1941646
Mustafidah, H., Suwarsito, S., & Pinandita, T. (2022). Natural Language Processing for Mapping Exam Questions to the Cognitive Process Dimension [Procesamiento del lenguaje natural para mapear preguntas de examen a la dimensión del proceso cognitivo]. International Journal of Emerging Technologies in Learning, 17(13), 4-16. https://doi.org/10.3991/ijet.v17i13.29095
Navas-Ríos, M. E., & Ospina-Mejía, J. O. (2020). Diseño Curricular por Competencias en Educación Superior. La Experiencia de Dos Universidades en Colombia. Saber, Ciencia y Libertad, 15(2), 195-217. https://doi.org/10.18041/2382-3240/saber.2020v15n2.6729
Neagley, R., & Evans, N. (1980). Handbook for Effective Curriculum Development [Manual para el desarrollo curricular efectivo] (3a ed.). Prentice-Hall.
Noble, C., Ajjawi, R., Billett, S., & Goldszmidt, M. (2025). How to Approach Qualitative Observational Research in Workplace Learning [Cómo abordar la investigación observacional cualitativa en el aprendizaje en el lugar de trabajo]. The Clinical Teacher, 22(1), Article e70096. https://doi.org/10.1111/tct.70005
Ochoa Jaramillo, J., Sambache Quinatoa, E. I., Mera Tigua, E., & Márquez Ruiz, Á. (2025). La tendencia del currículo por competencias, una comparación desde las evaluaciones de ingreso a las universidades ecuatorianas. Revista Social Fronteriza, 5(1). https://doi.org/10.59814/resofro.2025.5(1)614
Patil, J., Latha, S., Patil, V., & Hugar, L. (2023). Competency-based medical education: Perception and challenges among students [Educación médica basada en competencias: percepciones y desafíos entre los estudiantes]. Journal of Datta Meghe Institute of Medical Sciences University, 18(1), 63-69. https://doi.org/10.4103/jdmimsu.jdmimsu_551_22
Patton, M. Q. (2002). Qualitative research and evaluation methods [Métodos de investigación y evaluación cualitativa] (3a ed.). Sage Publications.
Peterson, L. T., & Lundquist, M. (2021). Competency as Outcome and Process through Transformative Learning Experiences [La competencia como resultado y proceso a través de experiencias de aprendizaje transformador]. Journal of Teaching in Social Work, 41(4), 373-388. https://doi.org/10.1080/08841233.2021.1946234
Pinto-Delacadena, P. A., Liern, V., Acosta-Vargas, P., & Vinueza-Cabezas, A. (2024). A multicriteria approach to ranking Latin-American universities based on region-specific criteria [Un enfoque multicriterio para la clasificación de universidades latinoamericanas basado en criterios específicos de la región]. Technological Forecasting and Social Change, 208, Article123725. https://doi.org/10.1016/j.techfore.2024.123725
Ramavat, M., Prajapati, T., & Akhani, P. N. (2024). Analysis of physiology theory question papers for competency-based medical education implementation in Gujarat: A pilot study [Análisis de los exámenes teóricos de fisiología para la implementación de la educación médica basada en competencias en Gujarat: un estudio piloto]. Cureus, 16(7), Article e65642. https://doi.org/10.7759/cureus.65642
Richmond, G., Bartell, T., Carter Andrews, D. J., & Neville, M. L. (2019). Reexamining Coherence in Teacher Education [Reexaminando la coherencia en la formación docente]. Journal of Teacher Education, 70(3), 188–191. https://doi.org/10.1177/0022487119838230
Rodríguez Rincón, Y., Munárriz, A., & Magreñán Ruiz, A. (2024). A new approach to continuous assessment: Moving from a stressful sum of grades to meaningful learning through self-reflection [Un nuevo enfoque de la evaluación continua: de una suma estresante de calificaciones al aprendizaje significativo mediante la autorreflexión]. International Journal of Management Education, 22(3), Article 101072 https://doi.org/10.1016/j.ijme.2024.101072
Sánchez, G. I., & Jara, X. E. (2021). Evaluation Paradoxes in the Context of Competency-based Models. Students' Voices [Paradojas de la evaluación en el contexto de los modelos basados en competencias. Las voces de los estudiantes]. Formación Universitaria, 14(3), 75-84. https://doi.org/10.4067/S0718-50062021000300075
Shah, N., Gupta, P., & Singh, T. (2024). Skill or Competency: What Should we be Assessing? [¿Habilidad o competencia: qué deberíamos estar evaluando?]. Indian Pediatrics, 61(5), 463-468. https://doi.org/10.1007/s13312-024-3135-y
Stake, R. (1995). The Art of Case Study [El arte del estudio de caso]. Sage.
Stenhouse, L. (2003). Investigación y Desarrollo del Curriculum (5a ed.). Ediciones Morata.
Tomiak, A., Linford, G., McDonald, M., Willms, J., & Hammad, N. (2022). Implementation of Competency-Based Medical Education in a Canadian Medical Oncology Training Program: a First Year Retrospective Review [Implementación de la educación médica basada en competencias en un programa canadiense de formación en oncología médica: una revisión retrospectiva del primer año]. Journal of Cancer Education, 37(3), 852-856. https://doi.org/10.1007/s13187-020-01895-y
Van der Linden, J., Van der Vleuten, C., Nieuwenhuis, L., & Van Schilt-Mol, T. (2023). Formative Use of Assessment to Foster Self-Regulated Learning: the Alignment of Teachers' Conceptions and Classroom Assessment Practices [Uso formativo de la evaluación para fomentar el aprendizaje autorregulado: la alineación entre las concepciones docentes y las prácticas de evaluación en el aula]. Journal of Formative Design in Learning, 7(2), 195-207. https://doi.org/10.1007/s41686-023-00082-8
Vela Murillo, N. P., Ríos Martínez, G. B., & Arboleda Fernández, G. C. (2022). Geometrías del poder: contextos laborales en las universidades públicas colombianas. Nómadas, (56), 35-47. https://doi.org/10.30578/nomadas.n56a2
Walsh, C. (2009). Interculturalidad crítica y pedagogía decolonial: in-surgir, re-existir y re-vivir. En P. Melgarejo (Comp.), Educación intercultural en América Latina: memorias, horizontes históricos y disyuntivas políticas (pp. 25-52). Universidad Pedagógica Nacional; Plaza y Valdés.
Wentzell, D. D., Chung, H., Hanson, C., & Gooi, P. (2020). Competency-based medical education in ophthalmology residency training: a review [La educación médica basada en competencias en la formación de residentes en oftalmología: una revisión]. Canadian Journal of Ophthalmology, 55(1), 12-19. https://doi.org/10.1016/j.jcjo.2019.07.004
Westermann, C. M., & Bok, H. G. J. (2023). A decade of experience in high-stakes decision-making in competency-based education [Una década de experiencia en la toma de decisiones de alto impacto en la educación basada en competencias]. Journal of the American Veterinary Medical Association, 261(7), 1076. https://doi.org/10.2460/javma.23.05.0247
Información adicional
redalyc-journal-id: 1942