Evaluation of research and postgraduate activities. An experience under a comprehensive model
Main Article Content
Abstract
This article focuses on the development of a proposal for the academic evaluation in higher education. Based on the institutional need of the Autonomous University of Baja California (UABC), Mexico, we developed an evaluation mechanism for its academic staff in their research and postgraduate activities, focused on offering feedback to improve academic work. Considering the need to take into account more robust indicators than scientific productivity by itself, we decided to use the comprehensive evaluation model to define the evaluation areas, based on the experience and needs of the community. Through the participation of 579 academics based on an open survey, the categories and indicators to be evaluated were defined, which are intended to reflect the demands of the particular context of the participating academics. We performed an inductive content analysis of the responses obtained; derived from this, we defined an evaluation mechanism that suggests the use of three instruments: Self-assessment guide; interview guide; and, Questionnaire for students. Each instrument was reviewed by experts from the university community to assess its possibility of application in all university areas. As a result, we obtained a proposal for an evaluation mechanism based on collegiality, thus coinciding with the comprehensive perspective, which aims to reflect the diversity of the university community and the complexity involved in carrying out academic activities in the field of postgraduate and research.
Keywords:
Downloads
Metrics
Article Details
References
Buendía, A., García, S., Grediaga, R., Landesmann, M., Rodríguez-Gómez, R., Rondero, N., Rueda, M. y Vera, H. (2017). Queríamos evaluar y acabamos contando: alternativas para la evaluación del trabajo académico. Perfiles educativos, 39(157). 200-219.
Cordero, G., Galaz, J. y Sevilla, J. (2003). Evaluación de la diversidad del trabajo académico: los programas de estímulo de la UABC: 1990-2002. México: UABC-ANUIES.
Didier, N. (2014). Capital humano nominal, empleabilidad y credencialismo. Revista Iberoamericana de Psicología, 7(2), 19-27.
Escobar-Pérez, J. y Cuervo-Martínez, A. (2008). Validez de contenido y juicio de expertos: una aproximación a su utilización. Avances en medición, 6. 27-36.
Follari, R. (1999). Aspectos teóricos metodológicos sobre evaluación de la función investigación en las universidades. Comisión Nacional de Evaluación y Acreditación Universitaria: Buenos Aires.
Fontes, J., Stack, J. y Antón, M. (2020). The emergence of the New Mexican academic meritocracy. Higher Education Governance and Policy, 1(2), 138-151.
Franco-López, A., Sanz-Valero, J. y Culebras, J. (2017). El factor de impacto ya no es el patrón de oro; la declaración de San Francisco sobre evaluación de la investigación. Journal of negative & no positive results, 2(5). 173-176.
Jiménez, A. (2019). El Sistema Nacional de Investigadores en México como mecanismo meritocrático de un Estado Evaluador. Reflexión política, 21(41). https://doi.org/10.29375/01240781.2850
Kane, M (2011). Content-related validity evidence in test development. En: Downing, S y Haldyna, T. (Coords.). Handbook of test develpoment. Lawrence Erlbaum Associates: New Jersey. 131-154.
Martínez, R., Hernández, M. y Hernández, J. (2014). Psicometría. Madrid: Alianza.
Negrete, R., Moctezuma, P., Mungaray, A., y Burgos, B. (2021). El impacto del Programa para el Desarrollo Profesional Docente en la construcción de capacidades académicas de la Universidad Autónoma de Baja California. Revista de la Educación Superior, 50(197). 77-95. http://resu.anuies.mx/ojs/index.php/resu/article/view/1580
Oztaysi, B., Onar, S., Goztepe, K. y Kahraman, C. (2017). Evaluation of research proposals for grant funding using interval-valued institutionistic fuzzy sets. Soft Comput, 21. 1203-1218.
Park, H. y Woo, H. (2018). Research evaluation of Asian countries using altmetrics: comparing South Korea, Japan, Taiwan, Singapore and China. Scientometrics, 117. 771-788.
Quecedo, R. y Castaño, C. (2002). Introducción a la metodología de investigación cualitativa. Revista de Psicodidáctica, 14, pp. 5-39.
Henríquez, P., Boroel, B. y Arámburo, V. (2020). Percepciones docentes en torno a la evaluación del aprendizaje en el nivel educativo superior: el caso de la UABC (México) y la UCM (España). Actualidades Investigativas en Educación, 20(1).
Rueda, M. (2018). Los retos de la evaluación docente en la universidad. Publicaciones, 48(1). 171-192.
Saldaña, J. (2015). The coding manual for qualitative researchers. California: Sage.
San Fabián, J. (2020). El reconocimiento de la actividad investigadora universitaria como mecanismo de regulación del mercado académico. Márgenes, 1(1), 23-44 DOI: http://dx.doi.org/10.24310/mgnmar.v1i1.7208
Scriven, M. (2007). The logic of evaluation. In H.V. Hansen, et. al. (Eds), Dissensus and the Search for Common Ground. (pp. 1-16). Windsor, ON: OSSA.
Stake, R. (2006). Evaluación comprensiva y evaluación basada en estándares. México: Graó.
Universidad Autónoma de Baja California [UABC] (2016). Código de ética universitario. Mexicali: UABC. Disponible en: https://bit.ly/3JiktKR
Universidad Autónoma de Baja California [UABC] (2018). Modelo Educativo de la UABC. Mexicali: UABC. Disponible en: https://bit.ly/3q8MoW8
Vasen, F. (2018). La ‘Torre de marfil’ como apuesta segura: políticas científicas y evaluación académica en México. Archivos Analíticos de Políticas Educativas, 26(96). http://dx.doi.org/10.14507/epaa.v26.3594
Vázquez, J. e Hirales, M. (2018). Desempeño del personal académico: notas para comprender resultados de un programa de evaluación del profesorado universitario. Ponencia presentada en el Congreso Internacional de Educación y Aprendizaje. Disponible en: https://bit.ly/3KKGlid
Vera, H. y González-Ledesma, M. (2018). Calidad y evaluación: matrimonio del cielo y el infierno. Perfiles educativos, 40(Especial), 53-97.