Escritura académica por competencias en BGU: del borrador a la publicación.

Autores/as

DOI:

https://doi.org/10.64747/fdgdj573

Palabras clave:

escritura académica, evaluación formativa, rúbricas analíticas, educación secundaria, Galápagos

Resumen

El estudio evalua el efecto de un itinerario de escritura académica por competencias—planeación guiada, borradores iterativos, evaluación formativa con rúbricas y preparación editorial—sobre el desempeño escrito y la autorregulación en estudiantes de 1.º–3.º de BGU de Galápagos. Se aplicó un estudio cuasi‑experimental con grupos no equivalentes (24 cursos; n = 782) y mediciones T0–T1 (opcional T2). Se integraron datasets del MINEDUC, registros administrativos (Carmenta) y productos de escritura (versionado y trazas de feedback). El análisis combinó diferencias‑en‑diferencias y modelos lineales multinivel (GLMM), mediación multinivel por participación en co/auto‑evaluación, y triangulación cualitativa de entrevistas y comentarios. La interacción Tratamiento×Tiempo fue de ≈ +5,2 puntos (0–100), con d ≈ 0,46. Hubo ganancias mayores en evidencia/citación y organización retórica. El cumplimiento integral de convenciones editoriales (APA/IMRyD) aumentó con OR ≈ 3,1. La autorregulación mejoró 0,26 DE (DiD estandarizada). La participación en co/auto‑evaluación mostró mediación parcial (efecto indirecto estandarizado ≈ 0,12). Los efectos fueron consistentes por curso y género, con mayor beneficio en el tercil basal inferior. La evidencia cualitativa corroboró alineación de expectativas mediante rúbricas y agencia autoral asociada a la publicación escolar.El itinerario “del borrador a la publicación” produce mejoras educativas significativas y transferibles en BGU, especialmente en criterios de alto nivel (organización y uso de evidencia) y en la adopción de estándares editoriales. Se recomienda institucionalizar secuencias con tiempo protegido de revisión, rúbricas compartidas y canales de difusión escolar.El modelo integra métricas de proceso (densidad y foco del feedback, tasa de revisión significativa) y análisis multinivel reproducible, aportando una vía practicable para evaluaciones en contextos reales.

Referencias

Angrist, J. D., & Pischke, J.-S. (2009). Mostly harmless econometrics: An empiricist’s companion. Princeton University Press. https://doi.org/10.2307/j.ctvcm4j72

Austin, P. C. (2009). Balance diagnostics for comparing the distribution of baseline covariates between treatment groups in propensity-score matched samples. Statistics in Medicine, 28(25), 3083–3107. https://doi.org/10.1002/sim.3697

Austin, P. C. (2011). An introduction to propensity score methods for reducing the effects of confounding in observational studies. Multivariate Behavioral Research, 46(3), 399–424. https://doi.org/10.1080/00273171.2011.568786

Bates, D., Mächler, M., Bolker, B., & Walker, S. (2015). Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67(1), 1–48. https://doi.org/10.18637/jss.v067.i01

Benjamini, Y., & Hochberg, Y. (1995). Controlling the false discovery rate: A practical and powerful approach to multiple testing. Journal of the Royal Statistical Society: Series B (Methodological), 57(1), 289–300. https://doi.org/10.1111/j.2517-6161.1995.tb02031.x

Braun, V., & Clarke, V. (2019). Reflecting on reflexive thematic analysis. Qualitative Research in Sport, Exercise and Health, 11(4), 589–597. https://doi.org/10.1080/2159676X.2019.1628806

Callaway, B., & Sant’Anna, P. H. C. (2021). Difference-in-differences with multiple time periods. Journal of Econometrics, 225(2), 200–230. https://doi.org/10.1016/j.jeconom.2020.12.001

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2.ª ed.). Routledge. https://doi.org/10.4324/9780203771587

de Chaisemartin, C., & D’Haultfœuille, X. (2020). Two-way fixed effects estimators with heterogeneous treatment effects. American Economic Review, 110(9), 2964–2996. https://doi.org/10.1257/aer.20181169

Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. https://doi.org/10.3102/003465430298487

Hedges, L. V., & Hedberg, E. C. (2007). Intraclass correlation values for planning group-randomized trials in education. Educational Evaluation and Policy Analysis, 29(1), 60–87. https://doi.org/10.3102/0162373707299706

Karaman, P. (2024). Effects of using rubrics in self-assessment with instructor feedback on pre-service teachers’ academic performance, self-regulated learning and perceptions of self-assessment. European Journal of Psychology of Education. Advance online publication. https://doi.org/10.1007/s10212-024-00867-w

Panadero, E., & Jönsson, A. (2020). A critical review of the arguments against the use of rubrics. Educational Research Review, 30, 100329. https://doi.org/10.1016/j.edurev.2020.100329

Panadero, E., Jönsson, A., & Botella, J. (2017). Effects of self-assessment on self-regulated learning and self-efficacy: Four meta-analyses. Educational Research Review, 22, 74–98. https://doi.org/10.1016/j.edurev.2017.08.004

Panadero, E., Piniero, E., & Fernández-Castilla, B. (2023). Effects of rubrics on academic performance, self-regulated learning, and self-efficacy: A meta-analytic review. Educational Psychology Review, 35(1), 113–152. https://doi.org/10.1007/s10648-023-09823-4

Preacher, K. J., Zyphur, M. J., & Zhang, Z. (2010). A general multilevel SEM framework for assessing multilevel mediation. Psychological Methods, 15(3), 209–233. https://doi.org/10.1037/a0020141

Rosenbaum, P. R., & Rubin, D. B. (1983). The central role of the propensity score in observational studies for causal effects. Biometrika, 70(1), 41–55. https://doi.org/10.1093/biomet/70.1.41

González Ortega, M. de J., & Ramos Rosero, M. Y. (2025). Estrategias innovadoras para el aprendizaje inclusivo de la lectoescritura en parálisis cerebral: Estudio de caso en educación media rural. Horizonte Científico International Journal, 3(2), 1–12. https://doi.org/10.64747/m710ss96

Hidalgo, M. A. A., Serrano Toala, C. M., Alava Chasi, J. M., & Quilumba Abril, T. M. (2025). Desempeño lector y equidad en la Educación Básica Superior: Evidencia desde la evaluación Ser Estudiante en el Ecuador. Horizonte Científico International Journal, 3(2), 1–20. https://doi.org/10.64747/cq73z358

Rodríguez Ruiz, M. F., & Posligua Garcia, D. M. (2025). Evaluación formativa con rúbricas digitales en Ciencias Naturales: Impacto en aprendizaje por indagación en 7.º–10.º EGB. Horizonte Científico Educativo International Journal, 1(2), 1–18. https://doi.org/10.64747/emgnq4112

Bates, D., & Walker, S. (2014). Fitting linear mixed-effects models using lme4 (arXiv Version). arXiv. https://doi.org/10.48550/arXiv.1406.5823

Goodman-Bacon, A. (2021). Difference-in-differences with variation in treatment timing. Journal of Econometrics, 225(2), 254–277. https://doi.org/10.1016/j.jeconom.2021.03.014

Pischke, J.-S. (2019). Differences-in-differences (Lecture notes). London School of Economics. https://doi.org/10.2139/ssrn.3453819

Descargas

Publicado

2025-12-22

Cómo citar

Chico Castro, C. V., Valverde Narvaez, W. G., Maroto Balseca, E. S., & Paucar Taco, M. V. (2025). Escritura académica por competencias en BGU: del borrador a la publicación. Horizonte Cientifico International Journal, 3(2), 1-18. https://doi.org/10.64747/fdgdj573