IA generativa en Lengua y Literatura: impacto en la escritura argumentativa y la detección de plagio en colegios fiscales urbanos de Guayaquil
DOI:
https://doi.org/10.64747/sfe6qg28Palabras clave:
IA generativa, escritura argumentativa, educación general básica, integridad académica, GuayaquilResumen
Este estudio examina el impacto de una intervención breve con inteligencia artificial generativa (IAG) —restringida a funciones metacognitivas de ideación, diagnóstico y revisión— sobre la calidad de la escritura argumentativa en Educación General Básica (EGB) de colegios fiscales urbanos del Ecuador. Se empleó un diseño cuasi‑experimental por conglomerados con medidas pretest–postest y grupo control activo. La muestra final incluyó 8 aulas (N = 236). El grupo intervención realizó tres sesiones de escritura asistida por IAG sin generación de texto final; el control siguió prácticas tradicionales equivalentes. Los productos se calificaron en doble ciego mediante una rúbrica analítica de cuatro dimensiones (tesis/foco, evidencia/contraargumentación, cohesión‑coherencia, convenciones/voz). Se evaluó, además, un protocolo de integridad basada en proceso (PIBP) que exigió declaración de uso, trazabilidad de borradores y documentación de prompts. Los análisis ANCOVA con errores robustos por aula y modelos lineales mixtos mostraron un efecto moderado a favor de la intervención en el puntaje total ajustado (d ≈ 0.48; diferencia ≈ 1.26 puntos, IC95% [0.68, 1.84]; p < .001). Por dimensiones, las ganancias más altas se observaron en cohesión/coherencia y evidencia/contraargumentación. La interacción grupo × desempeño inicial fue significativa, con beneficios mayores para el tercil inferior (d ≈ 0.62). En percepciones, el grupo intervención reportó menor carga cognitiva y mayor utilidad del feedback. En integridad, el PIBP se asoció a una reducción de la coincidencia textual no atribuida (Δdif ≈ −2.2 puntos porcentuales; p = .002) frente al control. Se concluye que integrar IAG como mentor socrático que externaliza la metacognición —sin escribir por el estudiante— mejora la calidad de la argumentación y favorece la autoría responsable. Para sistemas escolares con aulas numerosas, el enfoque es viable y escalable si se acompaña de rúbricas explícitas y protocolos de transparencia del proceso.
Referencias
Alnemrat, A., Aldamen, H., Almashour, M., Al-Deaibes, M., & AlSharefeen, R. (2025). AI vs. teacher feedback on EFL argumentative writing: A quantitative study. Frontiers in Education, 10, 1614673. https://doi.org/10.3389/feduc.2025.1614673
Arce, C. M., Ureña, R., & Játiva, J. (2025). Attitudes toward AI and dependency among Ecuadorian university students: A predictive model. Sustainability, 17(17), 7741. https://doi.org/10.3390/su17177741
Ardito, C. G., Gopal, T., Ceppini, E., & Burnett, P. C. (2024). Generative AI detection in higher education assessments. New Directions for Teaching and Learning, 2024(180), 39–54. https://doi.org/10.1002/tl.20624
Baldeón Medina, P. J., González Yagual, T. B., Izquierdo Corozo, C. D., & Villalba Vélez, K. M. (2025). Aplicación de IA en Educación Básica para fortalecer el aprendizaje y la motivación escolar. Horizonte Científico International Journal, 3(2), 1–9. https://doi.org/10.64747/dbkg2w76
Banihashem, S. K., Nejati, R., Sadeghi, M. R., & Babaii, E. (2024). Feedback sources in essay writing: Peer-generated or AI-generated? International Journal of Educational Technology in Higher Education, 21, 26. https://doi.org/10.1186/s41239-024-00455-4
Bland, J. M., & Altman, D. G. (1986). Statistical methods for assessing agreement between two methods of clinical measurement. The Lancet, 327(8476), 307–310. https://doi.org/10.1016/S0140-6736(86)90837-8
Buele, J., Sabando-García, Á. R., Sabando-García, B. J., & Yánez-Rueda, H. (2025). Ethical use of generative artificial intelligence among Ecuadorian university students. Sustainability, 17(10), 4435. https://doi.org/10.3390/su17104435
Castro Macías, N. M. (2025). Aplicación de la inteligencia artificial como recurso para desarrollar pensamiento crítico en clases de Física. Horizonte Científico International Journal, 3(2), 1–19. https://doi.org/10.64747/7wvch719
Doshi, A. R., Yamauchi, T., Salehi, N., & Bernstein, M. S. (2024). Generative AI enhances individual creativity but reduces collaboration quality. Science Advances, 10(44), eadn5290. https://doi.org/10.1126/sciadv.adn5290
Faul, F., Erdfelder, E., Lang, A.-G., & Buchner, A. (2007). GPower 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39*(2), 175–191. https://doi.org/10.3758/BF03193146
Fleckenstein, J., Liebenow, L. W., & Meyer, J. (2023). Automated feedback and writing: A multi‑level meta‑analysis of effects on students’ performance. Frontiers in Artificial Intelligence, 6, 1162454. https://doi.org/10.3389/frai.2023.1162454
Galeas Gaibor, M. L., Meza Bravo, D. M., Ocampo Andrade, W. F., & Romero Arias, J. B. (2025). Aplicación de inteligencia artificial y gamificación para fortalecer el aprendizaje en estudiantes de básica en contextos rurales. Horizonte Científico International Journal, 3(2), 1–12. https://doi.org/10.64747/f718q395
Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. https://doi.org/10.3102/003465430298487
Huang, Y., Wu, C., & Lin, S. (2025). Exploring the effectiveness of large‑scale automated writing evaluation in education: A systematic review. Journal of Computer Assisted Learning, 41(3), 987–1005. https://doi.org/10.1111/jcal.70009
Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non‑native English writers. Patterns, 4(7), 100779. https://doi.org/10.1016/j.patter.2023.100779
Nature Machine Intelligence Editorial. (2023). The AI writing on the wall. Nature Machine Intelligence, 5(1), 1. https://doi.org/10.1038/s42256-023-00613-9
Nguyen, A., & Wang, X. (2024). Human–AI collaboration patterns in AI‑assisted academic writing. Studies in Higher Education, 49(10), 1991–2012. https://doi.org/10.1080/03075079.2024.2323593
Nordstokke, D. W., & Zumbo, B. D. (2010). A new nonparametric Levene test for equal variances. Psicologica, 31(2), 401–430. https://doi.org/10.2478/v10053-008-0081-1
Shrout, P. E., & Fleiss, J. L. (1979). Intraclass correlations: Uses in assessing rater reliability. Psychological Bulletin, 86(2), 420–428. https://doi.org/10.1037/0033-2909.86.2.420
The jamovi project. (2022). jamovi (Version 2.3) [Computer software]. https://doi.org/10.17605/OSF.IO/GXRQ9
Wisniewski, B., Zierer, K., & Hattie, J. (2020). The power of feedback revisited: A meta‑analysis of the effects of feedback in educational contexts. Educational Research Review, 30, 100331. https://doi.org/10.1016/j.edurev.2020.100331
Wilson, J., Zhang, F., Palermo, C., Cruz Cordero, T., Myers, M. C., Eacker, H., Potter, A., & Coles, J. (2024). Predictors of middle school students’ perceptions of automated writing evaluation. Computers & Education, 211, 104985. https://doi.org/10.1016/j.compedu.2023.104985
Xue, Y., Wang, Z., & Li, J. (2024). Towards automated writing evaluation: A comprehensive bibliometric review. Education and Information Technologies, 29(7), 8895–8919. https://doi.org/10.1007/s10639-024-12596-0
Zhai, N., Xie, F., Zou, D., & Wang, F. L. (2023). The effectiveness of automated writing evaluation on students’ writing: A meta‑analysis. Journal of Educational Computing Research, 61(2), 363–394. https://doi.org/10.1177/07356331221127300
Zhang, K. (2025). Enhancing critical writing through AI feedback: A randomized control study. Behavioral Sciences, 15(5), 600. https://doi.org/10.3390/bs15050600
