Análisis de las pruebas externas de evaluación de la competencia científico-tecnológica de 6.º de Educación Primaria en España (2016)

  1. Martín Páez, Tobías 1
  2. Carrillo Rosúa, Francisco Javier 1
  3. Lupiáñez Gómez, José Luis 1
  4. Vílchez González, José Miguel 1
  1. 1 Universidad de Granada
    info

    Universidad de Granada

    Granada, España

    ROR https://ror.org/04njjy449

Revista:
Enseñanza de las ciencias: revista de investigación y experiencias didácticas

ISSN: 0212-4521 2174-6486

Año de publicación: 2019

Volumen: 37

Número: 2

Páginas: 127-149

Tipo: Artículo

DOI: 10.5565/REV/ENSCIENCIAS.2632 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Enseñanza de las ciencias: revista de investigación y experiencias didácticas

Objetivos de desarrollo sostenible

Resumen

This article presents a documentary analysis focused on the external tests assessing the scientific and technological competence in the sixth year of Primary Education from three different points of view. Firstly, we pay attention to its adjustment and adaptation to the variables of the reference theoretical frameworks; secondly, we characterize the presence of scientific and technological competence in the tests and, thirdly, we determine the relationships between the variables and the evaluated competence. 169 activities have been analyzed through triangulation among experts. The results show that the adjustment to the theoretical framework is weak and that the applied competence requires scarce interpretation of data and research design. Finally, there is a symmetrical and positive relationship between cognitive demands and competence level.

Información de financiación

El artículo ha sido apoyado por el proyecto EDU2015-70565-P financiado por el Ministerio de Economía y Competitividad de España. Al Ministerio de Educación, Cultura y Deporte, por la concesión de la ayuda FPU15/04972 en la que se enmarca la investigación. Los comentarios y sugerencias de dos revisores anónimos han mejorado apreciablemente la versión original del presente trabajo.

Referencias bibliográficas

  • Acevedo, J. A. (2005). timss y pisa. Dos proyectos internacionales de evaluación del aprendizaje escolar en Ciencias. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 2(3), 282-301. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2005.v2.i3.01
  • Álvarez, P. (2016, December 16). La educación española se estanca en Ciencias y Matemáticas y mejora levemente en lectura. El País. Recuperado de: http://www.webcitation.org/73jSwvuqO
  • Anagnostopoulou, K., Hatzinikita, V., Christidou, V. y Dimopoulos K. (2013). pisa Test Items and School-Based Examinations in Greece: Exploring the relationship between global and local assessment discourses. International Journal of Science Education, 35(4), 636-662. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2005.v2.i3.01
  • Babaci-Wilhite, Z. (Ed.) (2016). Human rights in language and stem education: science, technology, engineering and mathematics. Boston, ma: Sense Publishers.
  • Benavides, M., León, J. y Etesse, M. (2014). Desigualdades educativas y segregación en el sistema educativo peruano. Una mirada comparativa de las pruebas pisa 2000 y 2009. Lima: Grupo de Análisis para el Desarrollo (grade).
  • Berube, C. T. (2014). stem and the city: a report on stem education in the great American urban public school system. Charlotte, nc: Information Age Publishing.
  • Black, P. y Wiliam, D. (2018). Classroom assessment and pedagogy. Assessment in Education: Principles, Policy y Practice, 1-25. https://doi.org/10.1080/0969594x.2018.1441807
  • Bybee, R. W. (1997). Achieving scientific literacy: From purposes to practices. Portsmouth, nh: Heinemann.
  • Caraballo, R., Rico, L. y Lupiáñez, J. L. (2013). Cambios conceptuales en el marco teórico competencial de pisa: el caso de las Matemáticas. Profesorado. Revista de Curriculum y Formación de Profesorado, 17(2), 225-241.
  • Coughlan, S. (2016, December 6). Pisa tests: Singapore top in global education rankings. bbc. Recuperado de: http://www.webcitation.org/73jTJnUyO
  • Couso, D. (2014). De la moda de «aprender indagando» a la indagación para modelizar: una reflexión crítica. XXVI Encuentro de Didáctica de las Ciencias Experimentales. Huelva (Andalucía).
  • Custodio Fitó, E., Márquez, C. y Sanmartí, N. (2015). Aprender a justificar científicamente a partir del estudio del origen de los seres vivos. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 33(2), 133. https://doi.org/10.5565/rev/ensciencias.1316
  • Feinstein, N. W. (2011). Salvaging science literacy. Science Education, 95(1), 168-185. https://doi.org/10.1002/sce.20414
  • Fensham, P. J. (1985). Science for all: A reflective essay. Journal of Curriculum Studies, 17, 415-435. https://doi.org/10.1080/0022027850170407
  • Furió, C., Vilches, A., Guisasola, J. y Romo, V. (2001). Finalidades de la enseñanza de las Ciencias en la Secundaria Obligatoria. ¿Alfabetización científica o preparación propedéutica? Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 19(3), 365-376.
  • Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M.-P., Serván, M., Yus, R. y Barquín, J. (2010). pisa y la Competencia Científica: Un análisis de las pruebas de pisa en el área de ciencia. Relieve, 16(2), 1-17. https://doi.org/10.7203/relieve.16.2.4138
  • Gallardo-Gil, M., Mayorga-Fernández, M. J. y Sierra-Nieto, J. E. (2014). La competencia de «conocimiento e interacción con el mundo físico y natural»: Análisis de las pruebas de evaluación de diagnóstico de Andalucía. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 11(2), 160-180. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2014.v11.i2.04
  • Goodman, L. A. y Kruskal, W. H. (1963). Measures of Association for Cross Classifications III: Approximate Sampling Theory. Journal of the American Statistical Association, 58(302), 310-364. https://doi.org/10.1007/978-1-4612-9995-0_3
  • Hackling, M. W., Ramserger, J. y Chen, H. L. S. (2017). Quality Teaching in Primary Science Education. Basel: Springer. https://doi.org/10.1007/978-3-319-44383-6
  • Hatzinikita, V., Dimopoulos, K. y Christidou, V. (2008). pisa test items and school textbooks related to science: a textual comparison. Science Education, 92, 664-687. https://doi.org/10.1002/sce.20256
  • Hernández, M. I., Couso, D. y Pintó, R. (2015). Analyzing students’ learning progressions throughout a teaching sequence on Acoustic Properties of Materials with a model-based inquiry approach. Journal of Science Education and Technology, 24(2), 356-377. https://doi.org/10.1007/s10956-014-9503-y
  • Hodson, D. y Reid, D. J. (1988). Science for all: motives, meanings and implications. School Science Review, 69, 653-661.
  • Jiménez-Aleixandre, M. P. (2011). 10 ideas clave. Competencias en argumentación y uso de pruebas. Educatio Siglo XXI, 29(1), 363-366.
  • Jerrim, J., López-Agudo, L. A., Marcenaro-Gutiérrez, O. D. y Shure, N. (2017). What happens when econometrics and psychometrics collide? An example using the pisa data. Economics of Educational Review, 61(1), 51-58. https://doi.org/10.1016/j.econedurev.2017.09.007
  • Kuglitsch, R. (2015). Teaching for Transfer: Reconciling the Framework with Disciplinary Information Literacy. Libraries and the Academy, 15(3), 457-470. https://doi.org/10.1353/pla.2015.0040
  • Kwak, Y. (2017). Analysis of Features of Korean Fourth Grade Students’ timss Science Achievement in Content Domains with Curriculum Change. Journal of the Korean Association for in Science Education, 37(4), 599-609.
  • Lau, K. C. (2009). A critical examination of pisa’s assessment on scientific literacy. International Journal of Science and Mathematics Education, 7, 1061-1088. https://doi.org/10.1007/s10763-009-9154-2
  • Lee, O. (2017). Common Core State Standards for ela/Literacy and Next Generation Science Standards: Convergences and Discrepancies Using Argument as an Example. Educational Researcher, 46(2), 90-102. https://doi.org/10.3102/0013189x17699172
  • Leguilloux, C. (2018, February 22). L’Education nationale est-elle incapable de s’évaluer. Boursier. Recuperado de: http://www.webcitation.org/73jTSJEwF
  • Martin, A., Gómez, R. y Verde, E. (2017). Primary and Secondary Physical Education: comparative analysis about teacher and students interaction. Profesorado. Revista de Curriculum y Formacion de Profesorado, 21(2), 253-270.
  • Martin, M. O., Mullis, I. V. S., Foy, P. y Hooper, M. (2015). timss 2015 International Results in Science. Boston: International Association for the Evaluation.
  • Mayring, P. (2017). Evidence triangulation in health research The combination of experimental, descriptive and content-analytical approaches. Kolner Zeitschrift Fur Soziologie und Sozialpsychologie, 69(2), 415-434.
  • MECD (2014). Real Decreto 126/2014, de 28 de febrero, por el que se establece el currículo básico de la Educación Primaria (2014). Recuperado de: https://www.boe.es/buscar/pdf/2014/BOE-A-2014-2222-consolidado.pdf
  • MECD (2015). Marco General de la evaluación final de Educación Primaria. Recuperado de: http://www.mecd.gob.es/dctm/inee/evaluacionfinalprimaria/marco-teorico-evaluacion-final-6ep.pdf?documentId=0901e72b81ceacce
  • MECD (2015). Orden ECD/65/2015, de 21 de enero, por la que se describen las relaciones entre las competencias, los contenidos y los criterios de evaluación de la educación primaria, la educación secundaria obligatoria y el bachillerato. Recuperado de: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2015-738
  • MECD (2015). Prueba de la competencia en ciencia y Tecnología. Recuperado de: http://www.mecd.gob.es/dctm/inee/evaluacionsextoprimaria/pruebamodelo6epcyt.pdf?documentId=0901e72b81d3c84f
  • Mihladiz, G. y Dogan, A. (2017). Investigation of the Pre-service Science Teachers’ Pedagogical Content Knowledge about the Nature of Science. Hacettepe Universitesi Egitim Fakultesi Dergisi-Hacettepe University Journal of Education, 32(2), 380-395.
  • OCDE (2017). pisa 2015 Science Framework. En pisa 2015 Assessment and Analytical Framework: Science, Reading, Mathematics, Financial Literacy and Collaborative Problem Solving. oecd Publishing: Paris. https://doi.org/10.1787/9789264281820-3-en
  • OCDE (2018). What do science teachers find most satisfying about their work? pisa in Focus, 81(1), 1-7. https://doi.org/10.1787/3e711a23-en
  • Ouariachi, T., Olvera-Lobo, M. D. y Gutiérrez-Pérez, J. (2017). Evaluation of online games for teaching and learning on climate change. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 35(1), 193. https://doi.org/10.5565/rev/ensciencias.2088
  • Pholphirul, P. (2017). Pre-primary education and long-term education performance: Evidence from Programme for International Student Assessment (pisa) Thailand. Journal of Early Childhood Reseach, 15(4), 410-432. https://doi.org/10.1177/1476718x15616834
  • Pinar, S. C. y Gülüzar, E. (2017). Developing Students’ Scientific Writing and Presentation Skills through Argument Driven Inquiry: An Exploratory Study. Journal of Chemical Education, 94, 837-843. https://doi.org/10.1021/acs.jchemed.6b00915
  • Roberts, D. A. (2007). Scientific literacy/science literacy. En S. K. Abell y N. G. Lederman (Eds.), Handbook of research on science education (pp. 729-780). Mahwah: Lawrence Erlbaum Associates.
  • Sampson, V., Grooms, J. y Walker, J. P. (2011). Argument‐Driven Inquiry as a way to help students learn how to participate in scientific argumentation and craft written arguments: An exploratory study. Science Education, 95(2), 217-257. https://doi.org/10.1002/sce.20421
  • Sanmartí, N. (2007). Evaluar para aprender: 10 ideas claves. Barceló: Graó.
  • Santos, A. (2016, December 22). cc. oo. y ugt rechazan el informe de la Comunidad sobre el bilingüismo. El País. Recuperado de: http://www.webcitation.org/73jTqGLHD
  • Sjøberg, S. (2015). Foreword. En E. K. Henriksen, J. Dillon y J. Ryder (Eds.), Understanding student participation and choice in Science and Techonology education (pp. 5-7). Dordrecht: Springer.
  • Sjöström, J., Eilks, I. y Zuin, V. G. (2016). Towards eco-reflexive science education. Science y Education, 25(3), 321-341. https://doi.org/10.1007/s11191-016-9818-6
  • Solano-Flores, G., Contreras-Niño, L. A. y Backhoff-Escudero, E. (2006). Traducción y adaptación de pruebas: Lecciones aprendidas y recomendaciones para países participantes en timss, pisa y otras comparaciones internacionales. Revista Electrónica de Investigación Educativa, 8(2), 1-21.
  • Stanley, G., MacCann, R., Gardner, J., Reynolds, L. y Wild, I. (2009). Review of teacher assessment: what works best and issues for development. Oxford University Centre for Educational Development.
  • Teixeira, E. S. y Greca, I. M. (2015). La enseñanza de la gravitación universal de Newton orientada por la historia y la filosofía de la ciencia: una propuesta didáctica con un enfoque en la argumentación. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 1, 205-223. https://doi.org/10.5565/rev/ensciencias.1226
  • Vidal, R., Díaz, M. A. y Jarquín, H. (2004). Resultados de las pruebas pisa 2000 y 2003 en México: habilidades para la vida en estudiantes de 15 años. Madrid: inee.
  • Yus Ramos, R., Fernández Navas, M., Gallardo Gil, M., Barquín Ruiz, J., Sepúlveda Ruiz, M. P. y Serván Núñez, M. J. (2013). La competencia científica y su evaluación. Análisis de las pruebas estandarizadas de pisa. Revista de Educación, 360, 557-576. http://doi.org/10.4438/1988-592X-RE-2011-360-127