Análisis de las pruebas externas de evaluación de la competencia científico-tecnológica de 6.º de Educación Primaria en España (2016)

  1. Martín Páez, Tobías 1
  2. Carrillo Rosúa, Francisco Javier 1
  3. Lupiáñez Gómez, José Luis 1
  4. Vílchez González, José Miguel 1
  1. 1 Universidad de Granada
    info

    Universidad de Granada

    Granada, España

    ROR https://ror.org/04njjy449

Revista:
Enseñanza de las ciencias: revista de investigación y experiencias didácticas

ISSN: 0212-4521 2174-6486

Año de publicación: 2019

Volumen: 37

Número: 2

Páginas: 127-149

Tipo: Artículo

DOI: 10.5565/REV/ENSCIENCIAS.2632 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Enseñanza de las ciencias: revista de investigación y experiencias didácticas

Objetivos de desarrollo sostenible

Resumen

Este artículo presenta un análisis documental en el que se analizan las pruebas externas de evaluación de la competencia científica y tecnológica elaboradas para el sexto curso de Educación Primaria desde tres puntos de vista. Primero, su ajuste y adecuación a las variables de los marcos teóricos de referencia. Segundo, caracterizar la presencia de la competencia científica y tecnológica en las pruebas y, tercero, determinar las relaciones entre las variables y la competencia evaluada. Se han analizado 169 actividades mediante triangulación entre expertos. Los resultados muestran debilidad en el ajuste al marco teórico, y que la competencia aplicada exige escasa interpretación de datos y diseño de investigaciones. Finalmente, existe una relación simétrica y positiva entre demandas cognitivas y nivel competencial.

Información de financiación

El artículo ha sido apoyado por el proyecto EDU2015-70565-P financiado por el Ministerio de Economía y Competitividad de España. Al Ministerio de Educación, Cultura y Deporte, por la concesión de la ayuda FPU15/04972 en la que se enmarca la investigación. Los comentarios y sugerencias de dos revisores anónimos han mejorado apreciablemente la versión original del presente trabajo.

Referencias bibliográficas

  • Acevedo, J. A. (2005). timss y pisa. Dos proyectos internacionales de evaluación del aprendizaje escolar en Ciencias. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 2(3), 282-301. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2005.v2.i3.01
  • Álvarez, P. (2016, December 16). La educación española se estanca en Ciencias y Matemáticas y mejora levemente en lectura. El País. Recuperado de: http://www.webcitation.org/73jSwvuqO
  • Anagnostopoulou, K., Hatzinikita, V., Christidou, V. y Dimopoulos K. (2013). pisa Test Items and School-Based Examinations in Greece: Exploring the relationship between global and local assessment discourses. International Journal of Science Education, 35(4), 636-662. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2005.v2.i3.01
  • Babaci-Wilhite, Z. (Ed.) (2016). Human rights in language and stem education: science, technology, engineering and mathematics. Boston, ma: Sense Publishers.
  • Benavides, M., León, J. y Etesse, M. (2014). Desigualdades educativas y segregación en el sistema educativo peruano. Una mirada comparativa de las pruebas pisa 2000 y 2009. Lima: Grupo de Análisis para el Desarrollo (grade).
  • Berube, C. T. (2014). stem and the city: a report on stem education in the great American urban public school system. Charlotte, nc: Information Age Publishing.
  • Black, P. y Wiliam, D. (2018). Classroom assessment and pedagogy. Assessment in Education: Principles, Policy y Practice, 1-25. https://doi.org/10.1080/0969594x.2018.1441807
  • Bybee, R. W. (1997). Achieving scientific literacy: From purposes to practices. Portsmouth, nh: Heinemann.
  • Caraballo, R., Rico, L. y Lupiáñez, J. L. (2013). Cambios conceptuales en el marco teórico competencial de pisa: el caso de las Matemáticas. Profesorado. Revista de Curriculum y Formación de Profesorado, 17(2), 225-241.
  • Coughlan, S. (2016, December 6). Pisa tests: Singapore top in global education rankings. bbc. Recuperado de: http://www.webcitation.org/73jTJnUyO
  • Couso, D. (2014). De la moda de «aprender indagando» a la indagación para modelizar: una reflexión crítica. XXVI Encuentro de Didáctica de las Ciencias Experimentales. Huelva (Andalucía).
  • Custodio Fitó, E., Márquez, C. y Sanmartí, N. (2015). Aprender a justificar científicamente a partir del estudio del origen de los seres vivos. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 33(2), 133. https://doi.org/10.5565/rev/ensciencias.1316
  • Feinstein, N. W. (2011). Salvaging science literacy. Science Education, 95(1), 168-185. https://doi.org/10.1002/sce.20414
  • Fensham, P. J. (1985). Science for all: A reflective essay. Journal of Curriculum Studies, 17, 415-435. https://doi.org/10.1080/0022027850170407
  • Furió, C., Vilches, A., Guisasola, J. y Romo, V. (2001). Finalidades de la enseñanza de las Ciencias en la Secundaria Obligatoria. ¿Alfabetización científica o preparación propedéutica? Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 19(3), 365-376.
  • Gallardo-Gil, M., Fernández-Navas, M., Sepúlveda-Ruiz, M.-P., Serván, M., Yus, R. y Barquín, J. (2010). pisa y la Competencia Científica: Un análisis de las pruebas de pisa en el área de ciencia. Relieve, 16(2), 1-17. https://doi.org/10.7203/relieve.16.2.4138
  • Gallardo-Gil, M., Mayorga-Fernández, M. J. y Sierra-Nieto, J. E. (2014). La competencia de «conocimiento e interacción con el mundo físico y natural»: Análisis de las pruebas de evaluación de diagnóstico de Andalucía. Revista Eureka sobre Enseñanza y Divulgación de las Ciencias, 11(2), 160-180. https://doi.org/10.25267/rev_eureka_ensen_divulg_cienc.2014.v11.i2.04
  • Goodman, L. A. y Kruskal, W. H. (1963). Measures of Association for Cross Classifications III: Approximate Sampling Theory. Journal of the American Statistical Association, 58(302), 310-364. https://doi.org/10.1007/978-1-4612-9995-0_3
  • Hackling, M. W., Ramserger, J. y Chen, H. L. S. (2017). Quality Teaching in Primary Science Education. Basel: Springer. https://doi.org/10.1007/978-3-319-44383-6
  • Hatzinikita, V., Dimopoulos, K. y Christidou, V. (2008). pisa test items and school textbooks related to science: a textual comparison. Science Education, 92, 664-687. https://doi.org/10.1002/sce.20256
  • Hernández, M. I., Couso, D. y Pintó, R. (2015). Analyzing students’ learning progressions throughout a teaching sequence on Acoustic Properties of Materials with a model-based inquiry approach. Journal of Science Education and Technology, 24(2), 356-377. https://doi.org/10.1007/s10956-014-9503-y
  • Hodson, D. y Reid, D. J. (1988). Science for all: motives, meanings and implications. School Science Review, 69, 653-661.
  • Jiménez-Aleixandre, M. P. (2011). 10 ideas clave. Competencias en argumentación y uso de pruebas. Educatio Siglo XXI, 29(1), 363-366.
  • Jerrim, J., López-Agudo, L. A., Marcenaro-Gutiérrez, O. D. y Shure, N. (2017). What happens when econometrics and psychometrics collide? An example using the pisa data. Economics of Educational Review, 61(1), 51-58. https://doi.org/10.1016/j.econedurev.2017.09.007
  • Kuglitsch, R. (2015). Teaching for Transfer: Reconciling the Framework with Disciplinary Information Literacy. Libraries and the Academy, 15(3), 457-470. https://doi.org/10.1353/pla.2015.0040
  • Kwak, Y. (2017). Analysis of Features of Korean Fourth Grade Students’ timss Science Achievement in Content Domains with Curriculum Change. Journal of the Korean Association for in Science Education, 37(4), 599-609.
  • Lau, K. C. (2009). A critical examination of pisa’s assessment on scientific literacy. International Journal of Science and Mathematics Education, 7, 1061-1088. https://doi.org/10.1007/s10763-009-9154-2
  • Lee, O. (2017). Common Core State Standards for ela/Literacy and Next Generation Science Standards: Convergences and Discrepancies Using Argument as an Example. Educational Researcher, 46(2), 90-102. https://doi.org/10.3102/0013189x17699172
  • Leguilloux, C. (2018, February 22). L’Education nationale est-elle incapable de s’évaluer. Boursier. Recuperado de: http://www.webcitation.org/73jTSJEwF
  • Martin, A., Gómez, R. y Verde, E. (2017). Primary and Secondary Physical Education: comparative analysis about teacher and students interaction. Profesorado. Revista de Curriculum y Formacion de Profesorado, 21(2), 253-270.
  • Martin, M. O., Mullis, I. V. S., Foy, P. y Hooper, M. (2015). timss 2015 International Results in Science. Boston: International Association for the Evaluation.
  • Mayring, P. (2017). Evidence triangulation in health research The combination of experimental, descriptive and content-analytical approaches. Kolner Zeitschrift Fur Soziologie und Sozialpsychologie, 69(2), 415-434.
  • MECD (2014). Real Decreto 126/2014, de 28 de febrero, por el que se establece el currículo básico de la Educación Primaria (2014). Recuperado de: https://www.boe.es/buscar/pdf/2014/BOE-A-2014-2222-consolidado.pdf
  • MECD (2015). Marco General de la evaluación final de Educación Primaria. Recuperado de: http://www.mecd.gob.es/dctm/inee/evaluacionfinalprimaria/marco-teorico-evaluacion-final-6ep.pdf?documentId=0901e72b81ceacce
  • MECD (2015). Orden ECD/65/2015, de 21 de enero, por la que se describen las relaciones entre las competencias, los contenidos y los criterios de evaluación de la educación primaria, la educación secundaria obligatoria y el bachillerato. Recuperado de: https://www.boe.es/diario_boe/txt.php?id=BOE-A-2015-738
  • MECD (2015). Prueba de la competencia en ciencia y Tecnología. Recuperado de: http://www.mecd.gob.es/dctm/inee/evaluacionsextoprimaria/pruebamodelo6epcyt.pdf?documentId=0901e72b81d3c84f
  • Mihladiz, G. y Dogan, A. (2017). Investigation of the Pre-service Science Teachers’ Pedagogical Content Knowledge about the Nature of Science. Hacettepe Universitesi Egitim Fakultesi Dergisi-Hacettepe University Journal of Education, 32(2), 380-395.
  • OCDE (2017). pisa 2015 Science Framework. En pisa 2015 Assessment and Analytical Framework: Science, Reading, Mathematics, Financial Literacy and Collaborative Problem Solving. oecd Publishing: Paris. https://doi.org/10.1787/9789264281820-3-en
  • OCDE (2018). What do science teachers find most satisfying about their work? pisa in Focus, 81(1), 1-7. https://doi.org/10.1787/3e711a23-en
  • Ouariachi, T., Olvera-Lobo, M. D. y Gutiérrez-Pérez, J. (2017). Evaluation of online games for teaching and learning on climate change. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 35(1), 193. https://doi.org/10.5565/rev/ensciencias.2088
  • Pholphirul, P. (2017). Pre-primary education and long-term education performance: Evidence from Programme for International Student Assessment (pisa) Thailand. Journal of Early Childhood Reseach, 15(4), 410-432. https://doi.org/10.1177/1476718x15616834
  • Pinar, S. C. y Gülüzar, E. (2017). Developing Students’ Scientific Writing and Presentation Skills through Argument Driven Inquiry: An Exploratory Study. Journal of Chemical Education, 94, 837-843. https://doi.org/10.1021/acs.jchemed.6b00915
  • Roberts, D. A. (2007). Scientific literacy/science literacy. En S. K. Abell y N. G. Lederman (Eds.), Handbook of research on science education (pp. 729-780). Mahwah: Lawrence Erlbaum Associates.
  • Sampson, V., Grooms, J. y Walker, J. P. (2011). Argument‐Driven Inquiry as a way to help students learn how to participate in scientific argumentation and craft written arguments: An exploratory study. Science Education, 95(2), 217-257. https://doi.org/10.1002/sce.20421
  • Sanmartí, N. (2007). Evaluar para aprender: 10 ideas claves. Barceló: Graó.
  • Santos, A. (2016, December 22). cc. oo. y ugt rechazan el informe de la Comunidad sobre el bilingüismo. El País. Recuperado de: http://www.webcitation.org/73jTqGLHD
  • Sjøberg, S. (2015). Foreword. En E. K. Henriksen, J. Dillon y J. Ryder (Eds.), Understanding student participation and choice in Science and Techonology education (pp. 5-7). Dordrecht: Springer.
  • Sjöström, J., Eilks, I. y Zuin, V. G. (2016). Towards eco-reflexive science education. Science y Education, 25(3), 321-341. https://doi.org/10.1007/s11191-016-9818-6
  • Solano-Flores, G., Contreras-Niño, L. A. y Backhoff-Escudero, E. (2006). Traducción y adaptación de pruebas: Lecciones aprendidas y recomendaciones para países participantes en timss, pisa y otras comparaciones internacionales. Revista Electrónica de Investigación Educativa, 8(2), 1-21.
  • Stanley, G., MacCann, R., Gardner, J., Reynolds, L. y Wild, I. (2009). Review of teacher assessment: what works best and issues for development. Oxford University Centre for Educational Development.
  • Teixeira, E. S. y Greca, I. M. (2015). La enseñanza de la gravitación universal de Newton orientada por la historia y la filosofía de la ciencia: una propuesta didáctica con un enfoque en la argumentación. Enseñanza de las Ciencias. Revista de Investigación y Experiencias Didácticas, 1, 205-223. https://doi.org/10.5565/rev/ensciencias.1226
  • Vidal, R., Díaz, M. A. y Jarquín, H. (2004). Resultados de las pruebas pisa 2000 y 2003 en México: habilidades para la vida en estudiantes de 15 años. Madrid: inee.
  • Yus Ramos, R., Fernández Navas, M., Gallardo Gil, M., Barquín Ruiz, J., Sepúlveda Ruiz, M. P. y Serván Núñez, M. J. (2013). La competencia científica y su evaluación. Análisis de las pruebas estandarizadas de pisa. Revista de Educación, 360, 557-576. http://doi.org/10.4438/1988-592X-RE-2011-360-127