domingo, 27 de abril de 2025

Evaluación. Ítem.

Ítem gráfico (3). Panel de imágenes.


Similar al mapa, en este caso nos encontramos con una actividad de aprendizaje o un conjunto de ítem de evaluación en el que las mismas imágenes sirven como respuesta a diferentes (aunque similares) preguntas.


Se trata de una tareas especial en la que el input puede ser visual, aunque normalmente es verbal, pero el output se basa necesariamente en la elección de una entre varias imágenes, con la peculiaridad que las mismas imágenes sirven para responder diferentes (incluso un número elevado) de ítem.

En este caso, la solución más simple consiste en repetir la lámina de respuesta tantas veces como preguntas se formulen. De este modo el problema se reduce a un ítem de opción basada en imagen, como los que [ya vimos en esta entrada]; pero cuantos más ítem compartan el soporte de respuesta, menos funcional se vuelve esa solución, que no lo es en ningún caso, ya que sobrecargamos innecesariamente nuestro docap con imágenes repetidas y, en su caso, también con código redundante.

Disponemos de un procedimiento que elimina la necesidad de repetir las láminas de respuesta y que permite simplificar el código de forma significativa. Veamos en qué consiste; pero antes nos vamos a poner en situación para facilitar la comprensión del procedimiento.

El docap de un test como el Peabody (por poner un ejemplo) se resuelve mediante el procedimiento propuesta en la entrada dedicada al [ítem gráfico de elección de imagen], ya que en cada ítem cambia el conjunto de imágenes entre las que se encuentra la respuesta correcta; pero un test como ITPA-CA (Comprensión Auditiva) presenta el mismo conjunto de seis imágenes para un grupo numeroso de ítem. Esto permite que podamos usar el mismo mapa o conjunto de (aquí) seis imágenes, siempre que independicemos el uso de la imagen del ítem. Me explico:

  • Cada ítem tiene seis (o las que sean) opciones de respuesta.
  • Para un conjunto de ítem esas seis opciones son las mismas, aunque para cada ítem sólo una de ellas es la correcta
  • Las imágenes configuran lo que llamo un panel de imágenes, el cual se puede construir como sumatorio de imágenes independientes o como imagen única sobreponiendo una forma transparente (o semitransparente) sobre cada una de las escenas en que se divide dicha imagen única.
  • Dada imagen independiente, o cada forma superpuesta se asocia a un script que emite como resultado de la pulsación un valor (código numérico o letra) que se recoge como respuesta a cada uno de los ítem: una respuesta por ítem.
  • Posteriormente, mediante funciones LO-Calc o mediante código, se valora si la respuesta dada a cada uno de los ítem se ajusta a lo esperado (es correcta) o no (es incorrecta) y, en función de ese juicio, se puntúa según el procedimiento establecido (ITPA-CA -> 0 vs. 1)
El problema que queda por resolver aquí es cómo hacer que los ítem avancen, mientras que las opciones de respuesta permanecen. La solución pasa por ir construyendo paulatinamente un listado con las respuestas, el cual, por ejemplo, ubicamos en una columna de celdas (en LO-Calc). Un procedimiento se encarga de descartar si una posición (celda) ya está ocupada, luego ese ítem ya está cumplimentado, siendo necesario, entonces, desplazarse a la siguiente, que es la que corresponde necesariamente con la posición que ocupa en esa lista el ítem que en ese momento se está resolviendo.  

Como sucede en otras ocasiones en las que se describen procedimientos, su explicación puede resultar más compleja de lo que supone su ejecución. Me temo que este es uno de esos casos; y espero que la presentación del soporte y de su código, lo cual muestro a continuación, sirvan para aclarar las dudas que pudieran quedar.


Muestro primero el panel de seis imágenes en el que se puede comprobar la superposición de semi-transparencias que son las que quedan asociadas a sendos script. Por ejemplo, la primera a este script:

Sub img1

Dim Lamina As string

Dim img As integer, nit As Integer

Lamina = "Lamina1"

img = 1

nit = 16

puntuar(Lamina,img, nit)

End Sub

Este procedimiento se repite con cada una de las imágenes, luego hay seis script, uno por cada sección del panel (en realidad por cada figura semi-transparente superpuesta)

La función del script es asignar contenido a una serie de tres variables (Lamina, img y nit)...

  • Lamina identifica la hoja de cálculo a la que acceder (Lamina = "Lamina1")
  • img designa a la imagen (sección del panel) que se está pulsando (img = 1)
  • y nit identifica el número de ítem asociados a este panel (nit = 16)

... y con ellas definidas como parámetros, pasar esos valores a la subrutina (función, se diría en otros lenguajes) (puntuar(Lamina,img, nit)) que es la que ejecuta el procedimiento que sigue. 

Sub puntuar (Lamina as String, img As integer, nit As Integer)

Dim oHoja As Object, oCelda As Object

Dim Celda As Integer

Dim i As integer

oHoja = ThisComponent.getSheets().getByName(Lamina)

For i = 0 To nit

N = "N" & i + 4

oCelda = oHoja.getCellRangeByName(N)

Celda = oCelda.getValue()

If Celda = 0 Then

oCelda.setValue(img)

Exit For

End If

Next

End Sub

Lo interesante de este procedimiento es que una única subrutina da servicio a estos seis script y a todos los que sean necesarios. Concretamente en ITPA-CA, a un total de 18 script con los que respondemos a un total de 50 ítem. Vemos como funciona.

  • Tras acceder a la hoja sobre la que vamos a trabajar (oHoja = ThisComponent.getSheets().getByName(Lamina)) mediante el parámetro Lamina
  • desarrollamos un bucle for  que tiene como límite superior el valor del parámetro nit (For i = 0 To nit), que indica tanto el número de ciclos del bucle como el número de ítem a los que vamos a responder.
  • Nos posicionamos en la celda que nos interesa (inicialmente N4) mediante la fórmula N = "N" & i + 4 que asocia el identificador numérico de la celda con el valor del contador i 
  • Y a partir de esta posición, capturamos ese objeto celda (oCelda = oHoja.getCellRangeByName(N)) y su contenido (Celda = oCelda.getValue())...
  • ... condicionando la acción a desarrollar mediante if a que esa celda esté vacía (If Celda = 0 Then). 
  • Esa acción consiste en escribir en la celda el identificador de la imagen (img) que hemos pasado como parámetro (oCelda.setValue(img)) y salimos del bucle (Exit For)
  • En caso de no cumplirse esa condición, esto es, que la celda no esté vacía, continua desarrollándose el ciclo, esto es: no se escribe nada en la celda (evitando así sobre-escribir en una celda) y se pasa a la siguiente.
Es necesario tener en cuenta que, aquí, cada celda incluida en este proceso (desde N0+4 = N4 hasta N16+4 = N20) equivale a un ítem. La tabla en la que se encuentra nuestra columna nos permite apreciar el procedimiento de asignación y de puntuación del ítem.


La primera columna identifica los ítem de la lámina (de 1 a 17); la tercera indica la respuesta correcta para cada ítem (esto es la imagen que se debería seleccionar) y la cuarta (PD) permite puntuar cada ítem mediante una función condicional LO-Calc (=SI(N4=O4;1;0)). Esta tabla permanece oculta (Formato | Columnas | Ocultar) aunque aquí la mostremos por motivos expositivos.

Documento. Desde [este enlace] puedes descargar el documento LO-Calc que desarrolla lo expuesto en la entrada.



 

viernes, 25 de abril de 2025

Comprensión


Evaluación

Comprensión auditiva. ITPA (II)



La comprensión auditiva, decíamos [en una entrada anterior], no es práctica habitual en la intervención educativa en la etapa de E. Primaria, ni se prodiga que digamos en las pruebas de evaluación psicopedagógica. Y cuando lo es, como en el caso de PROLEC-R, aunque aporta información de mucho interés, no cubre todos los ámbitos que debería; especialmente no permite conocer el nivel de comprensión auditiva de aquellos contenidos textuales que, por su naturaleza, más próximos están a las vivencias de los niños, esto es, los denominados textos narrativos.

Existe, por suerte, una prueba, en su momento muy celebrada y ahora en el cuarto de los trastos viejos, el ITPA, que cuenta con un subtest orientado específicamente a la evaluación de la comprensión auditiva (ese es su nombre, CA) y que se acerca a la tipología de input que nos interesa evaluar.

ITPA sigue estando comercializado por TEA Ediciones. Concretamente me consta una edición de 2009, la 7ª, pero no sé si existen otras más actualizadas, por lo que lo que sigue puede no ser exacto a día de hoy: estas últimas (que no recientes) ediciones modernizan la presentación de los materiales y en la revisión de 2004 se actualiza y amplia la muestra y se realizan análisis estadísticos específicos (léase el Manual).

No es objetivo de esta entrada el análisis del ITPA propiamente dicho, ya que únicamente nos interesa el test Compresión Auditiva (CA), y este al margen del planteamiento teórico que sustenta la prueba, como recurso para la evaluación de esta habilidad específica y en el formato en que se plantea en el ITPA, por considerarla de interés y complementaria al modo en que se evalúa la CA en otras pruebas. 

El subtest ITPA.CA parte de tres breves textos narrativos muy sencillos, sobre los cuales se formulan un número determinado de preguntas (50 en total), que se distribuyen como sigue:
  • Fragmento 1. Preguntas 1 a 17. Está precedido de dos ítem de demostración. Se aplica a niños menores de 6 años, pero no a los de 6 o más años, salvo la excepción que se comenta a continuación.
  • Fragmento 2. Preguntas  18 a 34. Está precedido de dos ítem de demostración. Se aplica a niños de 6 o más años. Dado que no se les han aplicado las preguntas 1 a 17, si fallan en los elementos iniciales consecutivos (18, 19 y 20) se aplican esos primeros ítem; en caso contrario se les atribuyen esos 17 puntos.
  • Fragmento 3. Preguntas 35 a 50.
  • Todos los ítem se puntúan 0-1.
  • Se detiene la aplicación del test tras tres fallos consecutivos, con la excepción explicada en los ítem 18 a 20 para niños de 6 o más años. 
Cada uno de los fragmentos hace referencia a un texto narrativo sencillo. Veamos el primero a modo de ejemplo:


Al contrario que sucede en PROLEC-R.CO, el niño no debe dar una respuesta verbal; sino que selecciona la imagen que se asocia a la pregunta entre las 6 posibles...


....habiendo recibido previamente instrucción concreta sobre el contenido general de cada una de esas imágenes. 


Una vez realizada esta exposición, se procede a aplicar del test, empezando por el fragmento que corresponde por edad y por los dos ítem de ejemplo (sólo los dos que corresponden por edad).

Este modo de respuesta (por identificación de imagen) se asemeja al que se usa en pruebas de conocimiento léxico (PEABODY) y de estructuras gramaticales (CEG). Al no exigir una respuesta verbal se evita que dificultades en el lenguaje expresivo influyan negativamente en los resultados. Esta precaución no se da en PROLEC-R.CO, prueba en la que, además, también incide que los textos sean expositivos, lo que aumenta la dificultad de la prueba, especialmente para niños en los inicios de la etapa de E. Primaria.

Con esto quiero decir que ITPA-CA está diseñado de forma diferente y presumiblemente más sencilla que PROLEC-R.CO. Estas diferencias (junto con otras cuestiones técnicas) impiden la comparación directa de los resultados, y, en principio, condicionaría que ITPA-CA resultara (teóricamente) más fácil. Veamos qué sucede a nivel empírico y tomando como referencia los estadísticos de de ambas pruebas.

Para concretar, esta comparación se basará en los resultados inferidos en CT-Nar según el procedimiento explicado [en su momento], y el ajuste de las Md de ITPA-CA a su equivalencia en número de ítem. Dado que ambos cálculos son indirectos, sólo pueden tener un valor orientativo, pero me ha parecido de interés comprobar a dónde nos podrían llevar.


  • Como es de esperar en buena lógica, en P1 el rendimiento en CO (ITPA) es superior al rendimiento en CL. Recuérdese que, en contra lo esperado, esto no se observaba en PROLEC-R, CO vs CT (ambos textos expositivos). En ese caso es precisamente en P1 donde mayor es la diferencia entre CO vs. CT. Mientras, en Narrativos, la diferencia es marcadamente positiva para CO, invirtiéndose radicalmente la tendencia en P2. En buena lógica, es de suponer que esto está relacionado con el hecho de que en P2 el alumnado ya presenta un nivel suficientemente satisfactorio de domino en la decodificación lectora, por lo que este factor ya no determina que el rendimiento en CT sea inferior a CO. No que no queda explicado es precisamente por qué se invierte tan claramente la relación entre ambos procesos, quedando como posible respuesta el hecho de que la CT (CL) se trabaja sistemáticamente y de forma continuada, mientras que la CO no.
  • ITPA presenta un perfil de mejora progresiva, algo que no se observa en PROLEC-R.CTnar, test en el que se diferencian tres fases, como se ve en el gráfico y se comentó en su momento. 
  • Este comportamiento de CA en ITPA es similar al observado en PROLEC-R.CO respecto a PROLEC-R.CT, aunque en ese caso la diferencia entre CO vs. CL era menor. Tal vez esto sea debido a que la variable tipo-de-texto (expositivo), que presenta mayor nivel de dificultad, reduzca la diferencia entre CO vs CL. Pero lo que resulta contra-intuitivo es que la diferencia sea, en ambos caso, favorable a la comprensión lectora (CT) y que se acentúe en función de la menor incidencia de factores que, en principio, deben considerarse que acentúan la dificultad de la tarea (en este caso el tipo de texto). 
  • También en Narrativos se comprueba que esa diferencia favorable a CT se mantiene a lo largo de E. Primaria, incluyendo lo que ahora más que comprobarse se intuye: que la diferencia se reduce en los cursos finales de etapa (P5 y P6), tendiendo (eso parece) a un nivel de rendimiento similar entre CO y CL. Esto parece deberse tanto al paulatino incremento de la CO como al leve descenso del rendimiento en CT.
De nuevo se evidencia la necesidad de evaluar la CO/A y, lo que es más importante, de intervenir educativamente para garantizar que su desarrollo no sea mera consecuencia indirecta de la escolarización.


martes, 22 de abril de 2025

Comprensión

Evaluación

Comprensión oral. PROLEC-R



Cuando hablamos de la comprensión auditiva [en esta entrada] dejé abierta la posibilidad de seguir trabajando sobre esta habilidad, concretamente sobre un recurso de evaluación basado en el subtest del ITPA. Me planteo ahora concretar este proyecto en esta entrada.


Y lo hago por considerar que se trata una habilidad, competencia o dimensión competencial del ámbito del lenguaje a la que no se presta la debida atención, ni en la intervención educativa ni en la evaluación psicopedagógica.

A excepción (y no siempre coherentemente) del área de Lengua Extranjera, y a consecuencia de constituir una de las dimensiones básicas del portfolio europeo de las lenguas, en el resto de las áreas, una vez superada la etapa de E. Infantil, la comprensión oral sufre eso que podemos denominar "ensombrecimiento por obviedad": generalmente se da por supuesto que es una habilidad ya desarrollada o que se trabaja de forma implícita (que para el caso, la consecuencia es la misma) y no es objeto de intervención específica en el proceso de E-A. No lo es explícitamente, porque en la práctica del aula es una habilidad o competencia que se requiere al alumnado de forma continuada.

Esto se hace de forma también implícita cada vez que se espera que el alumnado acceda al contenido que el docente expone verbalmente en el aula, o que se expone en un vídeo que se recomienda como fuente de aprendizaje. Por poner dos
ejemplos.

Al tratarse de una exigencia implícita, de ahí deviene uno de los problemas añadidos: no es una habilidad que generalmente sea objeto de evaluación específica; y no lo es ni curricularmente ni en la Evaluación Psicopedagógica.

En realidad esto tampoco es cierto en sentido estricto, ya que en lo que a la Evaluación Psicopedagógica se refiere también pasa un poco lo mismo que en la intervención educativa: en realidad se está evaluando implícitamente en pruebas que exigen comprender instrucciones verbales, en test específicos de evaluación del lenguaje (especialmente en la evaluación de la comprensión de estructuras gramaticales) y, en cierta medida, también en pruebas que evalúan procesos cognitivos como la memoria verbal (si se usan frases de extensión creciente) o de razonamiento verbal (como los test llamados de Adivinanzas).

Hay algunas excepciones en las que el concepto comprensión auditiva o comprensión verbal está presente (si no claramente, al menos sí de algún modo), pero lo está por la relación de la comprensión verbal con la comprensión lectora (CO vs CL) y como recurso para descartar que las dificultades en esta última no son debidas a posibles dificultades generales, implicando este tipo de razonamiento la relación entre entre la comprensión verbal y las capacidades cognitivas o nivel de inteligencia (CI). 

Algo así se observa en el test PROLEC-R, en dos momentos:
  • Subtest Comprensión de oraciones, primeros tres ítems, en los que el examinador emite tres órdenes de acción que el sujeto debe ejecutar...
V.g. "Da tres golpecitos sobre la mesa"

  •  Subtest Comprensión oral, complementario del subtest Comprensión de textos, formado por dos textos expositivos, uno corto ("El ratel"), asimilable al texto "Los okapis" (comprensión  lectora), y otro "largo" ("Los vikingos"), comparable con el texto "Los indios apaches" (comprensión lectora).
Si analizamos los estadísticos (media y dt) podremos observar que esos tres primeros ítem de Comprensión de oraciones son irrelevantes para determinar el nivel de rendimiento del sujeto en este subtest, ya desde el curso P1.


El propio test resulta muy fácil en términos de puntuación media respecto al total posible, aunque eso es de esperar en un test de screening: ya desde P1 la puntuación promedio (14,48) representa el 90% del total (16 ítem) y el margen que permite establecer la desviación típica (1,61) como intervalo central (12,87 - 16,09 para P1) queda muy alejado en su extremo inferior (el único que realmente puede aportar información, atendiendo a la naturaleza del test) de esos tres puntos que aportan los ítem de comprensión oral presentes en la prueba.

Con esto quiero decir que no es en este subtest donde podemos encontrar información de interés para evaluar la comprensión oral, verbal o auditiva. Donde sí parece que PROLEC-R puede aportarnos algún dato de utilidad para conocer el nivel de comprensión oral del alumno es en el subtest Comprensión oral, que en PROLEC-R (y en esta entrada) se analiza por comparación con los resultados del subtest Comprensión de textos.

Antes de realizar este análisis es necesario considerar algunas cuestiones, bien por su peso en el análisis del subtest anterior, bien por las propias características del actual:
  • La primera tiene que ver con la naturaleza screening del subtest.
  • La segunda, relacionada con la anterior, la escasa longitud de la prueba (8 ítem)
  • Y la tercera deriva de la diferencia de los dos subtest a comparar: Comprensión oral vs. Comprensión de textos, ya que ambos cuentan con un número diferentes de textos y de ítems, lo que dificulta la comparación de los estadísticos respectivos.
Veamos las implicaciones de cada una de estas cuestiones:
  • Por lo que se refiere a la primera, así como sí tenía una clara incidencia en los resultados del subtest Comprensión de oraciones, no parece que la tenga en el subtest Comprensión oral. En éste los resultados de la Md  y de la Dt de todos los cursos, pero especialmente de los cuatro primeros (P1-P4) dejan margen suficiente, tanto por debajo como por encima de la media, en términos de intervalo central y en términos de % de rendimiento de la Md respecto a la puntuación total de la prueba.
  • En coherencia con lo anterior, tampoco se puede decir que lo limitado del número de ítem dificulte el estudio de los resultados que pueda obtener un alumno en términos de comprensión oral: 8 ítems son más que suficientes, al menos hasta P4, aunque posiblemente tampoco en P5-P6 se pueda considerar una limitación significativa. Y menos aun si no entramos (y no hay motivo para ello) en territorios poco seguros como la incidencia de la extensión del texto (corto vs. largo) o el tipo de pregunta (literal vs. inferencial) en los posibles resultados, colectivos e individuales.
  • La tercera cuestión, aunque relevante para el propio PROLEC-R, puede ser secundaria para nuestro análisis, ya que no tenemos por qué tomar como criterio de análisis la comparación entre el rendimiento CO vs CL, limitándonos únicamente a valorar la CO en relación al rendimiento esperado en función del curso. Pero PROLEC-R ofrece unos estadísticos específicos para facilitar esa comparación CO vs. CL que permiten dicha comparación y, lo que es aun más interesante, aportan información que no me parece que podamos despreciar. Así que dedicaremos un tiempo a este análisis comparativo.
Empezaremos por observar que, sorprendentemente con el papel casi marginal que se le da a la comprensión oral en la etapa de E. Primaria, los resultados del alumnado de los primeros cursos, especialmente de los dos primeros sea tan baja (P1 -> Md 2,98 -> 32,25% ; P2 -> Md 3,64 -> 45,5%), resultados que no alcanzan el nivel de acierto del 50%; hay que esperar hasta P5 para superar el nivel 60%, que tampoco es puede considerarse un nivel satisfactorio de rendimiento en términos de evaluación criterial, y menos aun en una prueba que, como ya se ha dicho, es de tipo screening.

Ese nivel de rendimiento tan mediocre es claramente inferior al que se obtiene en el subtest Comprensión de textos para esos mismos cursos (P1 -> Md 8,61 -> 53,8%; P2 -> Md 11,16 -> 69,75%), niveles (en %) que, como dije antes, no se alcanzan en CO hasta P4. Y eso que estamos hablando de los inicios del proceso lector, donde cabe esperar que la CO sea superior a la CL.

Evidentemente debemos tener en cuenta el tipo de textos (no la longitud, ni el tipo de preguntas que se formulan) que se maneja en ambas pruebas, ya que CO son textos expositivos, mientras que en CL lo son la mitad. Y como disponemos de datos que diferencian CL en Total y CL de textos expositivos (los mismos que nos permiten comparar CO con CL)...


... podemos deducir que el rendimiento en CL en textos expositivos es, para P1 Md 3,91 -> 48,87% y para P2 -> Md 4,41 -> 55,12%, inferior al rendimiento total, lo que quiere decir que ciertamente los textos expositivos presentan mayor nivel de dificultad para los alumnos en todos los cursos, aunque esa diferencia es mucho más reducida en P1, debido a que es el curso en el que se adquiere la habilidad de decodificación lectora.

También podemos calcular los valores Md de los textos narrativos que forman parte de CL-T, recalculando los valores de los sumatorio de PD de CL-T y CL-Exp, conocidos los datos de Md y N de cada curso. A partir de estos cálculos obtenemos unos valores Md de CL-Nar. aprox. que dan como resultado el siguiente gráfico.




En él se puede comparar la evolución de las Md de las diferentes variables consideradas: CL-Total, CL-Narrativos, CL-Expositivos y CO(expositivos). Se aprecia que los resultados en CL en los textos narrativos son sistemáticamente superiores a los que se obtienen en los textos expositivos y que existe una diferencia mínima pero llamativa entre la Md de CL-Exp vs. CO(exp) hasta que se igualan ambas prácticamente a partir de P4. Otros datos de interés:
  • La diferencia entre las medias es menor en P1 entre CL-Nar vs CL-Exp, primando en este curso la dificultad de decodificación de los principiantes.
  • Pero es superior (en ambas CL) respecto a CO, cuando lo contrario sería lo que cabría esperar. ¿Se trata del efecto "texto expositivo"?, ¿se produciría también de aplicarse textos (orales) narrativos?, ¿por qué los textos CL expositivos resultan también más sencillos de comprender que los textos CO?.
  • La evolución de rendimiento medio (Md) en CL-Nar presenta una evolución similar a la que presenta CL-Exp, manteniendo con esta una diferencia constante desde P2 hasta P4, pero se acentúa en P5, observándose una tendencia a reducirse en P6 sin llegar a los niveles precedentes. ¿A qué se puede deber este incremento de la diferencia desde P4?, ¿es consecuencia de la mejora en los resultados en CL-Nar (superior a CL-Exp) en función de la longitud del texto o del tipo de preguntas (literales vs. inferenciales), ¿Cómo se comportan estas variables de los cursos de la ESO?.
  • La diferencia CL vs. CO (ambos expositivos) se reduce paulatinamente hasta desaparece prácticamente desde P4. ¿Es posible interpretar esta evolución de la CO como la consecuencia del proceso de escolarización que reduce las diferencias derivadas del contexto sociofamiliar?, ¿incide la mayor exigencia de práctica cultural de lectura en que la evolución de la CL-Exp no mantenga una evolución similar?.
Todas estas cuestiones quedan pendientes de estudio, siendo necesarios otros análisis para dar un principio de respuesta a algunas de ellas. Pero me parece necesario insistir en dos cuestiones:
  • Primera: la evaluación de la comprensión oral es necesaria, como lo es la intervención educativa explícita en ella, también en la etapa de E. Primaria.
  • Segunda: no disponemos de herramientas que nos permitan realizar esta evaluación en todas sus dimensiones.
Y mientras tanto nos queda constatar que los recursos disponibles ofrecen una imagen no demasiado halagüeña del nivel competencial del alumnado: quizás con la excepción de la CL-Nar. donde los porcentajes de acierto medio pueden considerarse satisfactorios ya desde P2 (y eso contando con la incidencia no controlada del efecto extensión del texto y tipología de la pregunta literal vs. inferencial); en el resto (CL-Exp y CO.Exp) no se alcanzan niveles de éxito superiores al 70% en toda la etapa de E. Primaria, lo que arroja niveles de fracaso superiores al 30% (en realidad más cercanos al 35%).

Cierto que aquí estamos realizando un análisis que no se corresponde con la naturales de los test, pero no deja de ser llamativo que, dada la simplicidad de los textos que se manejan y del tipo de preguntas que se plantean, los resultados sean los que son.

Sería conveniente estudiar, en efecto, la incidencia en ellos de la extensión de los textos y del vocabulario que se emplea en ellos, la diferencia de rendimiento en función del tipo de pregunta (literal vs. inferencial) en relación con el nivel aptitudinal general, pero también del tipo de cuestiones que se plantean normalmente en el aula dentro del proceso E-A. Y también cuestiones no atendidas en esta exposición, como es que se demande al alumno una respuesta verbal correctamente construía, y cómo esto puede afectar a los resultados.

lunes, 21 de abril de 2025

Evaluación. Ámbitos.

Conceptos básicos

Formas geométricas

El conocimiento de los conceptos básicos es uno de los factores que diferencian al alumnado de E. Infantil en cuanto a condiciones de partida en el inicio de la escolarización; por este motivo son uno de los contenidos curriculares prioritarios para el profesorado de la etapa.


Estudios recientes atribuyen a la escolarización temprana en la etapa de E. Infantil una capacidad nada despreciable de reducir las diferencias sociales en términos de probabilidad de éxito académico. Esto es especialmente relevante en condiciones sociales negativas, como en hogares con bajos niveles de ingresos y en familias con madres con bajo nivel de estudios, precisamente dos de las causas identificadas como tales por su incidencia negativa en el éxito académico.

Sería interesante estudiar la incidencia que en el éxito académico a medio-largo plazo puede tener, no sólo la escolarización temprana en E. Infantil, si no también, y más específicamente,  el tipo de trabajo que en ella y más concretamente el que se trabajen los conceptos básicos. 

Estoy convencido que se podría establecer una relación positiva significativa entre ambos factores, especialmente en poblaciones calificadas "en situación de vulnerabilidad socioeducativa", causa de NEAE según LOMLOE (apartado 49-Ter). Y lo estoy aun más de las repercusiones negativas que tiene el desconocimiento de estos conceptos en el proceso de aprendizaje, lo que, de por sí, es más que suficiente para justificar su inclusión entre los contenidos prioritarios para trabajar E. Infantil. 

Afortunadamente así sucede en la práctica curricular de las docentes de esta etapa y son muchos y actualizados los materiales publicados y accesibles desde la Web dirigidos al profesorado.

Pero parece que, por desgracia, estos conceptos no son tan interesantes para la investigación educativa realizada en las universidades, ya que no es fácil encontrar publicaciones de esta fuente.

Tampoco los es en lo relativo a materiales actualizados de evaluación, siendo muy limitados y ya de cierta antigüedad los publicados por las empresas especializadas; de hecho, y al menos en castellano, seguimos limitados a dos buenos test, pero ya antiguos, aunque remozados hace ya tiempo:
  • CONCEBAS. Versión original CEPE 1993, versión actual CONCEBAS-2000, Ed Albor-COHS, publicado en 2006
  • Test Boehm. Versión original de 1971; adaptación en Español por TEA ediciones, 1980. Versión actual BOEHM-3. Ed. Pearson, adaptación de 2012.  
Frente a estos magros resultados, como ya dije, cualquier búsqueda sobre materiales para la intervención aporta información cuantitativamente significativa y temporalmente actualizada. 

Resumiendo, estas podrían ser las características más destacadas de estos materiales:
  • Su adaptación a enfoques "novedosos" como los que supone la neuroeducación (sirva de ejemplo  neuropeques)
  • El predominio del enfoque cualitativo incluso en materiales de evaluación (como ejemplo, los materiales producidos por Jesús Jarque).
  • Y la proliferación de materiales en soporte informático en sustitución del papel que, no obstante, no está ausente. En este caso, además de materiales anteriores me interesa destacar las aportaciones de fuentes como Aula PT


Personalmente opino que, lo que revela lo anterior es que en esto, y no sólo, los desarrolladores reales de currículo (esto es: el profesorado) mantienen una postura mucho más ajustada a las necesidades educativas reales de la población, especialmente la más desfavorecida. Esto, a su vez, tiene una repercusión positiva, contribuyendo (en cierta medida al menos) a que la escolarización en la etapa de E. Infantil sea un factor positivo para la reducción de las desigualdades socio-educativas, cierto que en la medida en que esto es posible para el propio sistema educativo, que  me temo es una medida moderada, pero afortunadamente no tan irrelevante como plantean algunos que es en realidad. (1)

Posiblemente las facilidades que ofrece la Web y los medios informáticos esté  detrás de la proliferación de materiales de intervención, lo que supone una ventaja, pero también un riesgo: la escasa calidad que puedan presentar estos materiales por falta de fundamentación teórica sólida (2).

Beneficiarse de las ventajas parece sencillo, pero no lo es tanto reducir el riego de los inconvenientes: estudiar con seriedad el tema, ser selectivos en la identificación de fuentes y tener criterios de intervención bien definidos son principios lógicos para enfrentarse a la tarea de seleccionar o crear materiales, pero son (como siempre) más sencillos de decir que de concretar y aplicar.

Para eso de concretar, propongo considerar tres dimensiones en el análisis:
  • Identificar los conceptos básicos que se plantean para el trabajo y las posibles fuentes en que se basan.
  • Analizar los planteamientos metodológicos (explicitados o implícitos) que presentan esos materiales.
  • Y estudiar la coherencia y compatibilidad de las herramientas que se han empleado en su creación con sus los planteamientos metodológicos y de trabajo que presentan.
Empezando por los contenidos a trabajar (los conceptos básicos), tomar como referencia los identificados como tales en las pruebas de evaluación, aunque a priori es un buen enfoque, debemos ser conscientes de que presentan ciertas  limitaciones no de escasa importancia:
  • La primera fuente de limitaciones deriva de su relativa escasez y su nada relativa antigüedad.
  • La segunda deriva de la naturaleza misma de las pruebas de evaluación, en las que la selección de ítem, además de criterios de relevancia coincidentes con los de la intervención, también interesan otros que se basan en la capacidad de discriminación de los contenidos, esto es: que al menos algunos de los conceptos seleccionados permitan diferenciar sujetos que no presentan dificultades y sujetos que sí las presenten. Este principio es ajeno al de la intervención educativa, en la que los contenidos a priorizar lo sean por relevancia para el proceso de aprendizaje.
  • Y la tercera del posible sesgo clínico que pueden presentar aquellos materiales que se basan en las pruebas de evaluación tanto en los  contenidos como en los planteamientos metodológicos. 
Aunque lo anterior nos obliga a ser cautos, a estudiar los datos cuantitativos disponibles y a analizar los formatos en que se presentan estos materiales, lo cierto es que contamos con lo que contamos y no con lo que desearíamos, que estas pruebas son en realidad "incursiones" curriculares de instrumentos clínicos (y no al revés) y que tomar como referencia los conceptos que trabajan estas pruebas no es una mala opción, al menos hasta disponer de otras fuentes mejores, si las contrapesamos con el análisis de los currículos y la progresión lógica que se observa entre las etapas de E. Infantil y E. Primaria en cuanto a contenidos curriculares.
 
El segundo análisis, complementario pero diferenciado del anterior, tiene como objetivo determinar si las orientaciones metodológicas (mayormente implícitas) de los materiales se corresponden con los objetivos que perseguimos en nuestro trabajo. Sin pretender ser exhaustivos, antes al contrario, a riesgo de dejar fuera análisis sin duda relevantes, considero mayoritarios los siguientes planteamientos:
  • Materiales que desarrollan metodologías expositivas, con menor o mayor capacidad (o pretensión de) para ser alternativa funcional a la interacción entre niño y adulto en el proceso enseñanza-aprendizaje (E-A)  en función de la información que aportan al usuario. Un ejemplo podrían ser los materiales en vídeo publicados por Neuropeques, que no se encuentran formal y pedagógicamente lejos de lo que representan otros como este, publicado por Aula PT.
  • Materiales orientados a la ejercitación. Estos materiales son, en lo "técnico", más sencillos que los anteriores (son menos sofisticados y recurren menos a lo "audiovisual"), pero pueden presenta mayor variedad de planteamientos metodológicos implícitos, ya que normalmente combinan la presentación de contenidos (enseñanza/exposición) con la ejecución de actividades (aplicación de conocimientos) y incluso la evaluación. 
Además, tanto por lo que pretenden como por las "carencias audiovisuales" que presentan, parecen estar o están pensados para servir de herramienta a procesos E-A adulto-niño o de aprendizaje compartido entre iguales. Planteo como ejemplos de este segundo enfoque las siguientes presentaciones elaboradas para ilustrarlo:

En ellas se diferencia una fase expositiva de otra de trabajo. La primera, que se concreta de diferentes maneras, sirve para la re-presentación del concepto. En esta fase, el papel del adulto es de observador-acompañante del niño y facilitador de su aprendizaje. En la segunda fase se plantean al niño actividades de identificación del concepto entre un conjunto estimular más o menos complejo. En esta segunda fase, la función del adulto es la de presentar la actividad y el modo de resolverla y, en caso necesario, aportar las ayudas que mejor se ajusten a sus necesidades.

En
este material es posible (aunque no imprescindible) recoger información para la evaluación de los resultados, pero no es esta la función principal ni es necesario realizarla de forma explícita (implícitamente se realiza  espontáneamente); es más, puede ser hasta contraproducente para la dinámica E-A, por lo que el adulto deberá valorar su pertinencia (3).

  • El tercer tipo de material es precisamente el que contempla fundamentalmente a la evaluación de forma sistemática o como objetivo principal. No es infrecuente que los materiales del segundo  modelo también incluyan elementos de evaluación, pero ni tienen ésta como objetivo principal ni desarrollan procedimientos específicos a tal efecto. Este tercer tipo de recursos sí.

Sí, en teoría, pero no con decirlo es suficiente: además debe cumplirse. Considero que no es así en es el caso de materiales (por otro lado muy interesante) como éste de Jesús Jarque, presentado como recurso de evaluación (y lo puede ser perfectamente, aunque de un campo más amplio y menos específico: de contenidos básicos y no sólo de conceptos básicos, que también están incluidos), que supuestamente contiene un material específico para la recogida de datos, el cual, en mi opinión, no satisface criterios formales para serlo, entre otras razones, por carecer de elementos para el registro de resultados.

Un error que es común a recursos de intervención y de evaluación, y que se presenta con cierta frecuencia en los primeros, es la falta de discriminación de los estímulos que se presentan y que, por su mal diseño, permite al niño acertar simplemente al azar. Estos materiales estimulan no tanto el aprendizaje como la impulsividad y favorecen las respuestas al azar. La consecuencia es que no favorecen el aprendizaje y refuerzan conductas que son contrarias al mismo, además del potencial riesgo que presentan de generar formas de adición a la pantalla cuyas consecuencias negativas están empezando a hacerse evidentes.

Esto me lleva finalmente, a la tercera y última cuestión a tener en cuenta a la hora de seleccionar/elaborar materiales de intervención: la compatibilidad de los medios con los fines que presentan los materiales. Y no estamos hablando de carencia de medios (en tal caso puede haberla de competencia técnica par usarlos por parte de los generadores de recursos), si no del uso coherente o no del recurso en función del objetivo de trabajo.

Ciertamente medios no son lo que faltan: herramientas para crear presentaciones tipo PPT, herramientas específicas o de autor, recursos para crear videos o para convertir presentaciones a vídeo, lenguajes de programación... las posibilidades no son infinitas, pero casi... y accesibles.

Frente a esta riqueza de medios, la relativa precariedad de tiempos y/o de profesionales cualificados para el desarrollo de los recursos (muchos de ellos afortunadas creaciones del profesorado y/o de clínicos) hace que podamos encontrarnos, con cierta frecuencia, con materiales en los que predomina la incoherencia entre los medios y los fines, o eso parece.

Un ejemplo puede ser el material antes comentado de Jesús Jarque, aunque éste sólo lo será si nos planteamos como necesaria la automatización de la aplicación de la "prueba", algo que evidentemente puede ser una opción, pero no una obligación, así que definitivamente en esto esos materiales no incurren en ninguna incoherencia. 

Hay otros que claramente incumplen estos requisitos de compatibilidad, pero me interesa más analizar el tema desde lo general que desde lo específico, evitando señalar errores ajenos cuando lo que se debe señalar, al contrario, es la generosidad de quienes, sin ganancia personal alguna, ponen a disposición de tod@s el fruto de su trabajo y de su experiencia.

Además no resulta muy difícil hacer esta exposición, ya que son dos los soportes básicos en los que, por limitación de tiempo y/o de conocimiento, se presentan los materiales en la Web: como vídeos (You Tube, pero no sólo) y como presentaciones tipo PPT. Sin olvidar, claro está, los simples y tremendamente útiles documentos en diferentes soportes (.doc,.pdf...)

De estos últimos no voy a hablar, ya que suponen recurrir a los medios analógicos tradicionales, para nada despreciables, por cierto, y menos desde el conocimiento de los riesgos que supone el exceso de medios digitales en la intervención educativa. Este sencillo y contrastado procedimiento puede ser simple, ciertamente, pero usado con sentido profesional, está exento del riesgo de incurrir en la incompatibilidad que aquí trato.

Me centraré, por tanto, en los que sí pueden incurrir en esta incompatibilidad, además de en errores metodológicos ya expuestos en su momento.

Empezando por los vídeos educativos, su creación y proliferación es debida a  facilidad con la que es posible crear una vídeo a partir de una  presentación, y en el atractivo que tiene su publicación en plataformas como You Tube. Pero es precisamente ahí donde se sitúa la fuente de error más común que se puede observar en ese tipo (y formato) de materiales: su uso como recurso para la ejercitación. 

El formato vídeo puede ser adecuado para la creación de materiales de instrucción, pero resultan inadecuados como soporte para el trabajo del alumnado. Obviamente es imposible que el niño interactúe con los estímulos presentados en la pantalla en formato video, ya que este formato no admite esa interacción, pero al derivar de un material originalmente creado como presentación (que sí admite esa interacción) su traslado al formato video suple esa carencia de interacción simulándola, lo que supone su sustitución por en sucedáneo de interacción prediseñada. Aquí te dejo un ejemplo de lo que digo para que se me entienda mejor. Se trata, sin duda, de un material promocional para potenciar la venta de otros los materiales, pero ilustra perfectamente un tipo de error en el que se puede incurrir sin a penas advertirlo. 

El segundo error se observa en presentaciones y materiales similares, y tiene que ver con la proliferación de formas simplificadas de interacción que se pretende suplir con una sobreabundancia de recursos MAV (animaciones, sonidos, transiciones alambicadas...) que sobrecargan de estímulos sin aportar nada de interés a la compresión del concepto y/o a la realización de la actividad por parte del niño. No estoy hablando de defectos como los explicados antes respecto a estímulos indiscriminados, ya que ese es un planteamiento mucho más dañino para la lógica del aprendizaje y para el desarrollo del niño; me refiero a aquellos materiales en los que, muy posiblemente con buena intención, el creador hace alarde de lo mucho que sabe del programa con el que trabaja, olvidando que la simplicidad es, generalmente, mejor aliada de una buena pedagogía.

Y frente al exceso de floritura MAV, la ausencia de aprovechamiento de potenciales recursos. El ejemplo más evidente (interesadamente lo digo y no lo escondo) es el desaprovechamiento por desconocimiento de las posibilidades de utilizar recursos como VBA o OOo Basic para mejorar el funcionamiento de las presentaciones y de otro tipo de documentos basados en los servicios que ofrecen las suites informáticas (Microsoft Office -> VBA; LibreOffice -> OOo Basic).

En cierto modo, el soporte que algunos recursos ofrecen para el registro de resultados pueden considerarse ejemplos de este tipo de carencias, pero lo son en mayor medida la ausencia de materiales que implementen script en su funcionamiento, ya que impide desarrollar funcionalidades que  no son pensables (de ahí que no se creen) utilizando las funcionalidades que sí son conocidas por usuarios calificables como de nivel avanzado.

Mientras que este usuario puede caer en la tentación de sobredimensionar el empleo de elementos MAV, perfectamente puede carecer de conocimientos suficientes de programación con "lenguajes de macros" (en realidad otra forma de ser usuario avanzado), lo que limita para crear funcionalidades muy interesantes desde el punto de vista educativo, además del potencial que presentan para ahorrar tiempo al profesorado en la realización de cierto tipo de trabajo (3).

Para ilustrar lo que propongo, pero también para ofrecer un material sobre Conceptos básicos, dejo a tu disposición este docap con sus diferentes elementos. Se trata de un archivo comprimido que deberás descargar y copiar en el directorio raíz una unidad D (lápiz de memoria, por ejemplo). Está formado por dos archivos (una presentación Impress y un documento Writer) y dos carpetas (una para guardar los informes que se creen y otra que contiene cuatro audios incluidos en la presentación).

NOTAS

(1) Aquí vuelvo a insistir en el interés que estudiar esta temática podría tener para la investigación educativa, pero también para el desarrollo de una política del currículo basada en evidencias y centrada en dar respuesta a las necesidades reales de la población. Y hago un inciso sobre esto de "lo básico": cuando apretaron las dificultades (léase, durante los recientes tiempos de pandemia) volvimos a centrarnos en "lo que realmente importa" en Educación, pero cuando regresamos a la "normalidad" retornamos con afán desmedido a los juegos terminológicos y a la inflación de contenidos (ahora competenciales, eso sí). Qué rápido se nos olvidó de ese sabio principio de que "menos es más".
(2) Por cierto, algo que se acentúa a causa del escaso interés que muestran tener quienes poseen los conocimientos profesionales y los medios necesarios para que esto no suceda.
(3) Personalmente opino que debemos huir de esas malas formas de interpretar la evaluación continua que más parecen una obsesión por la precisión que otra cosa. A partir de determinado momento, esta obsesión parecen entender toda acción educativa en una excusa para ejercer el control por medio de la evaluación. El planteamiento teórico de la evaluación continua, que es muy interesante y útil como principio teórico genérico, se vuelve un absurdo tan agobiante como innecesario cuando se pretende llevar a sus extremos. Por muy atrayente que parezca, sobre todo para quienes se limitan a teorizarlo y para quienes repiten sus mantras como papagayos, sin las debidas reservas y en ausencia de sentido común, termina siendo  una pesadilla para quienes lo tienen que poner en práctica. Y lo que es peor aun: distorsiona el proceso de E-A, comprometiendo su propia viabilidad.

Atención


Test Caras



La atención es la capacidad que nos permite seleccionar los estímulos relevantes y concentrarnos en ellos para responder de forma consecuente con la demanda que implican.


Existen diferentes instrumentos para evaluar este proceso cognitivo, siendo el Test Caras de percepción de diferencias uno de los más usados en nuestro país. Creado por Thurstone, fue adaptado en España inicialmente por Yela y posteriormente actualizado bajo el nombre Caras-R. Con esta denominación es comercializado en la actualidad por TEA Ediciones.


De la edición inicial a la actual las modificaciones han sido notables, afectando también a la forma de puntuar. No obstante, ahí donde es posible realizar comparaciones, es llamativa la estabilidad de los resultados entre los baremos originales (en la adaptación de Yela) y los actuales. Me refiero a resultados de puntuaciones medias, desviaciones típicas y valor PD del percentil 50 de "Aciertos", única PD tenida en cuenta en la versión original del test que se mantiene también en la actualidad.

Como dije, esta estabilidad es evidente en el valor PD que equivale al Pc 50 en ambos baremos: únicamente en la edad inferior (P1, 6-7 años) se puede valorar la diferencia como elevada (13 frente a 19, 6 puntos), siendo moderada (3 puntos) en los cursos P3 y P4 y prácticamente inexistente para el resto de los grupos de edad. 

Los valores de la media y la Dt muestran diferencias algo más elevadas, pero es sabido que la media se ve afectada por las puntuaciones extremas, cosa que no sucede con la mediana.

Se plantea aquí una cuestión de interés cuanto menos formal, ya que este test ofrece estadísticos en Pc y eneatipos en ambas versiones, aunque en Caras-R no sólo en la puntuación Aciertos (A). La nueva versión también incluye valores para errores (E), aciertos-errores (A-E) y un valor ICI, que se define como Índice de Control de la Impulsividad y se calcula mediante la fórmula (A-E/A+E)*100.

Para mayor información sobre esta prueba remito a la información recogida en  TEA Ediciones que ofrece en su página un extracto del manual de la edición nº 14 (2021).

domingo, 20 de abril de 2025

Comprensión

Evaluación

Comprensión oral. ITPA




También llamada comprensión auditiva, es la capacidad para entender lo que se dice y constituye una de las competencias lingüísticas básicas en la que intervienen procesos lingüísticos, cognitivos, perceptivos y también actitudinales que requiere la participación activa del oyente. Además, la comprensión oral está correlacionada con la comprensión lectora, aunque son dos competencias diferentes que se deben trabajar de forma relacionada pero específica.


Los procesos de comprensión auditiva se han entendido en la literatura científica desde dos perspectivas: como procesamiento sintético (bottom-up), que implica todos los procesos implicados en el lenguaje, y como procesamiento analítico (top down), que incluye el conocimiento general del mundo que tiene el oyente. Este mismo planteamiento se aplica también a la comprensión lectora y al igual que en ella, también aquí se puede entender que ambos enfoques en realidad son compatibles, como defiende el modelo interactivo.

En la práctica pedagógica, la comprensión auditiva se plantea en la etapa de Educación infantil con mayor o menor interés y acierto, pero al pasar a la etapa de E. Primaria generalmente sólo se mantiene como objetivo del proceso de enseñanza-aprendizaje en el área de Lengua extranjera, pero no en el de lengua castellana y literatura.

Tampoco en los procesos de evaluación psicopedagógica se presta especial atención a la evaluación de esta capacidad, aunque retazos de ella se mantienen en pruebas específicas de comprensión léxica (vocabulario) y gramatical (estructuras gramaticales). También puede emplearse como parte (muy limitada) de la evaluación de la comprensión lectora (véase PROLEC-R, subtest primeros ítem de Comprensión de oraciones y subtest Comprensión oral), como recurso para descartar dificultades específicas y/o relacionadas con las capacidades generales (CI).

Aun se comercializa un test que mantiene una prueba denominada específicamente como Comprensión auditiva. Me refiere al Test de Illinois (ITPA), de la [editorial TEA], aunque se trata mas de una especie de reminiscencia del pasado que de un producto actualizado (por si te interesa, actualmente y según catálogo on-line, tiene un precio nada barato de 373,08 €, IVA incluido. Aunque es un subtest de evidente interés, no vamos a tratar ahora sobre él, aunque bien podría ser objeto de atención dentro de este blog más adelante.

Lo que ahora te voy a plantear es una práctica más simple: la lectura de un cuento al alumnado por parte del docente, o simplemente contar (oralmente) un cuento. Esta práctica es común en la etapa de la E. Infantil y también en las familias (aunque posiblemente menos de lo deseado, especialmente por parte de éstas últimas). Cierto es que debería tener continuidad en la etapa de E. Primaria (sería conveniente, aunque modificando los contenidos), ya que en realidad parte de la práctica pedagógica, tan tradicional como habitual y necesaria, se basa en la comprensión oral del alumnado: me refiero a la práctica docente de lectura del contenidos del libro de texto o de la exposición oral del contenido conceptual a explicar: en resumen, lo que ambas prácticas requieren del alumnado se puede entender como comprensión auditiva (o comprensión oral), con toda la complejidad real que tiene esta competencia.

Para ilustrar esta práctica he optado por crear un script Python basado en la biblioteca PyGame que tiene como resultado un sencillo cuenta-cuentos. Se requiere disponer de la colección de imágenes necesarias (en secuencia, lo que da pie a trabajar también las secuencias temporales con las que la comprensión oral de textos narrativos también está relacionada) y de audios. Disponer de las primeras depende de la habilidad artística de cada cual (o de la habilidad que tenga para acceder a esas imágenes) y de los audios de las ganas que tenga de ponerse delante del micrófono del ordenador (por ejemplo) y usar un programa (gratuito y de fácil manejo) como Audacity

El script Python es muy simple como podrás comprobar, así que no tienes disculpa para usarlo para crear esos cuenta-cuentos que los peques esperan y que tú puedes puedes usar en el aula como herramienta complementaria de otras intervenciones, pero también en casa y, por qué no, como medio complementario en la interacción personal y directa con los peques. Seguro que le encanta que seas tú quien ha creado ese cuento para ellos; la percepción de los medios digitales que les proporciona este tipo de experiencias no debe ser subestimada.

En realidad el script es prácticamente el mismo que creé para explicar cómo hacer una presentación simple con PyGame [en esta entrada], así que las mismas explicaciones valen también para el actual. Quizás la única diferencia de importancia sea haber creado una segunda tupla (son = (4000,8000,15000,16000,18000,18000,9000)) con las direcciones de los audios como medio de ajustar la duración de la presentación (tmp = son[i]) de cada imagen a la duración del audio correspondiente (pygame.time.delay(tmp)).

Documentos. Y para finalizar, desde el enlace que sigue puede [descargar el archivocomprimido que contiene el script y los MAV (estos en la carpeta assets, cada uno en su subdirectorio, que es donde deben seguir estando cuando descomprimas el conjunto).