Discussion:Integrated Model of Text and Picture Comprehension (ITPC)

Version datée du 3 décembre 2025 à 13:47 par Admin (discussion | contributions) (De la preuve et de la mesure)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)

Trucs sympa à retenir

p. 93 : Students learn better from words and pictures than from words alone, if the words and pictures are semantically related to each other (the coherence condition) and if they are presented closely together in space or in time (the contiguity condition).

Questions et problématiques

Figure 1

Il présente la première figure p.86 comme "heoretical framework for analyzing text and picture comprehension proposed by Schnotz and Bannert (2003). ", or, dans d'autres études, j'ai vu qu'il le présentait comme le modèle de l'ITPC. C'est normal ?

Figure(s) 2 (et 3)?

Pourquoi avoir mis ces deux figures, pourquoi ne pas en avoir gardé une seule (sachant qu'il serait possible de les combiner)

Pourquoi les flèches aboutissent aux phonologic ou lexical patterns? On ne devrait pas aboutir au "mental model"?

De la preuve et de la mesure

p. 86, il dit: "The model therefore predicts that if a picture is added to a text and if the mental effort invested by the learner is the same"

  • comment est mesuré l'effort mental ?

Puis: ", text information may become less important due to the additional picture information."

  • pourquoi ça ne serait pas l'information de l'image qui ne serait pas traité ?

"The text is possibly processed less deeply, resulting in lower memory for text information than if the text had been processed without pictures."

  • comment c'est mesuré ?

A propos de l'eye tracking

il dit p. 93: "Corresponding findings based on eye-tracking data have been recently reported by Hochpöchler et al. (2013), Schnotz and Wagner (2018), as well as Zhao, Schnotz, Wagner, and Gaschler (2020).", or:

  • Hochpöchler et al. (2013) ne semble pas parler d'eye tracking (dans l'abstract)
  • Schnotz and Wagner (2018) a le terme "eye-tracking" uniquement dans ses mots-clés
  • Zhao, Schnotz, Wagner, and Gaschler (2020) semble exploiter assez peu ses résultats d'eye-tracking