• Aucun résultat trouvé

Temps de réponseTemps de réponseTemps de réponse

N/A
N/A
Protected

Academic year: 2022

Partager "Temps de réponseTemps de réponseTemps de réponse"

Copied!
33
0
0

Texte intégral

(1)

L ’a u to m at is at io n d e la t âc h e d e re ch er ch e v is u el le e t m n és iq u e: U n e ré v is io n

Denis Cousineau

(2)

P et it e x em p le d e re ch er ch e v is u el le

Le modèle riel auto-cessant

(3)

L ’a u to m at is at io n

❧Ex: conduite automobile Charge

Non Oui

Te mp s d e r ép on

se Bloomington Montréal

Non Oui

Te mp s d e r ép on

se Bloomington Montréal Pratique

Te mp s d e r ép on se

(4)

M o d èl e N o rm al 1 :

❧Conditions pour automatiser: Pratique avec la che consistance du lien entre le stimulus et la ponse ❧Phénomène Si les stimuli sont consistants: Effet de pratique sur les moyennes et les écarts types Disparition des effets de charges Si les stimuli sont inconsistants: Peu d’effet de pratique Persistance des effets de charges et interactions avec la ponse

(5)

M o d èl e N o rm al 1 (s u it e) :

❧Explication: Deux processus: processus contrô: Comparaison sérielle auto-cessante Facultatif, attentionnel, lent processus automatisé: Ballistique, p-attentionnel, rapide ❧Si novice ou inconsistance ⇒ processus contrôlé ❧Si entrainé ET consistance⇒ processus automatisé

(6)

B u t

❧La consistance est-elle une contrainte sur ce qui peut s’automatiser? Est-on limité au schéma S R? ❧Existe-t-il une autre explication pour l’amélioration des performances?

(7)

T âc h e u ti li sé e

Recherche visuelle et mnésique ❧But: Décider si un stimulus (cible) est présent sur un affichage test. ❧Charges: taille de l’ensemble mémoire (1, 2, 4) taille de l’affichage test (1, 2, 4) (demo)

RLSH· 6 H ·* 500 ms 500 ms Réponse (±1 ms)

(8)

A ss ig n at io n

HÉTÉROGÈNE CiblesLeurres Consistent Mapping (CM){L,H,R,S}vs{2,3,6,7} Varied Mapping (VM){L,H,R,S,2,3,6,7} Categorical Varied (CVM){L,H,R,S}vs{2,3,6,7} ou{2,3,6,7}vs{L,H,R,S} HOMOGÈNE _CiblesLeurres CM{L,H,R,S}vs{Z,B,G,F} VM{L,H,R,S,Z,B,G,F} CVM{L,H,R,S}vs{Z,B,G,F} ou{Z,B,G,F}vs{L,H,R,S}

(9)

R és u lt at s: C o u rb e d ’a p p re n ti ss ag e

❧Les groupes VM s’améliorent, mais pas autant que les groupes CM

VM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

CM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

CVM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

HOMO MN HOMO SD HETERO MN HETERO SD

(10)

T h éo ri e d e l’ at tr ac ti o n d e l’ at te n ti o n

(Shiffrin et Schneider, 1977, Dumais, 1979) Les cibles sont tellement bien apprises qu’elles sautent aux yeux Pas d’attention nécessaire Pas d’effet des charges La force de l’attraction de l’attention croît avec la pratique si et seulement si les cibles sont consistantes. ⇒ «Charlie devient fluorescent»

(11)

VM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

R és u lt at s: E ff et s d e ch ar g e V M

❧Effet de la charge très important ❧Interaction avec l’effet de la réponse

VM Positive 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

Mil lis ec on ds

VM Negative 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

(12)

CM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

R és u lt at s: E ff et s d e ch ar g e C M

❧Effet de la charge minimes ❧Pas d’interaction avec l’effet de la réponse

CM Positive 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

CM Negative 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

Mil lis ec on ds

(13)

CM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

R és u lt at s: E ff et s d e ch ar g e C M b lo c 1

❧Pas d’effet pour le groupe Hétérogène dès le début de l’apprentissage

CM Positive 400

500

600

700

800

900

1000

1100

1200

1300

1400 124 D size

CM Negative 400

500

600

700

800

900

1000

1100

1200

1300

1400 124 D size

(14)

CVM Positive 350

400

450

500

550

600

650

700

750

800

850 123456789101112 Block

R és u lt at s: E ff et d e ch ar g e C V M

❧Il y a une distinction très nette entre Homogène et Hétérogène: Pas d’effet de charge pour le groupe Hétérogène; effet important pour le groupe Homogène.

CVM Positive 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

Mil lis ec on ds

CVM Negative 200

300

400

500

600

700

800

900

1000

1100

1200 124 D size

(15)

C o n cl u si o n s su r le s m o y en n es

❧La consistance n’est pas suffisante pour expliquer le phénomène de l’automatisation: Peformances automatisées sans consistance (CVM HETERO) Par contre, il n’est pas possible d’avoir des performances automatisées s’il n’y a pas de cagories p-formées dans un environement sans consistance (CVM HOMO) Le le de la consistance est de former des catégories (CM HOMO) La pratique de la tâche n’est pas toujours nécessaire (CM HETERO au bloc 1).

(16)

T h éo ri e d es t ra ce s m n és iq u es

(Logan, 1988) On mémorise chaque rencontre avec le stimulus ainsi que la réponse émise à cette occasion; on récupère en mémoire la réponse associée à l’affichage test, mais! Ces traces mnésiques ne sont utiles que si les associations S R sont consistantes. Avec la pratique, on emmagasine de plus en plus de traces de ces association en mémoire; Récuperer une trace est plus facile s’il y en a beaucoup en mémoire. ⇒ «On se souvient où se trouve Charlie»

(17)

VM HOMO positif 100

120

140

160

180

200

220

240

260 400500600700800 Moyenne

Éc art s t yp es

VM Positive 0

100

200

300

400

500

600

700

800

900

1000 123456789101112 Block

R és u lt at s: l es é ca rt s ty p es

❧Pas de déviation systématique ❧Les moyennes ont la même courbure que les écarts types

(18)

C o n cl u si o n s su r le s éc ar ts t y p es

❧Les écarts types ont la même courbure que les moyennes correspondantes pour une majorité de sujets. ❧La consistance ne détermine pas le comportement de la variabilité ❧Pas de distinction nette entre CM et VM→ il n’y a sans doute pas deux processus (contrôlé et automatique)

(19)

P et it i n te rl u d e m at h ém at iq u e

❧Selon un modèle sériel auto-cessant: Dans un processus contro, les écarts types doivent aussi avoir la même courbure que les moyennes Le «critère de Logan» est donc toujours vrai! ❧On observe une pente≈ .60 dans les conditions VM

601.0 12

2

)( 12

)()()()(

)( 2

1

)()( 2

00 =

+=

++ =

+= ++

+

+ MNSD

CEn

CEnVarnECVarSD

tCEn

tCEnEMN

(20)

E x p li ca ti o n a lt er n at iv e: l e C ro ss - se ct io n n al /L o n g it u d in al m o d el ( C L )

Hypotèses: Les unités de base sont les caractéristiques qui compose les lettres, et non la lettre en soi Le participant cherche à être efficace: il veut repérer les traits les plus diagnostiques en premier et ignorer les traits inutiles Résultats attendus CM grande amélioration VM faible amélioration

(21)

S im u la ti o n p ar o rd in at eu r d u C L

Architecture sérielle auto-cessante Apprentissage: Ordonne les traits en ordre d’importance Élimine les caracristiques les moins diagnostiques HLRLB ZG

Charge mnésiqueCharge visuelle (11, 6, 7), (11, 2), (5, 2, 1, 7) (11, 2), (11, 1, 9), (2, 1), (2, 1, 7)

11, 5, 6, 2, 1, 9, 7, 3, 8, 4, 10, 12

Importance des traits + -

diagnosticité Traits inutiles

(22)

R és u lt at s d e la s im u la ti o n

200300400500

600700

800900100011001200 1234 D size

m ea n R T

0%10%20%30%

40%50%

60%70%80%90%100%

Percent Error

010

20

304050

6070 1234 D size

N o f f ea tu re s

C M V M 200

300

400500

600

700

800900

10001100

1200 1234 D size

m ea n R T

0%

10%

20%30%

40%

50%

60%70%

80%90%

100%

Percent Error

010

20

30

40

50

60

70 1234 D size

N o f f ea tu re s

(23)

R és u lt at s d e la s im u la ti o n ( su it e)

200

300

400

500

600

700

800

900

1000

1100

1200 0510152025303540455055606570 number of features

200

300

400

500

600

700

800

900

1000

1100

1200 0510152025303540455055606570 number of features

200

300

400

500

600

700

800

900

1000

1100

1200 0510152025303540455055606570 number of features

200

300

400

500

600

700

800

900

1000

1100

1200 0510152025303540455055606570 number of features

H E T E R O H O M O

PositifNegatif

(24)

C o n cl u si o n s u r la s im u la ti o n

Rend compte des moyennes dans toutes les conditions Explique aussi les ecarts types positifs Cependant, explique moins bien les écarts types négatifs Apprend plus rapidement que les sujets humains. La courbe d’apprentissage des moyennes et des écarts types sont proportionnelles On observe des effets de cagories dans les sultats Le modèle CL propose un processus unique, simple, ne nécessitant pas de paramètres libres pour comprendre les effets des catégories et de la similarité

(25)

C o n cl u si o n g én ér al e

❧La consistance n’est pas nécessaire pour automatiser échec du schéma S→ R S T(C) R où T est un transducteur qui utilise des catégories ❧Pas de dichotomie (contrôlé-automatisé) entre les novices et les experts dans une tâche de recherche visuelle et mnésique. ❧Le CL procure une définition d’ «Efficacité»

(26)

Merci pour votre attention.

(27)

VM HETERO Negative 0

100

200

300

400

500

600

700

800

900

1000 02004006008001000 Empirical

Pre dic te d

VM Positive 0

100

200

300

400

500

600

700

800

900

1000 123456789101112 Block

R és u lt at s: l es é ca rt t y p es ( 1 /1 )

❧Méthode de comparaison utilisée par Logan.

(28)

Probability density function 0

0.001

0.002

0.003

0.004

0.005 225425625825 RT

f ( R T )

C = 2.0 a = 250; b = 200

A n al y se s d is tr ib u ti o n el le s (1 )

Les statistiques usuelles sont inadéquats: La moyenne est biaisée par l’asymétrie de la distribution des temps de ponse Les écarts types sont très difficiles à analyser T intra- sujet? Intra-condition? Puis moyennés?)

Moyenne

Références

Documents relatifs

[r]

Cette droite est donc la droite (CD) et finalement (E) est la droite (CD) privée du point C.. La bonne réponse est

Pour chaque ligne du tableau, une seule affirmation

On a (dans le III précédent) représenté les SSM en termes d’automates, alors que le théorème de Suppes représente certains automates en termes de SSM. Si

Si un candidat est amené à repérer ce qui peut lui sembler être une erreur d’énoncé, il le signalera sur sa copie et devra poursuivre sa composition en expliquant les raisons

$$UFKLWHFWXUH Résultats sur les distributions /DSUpVHQFHGHSOXVLHXUV PRGHVLPSOLTXHXQ WUDLWHPHQW ²6pULHOHW ²$XWRFHVVDQW ORUVGHVHVVDLV⊕ Les modes sont visibles à cause de

Afin d’étudier les propriétés des estimateurs, nous considérons deux approches : (i) l’approche par le modèle de non-réponse (NM), et (ii) l’approche par le modèle

[r]