M
H. R OUANET
Les modèles stochastiques de l’apprentissage
Mathématiques et sciences humaines, tome 6 (1964), p. 3-22
<http://www.numdam.org/item?id=MSH_1964__6__3_0>
© Centre d’analyse et de mathématiques sociales de l’EHESS, 1964, tous droits réservés.
L’accès aux archives de la revue « Mathématiques et sciences humaines » (http://
msh.revues.org/) implique l’accord avec les conditions générales d’utilisation (http://www.
numdam.org/conditions). Toute utilisation commerciale ou impression systématique est consti- tutive d’une infraction pénale. Toute copie ou impression de ce fichier doit conte- nir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
LES
MODELESSTOCHASTIQUES
DEL’APPRENTISSAGE
(La première partie de ce texte a été
publiée
dans le N° 5, Janvier 1964)1 1 1 -
Particularisations
dumodèle général
1Nous allons maintenant
particulariser
le modèlegénéral précédent,
de maniè-re à obtenir des modèles
ayant
étél’objet d’investigations nombreuses,
y à la foisthéoriques
etexpérimentales.
Nous avonsdéjà
faitallusion,
y dans lapremière
par-tie,
au modèlesimple
de Bower(Bower, 1961).
De nombreuxmodèles, plus
ou moinscomplexes,
ont été mis aupoint
parBush, Mosteller,
Luce etc... et il n’est pasquest.ion
d’en faire ici une revuecomplète.
Nous nous contenterons deprésenter sommairement,
à titred’exemples,
deux modèles d’Estes et deSuppes,
et deux mo- dèles deFalmagne. (Pour
deplus amples
détails sur cesmodèles,
on sereportera
aux
publications
de ces auteurssignalées
dans labibliographie).
Dans la.quatriè-
me
partie,
nousprésenterons
desapplications
de ces modèles à desdonnées.Qxpé-
rimentales.
Nous allons maintenant
envisager
deux classes de modèles obtenues enparti-
cularisant le modèle
général, présenté
dans la deuxièmepartie.
Dans la
première
classe demodèles,
nous supposons le stimulus constant. Il suffit alors de se donner les espaceset les
probabilités
’ de pa,ssagePa(z, . )
de Z dans AP~(4a~,e, . )
de ZXAXE dans ZPe ( a, . )
de A dans E.Le processus de terme
Xà =
est markovien ainsi que les processus de terme(~,~), (~, en)
et( zn) .
Dans la deuxième classe de
modèles,
nous supposerons le renforcement cors-tant. Il suffit alors de se donner les espaces
v
et les
probabilités
de passagede Z x S dans A .
P ( z, s , a, . )
de Z X S X A dans ZP(s,a, .)
de S x A dans Sce processus de terme xn = est markovien ainsi que le processus de terme
(zn, sn) .
°A - MODÉLES À STIMULUS CONSTANT: DEUX MODÈLES D’ESTES ET SUPPES
Les modèles à stimulus constant sont les
plus
nombreux à avoir été étudiés et il en existe de nombreuses variétés.Reprenons
le modèlegénéral.
Si
l’application z-’Pa(z,.)
estinjective,
onpeut
identifier Z avec une par- tie del’ensemble_(A,£t)
des mesures deprobabilité
sur(A,Cl).
Cet ensemble estun ensemble très "vaste". Dans certaines classes de
modèles,
on se contente deprendre
pour Z unepa,rtie
très restreintede_(A, CL).
Dans dl autres classes de mo-dèles où on
prend
Z on fait deshypothèses
trèssimplificatrices
surles condi,tions
(R~ ) ~
enparticulier
sur(R~) .
Une autre restriction concerne les espaces observables
(A,Gt)
et(E,
Dansbien des cas il est
possible
d’identifier ces deux espaces. C’est ce que nous fe-rons dans ce
qui
suit où nous supposeronsCe cas
correspond
à la situationexpérimentale
dite "deprédiction"
à larqu.elle
nous nous limiterons dans la suite de cette section. Achaque essai,
le su-jet
doitprédire quel évènement,
élément d’un ensemble E bien définid’évènements,
va se
produire; puis l’expérimentateur indique
ausujet quel
évènement de cet en-semble E se
produit.
Pratiquement,
on fait deshypothèses
encoreplus
restrictives et les deux seuls casqui
aient été bien étudiés sont les suivants :a)
A(ou E)
est un ensemble fini(on
a alors1’ (A) ) .
’B
b)
A(ou. E)
est la droite réelleR (&la algèbre
des boréliens deR).
Pour ces deux cas, Estes et
Suppes
ontdéveloppé plusieurs modèles,
les deuxprincipaux
étant les suivants :- Le modèle linéaire
(cf.
Estes etSuppes, a)).
- Le modèle "à un élément"
(cas particulier
des modèlesd’ "Echantillonnage
rdu stimulus" - cf. Estes et
Suppes b)).
Nous
présenterons
ces deuxmodèles,
dans le cas où A(et E)
necomportent
que deux éléments a, a’(l’extension
au cas finigénéral
estinnnédiate)
enpa,rticula-
risant les conditions
Le modète tinéa!re d’Estes-Suppes,
pou r A - E .{a a’
On
prend
Z =[0, 1] (Si
àchaque probabilité
a sur on associe l’élé-ment _ a
( 1 )
de[0, 1],
on définit uneapplication biunivoque de1YB (A, 6L)
sur0, 1
au nom delaquelle
onpeut
identifier ces deuxensembles).
(RO) 0 = po
oùpo
est unparamètre
tel que 0 ’po
’ 1(c’est-à-dire :
on se~ ° ° donne un état
initial).
. où 0 est un
paramètre
tel que 0 ’ 1.(R2) exprime
que l’état dusujet
à l’’ essai n + 1 est déterminé parl’état
dusujet
à l’essai n et le renforcement à l’essai n. Il est facile de voir que~R2~
revient,
dans la formulationgénérale,
y àprendre
~2
Le
modèle à un élément d’Estes-Suppes,
pourOn
prend
(probabilité
sur les étatsinitiaux)
où p
etj3’
sont deuxparamètres,
y 0 ’f
1(le plus souvent,
y onprend # =i j3’= 0)
P
’avec où c est un
paramètre
tel queRenf orcement indépendant
Lorsqu’on
se donne unerègle
derenforcement,
y les deux modèlesprécédents conduisent,
y pour des valeurs données desparamètres
y à desprédictions théoriques
obtenues à
partir
de l’étude des processus(a~, en)
et(a ) .
Nousillustrerons les
procédés utilisés,
pour le modèlelinéaire, lorsque
le renforcement estmde en--
dant.
Dans le cas où A =
E ~ a,
le renforcementindépendant
est défini pa,r la donnée d’unparamètre
7t,b
~ 7r ~1 choisi parl’ expérimentat,eur
et tel queModèle 1 i néa ï re ,
pou r A =E - a , a’ et renf orcement indépendant
Puisque n
est une variablealéatoire~
à valeur dans[0, 1~ ,
onpeut
définirses
moments,
y le moment d’ordre U étant défini pa,r:Les axiomes du modèle
permettent
d’obtenir deséquations
de récurrence sur les moments.Indiquons
comment on obtientl’équation
de récurrence pour lepremier
moment E- -
On en d.éduit
Asymptot,iquemen-t
On obtiendrait de
façon analogue
uneéquation
de récurrence pour le moment d’ordre 2 E( 2n),
etc...Asymptotiquement
yLes
équations
sur les momentsde àn
une fois connues, on en dérive lesprédictions théoriques
concernant les processus(an, en)
et(an) .
Toutd’abord,
on a la
probabilité
moyenne de laréponse
a à l’essai n.On a donc
l’équation
de récurrence :et
asymptotiquement
On a ensuite toutes les
probabilités séqu.entielles,
c’est-à-dire toutes lesprobabilités
de la forme.
(noter
que cesprobabilités
sontdifférentes,
y car le processus(an en)
n’est pasmarkovien).
Pratiquement,,
on s’intéressa surtout aux.probabilités
dutype
P(~+1 1 en)
et P
(an+11 I e~, an).
On vérifiefacilement
que :c 1 est-à-diré :
Asymptotiquement
yPour les
probabilités
dutype
P(a
n+1en),
la connaissance du 2ème mo-ment E
( n)
n est nécessaire.Indiquons
comment on obtient P(8n.+1=a
+11 en = a, an = a).
On commence par évaluer la
probabilité composée :
on a f in al ement :
Modèle
à unélément,
pourA - a, a’
etrenforcement indépendant
Nous
prendrons
la formulation du modèle pourlaquelle ~ = 1 , ~’ _
0.La démarche est
analogue
et nous nous contenterons d’énoncer les résultatscorrespondant
à ceuxdéjà
donnés pour lemodèle
linéaire. On obtient facilementl’équation
de récurrence pour les états.c’ est-.à-dire :
analogue
à(1 ) .
Asymptotiquement
Pour les
probabilités séquentielles
onpeut
démontrer les formules suivantes:et
asymptotiquement
Enfin nous donnerons
l’ analogue ,de (3)
La
comparaison
des résultats fournis par le modèle linéaire et le modèle àun élément
appelle
les commentaires suivants : ’a)
Si on identifie lesparamètres
e et c des deuxmodèles,
les deux modèlesconduisent à des
prédictions identiques
en cequi
concerne lesprobabilités :
Ils conduisent à des
prédictions divergentes
en cequi
concerne lesprobabi-
lités :Ce résultat est aisément
généralisable.
Onpeut
montrer que lesprobabilités séquentielles
ne faisant intervenir que les renforcements antérieurs sont les mêmes dans les deuxmodèles,
y alors que lesprobabilités séquentielles
faisant in-tervenir des
réponses
antérieures diffèrent dans les deux modèles.b)
Le résultatasymptotique,
commun aux deuxmodèles,
revgt une
importance particulière~
car ils’agit
d’uneprédiction qui
ne met enjeu
aucune estimation deparamètre ~
et d’autrepart qui
estsusceptible
d’une in-terprétation
trèssimple.
Ce résultatexprime
en effet que laprobabilité
d’uneréponse
tend às’ajuster
à lafréquence
du renforcementcorrespondant.
C’ est laloi de
l’ajustement déjà signalée
dans lapremière partie.
Extension
aucas
d’unensemble
deréponses continu (A =
E -R)
Les deux modèles - linéaire et à un élément - ont été étendus par P.
Suppes (1959)
au cas où A = E = R où Rdésigne
la droite réelle. Nous exposons briève- ment les axiomes deSuppes
et renvoyons pour les détails aux articles deSuppes
cités en
bibliographie.
Le
Modèle 1 i néa i re
deSuppes,
pour A = E = R .On
prend
pour Z l’ensemble des fonctions derépartition
sur R(isomorphe
àl’ensemble des mesures de
probabilité
surR).
On a alors :(Ro) Zo
=Po (où Po
est une fonction derépartition,
c’est-à-dire on sedonne un état
initial).
où K est une fonction de
répartition,
telle queLe
Modèle
à unélément
deSuppes,
pour A = E = ROn
prend
(où Po
est une fonction derépartition).
où K est une fonction de
répartition
telle queoù H est la fonction échelon-unité
On voit que les modèles continus de
Suppes
sont lagénéralisation
immédiatdes modèles
exposés précédemment.
La seulecomplication
concerne la fonction derépartition
Kappelée "répartition
d’étalement"(smearing distribution) ;
intuiti-vement,
y elleexprime
que l’effet du renforcement en est non pas concentré aupoint
en mais s’étale sur les
points
voisins. K est une distributionhypothétique;
doncen
principe
le modèlecomporte
autant deparamètres qu’il
fautde "paramètres
pour définir une distribution*.Pratiquement,
comme nous le verrons, y unparamètre (var riance)
est suffisant pour lesapplications.
8 .~- M O D È L E S À RENFORCEMENT CONSTANT,- DEUX MODÉLES DE FALMAGNE
Les modèles à renforcement constant ont été
beaucoup
moins utilisés que lesprécédents.
Nous décrironsrapidement
deux modèles de FALMAGNE(1962, 1964)
conçuepour la situation
suivante,
dite detemps
de réaction de choix. Achaque essai’
onprésente
ausujet
un stimuluspris parmi
kstimuli;
àchaque
stimuluscorrespond
une
clef,
lesujet
doit à laprésentation
d’unstimulus!
appuyer aussi vite quepossible
sur la clefcorrespondante.
On note letemps
mis pa,r lesujet
pour ré-pondre (temps
deréaction).
Nous
appellerons
S l’ensemble desstimuli,
comme dans le modèlegénéral.
L’en-semble A des
réponses (temps
deréaction) peut
gtre identifié avecR+,
ensemble desnombres
positifs.
Dans les deux modèles deFALMAGNE,
onpostule
deux distributions* En tenant compte naturellement de ’1 a contrainte
fR
u d k u = 0.sur H et K.
L’espérance
de H estsupérieure
à celle de K.Intuitivement,
H estune distribution de
temps "longs",
K est une distribution detemps
"courts".Le
modèle "linéaire"
de FALMA6NEOn
prend
Z =[0, il S
où S =tsly
s2y ...5k}
où est la sn ième
composante
de zn.Le
modèle "à
unélément"
de FALMAGNE Onprend Z = 10, 1 S
(A
l’essai n, % =( zn~ 1, zn 2 ... Zn k)
aveczn i
= o ou1) (Ro)
P(~= ~) = ~o
où ~o est uneprobabilité
sur(Z, 5)
On note les
analogies
entre chacun des deux modèlesd’Estes-Suppes
et chacundes deux modèles de
Falmagne,
c’estpourquoi
nous avons utilisé pour ceux-ci des dénominationsidentiques.
Lorsqu’on
se donne unerègle
deprésentation
desstimuli,
les deux modèlesprécédents conduisent,
pour des valeurs données desparamètres,
à desprédictions théoriques.
Nous calculeronsquelques-unes
de cesprédictions
dans le cas où lesstimuli sont
présentés
defaçon indépendante,
c’ est--’a-direoù l’ expérimentateur
sedonne k
probabilités TC1’ 7t2’ ... n
telles que :Pour obtenir les
prédictions théoriques correspondant
aux modèlesprécédents,
yon raisonnera comme nous l’avons fait pour les modèles
d’Estes-Suppes.
Nous indi-querons
simplement quelques résultats,
communs aux deux modèles(pour
le modèle àun
élément, lire c 10
au lieu19
- Distribution
asymptotique
moyenne destemps
de réactionlorsque
lesignal
iest
présenté :
-
Distribution asymptotique
conditionnellePi.,édes temps
de réactionaprès
É répétitions du
stimulusi
c’ est-à-direlors 9. ue
le stimulus i estprésenté après
avoir été
présenté précédemment
lorsdele 2
essais consécutiis :- Distribution
asymptotique conditionnelle
destemps
de réactionlorsque
le stimulus i est
présenté après
un intervalle de messais,
c’est-à-direlorsque
le stimulus i est
présenté après
n’ avoir pas étéprésenté pendant
m essaisIV -
Exemples de validation expérimentale
A - UNE VALIDATION’DES MODÈLES DE SUPPES
Les modèles d’Estes et
Suppes
ont donné lieu à de nombreusesexpériences
devalidation
expérimentale.
Dansl’expérience typique
deprédiction,
lesujet
estplacé
devant un tableaucomportant
deuxlampes
et une clef au-dessous dechaque lampe.
Onindique
ausujet qu’à chaque essai,
une et une seule deslampes
va s’al-lumer. La tâche du
sujet
consiste àprédire,
àchaque essai,
enappuyant
sur laclef
correspondante, laquelle
des deuxlampes
va s’allumer. Enfait,
lalampe
est allumée avec uneprobabilité ’7’C
choisie parl’expérimentateur (cas indépendant)
Des
expériences
faites suivant ce schéma ont confirmé lesprédictions
fondamenta- les communes aux deux modèles(linéaire
et unélément),
tout en donnant lapréfé-
rence, pour les
prédictions différentielles,
au modèle linéaire. On a alors cher- ché àéprouver
les modèlescorrespondants
dans le cas continu. Nous résumerons maintenant uneexpérience
deSuppes
et al.(1963) qui,
faisant suite à uneexpé-
rience
préliminaires,
a donné lieu à une étude détaillée etcomparative
des deux modèles.Le schéma
expérimental, généralisation
du schéma del’expérience
deprédic-
tion citée
plus haut,
est le suivant: lesujet
fait face à un écran surlequel
se* ~’. et FRANI(MANN, R.Y. "Test of stimulus sampl ing theory for a continuum of responses with unimodal noncontingent determinate renforcement" Journal of Experimental Psychology, Vol. 60,1960.
trouve une circonférence. On dit au
sujet qu’à chaque essai,
unpoint
de la cir-conférence va
s’éclairer,
yindiquant
laposition
d’une "cible". La tâche dusujet
consiste à
prédire,
àchaque essai,
en choisissant unpoint
de lacirconférence, (réponse),
l’endroit où la cible vaapparaître.
Enfait~
la cible(renforcement) apparaît
selon une loi deprobabilité
choisie parl’expérimentateur
defaçon
in-dépendante
des’réponses
dusujet ("indépendante").
Dans laprésente étude,
ladensité de distribution des renforcements f
(e)
estbimodale,
et construite àpartir
de deux distributionstriangulaires égales
sur les intervalles(0, n )
et( n,
2n) ; (cf. fig. 1)
30sujets
ont subil’expérience qui comprenait
600 essaissuccessifs.
Deux
paramètres
ont été estimés àpartir
des donnéesexpérimentales:
la va-riance de la distribution
hypothétique d’étalement,
y et leparamètre
0(ou c).
La distribution
asymptotique
desréponses (400
dernièresréponses
des 30 su-j ets,
soit 12.000observations)
apermis
d’estimer la variance de la distribution d’étalement(0,0517 n2).
On a alors pu estimer la densité de distribution théori- queasymptotique
desréponses
r(a)
et y comparerl’histogramme asymptotique
desréponses
observées(fig. 1).
L’accord entre les deux distributions est visiblement satisfaisant.Le
paramètre
e(ou c)
a été ensuite estimé àpartir
de"probabilités séquen-
tielles du 1 er ordre".
D’une
façon précise,
on a estimé la distributionasymptotique
desréponses lorsque
le renforcementprécédent
a eu lieu dans l’un desquatre quadrants
La
fig.
2représente
cette densitéthéorique
calculée en utilisant la valeurestimée de 8
(ou c) : 0, 32,
ainsi quel’histogramme expérimental correspondant*.
Sil’accord n’est pas entièrement
satisfaisant,
il fautcependant
noter que les traits essentiels de la distribution conditionnelle desréponses
ont étéprédits
correc-tement par la théorie. L’existence de 2
maxima,
l’unprincipal,
l’autresecondaire,
est
adéquatement prédite
par le modèle.Ce succès a
encouragé
les auteurs à pousserplus
loinl’analyse,
en examinantles
probabilités séquentielles
du secondordre,
c’est-à-dire la distribution asymp-totique
desréponses lorsque
non seulement le renforcementprécédent,
mais la ré-ponse
précédente
ont eu lieu dans des zones déterminées. Deux remarques doivent être faites ausujet
de ces nouvellesprobabilités séquentielles:
a)
Tous lesparamètres ayant
étéestimés,
e lesprédictions
sont desprédictions
absolues.
B
b)
Lesprédictions
du modèle linéaire et du modèle à un élémentdiffèrent
defaçon
trèsmarquée.
,On constate alors le fait
remarquable
que les résultatsexpérimentaux
s’écar-tent considérablement des
prédictions
du modèle à unélément,
alors que le modèle linéaire constitue uneapproximation
valable.(Fig. 3).
* L’histogramme représenté sur la figure est en fait la combinaison de 4 histogrammes, correspondant
aux 4 quadrants, qui ont pu être combinés en utilisant les symétries du plan expérimental.
ba v ba
1É4
’v
Vi à
v v
... rd ’(J)
n
vt
CH 0
0
ba .« r0 0 ba 0P M
À
H
UJfl
0
À
~ ’v
00 h
d Ék M 0
~ ~ rd o
0
b ~
g fl ô
. P
É É
MM v v (J)
j
~) b b b0w 0 y -+=> e6 ba H ’H - ’H ba ba
N +
v v p
A A v
1
....
.
b0
’H
w
O
Ù2 D
M
’CI)
HD (D
M
m f
M
2013 CI) Ù2
v c!
.H 0
k 8 P-4
’Ôl
fl
D (D
fl Ù2
0
’H 8
o C! P
jP, ùà
ci
o5’V fl
cd k P-4 Ù2
D d)
S,-P
kk,-i CI) 0 k S 0
0 0
0
0
1 .,-i
o CI) 0 .H h -p
"
.à Il r.n.
v Éd
P § iÀ
VÎ cr’ CI)o·ri M g
. ,-i r.n.
o§
rd k CI) o 8 c3
0 r-i rH )
cd
"rd ce H -p0 P M (D U P ’H M
’H CI) ’CI) - P
8
D
1
N
.
b{)
4
.,-iw
_ o
y
r4 = O
g=
0ÎÙÎ É#
O- O a:1
°
ol fi 0
M C3 ’À ÎÎl /
c3Ô ÙÔ
p.tO-wo’3
M .-t
’É É ÉÎ
o 3 "0
r-f
oQ) ’0 .
rd 0
() "d ->Q’0
e=’
3) aa,
03 o
tn ... tQ .r"")
à
Õ(1)
flF w
~ m
~~’ ~ . 0 0
&
É li t /
1t: Q c3 Q a
ô Ù 9
PQ ’ gÎ9
É *W f
"
oM > 0l n
Q o o
_ P4 0 O O 0 al cd
g r-
m c3f5 M
d
o o3 1’> ’0153 M
à
M >#2c! ra o r
o 0153..p ry m M d Q
. 0
.g
’ 0 s
H 0 M ? r-4
r
"’’
-p é
É
0-p
’H en -t?
0 P 5 0
. o
03-p S
"M
,
(’J
k
8
c’
&
"d’j§
rD -P
? Q
0 ’S à’0
3
? ï3 c3 É
1
.
t:D
w
.r-iB - UNE VALIDATION DES MODÈLES DE FALMAGNE
Les modèles de FALMAGNE ont été
appliqués
aux donnéesasymptotiques
d’uneexpérience
detemps
de réaction pourlaquelle
le nombre de stimuli k étaitégal
à 6 et les
probabilités ni
étaient les suivantes:6
sujets
ontpassé l’expérience. L’analyse
aporté
sur les derniers 2.000 es-sais de
chaque sujet
soit sur 6 x 2.000 = 12.000 essais.Les résultats
expérimentaux
relatifs aux distributions moyennes detemps
deréaction sont résumés par la table 1 . On voit que
lorsque
laprobabilité ni
aug-mente,
la moyenne destemps
de réactiondiminue,
y la variance diminue etl’asymétrie augmente.
Les effets derépétition’ d’un
stimulus vont dans le même sens, les effets d’intervalle dans le sensopposé.
. La validation du modèle a
porté
sur lesprédictions
communes aux deux modèles.Appelons H
etpyç
lesespérances
des distributions H et K.,
TABLE I - DISTRIBUTIONS MOYENNES ASYMPOTIQUES DES TEMPS DE RÉACTIONS
e Pour estimer
et"
o onpeut
utiliser la formule donnant lamoyenne
des
temps
de réactionasymptotique
au stimulus iwi est une fonction
homographique
deni.
Enajustant
unehyperbole
pour lesdifférentes valeurs de
ni
on obtientD’autre
part,
y les moyennes detemps
de réactionaprès répétitions
ontpermis
d’estimer les
paramètres
0 et et les moyennes detemps
de réactionaprès
in-tervalles ont
permis
d’estimer lesparamètres
e’ etw.
On trouve :On voit que les estimations s’accordent bien avec les
précédentes.
.
PHe PKY 0
et e’ une fois estimés onpeut
obtenir lesprédictions théoriques
des moyennes des distributions moyennes et des distributions conditionnelles des
temps
de réactionaprès répétitions
ou intervalles. Lesprincipaux
résultats sontprésentés
dans les tables 2 et 3. On voit quel’ajustement
est très satisfaisant.TABLE
2 - MOYENNESOBSERVÉES
ETTHÉORIQUES
DES DISTRIBUTIONS MOYENNES DE TEMPS DE RÉACTION APRÈS LESDIFFÉRENTS
STIMULITABLE 3 - MOYENNES
OBSERVÉES
ETTHÉORIQUES
DES DISTRIBUTIONSAPRÈS
RÉPÉTITIONS
OU INTERVALLESUne étude
plus poussée
des modèles a été faite en considérant les variances et les moments du troisième ordre. Enpremière analyse,
on asupposé
poursimpli-
fier que les deux distributions H et K ont même variance et sont
symétriques.
La variance i de la distribution moyenne des
temps
de réaction au stimulus iest alors donnée par la formule
En
prenant
les différentes valeursexpérimentales devi,
onpeut
estimer Iretajuster
une courbe aux différentes variancesexpérimentales.
On obtient V"= 6250.L’ ajustement
est moins bon que pour les moyennes mais encoreacceptable.
Des ré-sultats
analogues
ont été obtenus pour les moments du troisième ordre.BIBLIOGRAPHIE
SOMMAIRE SUR LESASPECTS MATXEMATIQUES
DES
M4DE LESSTOCHASTIQUES D’APPRENTISSAGE Publications principalement mathématiques
BLAU,
J.H. Thecombining
of classes conditionin learning theory,
TechnicalReport, N° 32, August 23, 1960,
Institute for Math. Studies in Soc.Sciences, Stanford,
Calif.BUSH,
R.R. etMOSTELLER,
F.: A stochastic models inappli
cation tolearning,
Ann.Math. Stat.
24, 1959,
559-585.BUSH,
R.R.MOSTELLER, F.,
etTHOMPSON,
G.L.: A formal structure formultiple-
choice
situation,
in R.M.Thrall,
C.H.Coombs,
et R.L. Davis et al:Decision
processes(New-York, Wiley, 1954).
ESTES, W.K.,
etSUPPES,
P.a)
Foundations of linear models(chap. 8,
inBush, Estes
etal).
b)
Foundations of statisticallearning theory:
II. Stimulussampling
models for
simple learning,
TechnicalReport,
N°4, 1959,
Institutefor Math. Studies in Soc.
Sciences, Stanford,
Calif.HARRIS, T.E., BELLMAN,
R. etSHAPIRO,
H.N. - Studies in functionalequations
oc-curing
in decision processes(Research
MemorandumRM-875, RAND/
Corporation, Santa Monica,
Calif.July 1, 1952).
KANAL,
L. A functionalequation analysis
of twolearning
models(Psychometrika, 27, 1962, 84-104.)
KARLIN,
S. Some random walksarising
inlearning
models(Pacific
J. ofMath,
1953, 3, 725-756).
KEMENY, J.G.,
DELEEUW, K., SNELL,
J.L. etTHOMPSON,
G.L.(Progress Report
Number1,
Darmouth MathematicsProject,
DarmouthCollege, March, 1955).
KEMENY, J.G. ,
etSNELL, J.L. :
Markov processes inlearning theory (Psychometrika,
1957, 22, 221-230).
LAMPERTI,
S. etSUPPES,
P.: Chains of infinite order and theirapplications
tolearning theory (Pacific
J.of Math, 1959, 9, 739-754).
publ ications
àobjectif psychologique,
mais riches endéveloppements mathé- matiques
ATKINSON,
R.C. etESTES,
W.K.: StimulusSampling theory (in
Vol. 2 de BUSH et al.:Handbook).
ATKINSON,
R.C. et al.: Studies in mathematicalpsychology (Stanford,
Calif.Stanford Univ. Press.
1963).
BOWER,
G.H.Application
of a model topaired-associate learning (Psychometrika, 26, Sept. 1961).
BUSH, R.R., LUCE,
R.D. etGALANTER,
E. et al.: Handbook of mathematicalpsychology
(New-York, Wiley, 1963,
5Volumes).
BUSH, R.R., ESTES,
W.K. et al.: Studies in mathematicallearning theory (Stanford,
Calif. Stanford Univ.
Press, 1959).
BUSH,
R.R. etMOSTELLER,
F.: Stochastic models forlearning (New-York, Wiley, 1955).
BUSH,
R.R. etSTERNBERG,
S.: Asingle-operator
model(chap.
10 inBush,
Estes etal.).
ESTES,
W.K. Toward a statisticaltheory
oflearning (Psych.
Review vol.57, 1950).
ESTES,
W.K.Component
andpattern
models with Markovianinterpretations (chap.
1in
Bush,
Estes etal.).
FALMAGNE,
J.C. - Un modèle linéaire pour lestemps
de réaction de choix.Applica-
tion à des résultats
expérimentaux,
Univ. Libre deBruxelles,
Lab. dePsychologie (polycopiée 1962).
FALMAGNE,
J.C. - A linear model for choice reaction time withapplications
toexperimental
results(à paraître
dans Journal of MathematicalPsy- chology, 1964).
STERNBERG,
S. - Stochasticlearning theory (in
Vol. 2 de BUSH et al.: in Handbook of MathematicalPsychology).
SUPPES,
P. - A linear model for a continuum of responses(chap.
19 inBush,
Esteset
al.).
SUPPES,
P. etATKINSON,
R.C.: Markovlearning
models formultiperson
interactions(Stanford,
Calif. Stanford Univ.Press, 1960).
SUPPES,
P.ROUANET, H., LEVINE ,
M. etFRANKMANN,
A.:Empirical comparison
ofmodels for a continuum of responses with
non-contingent
bimodalrenforcement
(sous
presse, àparaître
dans Studies in MathematicalPsychology,/Stanford
Univ.Press).
- Nombreux articles dans la revue
Psychometrika.
- Une nouvelle revue trimestrielle: , Journal of Mathematical