• Aucun résultat trouvé

Chapitre 19: Variables aléatoires discrètes et lois usuelles.

N/A
N/A
Protected

Academic year: 2023

Partager "Chapitre 19: Variables aléatoires discrètes et lois usuelles."

Copied!
30
0
0

Texte intégral

(1)

Chapitre 19: Variables aléatoires discrètes et lois usuelles.

22 février 2021

Notre but est d’étudier plus en détails les variables aléatoires discrètes. En particulier on étudiera les notions précédentes sur ces cas particuliers et nous nous intéressons à d’autres grandeurs caractéristiques telles que l’espérance ou la variance. Enfin nous étudierons un certain nombre de lois qui permettent de modéliser certains expériences aléatoire.

Objectif

1 Variables aléatoires discrètes.

1.1 Définitions et premiers exemples.

Définition 1

Soit (Ω,A,P) un espace probabilisé etX : Ω→R. On dit queX est une variable aléatoire discrète si son support X(Ω) est un ensemble fini ou dénombrable. Plus précisément, on dit que X

• variable aléatoire discrète finie si son support X(Ω) est un ensemble fini.

• variable aléatoire discrète infinie si son support X(Ω) est un ensemble dénom- brable.

Exemple 1

Reprenons nos deux exemples précédents.

• Dans l’exemple de l’urne, X(Ω) = {1,2,3,4,5,6} donc X est une variable aléatoire discrète finie.

• Dans l’exemple du dé, X(Ω) =N donc X est une variable aléatoire discrète infinie.

Exemple 2

Si maintenant X est le temps d’attente d’une personne à un arrêt de bus avant qu’elle monte dans le bus on a X(Ω) = [0,+∞[ et dans ce cas X est une variable aléatoire qui n’est pas discrète.

Propriété 1

Soient (Ω,A,P) un espace probabilisé,X et Y deux variables aléatoires discrètes etλ un réel alors X+Y,λX, max(X, Y) etmin(X, Y)sont des variables aléatoires discrètes.

(2)

1.2 Loi d’une variable aléatoire discrète.

On a vu dans le chapitre précédent que la loi de X consistait en la donnée pour tout intervalleI deR deP(X ∈I). Or si X est une variable aléatoire discrètes telle queX(Ω) ⊂N. On a donc

P(X ∈I) = X

n∈I∩N

P(X =n)

Par exemple, si I =]0,5] alors on a

P(X ∈]0,5]) =

5

X

k=1

P(X = 5)

Donc finalement pour connaitre la loi que suitXil suffit de connaitre pour tout entiern,P(X =n). Propriété 2

Soit X une variable aléatoire discrète sur (Ω,A,P) alors la donnée de X(Ω) et∀k ∈X(Ω) de pk =P(X =k), caractérise la loi de probabilitéde X.

On suit les étapes suivantes :

• Etape 1 : On détermine si X(Ω) est fini ou infini.

• Etape 2 : On décrit X(Ω).

• Etape 3 : On calcule ∀k∈X(Ω),pk =P(X =k).

• Etape 4 :

a) Si X(Ω) est fini et petit on calcule chaque valeur de pk à la main et on donne la loi sous forme d’un tableau.

b) Si X(Ω) est grand ou infini on exprime ∀k ∈ X(Ω), pk en fonction de k et on donne la loi sous la forme d’une accolade.

Méthode pour déterminer la loi de probabilité d’une VAD X.

Pour les deux exemples précédents, déterminer la loi de probabilité que suit X.

Exemple type :Loi de probabilité d’une variable aléatoire discrète.

• Pour l’urne, On avait trouvé que X(Ω) ={−2,0,3}. X est une variable aléatoire discrète finie et le support est petit. On peut donc présenter sa loi sous forme d’un tableau :

xi −2 0 3 P(X =xi) 13 12 16

• Pour les lancers de dés. On avait trouvé que X(Ω) =N. On a P(X = 1) = 16. Si on note pour tout entier naturel i non nul, Ai l’évènement "Le i ème lancer de dé est un 6", on a pour tout entier naturel n>2

P(X =n) =P(i=1( n−1

∩ Ai

∩An

Or les évènements de la famille (An)n∈N sont mutuellement indépendants car les lancers sont indépendants. On a donc

P(X =n) = n−1

i=1Π P(Ai)

×P(An) = 1 6 ×

5 6

n−1 .

(3)

La loi de X est donc donnée par

X(Ω) =N

∀k ∈N, pk =P(X =k) = 16 × 56k−1

Propriété 3

Soit (Ω,A,P)un espace probabilisé et X une variable aléatoire discrète. Alors on a X

k∈X(Ω)

P(X =k) = 1.

Soit X une variable aléatoire discrète dont la loi est donnée par

X(Ω) =N

∀k ∈N,P(X =k) =α3k!k Déterminer la valeur de α.

Exemple type :Loi de probabilité d’une variable aléatoire discrète 2 .

D’après la propriété précédente on doit avoir

X

k∈X(Ω)

α3k k! = 1.

Or

X

k∈X(Ω)

α3k k! =α

+∞

X

k=0

3k

k! =αe3. On a donc

α=e−3.

Théorème 1

• Soient n réels x1,x2,· · ·,xn et n réels positifs notés p1,· · ·,pn tels que Pn

i=1

pi = 1 alors il existe un espace probabilisable (X,A,P) et une variable aléatoire discrète X telle que X(Ω) ={x1,· · ·, xn} et

∀k ∈J1, nK,P(X =xk) = pk.

• Soient (xn)n∈N une suite réelle et(pn)n∈N une suite de réels positifs telles que+∞P

k=0

pk = 1 alors il existe un espace probabilisable (X,A,P) et une variable aléatoire discrète X telle queX(Ω) ={xk, k ∈N} et

∀k ∈N,P(X=xk) =pk.

(4)

Montrer qu’on définit bien la loi de probabilité d’une variable aléatoire discrète en donnant X(Ω) =N

∀k ∈N,P(X =k) = 12k

Exemple type :Démontrer qu’on a bien une variable aléatoire .

On doit vérifier

X

k∈X(Ω)

P(X =k) = 1.

C’est-à-dire

+∞

X

k=1

1 2

k

= 1.

On s’intéresse à la somme partielle d’ordreN :

N

X

k=1

1 2

k

On reconnaît la somme partielle d’une série géométrique de raisonq = 12. Donc |q|<1 et la série converge absolument. On a de plus

+∞

X

k=1

1 2

k

= 1 2

1

1− 12 = 1.

On peut donc appliquer le théorème précédent, il existe (Ω,A,P) et X une variable aléatoire discrète dont la loi est donnée par

X(Ω) =N

∀k∈N,P(X =k) = 12k

1.3 Lien entre loi de probabilité et fonction de répartition.

On a vu dans le chapitre précédent que si X est une variable aléatoire réelle alors on peut lui associée sa fonction de répartitionFX définie par

FX : R −→ [0,1]

x 7→ FX(t) = P(X 6x) On a les relations suivantes :

Propriété 4

Soit (Ω,A,P) un espace probabilisable, X une variable aléatoire discrète telle que X(Ω) ⊂Z alors

∀k ∈X(Ω),P(X =k) =P(X 6k)−P(X 6k−1).

Autrement dit

∀k ∈X(Ω),P(X =k) = FX(k)−FX(k−1).

(5)

Démonstration : Soitk∈X(Ω)on remarque que

P(X=k) =P(k−1< X6k).

On applique maintenant la propriété du chapitre précédent avec x = k−1 et y = k et on obtient le résultat.

Dans la pratique il peut être plus facile de calculer P(X 6 k) que P(X = k). On utilise ensuite la propriété précédente pour en déduire la loi de probabilité.

Méthode pour déterminer la loi de probabilité d’une VAD X.

On lance de deux dés équilibrés à six faces. On noteX la variable aléatoire discrète égale au numéro obtenu sur le premier dé etYla variable aléatoire discrète égale au numéro obtenu sur le deuxième dé. On note Z la variable aléatoire discrète égale au numéro maximum obtenu sur les deux dés. Déterminer la loi de X, de Y puis de Z.

Exemple type :Loi d’un max.

On a X(Ω) ={1,2,3,4,5,6}et Y(Ω) ={1,2,3,4,5,6}. De plus,

∀k∈J1,6K,P(X =k) = 1

6 etP(Y =k) = 1 6 Les lois de X et de Y sont donc données par

X(Ω) =J1,6K

∀k ∈J1,6K,P(X =k) = 16 et

Y(Ω) =J1,6K

∀k ∈J1,6K,P(Y =k) = 16

On doit maintenant déterminer la loi de Z. On a Z = max(X, Y) donc Z(Ω) = {1,2,3,4,5,6}. Soit k ∈Z(Ω) on a

P(Z 6k) =P(max(X, Y)6k) = P((X 6k)∩(Y 6k)).

Or les deux lancers sont indépendants donc les évènements(X 6k)et(Y 6k)sont indépendants.

On a donc

P(Z 6k) = P(max(X, Y)6k) =P((X 6k)∩(Y 6k) =

k

X

i=1

P(X =i)

! k X

i=1

P(Y =i)

!

= k2 36.

On a donc

P(Z =k) = P(Z 6k)−P(Z 6k−1) = k2

36− (k−1)2 36 . D’où

∀k∈Z(Ω),P(Z =k) = 2k−1 36 . La loi deZ est donc donnée par

Z(Ω) =J1,6K

∀k∈J1,6K,P(Z =k) = 2k−136

(6)

1.4 Fonction d’une variable aléatoire discrète.

Propriété 5

Soient (X,Ω,P) un espace probabilisé et X : Ω → R une variable aléatoire discrète . On considère g une fonction définie sur un intervalle I tel que X(Ω) ⊂ I. Alors l’application Y : Ω→Rdéfinie par Y =g◦X est une variable aléatoire discrète. On la noteg(X).

Exemple 3

Une urne contient trois boules rouges ,cinq boules bleues et quatre boules vertes. Elles sont indiscernables au touchée. On mise deux euros pour jouer. On tire en même temps trois boules dans l’urne. On gagne un euro par boule rouge tirée.Xest la variable aléatoire égale au nombre de boules rouges tirées. On note G le gain algébrique. Exprimer G en fonction de X. On a G=X−2.

Théorème 2

Soient (Ω,A,P) un espace probabilisé et X : Ω → R une variable aléatoire discrète. Soit g : X(Ω) → R une application alors la variable aléatoire Y = g(X) a pour support Y(Ω) = {g(k), k ∈X(Ω)} et

∀i∈Y(Ω),P(Y =i) = X

k∈Ai

P(X =k)avec Ai ={k∈X(Ω)|g(k) = i}

Démonstration : La deuxième partie se démontre en considérant la famille d’évènements [X =k], k∈ X(Ω)qui forme un système complet d’évènements et en appliquant la formule des probabilités totales.

Soit X une variable aléatoire discrète et Y une variable aléatoire discrète de la forme Y = g(X). On suppose connue la loi de X alors pour déterminer la loi de Y :

• Etape 1 : on détermine Y(Ω) ={g(k), k∈X(Ω).

• Etape 2 : ∀i∈Y(Ω), on détermine P(Y =i). Pour cela on utilise que P(Y =i) = X

k∈Ai

P(X =k) avec Ai ={k ∈(Ω)|g(k) =i}

Méthode pour déterminer la loi de probabilité d’une VAD Y de la forme Y = g(X ).

Soit X une variable aléatoire discrète dont la loi est donnée par

k −2 −1 0 1

P(X =k) 103 15 101 25 Déterminer la loi de Y =X2.

Exemple type 1 :Y = g(X ).

On a• Y(Ω) ={k2, k ∈(Ω)}={0,1,4}.

• On a donc

P(Y = 0) =P(X = 0) = 1 10,

(7)

P(Y = 1) =P(X = 1) +P(X =−1) = 1 5+ 2

5 = 3 5, et

P(Y = 4) =P(X =−2) = 3 10. On a donc la loi suivante pour Y : i 0 1 4

P(Y =i) 35 101 104 .

Soit X une variable aléatoire discrète dont la loi est donnée par X(Ω) =N

∀k ∈N,P(X =k) = 12k

Déterminer la loi de Y =X−1.

Exemple type 2 :Y = g(X ).

On a• Y(Ω) ={k−1, k∈X(Ω)}=N.

• De plus,

∀i∈N,P(Y =i) = P(X−1 = i) =P(X =i+ 1) = 1

2 i+1

.

On a donc la loi de Y qui est donnée par

Y(Ω) =N

∀i∈N,P(Y =i) = 12i+1

2 Moments d’une variable aléatoire discrète.

2.1 Espérance.

Intuitivement , l’espérance d’une variable aléatoire est la valeur que l’on peut espérer obtenir en moyenne. On retrouve la formule d’une moyenne pondérée.

Définition 2

Soit X une variable aléatoire discrète sur l’espace probabilisé (Ω,A,P).

• Si le support de X estfini alors X admet une espérance. C’est le nombre noté E(X) défini par

E(X) = X

k∈X(Ω)

kP(X =k).

• Si le support deX estinfiniet que la série P

n∈X(Ω)

nP(X =n)est absolument conver- gente alors X admet une espérance. C’est le nombre noté E(X)défini par

E(X) = X

k∈X(Ω)

kP(X =k).

(8)

Remarque 1

La différence est que dans le cas d’un support fini, la somme est toujours bien définie car elle ne comporte qu’un nombre fini de terme. Il faut s’assurer que la série de terme généralnP(X =n) est absolument convergente dans le cas où le support est infini.

Soit X une variable aléatoire discrète

• Si le support de X est fini :

a) Si la loi de X est donné sous forme de tableau alors un calcul simple à la main suffit.

b) Si la loi deX est donnée par la donnée deX(Ω) et∀k ∈X(Ω),P(X =k) = ·alors il faut calculer une somme finie.

• Si le support de X est infini :

• Etape 1 : On s’assure que la série de terme général |nP(X =n)| est convergente.

• Etape 2 : On peut ensuite calculer la somme P

k∈X(Ω)

kP(X =k).

Méthode pour déterminer l’espérance.

Montrer dans les deux exemples de départ que X admet une espérance et la calculer.

Exemple type :Espérance.

• Dans le cas de l’urne, le support de X est fini.X admet donc une espérance. On a donc E(X) =−2P(X =−2) + 0P(X = 0) + 3P(X = 3) =−2

3 +3 6 =−1

6

• Dans le cas du dé, X a un support infini. On doit s’assurer que la série P

n>1

nP(X = n) est absolument convergente. Or nP(X =n) = n16 56n−1

est le terme générale d’une série convergente car on reconnaît une série géométrique dérivée de raison 56 et|56|<1. Donc la série converge absolument et X admet une espérance. On a donc

E(X) =

+∞

X

k=1

1 6k

5 6

k−1

= 1 6

1 (1− 56

2

= 6.

Certaines variables aléatoires n’admettent pas d’espérances.

Attention

Propriété 6 (Linéarité)

Soient (Ω,A,P) un espace probabilisé , a un réel réel et X et Y deux variables aléatoires discrètes admettant une espérance. Alors les variables aléatoires aX etX+Y admettent une espérance et on a

E(aX) =aE(X) et E(X+Y) =E(X) +E(Y)

(9)

Exemple 4

On prend X la variable aléatoire donnée par l’exemple de l’urne et Y la variable aléatoire donnée par Y = 2X. Alors Y admet une espérance et on a E(Y) = 2E(X) = −13.

La formule suivante n’est généralement pas vraie :

Attention

E(XY) =E(X)E(Y).

Propriété 7 (Positivité)

Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète admettant une espérance. Si ∀w∈Ω, X(w)>0 alors E(X)>0.

il en découle la propriété de croissance de l’espérance.

Propriété 8 (Croissance)

Soient (Ω,A,P) un espace probabilisé etX etY deux variables aléatoires discrètes admettant une espérance. Si ∀w∈Ω,X(w)6Y(w) alors E(X)6E(Y).

Théorème 3 (Théorème de transfert)

Soit(Ω,A,P)un espace probabilisé,X = Ω→Rune variable aléatoire discrète etg :X(Ω)→ R. On note Y =g(x).

• Si le support de X est fini alors Y admet une espérance et E(Y) = E(g(X)) = X

k∈X(Ω)

g(k)P(X =k).

• Si le support deX est infini , on poseX(Ω) ={xn, n∈N}alorsY admet une espérance si et seulement si la série de terme généralg(xn)P(X =xn)est absolument convergente.

Dans ce cas on a alors

E(Y) = E(g(X)) =

+∞

X

k=0

g(xk)P(X =xk).

Le théorème précédent permet de calculer (si elle existe ) l’espérance de Y sans connaitre la loi. Dans la pratique la méthode est la même que pour l’espérance de X, on a juste modifié la formule donnant l’espérance.

Méthode pour déterminer l’espérance de Y = g(X ).

On reprend X la variable aléatoire de l’exemple du dé et on pose Y =X2. Montrer que Y admet une espérance et la calculer.

Exemple type 1 :Espérance de Y avec Y = g(X ).

(10)

On commence par démontrer l’existence. On doit montrer que la série P

n∈N

|n2P(X = n)| est convergente. Or le terme général est donné par

|n2P(X =n)|=n21 6

5 6

n−1

=n(n−1) 5 36

5 6

n−2

−n1 6

5 6

n−1

.

Le terme général s’écrit donc comme combinaison d’une série géométrique dérivée et dérivée seconde de raison 56. Or |56| < 1 donc les séries sont convergentes donc la série P

n∈N

|n2P(X =n)|

est convergente. D’après le théorème de transfert Y admet donc une espérance. De plus on peut écrire

E(Y) =

+∞

X

k=1

k2P(X =k) = 5 36

+∞

X

k=1

k(k−1) 5

6 k−2

− 1 6

+∞

X

k=1

k 5

6 k−1

D’où

E(Y) = 5 36

2

1− 563 − 1 6

1

(1−56)2 = 60−6 = 54.

On considère X une variable aléatoire discrète définie sur(Ω,A,P)par X(Ω) =J1, nK

∀k∈J1, nK,P(X=k) = n(n+1)2k . 1. Démontrer que la loi de probabilité deX est bien définie.

2. Démontrer que X admet une espérance et la calculer.

3. On pose Y = X1. Démontrer queY admet une espérance et la calculer.

Exemple type 2 :Espérance de Y avec Y = g(X ).

1. Le support de X est fini. On a

n

X

k=1

P(X =k) =

n

X

k=1

2k

n(n+ 1) = 2 n(n+ 1)

n

X

k=1

k = 1.

Donc c’est bien une loi de probabilité.

2. Le support de X est fini donc X admet une espérance. On a E(X) =

n

X

k=1

kP(X =K) =

n

X

k=1

2k2

n(n+ 1) = 2 n(n+ 1)

n

X

k=1

k2 = 2

n(n+ 1)×n(n+ 1)(2n+ 1)

6 = 2n+ 1

3 .

D’où

E(X) = 2n+ 1 . 3

3. Le support deX est fini etY =g(X)avecg(x) = x1. La fonction gest bien définie sur X(Ω) donc d’après le théorème de transfert Y admet une espérance et on a

E(Y) =

n

X

k=1

1

kP(X =k) =

n

X

k=1

2

n(n+ 1) = 2 n(n+ 1)

n

X

k=1

1 = 2 n+ 1

(11)

D’où

E(Y) = 2 n+ 1.

Corollaire 1

Soit(Ω,A,P)un espace probabilisé et X :Ω→Rune variable aléatoire discrète admettant une espérance. Soientaetbdeux réels alorsaX+badmet une espérance etE(aX+b) =aE(X) +b. Démonstration : On démontre le cas où le support est fini. Les sommes considérées sont donc finies.

On introduit la fonctiong définie sur X(Ω)parg(x) =ax+b. d’après le théorème de transfert on a

E(aX+b) =E(g(X)) = X

k∈X(Ω)

g(k)P(X=k) = X

k∈X(Ω)

(ak+b)P(X =k)

On a donc

E(aX +b) =a X

k∈X(Ω)

kP(X =k) +b X

k∈X(Ω)

P(X =k).

La première somme est égale àE(X)et la deuxième somme est égale à 1. On a donc bien le résultat.

On considère une urne contenant deux boules blanches et cinq boules noires. Les boules sont indiscernables au touchée. On tire trois boules sans remises. Soit(Ω,A,P)l’espace probabilisé permettant de modéliser cette expérience. On note X la variable aléatoire égale au nombre de boules blanches tirées.

1. Déterminer la loi de X.

2. En déduire que X admet une espérance et la calculer.

3. On considère maintenant que l’on gagne un euro pour chaque boule blanche tirée et on perd x euros pour chaque boule noire tirée. On note G la variable aléatoire égale au gain.

(a) Exprimer Gen fonction de X.

(b) En déduire queG admet une espérance et la calculer.

(c) Déterminerx pour que le jeu soit équitable.

Exemple type :Espérance de Y avec Y = aX + b.

1. On a X(Ω) = {0,1,2}. On note maintenant pour i ∈ {1,2,3} Bi l’évènement on a tirée une boule blanche au ième tirage. On a doncB1∩B2∩B3,B1∩B2∩B3,B1∩B2∩B3,B1∩ B2 ∩B3,B1 ∩B2 ∩B3,B1 ∩B2 ∩B3,B1 ∩B2 ∩ B3,B1 ∩B2 ∩B3 qui forment un système complet d’évènement donc d’après la formule des probabilités totales et après simplification des probabilités nulles car les évènements étaient incompatibles on obtient

P(X = 0) =P(B1)PB1(B2)PB1∩B2(B3) = 5 7 ×4

6 × 3 5 = 2

7 et

P(X = 1) =P(B1)PB (B2)PB ∩B2)(B3)+P(B1)PB1(B2)PB ∩B (B3)+P(B1)PB (B2)PB ∩B2)(B3).

(12)

D’où

P(X = 1) = 3× 4 21 = 4

7 et on a

P(X = 2) = 1−P(X = 2) = 1−(P(X = 1) +P(X = 0)) = 1 7. Donc la loi de X est donnée par k 0 1 2

P(X =k) 27 47 17 . 2. Le support de X est fini donc X admet une espérance. On a

E(X) =

2

X

k=0

kP(X =k) = 2

7 ×0 + 4

7×1 + 1

7×2 = 6 7.

L’espérance deX est de 67.

3. (a) On a G=X−x(3−X) d’où G= (1 +x)X−3x.

(b) G est de la forme aX +b avec a = 1 +x et b = −3x etX admet une espérance donc G admet une espérance et on a

E(G) = (1 +x)E(X)−3x= 6

7(1 +x)−3x= 6−15x 7 .

(c) Le jeu est équitable si E(G) = 0 donc si x= 25. Définition 3

Soit (Ω,A,P) un espace probabilisé et X : Ω → R une variable aléatoire discrète admettant une espérance. ON dit que X est centrée siE(X) = 0.

2.2 Moments d’ordre r.

Définition 4

Soit (Ω,A,P) un espace probabilisé et X : Ω → R une variable aléatoire discrète. Soit r un entier naturel non nul. On dit queXadmet unmoment d’ordrer siXradmet une espérance.

On note alors mr(X) = E(Xr). Remarque 2

• Si le support de X est fini alors X admet des moments de tout ordre et on obtient en utilisant le théorème de transfert :

E(Xr) =

n

X

i=1

xriP(X =xi) avecX(Ω) ={x1,· · · , xn}.

• Si le support deXest infini alorsXadmet un moment d’ordrersi la série P

n∈N

xnnrP(X = xn)est absolument convergente. Dans ce cas on obtient en utilisant le théorème de trans- fert :

E(Xr) =

+∞

X

k=1

xrkP(X =xk)avec X(Ω) = (xn)n∈N.

(13)

Remarque 3

On a donc m1(X) = E(X).

Montrer que dans nos deux exemples, la variable aléatoireX admet un moment d’ordre deux.

Exemple type : Moments d’ordre r.

• Dans le cas de l’urne, le support deX est fini doncX admet un moment d’ordre deux. On a

m2(X) =E(X2) = X

k∈X(Ω)

k2P(X =k) = (−2)2P(X =−2)+02P(X = 0)+32P(X = 3) = 4 3+9

6.

D’où

m2(X) =E(X2) = 17 6 .

• Dans le cas du dé, le support de X est infini donc X admet un moment d’ordre deux si la série P

n∈Nn2P(X = n) est absolument convergente. On a montré que c’était le cas précédemment et que

E(X2) = 54.

Propriété 9

Soit (Ω,A,P)un espace probabilisé et X : Ω→Rune variable aléatoire discrète. Si X admet un moment d’ordrer alors pour tout entier naturels vérifiant16s6r,X admet un moment d’ordre s.

Remarque 4

On utilise souvent la contraposée. Si X n’admet pas de moment d’ordre r alors X n’admet pas de moment plus grand que r.

(14)

2.3 La variance et l’écart-type.

2.3.1 Définitions et exemples.

Définition 5

Soient (Ω,A,P)un espace probabilisé et X : Ω→R une variable aléatoire discrète.

• Si le support de X est fini alors X admet une variance. C’est le nombre noté V(X) défini par

V(X) = E((X−E(X))2) = X

k∈(Ω)

(k−E(X))2P(X =k).

• Si le support deX est infini et que la série P

n∈X(Ω)

(n−E(X))2P(X =n)est absolument convergente alors X admet unevariance C’est le nombre notéV(X)défini par

V(X) = X

k∈X(Ω)

(k−E(X))2P(X =k).

De plus siX admet une variance, on peut définie l’ écart-typedeX qui est le réel noté σ(X) défini par σ(X) = p

V(x). Remarque 5

• La variance est donc égale (si elle existe) à l’espérance de la variable aléatoire. discrète (X−E(X))2.

• La série P

n∈X(Ω)

(n−E(X))2P(X =n) est à termes positifs donc elle est convergente si et seulement si elle est absolument convergente.

• V(X) est l’espérance d’un carré donc c’est une quantité positive donc l’écart-type est bien défini.

• L’écart type et la variance sont des paramètres de dispersions deXpuisqu’elles mesurent l’écart entre X et sa moyenne.

Montrer que dans nos deux exemples, la variance de la variable aléatoire X existe et la calculer. Déterminer ensuite l’écart-type.

Exemple type : Moments d’ordre r.

• Dans l’exemple de l’urne, le support de X est fini donc X admet une variance. On a V(X) = X

k∈X(Ω)

(k−E(X))2P(X =k).

D’où

V(X) =

−2 + 1 6

2

P(X =−2) +

0 + 1 6

2

P(X = 0) +

3 + 1 6

2

P(X = 3).

On a donc

V(X) =

−11 6

2

×1 3 + 1

36 ×1 2 +19

36 ×1 6.

(15)

On obtient donc

V(X) = 11 9 .

• Dans le deuxième exemple, le support de X est infini. On doit donc s’assurer que la série de terme général(n−6)2P(X =n)est absolument convergente. On a pour tout entier naturel n plus grand que6 :

(n−6)2P(X =n) = (n2−12n+ 36) 1

6 5 6

n−1

= (n(n−1)−11n+ 36) 1

6 5 6

n−1

On a donc

(n−6)2P(X =n) =n(n−1) 5

36 5 6

n−2

−11n 1

6 5 6

n−1 + 36

1 5

5 6

n

Le terme général de cette série s’écrit comme combinaison linéaire de termes généraux d’une série géométrique, d’une série géométrique dérivée et d’une série géométrique dérivée seconde de raison 56. Or |56| < 1 donc ces séries sont absolument convergentes donc notre série est absolument convergente. On peut donc considérer la somme de cette série et on obtient

V(X) =

+∞

X

k=0

k(k−1) 5

36 5 6

k−2

−11

+∞

X

k=0

k 1

6 5 6

k−1

+ 36

+∞

X

k=0

1 5

5 6

k

.

On a donc

V(X) = 5 36

2

1− 563 −11× 1 6

1

(1− 56)2 + 361 5

1

1−56 = 186 5 .

Théorème 4 (Formule de König-Huygens)

Soient (Ω,A,P) un espace probabilisé etX : Ω→ R une variable aléatoire discrète.X admet une variance si et seulement si X admet un moment d’ordre deux. Dans ce cas on a

V(X) = E(X2)−E(X)2.

Démonstration : On a

V(X) =E((X−E(X))2) =E(X2−2E(X)X+E(X)2) OrE(X) est une constante donc par linéarité de l’espérance on obtient

V(X) =E(X2)−2E(X)E(X) +E(X)2=E(X2)−E(X)2

Soit X une variable aléatoire discrète

• Si le support de X est fini :

a) Si la loi de X est donné sous forme de tableau alors un calcul simple à la main suffit.

b) Si la loi deX est donnée par la donnée deX(Ω) et∀k ∈X(Ω),P(X =k) = ·alors il faut calculer une somme finie.

Méthode pour déterminer une variance.

(16)

• Si le support de X est infini :

• Etape 1 : On s’assure que la série de terme général|n2P(X =n)| est convergente.

• Etape 2 : On peut ensuite calculer les sommes X

k∈X(Ω)

kP(X =k)et X

k∈X(Ω)

k2P(X =k)

puis on applique la formule de König-Huygens.

2.3.2 Propriétés de la variance.

Propriété 10

Soient(Ω,A,P)un espace probabilisé etX : Ω→Rune variable aléatoire discrète. On suppose que X admet une variance alors on a

• V(X)>0.

• ∀(a, b)∈R,V(aX +b) =a2V(X).

Démonstration : • On a V(X) =E((X−E(X)2) avec (X−E(X))2 >0. On utilise la positivité de l’espérance pour conclure.

• On a d’après la formule de König-Huygens :

V(aX +b) =E((aX+b)2)−E(aX +b)2. Or

E((aX +b)2) =E(a2X2+ 2abX+b2) =a2E(X2) + 2abE(X) +b2 et

E(aX+b)2 = (aE(X) +b)2 =a2E(X)2+ 2abE(X) +b2 D’où

V(aX+b) =a2E(X2)−a2E(X)2=a2V(X).

La formule suivante n’est pas vraie

V(X+Y) = V(X) +V(Y)

Attention

Définition 6

Soient(Ω,A,P)un espace probabilisé etX : Ω→Rune variable aléatoire discrète. On suppose que X admet une variance.

• On dit que X est réduite si V(X) = 1.

• On dit que X est centrée-réduite si E(X) = 0 etV(X) = 1. Proposition 1

Soient(Ω,A,P)un espace probabilisé etX : Ω→Rune variable aléatoire discrète. On suppose queXadmet une espérance. Alors la variable aléatoireY définie parY =X−E(X)est centrée.

(17)

Démonstration : On aY =aX+bavec A= 1 etb=−E(X) donc Y admet une espérance et on a E(Y) =E(X−E(X)) =E(X)−E(X) = 0

DoncY est bien une variable aléatoire centrée.

Proposition 2

Soient(Ω,A,P)un espace probabilisé etX : Ω→Rune variable aléatoire discrète. On suppose que X admet une variance. Alors la variable aléatoireX∗ définie par

X∗= X−E(X) σ(X)

est centrée-réduite. X∗ est appelé la variable centrée-réduite associée à X.

Démonstration : On aX =aX +bavec a= σ(X1 ) etb= σ(X)E(X). DoncX admet une variance et une espérance et on a

E(X) = 1

σ(X)E(X−E(X)) = 1

σ(X)(E(X)−E(X)) = 0.

DoncX est bien une variable aléatoire centrée. De plus on a V(X) =V

X−E(X) σ(X)

= 1

V(X)×V(X) = 1.

DoncX est une variable aléatoire réduite.

3 Lois usuelles discrètes.

3.1 Lois usuelles discrètes finies.

Dans toute la suite, (Ω,A,P) est un espace probabilisé et X : Ω → R est une variable aléatoire discrète.

3.1.1 Loi certaine.

Définition 7

Soitaun réel. Une variable aléatoireXsuit une loi certaine si elle ne prend qu’une seule valeur

a. On a donc

X(Ω) ={a}

P(X =a) = 1

Définition 8

Une variable aléatoire X suit une loi quasi-certaine si il existe un entier natureln non nul tel que

X(Ω) ={x0,· · · , xn} P(X =x0) = 1

(18)

Remarque 6

On rencontre souvent cette loi dans l’instant initiale d’un processus de Markov.

Propriété 11

Si X suit une loi certaine avec X(Ω) =a alors E(X) =a et V(X) = 0.

Démonstration : On suppose queXsuit une loi certaine avecX(Ω) =a. Le support deXest fini donc son espérance et sa variance existe. De plus on a

E(X) =aP(X =a) =aetV(X) = (a−E(X))2P(X=a) = 0.

Propriété 12

X suit une loi quasi certaine avecX(Ω) ={x0,· · · , xn}etP(X =x0) = 1 si et seulement si le X est une variable aléatoire discrète finie vérifiant E(X) =x0 etV(X) = 0.

Démonstration : • On suppose que X suit une loi quasi-certaine Le support de X est fini donc son espérance et sa variance existe. De plus on a en simplifiant les termes multipliés par une probabilité nulle,

E(X) =x0P(X=X0) =x0 etV(X) = (x0−E(X))2P(X=x0) = 0.

• On suppose que E(X) =x0 etV(X) = 0 alors on sait que

V(X) = X

k∈X(Ω)

(k−x0)2P(X=k) = 0.

On a une somme de termes positifs qui est nulle donc tous les termes de la somme sont nulles donc on a

∀k∈X(Ω), k−x0 = 0 ou P(X=k) = 0 Donc

∀k∈X(Ω), k=x0 ouP(X=k) = 0

Ainsi si k 6= x0 alors P(X = k) = 0 et si k = x0 alors P(X = x0) = 1. Donc X suit une loi quasi-certaine.

3.1.2 Loi uniforme.

Définition 9

Soit a et b deux entiers relatifs avec a < b. Une variable aléatoire X suit une loi uniforme sur Ja, bK et on note X ,→ U(Ja, bK) lorsque

X(Ω) =Ja, bK

∀k ∈Ja, bK,P(X =k) = b−a+11

Exemple 5

Par exemple, on lance un dé équilibré à six faces et X est la variable aléatoire égale à au numéro de la face obtenue. Dans ce cas on aX(Ω) =J1,6Ket∀k ∈J1,6K,P(X =k) = 16. Donc

(19)

X ,→U(J1,6K).

On s’intéresse en premier au cas particulier oùa = 1 etb =n avecn >1. On a Propriété 13

Si X suit une loi uniforme sur J1, nK alors X admet une espérance et une variance et on a E(X) = n+ 1

2 etV(X) = n2−1 12 .

Démonstration : Le support deX est fini doncX admet une espérance et une variance. On a E(X) =

n

X

k=1

kP(X=k) =

+∞

X

k=1

k n = 1

n×n(n+ 1)

2 .

On a donc

E(X) = n+ 1 2 . On a aussi

E(X2) =sumnk=1k2P(X =k) =

+∞

X

k=1

k2 n = 1

n×n(n+ 1)(2n+ 1)

6 = (n+ 1)(2n+ 1)

6 .

On a donc d’après la formule de König-Huygens V(X) = (n+ 1)(2n+ 1)

6 −(n+ 1)2

4 = n+ 1 2

2n+ 1

3 − n+ 1 2

= n+ 1

2 × n−1 6 . D’où

V(X) = n2−1 12 .

Nous allons maintenant traiter le cas général.

Propriété 14

Si X suit une loi uniforme sur Ja, bK alors X admet une espérance et une variance et on a E(X) = a+b

2 et V(X) = (b−a+ 1)2 −1

12 .

Démonstration : SiX ,→ U(Ja, bK) alors en posantY =X−a+ 1, on a Y ,→ U(J1, b−a+ 1K). En effet, Y(Ω) ={1, b−a+ 1}et∀k∈Y(Ω),P(Y =k) =P(X−a+ 1 =k) =P(X =k+a−1) = 1

b−a+ 1. D’après ce qui précède on a donc

E(Y) = b−a+ 2

2 .

Or

E(X) =E(Y) +a−1.

D’où b+a

(20)

On a aussi

V(Y) =V(X) Donc

V(X) = (b−a+ 1)2−1

12 .

D’où le résultat.

3.1.3 Loi de Bernoulli.

Une épreuve de Bernouilli est une expérience aléatoire à deux issues. On nomme l’une des issues

"succès" qui a une probabilité pd’être réalisé et l’autre "échec" qui a une probabilité 1−pd’être réalisé. On réalise une épreuve de Bernouilli et si l’évènement "succès" est réalisé alors X = 1 sinon X = 0. Dans ce cas X suit une loi de Bernouilli de paramètre pet on note X ,→ B(p). Définition 10

Une variable aléatoire X suit une loi de Bernouilli de paramètre p∈]0,1[ et on note X ,→ B(p) lorsque

X(Ω) =J0,1K

P(X = 0) = 1−pet P(X = 1) =p

Exemple 6

Par exemple, on lance une pièce truquée qui à un probabilité égale à 23 de donner un pile. Soit X la variable aléatoire égale à 1 si on obtient pile et égale à 0 sinon. Alors X suit une loi de Bernouilli de paramètre 23.

Propriété 15

Si X ,→ B(n) alors X admet une espérance et une variance et on a E(X) =p etV(X) =p(p−1).

Démonstration : Le support deX est fini doncX admet une espérance et une variance. On a E(X) =

1

X

k=0

kP(X =k) = 0×P(X= 0) + 1×P(X= 1) =p.

On a donc

E(X) =p.

On a aussi

E(X2) =

1

X

k=0

k2P(X =k) =p.

On a donc d’après la formule de König-Huygens

V(X) =p−p2 D’où

V(X) =p(1−p).

(21)

3.1.4 Loi binomiale.

On répètenfois une épreuve de Bernouilli de manière identique et indépendante. On suppose que la probabilité que l’évènement "succès" soit réalisé est égalepet que la probabilité que l’évènement

"échec"soit réalisé de1−p. SoitX la variable aléatoire qui est égale au nombre de succès à l’issue des n épreuves. Dans ce cas X suit une loi binomiale de paramètres n etp. Déterminons la loi deX. On aX(Ω) =J0, nK. On noteAk l’évènement le résultat de la kième épreuve est un succès.

La famille(Ak)k∈J0,nK est mutuellement indépendante. On a donc

• On a

P(X = 0) =P( ∩n

k=0Ak) =

n

Π

k=0P(Ak).

D’où

P(X = 0) = (1−p)n.

• On a

P(X =n) =P(∩n

k=0Ak) =

n

k=0ΠP(Ak).

On a donc

P(X =n) = pn.

• On va maintenant considérerk un entier vérifiant 0< k < n. L’évènementX =k est donc constitué de k succès et n −k échecs. La probabilité associée à un tel chemin est donc de pk(1−p)n−k. Maintenant il faut multiplier cette probabilité par le nombre de chemin réalisant notre évènement, il y en a

n p

. d P(X =k) =

n p

pk(1−p)n−k

Définition 11

Une variable aléatoire X suit une loi binomiale de paramètre n ∈ N et p ∈]0,1[ et on note X ,→ B(n, p) lorsque

X(Ω) =J0, n

∀k ∈J0, nK,P(X =k) = n

p

pk(1−p)n−k

Exemple 7

Par exemple, on lance six fois une pièce truquée qui à une probabilité égale à 23 de donner un pile. Soit X la variable aléatoire qui compte le nombre de piles obtenus. Alors X ,→B(6,23). Remarque 7

La loi de Bernouilli se note B(p)et la loi binomiale se note B(n, p). Il n’y a pas d’ambiguïté à utiliser la même lettre car une loi de Bernouilli est une loi Binomiale de paramètren = 1. Propriété 16

Si X ,→ B(n, p)alors X admet une espérance et une variance et on a (X) = np et (X) =np(p−1).

(22)

Démonstration : Le support deX est fini doncX admet une espérance et une variance. On admet la formule de la variance. On considère pouri∈J1, nK,Xi la variable aléatoire associée à la i ième épreuve qui suit une loi de Bernouilli. On poseX =

n

P

k=1

Xi alorsX ,→ B(n, p). On a donc

E(X) =

n

X

k=1

E(Xi) =np.

La méthode de poser X =

n

P

k=1

Xi avec X1,· · ·,Xn des variables aléatoires indépendantes suivant une même loi de Bernouilli pour calculer l’espérance d’une loi binomiale est classique.

Pour montrer rigoureusement que la loi de X est une loi binomiale de paramètres n et pon procède par récurrence.

Méthode pour déterminer l’espérance de X avec X , → B(n, p).

Un triathlète s’entraine pour une épreuve de course à pied. Il doit monter les marches d’un escalier. L’escalier est constitué de 40marches et il fait 20 sauts consécutifs. Les sauts sont indépendants les uns des autres et à chaque instant il monte une marche avec une probabilité de 25 et deux marches avec une probabilité de 35. Soit X la variable aléatoire comptant le nombre de marches sautées à la fin de l’expérience et pour tout i∈J1,20K soitXi la variable aléatoire comptant le nombre de marches sautées à la ième expérience.

1. Déterminer pour tout i∈J1,20K la loi suivie par Xi. 2. Déterminer pour tout i∈J1,20K,E(Xi).

3. Exprimer X en fonction desXi. 4. En déduireE(X).

5. On considère Y la variable aléatoire égale au nombre de sauts de deux marches.

(a) Déterminer la loi de Y.

(b) Exprimer X en fonction de Y. (c) En déduire la loi deX.

Exemple type : Loi binomiale.

1. On a Xi(Ω) ={1,2} et k 1 2 P(Xi =k) 25 35 .

2. ∀i∈ J1, nK, le support de chaque Xi est finie donc chaque variable aléatoire Xi admet une espérance. De plus on a

E(Xi) =

2

X

k=1

P(Xi =k) = 2 5 +6

5 = 8 5.

(23)

3. On a

X =

20

X

i=1

Xi.

4. On a donc

E(X) =

20

X

i=1

E(Xi) = 8

5×20 = 32.

(a) Y compte le nombre de succès à l’évènement "le triathlète saute deux marches à la fois".

On a donc Y(Ω) = J0,20K. L’expérience a été répétée 20 fois de manière identique et indépendante et la probabilité de cette évènement est de 35. Donc Y ,→ B(20,35).On a donc

∀k ∈J0,20K,P(Y =k) = 20

k

3 5

k 2 5

n−k

.

(b) Le nombre de sauts à une marche est donné par 20−Y et le nombre de sauts à deux marches est donné par Y. On a donc

X = 20−Y + 2Y = 20 +Y

(c) On a X(Ω) =J20,40K. De plus on a

∀k ∈J20,40K,P(X =k) =P(20 +Y =k) =P(Y =k−20).

On a donc

P(X =k) = P(Y =k−20) =

20 k−20

3 5

k−20 2 5

n−k+20

.

3.2 Lois usuelles discrètes infinies.

3.2.1 Loi géométrique.

On considère une expérience aléatoire etA un évènement de probabilitép. On répète indéfiniment de manière identique et indépendante cette expérience. On considère X la variable aléatoire qui donne le rang du premier succès de A ou le temps d’attente avant que A soit réalisé. On dit queX suit une loi géométriquede paramètre p. Le support de X est infini et on aX(Ω) =N. De plus si on note Ak l’évènement "la kème tentative amène un succès" on a

P(X = 1) =P(A1) = p et

∀k ∈N\ {0,1},P(X =k) =P

k−1 i=1∩ Ai

∩Ak

. Or les évènements sont mutuellement indépendants on a donc

(24)

Définition 12

Une variable aléatoire X suit une loi géométrique de paramètrep∈]0,1[et on note X ,→ G(p) lorsque

X(Ω) =N

∀k ∈N,P(X =k) =p(1−p)k−1

Remarque 8

On peut vérifier que

+∞

X

k=1

P(X =k) = 1

Propriété 17

Si X ,→ G(p)alors X admet une espérance et une variance et on a E(X) = 1

p et V(X) = 1−p p2 .

Démonstration : On va commencer par démontrer les existences de la variance et de l’espérance. Pour cela, d’après la formule de König-Huygens, il suffit de vérifier queX admet un moment d’ordre deux. On doit vérifier que la série P

n>1

n2p(1−p)n−1est absolument convergente. La série est à terme positif, il suffit de montrer qu’elle est convergente. On a pour toutn>1

|n2p(1−p)n−1|=p(1−p)×n(n−1)(1−p)n−2+p×n(1−p)n−1.

On reconnait une combinaison linéaire de termes généraux d’une suite géométrique dérivée et géométrique dérivée seconde de raison(1−p). Or |1−p|<1 donc les deux séries sont convergentes donc notre série est convergente. Calculons maintenant l’espérance et la variance. On a

E(X) =

+∞

X

k=1

kp(1−p)k−1=p 1

(1−(1−p))2 = p p2.

D’où

E(X) = 1 p. De plus on a

E(X2) =

+∞

X

k=1

k2p(1−p)k−1=

+∞

X

k=1

k(k−1)p(1−p)k−1+

+∞

X

k=1

kp(1−p)k−1=p(1−p)× 2

(1−(1−p))3+1 p.

D’où

E(X2) = 2(1−p) p2 +1

p = 2−p p2 . On a donc d’après la formule de König-Huygens

V(X) = 2−p p2 − 1

p2 = 1−p p2 .

(25)

ON considère une urne contenant trois boules vertes, quatre boules rouges et trois boules blanches. Elles sont indiscernables au touchée. On effectue des tirages avec remises jusqu’à obtenir une boule verte. On note X la variable aléatoire égale au nombre de tirages effectués pour obtenir pour la première fois une boule verte. Déterminer la loi deX puis son espérance et sa variance.

Exemple type : Loi géométrique.

On aX(Ω) =N etX est le temps d’attente d’un premier succès "la boule tirée est verte"lors de tentatives identiques et indépendantes car les tirages sont avec remises. La probabilité d’obtenir une boule verte à un tirage est de 103 . On a donc X ,→ G 103

. On en déduit que X admet une espérance et une variance et on a

E(X) = 10

3 et V(X) = 70 9 .

3.2.2 Loi de Poisson.

Définition 13

Une variable aléatoireX suitune loi de Poissonde paramètreλ∈R+et on note X ,→ P(λ) lorsque

X(Ω) =N

∀k ∈N,P(X =k) = λk!k e−λ

Remarque 9

On peut vérifier que

+∞

X

k=1

P(X =k) = 1.

Remarque 10

La loi de Poisson est parfois appelée loi des évènements rares et elle sert par exemple à modéliser :

• Le nombre de clients se présentant à un guichet pendant un laps de temps donné.

• Le nombre de voitures se présentant à un péage pendant un laps de temps donné.

La loi de Poisson peut être vue comme une limite de lois binomiales. Plus précisément on a le résultat suivant :

Propriété 18

Soit λ∈R+ etn ∈N. Si Xn ,→ B(n,λn) alors pour tout k∈N on a

n→+∞lim P(Xn =k) =P(X =k)

oùX ,→ P(λ).

Démonstration : On a donc par produit de limites :

n!

(n−k)!

(26)

De plus

1−λ

n

n

=enln(1−λn) =e−λ

ln(1−nλ)

−λ

n .

Or on a en posant y=−nλ

n→+∞lim

ln 1− λn

−λ n

= lim

y→0

ln (1 +y) y = 1.

On a donc par composition de limites

n→+∞lim e−λ

ln(1−λn)

−λ

n =e−λ. Donc par produit de limites on obtient

n→+∞lim P(Xn=k) = λk k!e−λ. D’où

n→+∞lim P(Xn=k) =P(X=k).

Remarque 11

Si n est grand ( donc λn est proche de 0) alors la loi P(λ) est une bonne approximation de B(n,nλ).

Propriété 19

Soit λ∈R+.SiX ,→ P(λ) alors X admet une espérance et une variance et on a E(X) =λ et V(X) =λ.

On considère une portion d’autoroute avec un moyenne 1.5 accidents par semaine. Soit X la variable aléatoire donnant le nombre d’accidents par semaine. Déterminer la loi de X.

Exemple type : Loi de Poisson.

X suit une loi de Poisson de paramètreλ. Or

E(X) =λ et E(X) = 3 2 On a donc λ= 32.

4 Formule du binôme de Newton.

4.1 Mise en place

Le but est de généraliser les identités remarques pour des puissances plus grandes que2.

(27)

Théorème 5

Soient a et b deux réels et n un entier naturel alors on a (a+b)n=

n

X

k=0

n k

akbn−k

Démonstration : On démontre la formule pour a et b deux entiers naturels. Une première méthode consiste à effectuer un raisonnement par récurrence. Ici nous allons rédiger une autre démonstration . On considère une urne contenant a boules blanches et b boules noires. On effectue n tirages successifs avec remises. On noteX la variable aléatoire égale au nombre de boules blanches tirées.A chaque tirage on a une probabilité égale à a+ba de tirer une boule blanche et les expériences sont répétées de manière identique et indépendante. On a donc X ,→ B

n,a+ba

. Donc la loi de X est donnée par

X(Ω) =J0, nK

∀k∈J0, nK,P(X =k) = n

k

a a+b

k

b a+b

n−k

Or on a n

X

k=0

P(X=k) = 1

C’est-à-dire

n

X

k=0

n k

a a+b

k b a+b

n−k

= 1⇐⇒ 1 (a+b)n

n

X

k=0

n k

akbn−k= 1.

D’où

(a+b)n=

n

X

k=0

n k

akbn−k

On avait déjà rencontré la formule du triangle de Pascal lorsque l’on avait étudié les coefficients binomiaux. On rappelle :

Proposition 3 (Formule du triangle de Pascal) Soit (n, p)∈N2 avecn >palors on a

n+ 1 p+ 1

= n

p

+ n

p+ 1

.

Remarque 12

La formule du triangle de Pascal permet de déterminer les coefficients binomiaux rapidement pour des petites valeurs den.

(28)

n

p 0 1 2 3 4 5

0 1

1 1 1

2 1 2 1

3 1 3 3 1

4 1 4 6 4 1

5 1 5 10 10 5 1

On a donc une méthode pour généraliser les identités remarquables.

Soit n un entier naturel, pour calculer(a+b)n :

• Etape 1 : On écrit les puissances sans coefficients.

• Etape 2 : On utilise la formule du triangle de Pascal pour écrire les coefficients.

Méthode pour calculer (a + b)

n

.

Déterminer (a+b)5.

Exemple type : Puissance généralisée..

• Etape 1 : On écrit : a5+a4b1+a3b2+a2b3+ab4+b5.

• Etape 2 : On utilise la formule du triangle de Pascal pour obtenir les coefficients et on obtient

(a+b)5 =a5+ 5a4b+ 10a3b2+ 10a2b3+ 5ab4+b5 Remarque 13

Si on doit développer (a−b)n on le considère comme(a+ ˜b)n en posant ˜b =−b. Par exemple on a

(a−b)5 =a5(−b)0+ 5a4(−b) + 10a3(−b)2+ 10a2(−b)3+ 5a(−b)4+ (−b)5 D’où

(a−b)5 =a5−5a4b+ 10a3b2 −10a2b3+ 5ab4−b5.

4.2 Application aux calculs de sommes.

Calculer les sommes suivantes : a)

n

P

k=0

n k

b) undersetk= 0

n

P n

k

2k

5n−k c)b)

n

P

k=1

n k−1

2k

Exemple type 1 : Formule du binôme de Newton et sommes.

(29)

1. On a n X

k=0

n k

=

n

X

k=0

n k

1k1n−k= (1 + 1)n

D’où n

X

k=0

n k

= 2n.

2. On a n

X

k=0

n k

2k 5n−k =

n

X

k=0

n k

2k

1 5

n−k

=

2 + 1 5

n

.

D’où n

X

k=0

n k

2k 5n−k =

11 5

n

.

3. On a en posant i=k−1

n

X

k=1

n k−1

2k =

n−1

X

i=0

n i

2i+1 = 2

n−1

X

i=0

n i

2i1n−k.

D’où

sumnk=1 n

k−1

2k= 2

" n X

i=0

n i

2i1n−k− n

n

2n

#

= 2 [3n−2n].

(a) Montrer que

∀n∈N,∀k ∈J1, nK, k n

k

=n

n−1 k−1

.

(b) En déduire Pn

k=0

k n

k

.

Exemple type 2 : Formule du binôme de Newton et sommes

(a) Soit n un entier naturel non nul on a ∀k∈J1, nK k

n k

=k n!

k!(n−k)! =n (n−1)!

(k−1)!(n−k)! =n (n−1)!

(k−1)!((n−1)−(k−1))!

On a donc

k n

k

=n

n−1 k−1

.

(b) On a

n

X

k=0

k n

k

=

n

X

k=1

k n

k

=

n

X

k=1

n

n−1 k−1

On effectue le changement de variable i=k−1 et on obtient

n

X

k=0

k n

k

=

n−1

X

i=0

n

n−1 i

=n(1 + 1)n−1 =n2n−1.

(30)

4.3 Applications aux calculs de puissances d’une matrice.

On considère des matrices carrées. Nous avons vu dans le premier chapitre sur le calcul matriciel que les identités remarquables n’étaient plus vraies à priori pour les matrices. En effet, si A etB sont de matrices carrées alors on a

(A+B)2 =A2+AB+BA+B2

L’identité remarquable n’était vraie que si les matrices commutaient ieAB =BA. La même propriété sera demandée pour pouvoir appliquer la formule du binôme avec deux matrices.

Proposition 4

Soit n un entier naturel non nul. Soient A etB deux matrices appartenant à Mn(R). Si A et B commutent alors on a

(A+B)m =

m

X

k=0

m k

AmBm−k

Nous allons voir un exemple type dans lequel cette formule va être très utile.

On considère les matrices suivantes : A=

1 2 1

0 3 1

0 −4 −1

 etN =

0 2 1

0 2 1

0 −4 −2

(a) Exprimer A en fonction deI3 etN.

(b) CalculerN2 puis en déduire ∀n∈N,n >2, Nn. (c) En déduire ∀n∈N, An.

Exemple type : Formule du binôme de Newton et Matrices.

(a) On a A=I3+N. (b) On a

N2 = 03 donc ∀n ∈N, n>2, Nn= 03. (c) Les matrices I3 etN commutent on a donc

An = (I3+N)n =

n

X

k=0

n k

Nk.

On a donc A0 =I3 etA1 =A. De plus pour n>2, An=I3+nN.

Donc

An =

1 2n n

0 1 + 2n n 0 −4n −2n+ 1

.

Références

Documents relatifs

Dans ce chapitre on désigne par (Ω, A , P) un espace probabilisé, c’est-à-dire, un espace mesurable (Ω, A ) muni d’une probabilité P.. Sont écrites en rouge les parties

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaitre pour sa culture) et en bleu les parties modifiées par rapport au cours

Sont écrites en rouge les parties hors programme, en violet les parties traitées en TD (résultats à connaître pour sa culture) et en bleu les parties modifiées par rapport au cours

Ce tableau représente la loi de probabilité

On décompte le nombre de communications passées sur une plateforme, par une personne, sur des intervalles de temps de 10 minutes, grâce à une loi de Poisson. Le nombre moyen

On tire une boule au hasard dans cette urne et on regarde si elle est noire. Soit la variable aléatoire prenant la valeur 1 si l'événement N est réalisé, 0 sinon. On

On note N V la variable aléatoire égale au nombre de tirages nécessaires pour obtenir la première boule verte, et N Ba. la variable aléatoire égale au nombre de tirages

[r]