• Aucun résultat trouvé

2. 1.  ex)y,x(f 4. 3. 2. 1.

N/A
N/A
Protected

Academic year: 2022

Partager "2. 1.  ex)y,x(f 4. 3. 2. 1."

Copied!
5
0
0

Texte intégral

(1)

corrigé edhec 2005 option économique

exercice 1

1.

Si M  M2(R), alors f(M) = M + (a + b) I  M2(R). Si M, M '  M2(R) et x  R, alors f(M + M’) = M + M ' + (a + a' + d + d')I = M + (a + d)I + M ' + (a' + d')I = f(M) + f(M ') ; f(xM) = xM + (xa + xd)I = x(M + (a + d)I) = xf(M).

Donc f est un endomorphisme de M2(R).

2.

a) f(J1) = J1 + I = 2J1 + J4 ; f(J2) = J2 ; f(J3) = J3 ; f(J4) = J4 + I = J1 + 2J4.

b) On obtient A en écrivant en colonnes les coordonnées de J1, J2, J3, J4, dans la base (J1, J2, J3, J4).

c) A est symétrique réelle, donc diagonalisable.

3.

a) x(J1 – J4) + yJ2 + zJ3 + tI = 0  x + t = x = y = –x + t = 0  x = y = z = t = 0.

La famille (J1 – J4, J2, J3, I) est donc libre.

Comme M2(R) est de dimension 4, on en conclut que (J1 – J4, J2, J3, I) est une base de M2(R).

b) En multipliant A par la matrice-colonne de J1 – J4 dans la base (J1, J2, J3, J4), dont les éléments sont dans l'ordre 1, 0, 0, –1, on obtient f(J1 – J4) = J1 – J4. On a f(J2) = J2, f(J3) = J3, f(I) = 3I (ce dernier résultat en multipliant A par la matrice-colonne 1 0 0 1). On a donc :





3 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1 D

c) D'après la théorie du changement de base, A = P D P–1, avec





1 0 0 1

0 1 0 0

0 0 1 0

1 0 0 1 P

4.

a) La méthode du pivot, avec les manipulations successives L4  L4 + L1, L1  2L1 – L4, L1  (1/2)L1, L4  (1/2)L4

aboutit à





1 0 0 1

0 2 0 0

0 0 2 0

1 0 0 1

2 P 1 1

b) Pour tout n de N, An = (P D P–1)(P D P–1) … (P D P–1) (n facteurs), donc An = P Dn P–1. c) Tous calculs faits, on trouve

n n

n n

n

3 1 0 0 3 1

0 2 0 0

0 0 2 0

3 1 0 0 3 1 2 A 1

Ça marche avec n = 0, n = 1…

exercice 2

) 1 y ( x 2

e x ) y , x (

f

1.

f est le produit de deux fonctions de classe C2 sur R2, elle est donc de classe C2 sur R2.

2.

a)

(2)

) 1 x(y 2 ) 1 x(y y

2 ) 1 y ( x ) 1 y ( x 2 )

1 y ( x x

2 2

2 2

2

e y x 2 e

y 2x x ) y , x ( ' f

) 1 x xy ( e e

) 1 y ( x e

) y , x ( ' f

b) f présente un minimum local en (x, y) seulement si :



 



 

 0y x 2

01x xy 0)y,x(

'f 0)y,x(

'f

2 2

y x

La deuxième équation implique x = 0 ou y = 0. Avec x = 0, la première équation devient 1 = 0, équation qui n'a pas de solution. On a donc y = 0, puis x = –1, ce qui fournit le seul point critique (–1, 0).

3.

a)

) 1 xy

2 ( e

x 2

"

f t

) 2 x

xy (

xye 2

"

f s

) 2 x

xy (

e ) 1 y

( '

' f r

2 )

1 y

( x 2

yy

2 )

1 y

( x xy

2 )

1 y

( x 2

x x

2 2

2

Au seul point critique (–1, 0), r = e–1, s = 0, t = 2e–1, rt – s2 = 2e–2 > 0, r > 0, donc f présente un minimum local en (–1, 0), de valeur f(–1, 0) = –1/e.

4.

a) y2 + 1  1, donc

* si x  0, x(y2 + 1)  x exp(x(y2 + 1)  exp(x) x exp(x(y2 + 1)  x exp(x) f(x, y)  x ex

* si x  0, x(y2 + 1)  x exp(x(y2 + 1)  exp(x) x exp(x(y2 + 1)  x exp(x) f(x, y)  x ex b) g(x) = x ex, g'(x) = (x + 1) ex.

g est strictement décroissante sur ]–, –1], strictement croissante sur [–1, +[; g a donc son minimum en –1, égal à g(–1) = –1/e. Donc, pour tout x  R2, f(x, y)  x ex  –1/e. Le minimum local de f est donc un minimum global.

exercice 3

1.

a) Pour tout x de [0, 1[,

(1 t)

(1 x) 1

dt ) t 1 ( a dt ) t (

f x a 0x a

0

1 x a

0

b) Pour a > 0, (1 – x)a tend vers 0 quand x tend vers 1, donc l'intégrale de f sur [0, x] tend vers 1 quand x tend vers 1, donc l'intégrale de f sur [0, 1] est convergente et vaut 1.

c) f est positive ou nulle sur R, continue sur ]–, 0[ (fonction nulle), et sur ]0, +[ (produit de deux fonctions continues), et d'intégrale sur R égale à 1. Donc f est une densité de probabilité.

2.

X est à valeurs dans [0, 1[, donc F(x) = 0 si x  0, F(x) = 1 si x > 1, et si x  [0, 1[, le travail est fait : F(x) = 1 – (1 – x)a.. Synthétisons :

 

 

1 x si 1

1 x 0 si )x 1(

1

0 x si 0

)x

(F

a

3.

On pourrait déterminer l'espérance et la variance de X d'une manière plus simple que celle proposée par l'énoncé, par exemple en utilisant une intégration par parties sur [0, x], puis en passant à la limite. La voie proposée par l'exercice est plus tortueuse, mais elle fait appel à une suggestion d'exercice faite par le programme… Allons-y donc :

(3)

a) Pour x quelconque,

G(x) = P(Y  x) = P( –ln(1 – X)  x ) = P( ln(1 – X)  –x ) = 1 – P( ln(1 – X) < –x ) = 1 – P( 1 – X < e–x ) = 1 – P (X > 1 – e–x ) = 1 – ( 1 – P( X  1 – e–x ) )

= P( X  1 – e–x ) = F(1 – e–x)

Maintenant, tenons compte du fait que x est positif (ou nul). Alors –x  0, e–x  1, 1 – e–x  0. Comme d'autre part 1 – e–x < 1, on lit, en remplaçant x par 1 – e–x dans l'expression de F(x) trouvée au 2, deuxième ligne :

G(x) = F(1 – e–x) = 1 – ( 1 – (1 – e–x) )a = 1 – (e–x)a = 1 – e–ax

b) Pour x négatif, –x > 0, e–x > 1, 1 – e–x < 0, et donc G(x) = F(1 – e–x) = 0. On pouvait aussi partir de X à valeurs dans [0, 1[ pour aboutir à Y = –ln(1 – X) à valeurs dans [0, +[.

Bref, on reconnaît G comme étant la fonction de répartition d'une variable qui suit la loi exponentielle de paramètre a.

4.

a) En refaisant le calcul, ou en se souvenant de l'expression de la densité d'une loi exponentielle de paramètre , on trouve :

0e dx 1 x

b) D'après le théorème de transfert, dorénavant au programme aussi pour les variables à densité, et bien sûr sous réserve de convergence absolue :

a 1 dt a e

a dt ae e )

e (

E 0

) a 1 ( t 0

at t Y

en utilisant le a).

c) Y = –ln(1 – X) donne X = 1 – e–Y (même genre de calcul que 3°) a). On a alors par la linéarité de l'espérance

a 1

1 a 1 1 a ) e ( E 1 ) X (

E Y

d) De la même manière que dans b :

a 2 dt a e

a dt ae e )

e (

E 0

) a 2 ( t 0

at t 2 Y

2

Puis

             

2

2 2 Y Y

2 2 2 Y

Y Y

) a 1 )(

2 a ( ... a a

1 a 2 a e a

E e

E e

E e

E ) e (

V

Puis la formule V(aX + b) = a2V(X) donne

Y

  

Y 2

) a 1 )(

2 a ( e a V e

1 V ) X (

V

problème

1.

a) (T = k) = (X1 > 0)  (X2 > 0)  …  (Xk–1 > 0)  (Xk = 0) b) P(X1 = 1) = p ; P(X1 = 0) = 1 – p.

c) Selon la formule des probabilités composées :

) 0 X ( P

) 1 i X ( P

) 2 X ( P ) 0 X ( P ) k T (

P 1 (X11) 2 (Xk2k2) i1 (Xk1k1) k Donc P(T = k) = pk–1 p.

T suit la loi géométrique de paramètre p.

2.

a) X0(} car à l'instant 0 le mobile est en 0, et si Xn() = [[0, n]], alors Xn+1() = [[0, n + 1]]

car si le mobile est en k  [[0, n]] à l'instant n, alors à l'instant suivant il est soit en k +1 soit en 0.

b) On utilise la formule des probabilités totales avec le système complet d'événements indiqué :

p 1 ) k X

( P ) p 1 ( ) k X

( P ) p 1 ( ) k X

( P ) 0 X ( P

) 0 X (

P n 1

0 k

1 n 1

n

0 k

1 n 1

n

0 k

1 n n

) k X (

n  

n 1   

   

  

(4)

3.

a) Si le mobile est en k (k  1) à l'instant n + 1, il est nécessairement en k –1 à l'instant n, donc (Xn+1 = k) = (Xn = k – 1)  (Xn+1 = k), et d'après la formule des probabilités composées :

) 1 k X ( pP ) 1 k X ( P ) k X ( P

) k X (

P n1   (Xnk1) n1n    n  

b) Question difficile. On va montrer le résultat proposé par récurrence sur n, en portant une grande attention aux ensembles dans lesquels varient k et n.

* La propriété est vraie pour n = 1, la seule égalité à vérifier étant alors P(X1 = 0) = 1 – p.

* Supposons la propriété vraie pour n fixé dans N*. Alors,

-- pour k  {1, 2, .., n + 1}, P(Xn+1 = k) = p P(Xn = k – 1) = p pk–1(1 – p) = pk(1 – p) ; -- pour k = 0, P(Xn+1 = 0) = 1 – p d'après 2°)b.

* La propriété est donc vraie pour tout n  N*.

Du résultat établi au 3°) a) on déduit également, avec k = n + 1 :

P(Xn+1 = n + 1) = p P(Xn = n) = p p P(Xn–1 = n – 1) = … = pn+1P(X0 = 0) = pn+1. Et donc P(Xn = n ) = pn pour tout n  N*.

C'est quoi, une explication probabiliste ? C'est pas ce qu'on est en train de faire depuis un moment, des explications probabilistes ? Bon, on peut donner une explication littéraire : si le mobile est en n à l'instant n, c'est qu'il n'est jamais revenu au point de départ, il a toujours vaillamment avancé petit pas par petit pas, ce qui se fait avec la probabilité pn… On peut donner une explication plus formelle, en utilisant la formule des probabilités composées, sur le modèle de la question 1°) c.

c) On utilise l'identité géométrique :

1 p p 1 p p

1 p )1 p 1 ( p ) p 1 ( p ) k X (

P n n n

n 1 n

n 0 k n k

0 k

n     

 

4.

Une question ridicule, entourée de géants… random(3) a une chance sur 3 d'être égal à 2. Si c'est le cas, on fait progresser le mobile, sinon on le renvoie à l'origine… Le premier pointillé est à remplacer par X + 1, le deuxième par 0, et le tour est joué ! (Il serait aussi bienvenu de retirer le disgracieux point- virgule précédent le else…)

5.

a) Classique de chez classique. On considère, pour p ]0, 1[

p 1

p p 1

) p ( f

1 n n

0 k

k

 

et on calcule f '(p) à partir de ces deux expressions pour trouver le résultat demandé.

b) Le calcul de E(Xn) n'est plus alors qu'une formalité :

p 1

) p 1 ( p p 1

p p p

1

np p p ) 1 n (

p 1

) p 1 ( np p np p

) 1 n np ( )

p 1 (

1 np p ) 1 n p( ) p 1 (

np kp

p ) p 1 ( np ) p 1 ( kp )

k X ( kP )

X ( E

n 1

n 1

n 1

n

n n

1 n n

2 1 n n

1 n n

1 k

1 k 1 n

n

1 k n k

0 k

n n

 

6.

a) Le 3°) a) nous dit que k  {1, 2, … n + 1}, P(Xn+1 = k) = p P(Xn = k – 1). Dans ces conditions,



 

          

1 n

1 k

n 1

n 1 k

n 1

n 1 k

n 2

1 n

1 k

n 1 2

n 1 k

n 1 2

n 0 k

1 n 2 2

1 n

) 1 k X ( P ) 1 k X ( P ) 1 k ( 2 ) 1 k X ( P ) 1 k ( p

) 1 k X ( pP ) 1 1 k ( ) 1 k X ( pP k ) k X ( P k ) X ( E

Le changement d'indice i = k – 1 dans ces trois sommes devrait vous persuader que, effectivement, E(Xn2) = p[E(Xn2) + 2E(Xn) + 1]

b) Facile ! On forme un+1 d'un coté, pun + p(1 + p) / (1 – p) de l'autre, on tient compte de l'expression de E(Xn) trouvée au 5°) b), et on trouve deux quantité égales !

(5)

c) La suite (un) est une suite arithmético-géométrique de point fixe ℓ tel que ℓ = pℓ + p(1 + p) / (1 – p).

On trouve ℓ = p(1 + p) / (p – 1)2 , puis un – ℓ = pn(u0 – ℓ). u0 = E(X02) – p / (1 – p) = –p / (1 – p), donc

n

n 2 1 p 2p

) p 1 (

u p

On en déduit

)]

p 1 ( p ) 1 n 2 ( p 2 p 1 ) [ p 1 (

p p

1 ) p 1 n 2 ( u ) X (

E 2 n n

1 n n

2

n

d) V(Xn) = E(Xn2) – [E(Xn)]2, donc

] p ) p 1 ( p ) 1 n 2 ( 1 ) [ p 1 (

p

] p p ) 1 n 2 ( p ) 1 n 2 ( 1 ) [ p 1 (

p

] p p 2 p p ) 1 n 2 ( p ) 1 n 2 ( p 1 ) [ p 1 (

p

)]

p p 2 1 ( p p ) 1 n 2 ( p ) 1 n 2 ( p 1 ) [ p 1 (

p

] ) p 1 ( p p ) 1 n 2 ( p ) 1 n 2 ( p 2 p 1 ) [ p 1 (

p

) p 1 (

) p 1 ( )] p p 1 ( p ) 1 n 2 ( p 2 p 1 ) [ p 1 ( ) p X ( V

1 n 2 n

2

1 n 2 1 n n

2

1 n 2 1 n 1

n n

2

n 2 n 1

n n

2

2 n 1

n n

n 2

2 2 n n 2

n n 2

Des questions bien techniques et difficiles, mais on ne peut pas en vouloir au concepteur de se faire plaisir (?), ces questions arrivent à la fin d'une épreuve où on pouvait amplement s'exprimer…

Références