VARIABLES ALEATOIRES

 

 

Une variable aléatoire, c'est un alea numérique, quelque chose de numérique qui prend ses valeurs aléatoirement.

 

Quand le nombre de valeurs possibles est fini, on dit que la v.a. est discrète.

 

Quand le nombre de valeurs possibles est infini, mais que les valeurs sont isolées (par exemple, des nombres entiers), on dit que la v.a. est entière.

 

Quand le nombre de valeurs possibles est infini et que ses valeurs ne sont pas isolées, (c'est à dire qu'entre deux valeurs quelconques, aussi proches soient-elles, il y en a toujours d'autres) on dit que la v.a. est continue.

 

Par exemple, le résultat d'un dé est une v.a. discrète (on la notera X).

Par exemple, le nombre de lancers nécessaires pour faire tomber une pièce sur Pile est une v.a. entière (on la notera Y).

Par exemple, la taille d'un nouveau-né est une v.a. continue (on la notera Z).

 

 

 

            Distribution de probabilité :

 

Quand on traite une variable discrète ou entière, la  distribution de probabilité est la donnée des probabilités d'apparition des différentes valeurs de la v.a.

 

Par exemple

            P(X=1) = 1/6, P(X=2) = 1/6, ......., P(X=6) = 1/6 c'est à dire P(X=k) = 1/6 pour k= 1,2,....6.

            P(Y=k) = (1/2)k  (les k-1 premiers lancers doivent donner Face et le kème Pile; ils sont indépendants).

 

On peut donner la distribution de probabilité (on dit aussi loi de probabilité) sous la forme d'une formule générale ou d'un tableau à simple entrée (dans le cas d'une v.a. discrète).

 

 

 

            Densité de probabilité :

 

Quelle est la probabilité que la taille d'un nouveau-né soit égale à 50 cm (on supposera une précision de mesure illimitée) ?

Il y a une infinité de tailles possibles; la probabilité qu'elle vaille 50 est donc égale à .......0 = .

Dans le cas d'une variable continue, toute probabilité ponctuelle (la probabilité d'apparition d'une valeur) est nulle.

 

Pourtant, la probabilité que la taille du nouveau-né soit comprise entre 20 et 70 cm n'est pas nulle (elle a même tendance à valoir quasiment 1).

 

Il y a donc un paradoxe : une somme de probabilités nulles, qui ne vaut pas 0. C'est possible car le nombre de termes de la somme est infini.

 

Quand vous avez rencontré des "points" en géométrie, on vous a dit qu'ils n'avaient pas de dimension, donc pas de longueur, et pourtant un segment de droite (composé de points), lui, a une longueur. C'est ici le même paradoxe : une infinité de 0, ça ne vaut pas forcément 0 !

 

Compte tenu de cette remarque, il n'est pas question de définir une distribution de probabilité pour une v.a. continue puisque toutes les probabilités ponctuelles sont nulles.

 

Dans le cas d'une v.a. continue, on définira une  densité de probabilité pour chaque valeur, une espèce de "probabilité linéique" analogue, par exemple à la notion de masse volumique en Physique.

 

On notera cette densité f(x). C'est une fonction continue et la surface sous sa courbe représentative est égale à 1 puisqu'elle représente la somme des probabilités, d'où  (la surface, c'est l'intégrale !).

 

 

 

            Espérance :

 

L'espérance d'une v.a (qu'on notera E(.))., c'est concrètement "la valeur moyenne" prise par cette v.a., on la calcule en multipliant les différentes valeurs possibles par leur probabilité d'apparition et en faisant la somme des résultats obtenus.

 

Par exemple,  

 

 

 

            Variance :

 

L'utilité de la variance (notée V(.)) sera de mesurer la dispersion de la v.a. par rapport à son espérance.

Par définition, la variance sera égale à l'espérance du carré de l'écart à l'espérance de la v.a. :

 

V(X) =E[(X-E(X))²]

 

Comme en Statistique, on n'utilise jamais cette définition pour le calcul pratique de la variance.

 

Pour effectuer pratiquement ce calcul, on utilise la propriété suivante  : la variance, c'est l'espérance du carré moins le carré de l'espérance.

 

V(X) = E(X²) - E(X)²

 

Dans l'exemple du dé,

 

On appellera écart-type (noté ) la racine carrée de la variance

 


COUPLE DE VARIABLES ALEATOIRES

 

Considérons le tableau suivant (appelé tableau à double entrée):

 

¯X \ Y®

0

1

2

Total

1

1/10

3/10

2/10

6/10

2

2/10

1/10

1/10

4/10

Total

3/10

4/10

3/10

1

 

On étudie simultanément deux variables aléatoires : X qui peut prendre les valeurs 1 et 2,

Y qui peut prendre les valeurs 0,1 et 2.

 

On trouve dans le tableau les probabilités d'apparition simultanée des différentes valeurs de X et Y.

Par exemple, la probabilité que X soit égale à 1 et Y égale à 2 vaut 2/10.

 

On appelle la donnée de ces probabilités : la loi de probabilité du couple (X,Y) (on dit aussi conjointe ou croisée, on parle aussi de distribution de probabilité du couple).

 

Le total des probabilités de la première ligne (6/10) représente la probabilité que X prenne la valeur 1.

La colonne Total représente donc la distribution de probabilité de la seule variable X (on parle de loi de probabilité marginale).

 

Il en va bien sûr de même pour la ligne Total qui représente la loi de probabilité de Y.

Le total des probabilités présentes dans ce tableau est égal à 1.

 

Pour calculer l'espérance du produit X.Y, on multipliera chaque probabilité du tableau par la valeur de X correspondante (qu'on trouve à gauche) et par la valeur de Y (qu'on trouve au-dessus); on fait ensuite la somme des résultats obtenus :

 

 

La covariance de X et de Y se définira comme l'espérance du produit moins le produit des espérances, ce qui donne ici :            

cov(X,Y) = 1,3 - (1,4x1) = - 0,1

Comme vous pouvez le noter, rien n'empêche une covariance d'être négative (alors qu'une variance, compte tenu de sa définition, est toujours positive).

 

Compte tenu de la définition, on a Cov(X,Y) = Cov(Y,X).

 

La covariance mesure le degré de dépendance linéaire entre les variables X et Y (on dit que deux variables sont dépendantes linéairement quand la relation liant Y à X est du type Y=aX+b).

On dit que deux variables sont indépendantes quand elles prennent leurs valeurs indépendamment, c'est à dire quand la valeur prise par l'une n'influe pas sur la valeur prise par l'autre.

Quand les variables sont indépendantes, elles sont a fortiori indépendantes linéairement, donc la covariance est nulle.

En revanche, la réciproque est fausse : en effet si la covariance est nulle, cela signifie que les variables sont indépendantes linéairement, ce qui ne signifie pas qu'elles soient indépendantes, elles peuvent dépendre l'une de l'autre par un autre type de relation (par exemple : Y = X²).

MANIPULATION DES OPERATEURS

 

 

(1)       E(X + Y) = E(X) + E(Y)         L'espérance de la somme est égale à la somme des espérances

 

(2)       E(aX + b) = a E(X) + b          Par exemple E(2X+3) = 2E(X) + 3

 

(3)       V(aX) = a² V(X)                     Quand on multiplie une va par une constante, la variance est multipliée par                                                      le carré; ainsi par exemple V(3X) = 9 V(X)

 

(4)       V(X + b) = V(X)                     Quand on ajoute une constante à une va, on ne change pas la variance, ce                                                                  qui est normal puisque la variance mesure la dispersion

 

(5)       V(aX + b) = a² V(X)              Simple combinaison des formules (3) et (4)

 

Les autres formules sur les variances et les covariances se déduisent de la remarque suivante :

 

La Variance se manipule comme un carré

La Covariance se manipule comme un produit

 

Cela signifie qu'un calcul de variance est analogue à un calcul de carrés et qu'un calcul de covariance est analogue à un calcul de produits; les calculs sont similaires avec des variances à la place des carrés et des covariances à la place des produits.

 

 

Supposons, par exemple, qu'on ait à calculer V(X+2Y).

 

On sait que :                                        (a)       (X+2Y)² = X² + 4Y² + 4XY.

 

On en déduit donc que :                       (b)       V(X+2Y) = V(X) + 4V(Y) + 4 cov (X,Y)

 

Pour passer de (a) à (b), on a simplement remplacé les carrés par des variances et les produits par des covariances

 

 

Autres exemples :         V(3X+4Y) = 9V(X) + 16V(Y) + 24cov(X,Y) car (3X+4Y)² = 9X² + 16Y² + 24XY

                                   Cov(2X+Y,3X-Y) = 6V(X) - V(Y) + Cov(X,Y) car (2X+Y)(3X-Y) = 6X² - Y² + XY

 

 

Cette méthode de calcul permet aussi d'établir les deux formules suivantes (analogues aux identités remarquables) :

 

(6)       V(X + Y) = V(X) + V(Y) + 2 Cov(X,Y)

 

(7)       V(X - Y) = V(X) + V(Y) - 2 Cov(X,Y)

 

 

Il est à noter que les formules (6) et (7) se simplifient si les variables sont indépendantes (car en ce cas, la covariance est nulle), on en déduit alors que :

 

la Variance de la somme et la Variance de la différence sont toutes deux égales à la somme des Variances