Answer
**Exercice 1**
Soient \( X \sim \mathcal{N}(0,1) \) et \( Z \) une variable aléatoire indépendante de \( X \) telle que
\[
\mathbb{P}(Z = -1) = \mathbb{P}(Z = 1) = \frac{1}{2}.
\]
Soit la variable aléatoire \( Y = Z X \).
---
**1. Montrer que \( Y \sim \mathcal{N}(0,1) \)**
\( Y \) suit une loi normale centrée réduite car sa fonction caractéristique est identique à celle de \( X \).
---
**2. Calculer la matrice de covariance du couple aléatoire \( U = (X, Y) \)**
La matrice de covariance \( \Sigma \) de \( U \) est :
\[
\Sigma = \begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}.
\]
---
**3. Montrer que \( U \) n'est pas gaussien**
Malgré \( X \) et \( Y \) étant gaussiens et la covariance étant nulle, la dépendance non linéaire entre \( X \) et \( Y \) (par \( Y = Z X \)) empêche \( U \) d'être gaussien multivarié.
Solution
**Exercice 1**
Soient \( X \sim \mathcal{N}(0,1) \) et \( Z \) une variable aléatoire indépendante de \( X \) telle que
\[
\mathbb{P}(Z = -1) = \mathbb{P}(Z = 1) = \frac{1}{2}.
\]
Soit la variable aléatoire \( Y = Z X \).
---
**1. Montrer que \( Y \sim \mathcal{N}(0,1) \)**
Pour montrer que \( Y \) suit une loi normale centrée réduite, nous examinons sa fonction caractéristique.
La fonction caractéristique de \( X \) est donnée par :
\[
\varphi_X(t) = \mathbb{E}\left[e^{i t X}\right] = e^{-t^2 / 2}.
\]
Puisque \( Z \) prend les valeurs \( -1 \) et \( 1 \) avec probabilité \( \frac{1}{2} \) chacune et est indépendante de \( X \), la fonction caractéristique de \( Y = Z X \) est :
\[
\varphi_Y(t) = \mathbb{E}\left[e^{i t Y}\right] = \mathbb{E}\left[e^{i t Z X}\right].
\]
Comme \( Z \) et \( X \) sont indépendants :
\[
\varphi_Y(t) = \mathbb{E}_Z\left[\mathbb{E}_X\left[e^{i t Z X} \mid Z\right]\right] = \mathbb{E}_Z\left[ e^{-t^2 Z^2 / 2} \right].
\]
Or \( Z^2 = 1 \), donc :
\[
\varphi_Y(t) = \mathbb{E}_Z\left[e^{-t^2 / 2}\right] = e^{-t^2 / 2}.
\]
La fonction caractéristique de \( Y \) est identique à celle de \( X \), donc \( Y \sim \mathcal{N}(0,1) \).
---
**2. Calculer la matrice de covariance du couple aléatoire \( U = (X, Y) \)**
La matrice de covariance \( \Sigma \) de \( U \) est donnée par :
\[
\Sigma = \begin{pmatrix}
\mathrm{Cov}(X, X) & \mathrm{Cov}(X, Y) \\
\mathrm{Cov}(Y, X) & \mathrm{Cov}(Y, Y)
\end{pmatrix}.
\]
Calculons chaque élément :
- **Variance de \( X \) :**
\[
\mathrm{Cov}(X, X) = \mathbb{E}[X^2] - (\mathbb{E}[X])^2 = 1 - 0 = 1.
\]
- **Variance de \( Y \) :**
\[
\mathrm{Cov}(Y, Y) = \mathbb{E}[Y^2] - (\mathbb{E}[Y])^2 = 1 - 0 = 1.
\]
- **Covariance entre \( X \) et \( Y \) :**
\[
\mathrm{Cov}(X, Y) = \mathbb{E}[XY] - \mathbb{E}[X] \mathbb{E}[Y] = \mathbb{E}[XY].
\]
Puisque \( Y = Z X \),
\[
\mathbb{E}[XY] = \mathbb{E}[X \cdot Z X] = \mathbb{E}[Z X^2].
\]
Étant donné que \( Z \) et \( X \) sont indépendants,
\[
\mathbb{E}[Z X^2] = \mathbb{E}[Z] \cdot \mathbb{E}[X^2] = 0 \cdot 1 = 0.
\]
Ainsi,
\[
\mathrm{Cov}(X, Y) = 0.
\]
Donc, la matrice de covariance est :
\[
\Sigma = \begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}.
\]
---
**3. Montrer que \( U \) n'est pas gaussien**
Pour démontrer que \( U = (X, Y) \) n'est pas une variable aléatoire gaussienne, considérons les propriétés des variables gaussiennes.
**Propriété des variables gaussiennes :**
Un couple aléatoire \( (X, Y) \) est gaussien si toute combinaison linéaire de \( X \) et \( Y \) est également une variable gaussienne.
**Analyse :**
Ici, \( Y = Z X \), où \( Z \) est une variable aléatoire prenant les valeurs \( -1 \) et \( 1 \) avec probabilité \( \frac{1}{2} \) chacune, indépendante de \( X \).
Considérons la distribution conjointe de \( (X, Y) \). Il y a deux cas possibles :
- Si \( Z = 1 \), alors \( Y = X \).
- Si \( Z = -1 \), alors \( Y = -X \).
La distribution conjointe de \( (X, Y) \) est donc une mixture de deux distributions :
\[
\frac{1}{2} \left( \delta_{(x, x)} \right) + \frac{1}{2} \left( \delta_{(x, -x)} \right),
\]
où \( \delta \) est la fonction delta de Dirac.
Cette distribution n'est pas symétrique de manière à satisfaire les propriétés des distributions gaussiennes multivariées. En particulier, les densités mixtes ne sont généralement pas gaussiennes car elles peuvent présenter des caractéristiques telles que des multimodalités ou des singularités qui ne sont pas compatibles avec une distribution gaussienne.
**Conclusion :**
Même si \( X \) et \( Y \) sont individuellement gaussiens et que leur covariance est nulle, la dépendance non linéaire introduite par le produit \( Y = Z X \) (où \( Z \) peut inverser le signe de \( X \)) crée une structure de dépendance qui ne peut être décrite par une distribution gaussienne multivariée. Ainsi, \( U = (X, Y) \) n'est pas gaussien.
Reviewed and approved by the UpStudy tutoring team
Explain
Simplify this solution