DOURNAC.ORG
Français  English
Accueil
Astronomie
Sciences
Philosophie
Informatique
Cv

Sciences > Corrigé de l'examen de probablités - Master II Physique Subatomique IPHC



  • 1.Loi de Gauss et Fonction Caractéristique
  • 2.Théorème de Transfert
  • 3.Espérance et Variance dans le cas général
  • 4.Construction de variables non-Corrélées
  • 5.Indépendance et non-Corrélation
  • 6.Méthode du Maximum de Vraisemblance - 2 échantillons de mesure
  • 7.Méthode du Maximum de Vraisemblance - 2 estimations avec erreur
  • 8.Méthode Monte-Carlo
  • 9.Générateur de loi uniforme
  • 10.Méthode du Chi2
  • 11.Méthode du Chi2 avec erreurs sur les mesures
  • 12.Niveau de confiance

Exercice 1.1 :

On considère une variable continue aléatoire $x$ sur $]-\infty ,+\infty [$ suivant une loi de Gauss de paramètre $\mu $ et $\sigma $.
-Donnez l’expression de la loi de Gauss.
-Donnez les conditions pour que cette loi soit une pdf ainsi que sur les paramètres.
-Quelle est la fonction caractéristique (définition générale et expression dans ce cas).
-Faites de même pour sa fonction cumulative.

Rappel : \begin{equation} \text{erf}(z)=\dfrac{2}{\sqrt{\pi}}\,{\large\int}_{0}^{z}\,exp(-t^{2})dt \end{equation}

Correction :

Soit x une variable aléatoire sur $]-\infty ,+\infty [$ suivant une loi de Gauss. La fonction de densité s’écrit :

\begin{equation} f(x)=\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\bigg(-\dfrac{1}{2}\big(\dfrac{x-\mu}{\sigma}\big)^{2}\bigg) \end{equation}

Conditions pour que cette loi soit une pdf ainsi que sur les paramètres :

Fonction caractéristique :

\begin{equation} \Phi(t)={\large\int}_{-\infty}^{+\infty}\,f(x)\,e^{itx}dx \end{equation}

\begin{equation} \Longrightarrow  
\Phi(t)=\dfrac{1}{\sqrt{2\pi}\sigma}\,{\large\int}_{-\infty}^{+\infty}\,exp\bigg(-\dfrac{1}{2}\big(\dfrac{x-\mu}{\sigma}\big)^{2}+itx\bigg)dx \end{equation}

On fait le changement de variable suivant :

\begin{equation} x=\sqrt{2}\sigma\,X+\mu \Rightarrow dx=\sqrt{2}\sigma\,dX \end{equation}

\begin{equation} \Longrightarrow  
\Phi(t)=\dfrac{1}{\sqrt{\pi}}\,e^{it\mu}\,{\large\int}_{-\infty}^{+\infty}\,e^{-X^{2}}\,e^{it\sqrt{2}\sigma\,X}dX \end{equation}
On se sert de l’égalité suivante, elle peut être trouvée sur le Web :

\begin{equation} {\large\int}_{-\infty}^{+\infty}\,e^{-t^{2}}\,e^{zt}dt=\sqrt{\pi}e^{z^{2}/4} \end{equation}

En prenant $z=it\sqrt {2}\sigma $, on obtient :

\begin{equation} \Phi(t)=exp(it\mu)\,exp(-\dfrac{t^{2}\sigma^{2}}{2}) \end{equation}

Fonction cumulative :

\begin{equation} F(x)=P(X\,\leq\,x)={\large\int}_{-\infty}^{x}\,f(x’)dx’={\large\int}_{-\infty}^{\mu}\,f(x’)dx’  
+{\large\int}_{\mu}^{x}\,f(x’)dx’ \end{equation}

\begin{equation} F(x)={\large\int}_{-\infty}^{\mu}\,\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\bigg(-\dfrac{1}{2}\big(\dfrac{x’-\mu}{\sigma}\big)^{2}\bigg)dx’+  
{\large\int}_{\mu}^{x}\,\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\bigg(-\dfrac{1}{2}\big(\dfrac{x’-\mu}{\sigma}\big)^{2}\bigg)dx’ \end{equation}

On fait le changement de variable suivant : $x^"=x'-\mu $ et l’on obtient :

\begin{equation} {\large\int}_{-\infty}^{0}\,\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\bigg(-\dfrac{1}{2}\big(\dfrac{x^"}{\sigma}\big)^{2}\bigg)dx^"=\dfrac{1}{2} \end{equation}

Pour la deuxième intégrale, on effetue le changement de variable suivant : $v=\dfrac {x^"}{\sqrt {2}\sigma }$

ce qui donne :

\begin{equation} \dfrac{1}{\sqrt{\pi}}\,{\large\int}_{0}^{\frac{x-\mu}{\sqrt{2}\sigma}}\,e^{-v^{2}}dv=\dfrac{1}{2}\,\text{erf}\bigg(\dfrac{x-\mu}{\sqrt{2}\sigma}\bigg) \end{equation}

d’où le résultat final :

\begin{equation} F(x)=\dfrac{1}{2}+\dfrac{1}{2}\,\text{erf}\bigg(\dfrac{x-\mu}{\sqrt{2}\sigma}\bigg) \end{equation}

Exercice 1.2 :

On fait un changement de variable $y=exp(x)$, où $x$ est défini plus haut et suit la loi de Gauss ci-dessus.
-Comment va-t-on calculer la loi de probabilité pour $y$ ?
-Donnez l’expression de la pdf de $y$.
-Calculez l’espérance mathématique $E(y)$ ; donnez d’abord sa définition
-Donnez l’expression de la variance de $y$.

Correction :

On doit trouver la densité de probabilités de y notée g(y). On a :

\begin{equation} (\,\,x\in\,\,  ]-\infty,+\infty[\,\,) \Rightarrow (\,\,y=e^{x} \in\,\, ]0,+\infty[\,\,) \end{equation}

Théorème de transfert : en tenant compte que $x=\ln y$ et qu’il y a conservation des probabilités dans le changement de variables, on a :

\begin{equation} f(x)dx=g(y)dy \end{equation}

ce qui implique :

\begin{equation} g(y)=f(x(y))\left|\dfrac{dx}{dy}\right| \end{equation}

On obtient ansi pour $g(y)$ :

\begin{equation} g(y)=\left\{  
\begin{array}{ccc}  
\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\left(-\dfrac{1}{2}\left(\dfrac{\ln y-\mu}{\sigma}\right)^2\right)\,\dfrac{1}{y}&si&  
y\,>\,0\\  
0&si&y\,\leq\,0  
\end{array}  
\right. \end{equation}

Espérance mathématique :

\begin{equation} E(y)={\large\int}_{-\infty}^{+\infty}y\,g(y)\,dy={\large\int}_{0}^{+\infty}y\,g(y)\,dy \end{equation}
car $g(y)=0$ pour $y\leq 0$.

En tenant compte du fait que $x=\ln y$ et que $dy=e^{x}\,dx$, on a :

\begin{equation} E(y)={\large\int}_{-\infty}^{+\infty}\,e^{x}\,\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\left(-\dfrac{1}{2}\left(\dfrac{x-\mu}{\sigma}\right)^2\right)\,dx \end{equation}

On reconnait l’équation (6) de la fonction caractéristique vue dans l’exercice 1.1 :

\begin{equation} E(y)=\Phi(it=1)=e^{\mu+\frac{\sigma^{2}}{2}} \end{equation}

Variance mathématique :

\begin{equation} V(y)=E(y^{2})-E(y)^{2} \end{equation}

\begin{equation} E(y^{2})={\large\int}_{-\infty}^{+\infty}\,y^{2}g(y)\,dy \end{equation}

En suivant le même raisonnnement que précédemment :

\begin{equation} E(y^{2})={\large\int}_{-\infty}^{+\infty}\,e^{2x}\,\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\left(-\dfrac{1}{2}\left(\dfrac{x-\mu}{\sigma}\right)^2\right)\,dx \end{equation}

\begin{equation} E(y^{2})=\Phi(it=2) \end{equation}

D’où le résultat final :

\begin{equation} V(y)=exp(2\mu+2\sigma^{2})-exp(2\mu+\sigma^{2}) \end{equation}

Exercice 1.3 :

On dispose d’un ensemble de variables $x_{i},i=1,....,n$, et on considère dans le cas le plus général, la variable aléatoire $z=\sum _{i=1}^{n}a_{i}x_{i}$ où les $a_{i}$ sont des constantes.
-Donnez l’expression de l’espérance mathématique $E(z)$.
-Donnez l’expression de la variance $V(z)$ (cas le plus général).

Correction :

Espérance mathématique $E(z)$ :

\begin{equation} E(z)=E\big(\sum_{i=1}^{n}a_{i}x_{i}\big)=\sum_{i=1}^{n}a_{i}E(x_{i}) \end{equation}

Variance mathématique $V(z)$ :

\begin{equation} V(z)=\sum_{i=1}^{n}a_{i}^{2}V(x_{i}) +\sum_{i \neq  
j}a_{i}a_{j}\,\text{cov}(x_{i},x_{j})  
\label{eq27} \end{equation}
avec $\text{cov}(X,Y)=E[(X-E(X))(Y-E(Y))]$

Exercice 2.1 :

On se réduit à 2 variables aléatoires x et y de variance $\sigma _{x}^{2}$ et $\sigma _{y}^{2}$ et de corrélation $\rho _{xy}$.

On fait le changement de variables suivant :

  • $u=x+y\sigma _{x}/\sigma _{y}$
  • $v=x-y\sigma _{x}/\sigma _{y}$

Calculez les variances $V(u)$, $V(v)$ et la covariance $\text{cov}(u,v)$. Qu’en concluez-vous ? Quelle est la corrélation $\rho _{uv}$ ?

Correction :

On utilise la relation de la covariance de l’exercice précédent (27) et on a :

\begin{equation} V(u)=V(x)+(\dfrac{\sigma_{x}}{\sigma_{y}})^{2}\,V(y)+2\dfrac{\sigma_{x}}{\sigma_{y}}\text{cov}(x,y) \end{equation}

\begin{equation} \Rightarrow  
V(u)=2\sigma_{x}^{2}+2\sigma_{x}^{2}\rho_{xy}=2\sigma_{x}^{2}(1+\rho_{xy}) \end{equation}

De la même manière pour $V(v)$ :

\begin{equation} \Rightarrow  
V(v)=2\sigma_{x}^{2}-2\sigma_{x}^{2}\rho_{xy}=2\sigma_{x}^{2}(1-\rho_{xy}) \end{equation}
Rappel : $\rho _{xy}=\dfrac {\text{cov}(x,y)}{\sigma _{x}\sigma _{y}}$

Faisons maintenant le calcul de la covariance de u et v :

\begin{equation} \text{cov}(u,v)=E((u-\bar{u})(v-\bar{v}))=E((x+y\dfrac{\sigma_{x}}{\sigma_{y}}-\bar{x}-  
\bar{y}\dfrac{\sigma_{x}}{\sigma_{y}})(x-y\dfrac{\sigma_{x}}{\sigma_{y}}-\bar{x}+  
\bar{y}\dfrac{\sigma_{x}}{\sigma_{y}})) \end{equation}

\begin{equation} =E((x-\bar{x})^{2}-\dfrac{\sigma_{x}}{\sigma_{y}}(y-\bar{y})(x-\bar{x})+(x-\bar{x})(y-\bar{y})  
\dfrac{\sigma_{x}}{\sigma_{y}}-\big(\dfrac{\sigma_{x}}{\sigma_{y}}\big)^{2}(y-\bar{y})^{2}) \end{equation}

\begin{equation} =V(x)-\big(\dfrac{\sigma_{x}}{\sigma_{y}}\big)^{2}V(y)=0 \end{equation}

\begin{equation} \Rightarrow \rho_{uv}=0 \end{equation}

$u$et $v$ ne sont pas corrélées. La conclusion est que l’on peut fabriquer deux variables non corrélées à partir de deux variables corrélées

Exercice 2.2 :

Ces deux variables aléatoires $x$ et $y$ suivent une loi de Gauss (pdf $f(x,y)$) avec $\mu _{x}=0$ et $\mu _{y}=0$.
* Donnez son expression.
* Donnez les espérances mathématiques $E(x)$ et $E(y)$.
* Calculez la loi de densité de probabilités pour les variables u et v (pdf $h(u,v)$).
* Que concluez-vous pour ces 2 variables aléatoires $u$ et $v$ ?

Correction :

Formule générale de la fonction de densité de la loi normale à deux dimensions :

\begin{align} f(x,y)&=\dfrac{1}{2\pi\sigma_x\sigma_y\sqrt{1-\rho^2}} \notag \\  
&exp\left(-\dfrac{1}{2}\dfrac{1}{(1-\rho^2)}\left(\left(\dfrac{x-\mu_x}{\sigma_x}\right)^2+\left(\dfrac{y-\mu_y}{\sigma_y}\right)^2-\dfrac{2\rho\,(x-\mu_x)(y-\mu_y)}{\sigma_x\,\sigma_y}\right)\right) \end{align}

ici, la fonction de densité s’écrit avec $\mu _{x}=\mu _{y}=0$ :

\begin{align} f(x,y)&=\dfrac{1}{2\pi\sigma_x\sigma_y\sqrt{1-\rho^2}}\notag \\  
&exp\left(-\dfrac{1}{2}\dfrac{1}{(1-\rho^2)}\left(\left(\dfrac{x}{\sigma_x}\right)^2+\left(\dfrac{y}{\sigma_y}\right)^2-\dfrac{2\rho\,xy}{\sigma_x\,\sigma_y}\right)\right) \end{align}

Espérances mathématiques :

\begin{equation} E(x)={\large\int}_{-\infty}^{+\infty}\,{\large\int}_{-\infty}^{+\infty}\,x\,f(x,y)\,dxdy=\mu_{x}=0 \end{equation}

\begin{equation} E(y)={\large\int}_{-\infty}^{+\infty}\,{\large\int}_{-\infty}^{+\infty}\,y\,f(x,y)\,dxdy=\mu_{y}=0 \end{equation}

Calculons maintenant la pdf h(u,v), nous avons la relation suivante : il y a conservation des probabilités pour le couple (x,y) et (u,v) :

\begin{equation} h(u,v)\,dudv=f(x,y)\,dxdy \end{equation}

et donc :

\begin{equation} h(u,v)=f(\Phi(u,v))\,\vert\text{det}(J_{\Phi}(u,v))\vert \end{equation}

où : $\Phi :(u,v)\,\longrightarrow \,(x,y)$ et $J_{\Phi }(u,v)$ est le Jacobien de la transformation $\Phi $.

\begin{equation}  \text{det}(J_{\Phi}(u,v))=\left| \begin{array}{cc}  
         \dfrac{\partial x}{\partial u}  & \dfrac{\partial x}{\partial v}  \\  
  \\  
 \dfrac{\partial y}{\partial u}  &  \dfrac{\partial y}{\partial v}  \\  
     \end{array} \right | \,\,\, \text{avec} \,\,\,  
     x=\dfrac{u+v}{2}\,\,\text{et}\,\,y=\dfrac{u-v}{2}\,\dfrac{\sigma_y}{\sigma_x} \end{equation}

\begin{equation}  \text{det}(J_{\Phi}(u,v))=\left| \begin{array}{cc}  
         \dfrac{1}{2}  & \dfrac{1}{2}  \\  
  \\  
 \dfrac{1}{2}\,\dfrac{\sigma_y}{\sigma_x}  &  
 -\dfrac{1}{2}\,\dfrac{\sigma_y}{\sigma_x}  \\  
     \end{array} \right | \,=-\dfrac{1}{2}\dfrac{\sigma_y}{\sigma_x} \end{equation}

On obtient donc la pdf $h(u,v)$ :

\begin{align} &h(u,v)=\dfrac{1}{2}\dfrac{\sigma_y}{\sigma_x}\dfrac{1}{2\pi\sigma_x\sigma_y\sqrt{1-\rho^2}}  \notag \\  
&exp\left(-\dfrac{1}{2(1-\rho^2)}\left(\left(\dfrac{u+v}{2}\right)^2\dfrac{1}{\sigma_x^2}-\dfrac{1}{2}\left(\dfrac{(u-v)}{2}\dfrac{\sigma_y}{\sigma_x}\right)^2\dfrac{1}{\sigma_y^2}  
-2\rho\dfrac{(u+v)(u-v)}{4\sigma_x\sigma_y}\dfrac{\sigma_y}{\sigma_x}\right)\right) \end{align}

\begin{align} &h(u,v)=\dfrac{1}{4}\dfrac{1}{\pi\sigma_x^2\sqrt{1-\rho^2}} \notag \\  
&exp\left(-\dfrac{1}{8(1-\rho^2)}\left(\dfrac{u^2+2uv+v^2}{\sigma_x^2}\right)-\dfrac{1}{8(1-\rho^2)}\left(\dfrac{u^2-2uv+v^2}{\sigma_x^2}\right)  
+\dfrac{\rho}{4(1-\rho^2)}\left(\dfrac{u^2-v^2}{\sigma_x^2}\right)\right) \end{align}

\begin{align} &h(u,v)=\dfrac{1}{4}\dfrac{1}{\pi\sigma_x^2\sqrt{1-\rho^2}} \notag \\  
&exp\left(-\dfrac{1}{4(1-\rho^2)}\dfrac{u^2(1-\rho)}{\sigma_x^2}-\dfrac{1}{4(1-\rho^2)}\dfrac{v^2(1+\rho)}{\sigma_x^2}\right) \end{align}

Comme on a d’après l’exercice 2.1 : $\sigma _{x}^{2}(1+\rho _{xy})=\dfrac {\sigma _{u}^{2}}{2}$ et $\sigma _{x}^{2}(1-\rho _{xy})=\dfrac {\sigma _{v}^{2}}{2}$

\begin{equation} h(u,v)=\dfrac{1}{\sqrt{2\pi}\sigma_u}\,exp\left(-\dfrac{u^2}{2\sigma_u^2}\right)\dfrac{1}{\sqrt{2\pi}\sigma_v}\,exp\left(-\dfrac{v^2}{2\sigma_v^2}\right) \end{equation}

\begin{equation} h(u,v)=\text{Gauss}(u,0,\sigma_u)\,\,\,\cdot\,\,\,\text{Gauss}(v,0,\sigma_v) \end{equation}

On a donc $u$ et $v$ qui sont indépendantes car il y a factorisation de $\text{pdf}(u,v)=\text {pdf(}u\text {)} \cdot \text {pdf}(v)$. Si deux variables X et Y sont statistiquement indépendantes, alors elles sont non corrélées. L’inverse n’est pas nécessairement vrai. En effet, la non-corrélation implique l’indépendance que dans des cas particuliers et le cas des variables aléatoires gaussiennes en fait partie.

Exercice 3.1 :

On considère une variable continue $t$ positive, distribuée suivant une loi exponentielle $\propto exp(-t/\tau )$ : Donnez l’expression de la pdf $f(t)$ et calculez l’espérance mathématique $E(t)$ et la variance $V(t)$. On dispose de $N$ mesures $t_{i}$ de cette variable. On choisit la méthode du maximum de vraisemblance pour la détermination du paramètre $\tau $. Rappelez le principe de la méthode et comment vous allez calculer ce paramètre et sa variance. Calculez par la méthode du maximum de vraisemblance l’estimation de $\tau $ et sa variance. On dispose de deux échantillons indépendants constitués de $N_{1}$ et $N_{2}$ mesures, de sorte que l’échantillon total contient $N=N_{1}+N_{2}$ mesures. Calculez l’estimation de $\tau $ à partir de ces $N$ mesures en faisant apparaître les deux contributions $\tau _{1}$ et $\tau _{2}$ des sous-échantillons $N_{1}$ et $N_{2}$.

Correction :

Soit $t$ une variable aléatoire $> 0$ suivant une loi exponentielle, la pdf s’écrit :

\begin{equation} f(t)=\left\{  
\begin{array}{lcc}  
\dfrac{1}{\tau}\,exp\left(-\dfrac{t}{\tau}\right)&si&  
t\,\geqslant\,0\\  
0&si&t\,<\,0  
\end{array}  
\right. \end{equation}

On a de plus :

\begin{equation} \int_{0}^{+\infty}f(t)dt=1 \,\,\,et\,\,\, f(t)\geqslant 0\,\, \forall t \end{equation}

Espérance mathématique, on intègre par partie :

\begin{equation} E(t)=\int_{0}^{+\infty}\dfrac{t}{\tau}\,exp(\dfrac{-t}{\tau})\,dt=  
\big[\dfrac{t}{\tau}\,(-\tau)exp(-\dfrac{t}{\tau})\big]_{0}^{+\infty}  
-\int_{0}^{+\infty}\dfrac{1}{\tau}\,(-\tau)\,exp(-\dfrac{t}{\tau})\,dt \end{equation}

\begin{equation} =\,0+\int_{0}^{+\infty}\,exp(-\dfrac{t}{\tau})\,dt=\tau \end{equation}

Variance mathématique :

\begin{equation} E(t^{2})=\int_{0}^{+\infty}\dfrac{t^{2}}{\tau}\,exp(\dfrac{-t}{\tau})\,dt=  
\big[-t^{2}\,exp(-\dfrac{t}{\tau})\big]_{0}^{+\infty}  
-\int_{0}^{+\infty}\dfrac{1}{\tau}\,\dfrac{2t(-\tau)}{\tau}\,exp(-\dfrac{t}{\tau})\,dt \end{equation}

\begin{equation} =\,0+2\,\int_{0}^{+\infty}\,t\,exp(-\dfrac{t}{\tau})\,dt=2\tau^{2} \end{equation}

$\Rightarrow \,\, V(t)=\tau ^{2}\,\,\Rightarrow \,\,\sigma =\tau $

Nous avons N mesures $t_{i}, i=1,..,N$. La méthode du maximum de vraisemblance consiste à determiner l’estimateur $\tau $ qui est solution de la maximisation ou minimisation de la fonction de vraisemblance $L$ définie ainsi :

\begin{equation} L=\prod_{i=1}^{N}\,f(t_{i}) \end{equation}

où $f(t)$ est la pdf de la variable $t$. Le paramètre $\tau $ se trouve en minimisant ou maximisant $L$ comme ceci :

\begin{equation} \dfrac{\partial\,(-\ln L)}{\partial\tau}=0 \end{equation}

Calculons dans notre cas la fonction de vraisemblance $L$ :

\begin{equation} L=\prod_{i=1}^{N}\big(\dfrac{1}{\tau}\,e^{-\dfrac{t_{i}}{\tau}}\big) \end{equation}

On a :

\begin{equation} -\ln L=-\sum_{i=1}^{N}\ln\big(\dfrac{1}{\tau}\,e^{-\dfrac{t_i}{\tau}}\big)=N\,\ln \tau+\sum_{i=1}^{N}\dfrac{t_i}{\tau} \end{equation}

On a donc l’équation suivante à résoudre :

\begin{equation} \dfrac{\partial(-\ln L)}{\partial \tau}=0=\dfrac{N}{\tau}-\dfrac{1}{\tau^2}\,\sum_{i=1}^{N}\,t_i \end{equation} \begin{equation} \Rightarrow\,\,\tau=\dfrac{1}{N}\sum_{i=1}^{N}t_i \end{equation}

La variance de cette estimation va être dans ce cas (1 seul paramètre) donnée par la dérivée seconde :

\begin{equation} V_\tau=-E\bigg(\dfrac{\partial^2(-\ln L)}{\partial\tau^2}\bigg)^{-1} \end{equation}

\begin{align} \Leftrightarrow\,\,V_\tau&=-E\bigg(\dfrac{\partial^2}{\partial  
\tau^2}\big(\sum_{i=1}^N-\ln \tau-\sum_{i=1}^{N}\dfrac{t_i}{\tau}\big)\bigg)^{-1}  
\notag \\  
&\Leftrightarrow\,\,V_\tau=-E\bigg(\dfrac{\partial}{\partial  
\tau}\big(-\dfrac{N}{\tau}+\dfrac{1}{\tau^2}\sum_{i=1}^{N}t_i\big)\bigg)^{-1}\notag  
\\  
&=-E\big(\dfrac{N}{\tau^2}-2\dfrac{\sum_{i=1}^{N}\,t_i}{\tau^3}\big)^{-1}\notag \\  
&=E\big(\dfrac{N}{\tau^2}\big)^{-1}\notag \\  
&\Rightarrow\,\,\sigma_{\tau}=\dfrac{\tau}{\sqrt{N}} \end{align}

On a 2 séries indépendantes $N_{1}$ et $N_{2}$. Chacune donne son estimateur :

\begin{equation} \tau_1=\dfrac{1}{N_1}\sum_{i=1}^{N_1}t_i \,\,\,\,  
\sigma_{\tau_1}=\dfrac{\tau_1}{\sqrt{N_1}} \,\,\,\,  
\tau_2=\dfrac{1}{N_1}\sum_{j=1}^{N_2}t_j \,\,\,\,  
\sigma_{\tau_2}=\dfrac{\tau_2}{\sqrt{N_2}} \,\,\,\, \end{equation}

En considérant l’échantillon total $N_{1}+N_{2}$ :

\begin{equation} \tau=\dfrac{1}{N_1+N_2}\bigg(\sum_{i=1}^{N_1}t_i+\sum_{j=1}^{N_2}t_j\bigg) \end{equation}

\begin{equation} \Rightarrow\tau=\dfrac{N_1\tau_1+N_2\tau_2}{N_1+N_2} \end{equation}

Ce résultat est la moyenne pondérée des deux échantillons.

Exercice 3.2 :

Deux expériences indépendantes ont mesuré ($\tau _{1},\sigma _{1}$) et ($\tau _{2},\sigma _{2}$) les $\sigma _{i}$ représentant l’erreur sur les deux mesures.

(1) A partir de ces deux mesures, en supposant les erreurs gaussiennes, on veut obtenir l’estimation de $\tau $ et son erreur. (Combinaison de deux mesures en tenant compte de leurs erreurs). -Quelle méthode utilisez-vous pour cela ? -Calculez l’estimation de $\tau $ et de son erreur.

(2) A partir des deux mesures indépendantes ($\tau _{1},\sigma _{1}$) et ($\tau _{2},\sigma _{2}$) : définissez le nombre équivalent $\tilde {N}_{1}$ et $\tilde {N}_{2}$ de chacune des deux mesures ; donnez les relations les définissant. On utilise la méthode du maximum de vraisemblance pour calculer l’estimation de $\tau $ à partir de la définition des nombres équivalents d’évènements des deux mesures. Qu’obtenez-vous pour l’estimation de $\tau $ dans ce cas. (Faites apparaître $\tau _{1},\sigma _{1}$ et $\tau _{2},\sigma _{2}$) dans l’expression. Comparez-la à l’estimation précédente calculée plus haut en (1).

Correction :

On choisit comme dans l’exercice précédent la méthode du maximum de vraisemblance avec la pdf des 2 mesures :

\begin{equation} f(\tau,\sigma)=\dfrac{1}{\sqrt{2\pi}\sigma}\,exp\big(-\dfrac{1}{2}\,\dfrac{(\tau-\hat{\tau})^2}{\sigma^2}\big) \end{equation}

Nous devons maximiser la fonction de vraisemblance suivante :

\begin{equation} L=\prod_{i=1}^{2}\dfrac{1}{\sqrt{2\pi}\sigma_i}\,exp\big(-\dfrac{1}{2}\,\dfrac{(\tau_i-\hat{\tau})^2}{\sigma_i^2}\big) \end{equation}

d’après la condition suivante :

\begin{equation} \dfrac{\partial(-\ln L)}{\partial\hat{\tau}}=0 \end{equation}

On trouve :

\begin{equation} \Rightarrow\hat{\tau}=\dfrac{\tau_1/\sigma_1^2+\tau_2/\sigma_2^2}{1/\sigma_1^2+1/\sigma_2^2} \end{equation}

$\sigma _{\hat {\tau }}$est donné par la dérivée seconde :

\begin{equation} \dfrac{1}{\sigma_{\hat{\tau}}}=\dfrac{1}{\sigma_1^2}+\dfrac{1}{\sigma_2^2} \end{equation}

Pour ces deux mesures, le nombre équivalent d’évènements $\tilde {N}$ est défini par :

\begin{equation} \dfrac{\sigma_1}{\tau_1}=\dfrac{1}{\sqrt{\tilde{N_1}}}  
\,\,\,\,\,\,\,\dfrac{\sigma_2}{\tau_2}=\dfrac{1}{\sqrt{\tilde{N_2}}} \end{equation}

C’est l’erreur relative de la mesure traduite par l’erreur statistique due au nombre d’évènements.

Si on applique le calcul de l’exercie 3.1 avec le nombre équivalent $\tilde {N}$, on obtient :

\begin{equation} \hat{\tau}=\dfrac{\tilde{N_1}\tau_1+\tilde{N_2}\tau_2}{\tilde{N_1}+\tilde{N_2}} \end{equation}

On a finalement :

\begin{equation} \hat{\tau}=\dfrac{\tau_1/(\sigma_1/\tau_1)^2+\tau_2/(\sigma_2/\tau_2)^2}{1/(\sigma_1/\tau_1)^2+1/(\sigma_2/\tau_2)^2} \end{equation}

En conclusion :

cas (1) : pondération par le carré de l’inverse de l’erreur.
cas (2) : pondération par le carré de l’inverse de l’erreur relative.

Exercice 4.1 :

On veut calculer l’intégrale d’une fonction $f(x,y)$ par une méthode de Monte-Carlo :

\begin{equation} {\large\int}_{x=0}^{x=1}\,{\large\int}_{y=0}^{y=x}\,f(x,y)\,dx\,dy \end{equation}

Pour cela on dispose d’un générateur de nombres aléatoires uniformes entre $[0,1]$.
Comment va-t-on procéder ? (faites le schéma de la région d’intégration dans le plan $(x,y)$).

Correction :

Rappel de la méthode Monte-Carlo :

Nous disposons de l’expression de l’espérance mathématique d’une fonction $g$ de variable aléatoire $X$, résultant du théorème de transfert, selon lequel

\begin{equation} G = E(g(X))=\int_a^b g(x)f_X(x) \, \mbox{d}x \end{equation}

où $f_{X}$ est une fonction de densité sur le support $[a,b]$. Il est fréquent de prendre une distribution uniforme sur $[a,b]$ :

\begin{equation} f_X(x) = \frac{1}{b-a} \end{equation}

L’idée est de produire un échantillon $(x_{1},x_{2},...,x_{N})$ de la loi $X$ (donc d’après la densité $f_{X}$) sur le support $[a,b]$, et de calculer un nouvel estimateur dit de Monte-Carlo, à partir de cet échantillon.

La loi des grands nombres suggère de construire cet estimateur à partir de la moyenne empirique :

\begin{equation} \tilde{g_N} = \frac{1}{N} \sum_{i=1}^{N} g(x_i), \end{equation}

qui se trouve être, par ailleurs, un estimateur sans biais de l’espérance.

Ceci est l’estimateur de Monte-Carlo. Nous voyons bien qu’en remplaçant l’échantillon par un ensemble de valeurs prises dans le support d’une intégrale, et de la fonction à intégrer, nous pouvons donc construire une approximation de sa valeur, construite statistiquement.

La méthode Monte-Carlo permet grâce au générateur "uniforme" d’obtenir la valeur numérique de l’intégrale ci-dessus notée $I$. La région d’intégration est représentée sur la figure 1 ci-dessous :


Représentation de la région d’intégration

Nous pouvons envisager 2 cas :

cas (1) - On fait 2 tirages, un pour $x$ et un autre pour $y$ :

\begin{equation} \textrm{tirage}=\left\{  
\begin{array}{lcc}  
x_{i} & \in & [0,1] \\  
y_{i} & \in & [0,1]  
\end{array}  
\right. \end{equation}

Si $x_{i}>y_{i}$, alors on incrémente $I$ de la manière suivante : $I=I+f(x_{i},y_{i})$, sinon on réitère le tirage. On voit ici que l’on fait 2 tirages et qu’en moyenne, 1 sur 2 est perdu.

cas (2) - On fait 2 tirages comme précédemment :

\begin{equation} \textrm{tirage}=\left\{  
\begin{array}{lcc}  
x_{i} &\in &[0,1] \\  
y_{i} &\in & [0,1]  
\end{array}  
\right. \end{equation}

Ensuite, selon les résultats, on incrémente $I$ de la manière suivante :

\begin{equation} \textrm{Incrementation}\left\{  
\begin{array}{lcc}  
si &x_{i} > y_{i} & I=I+f(x_{i},y_{i}) \\  
si &x_{i} < y_{i} & I=I+f(y_{i},x_{i}) \\  
\end{array}  
\right. \end{equation}

L’avantage dans ce cas est que l’on utilise tous les tirages contrairement au cas (1).
Il faut ensuite multiplier la quantité $I$ obtenue par l’intervalle $(b-a)$ et la diviser par le nombre de tirages effectués $N$. Nous avons ainsi calculé la valeur demandée de l’intégrale.

Exercice 4.2 :

Une source ponctuelle émet de manière isotrope et un détecteur "disque" perpendiculaire à un axe passant par la source couvre un angle $\theta _{0}$. On a donc une symétrie cylindrique avec 2 angles : $\varphi $ entre [0,2$\pi $] et $\theta $ tel que $\text {cos}(\theta _{0})<\text {cos}(\theta )<1$.

Exprimez la pdf de $(\varphi ,\text {cos}\,\theta )$.

Disposant d’un générateur de nombres aléatoires uniformes entre [0,1], comment allez-vous tirer de manière aléatoire dans l’acceptance du disque un couple $(\varphi ,\text {cos}\,\theta )$ ?
A l’aide de ce détecteur on va faire des comptages pendant des intervalles de temps égaux $\Delta t$. Quelle va être la loi de distribution des nombres de coups enregistrés ?

Correction :

Puisque la source émet de façon isotrope, les variables aléatoires $\varphi $ et $\text {cos}\,\theta $ admettent une loi uniforme respectivement sur [0,2$\pi $] et [$\text {cos}\,\theta _{0},1$].

On a donc pour la pdf de $\varphi $ :

\begin{equation}   \text{pdf}(\varphi)=\dfrac{1}{2\pi} \end{equation}

Pour la v.a $\text {cos}\,\theta $, on peut écrire :

\begin{equation}   \text{pdf}(\text{cos}\,\theta)\,d\,\text{cos}(\theta)=K\,d\,\text{cos}(\theta) \,\,\,\,\text{avec $K$=constante} \end{equation}

\begin{equation} \Rightarrow  
{\large\int}_{\text{cos}\,\theta_{0}}^{1}\,\text{pdf}(\text{cos}\,\theta)\,d\,\text{cos}(\theta)=1=K\,{\large\int}_{\text{cos}\,\theta_{0}}^{1}\,d\,\text{cos}(\theta)\\  
=K\,(1-\text{cos}\,\theta_{0}) \end{equation}

\begin{equation} \Rightarrow  
K=\dfrac{1}{\,(1-\text{cos}\,\theta_{0})} \end{equation}

Étant donné que $\varphi $ et $\text {cos}\,\theta $ sont indépendantes, on en conlut :

\begin{equation}   \text{pdf}(\varphi,\text{cos}\,\theta)=\text{pdf}(\varphi)\,\text{pdf}(\text{cos}\,\theta)=\dfrac{1}{\,(1-\text{cos}\,\theta_{0})}\,\dfrac{1}{2\pi} \end{equation}

Disposant d’un générateur de nombres aléatoires entre [0,1], nous faisons les correspondances suivantes :

\begin{equation} \varphi=2\,\pi\,u \,\,\,\text{avec}\,\,u\,\,\text{uniforme sur}\,\,[0,1] \end{equation}

Pour $\text {cos}\,\theta $, on se sert de la relation suivante en prenant la variable aléatoire $v$ uniforme sur [0,1] :

\begin{equation} {\large\int}_{\text{cos}\,\theta_{0}}^{\text{cos}\,\theta}\,\dfrac{d\,\text{cos}\,\theta}{1-\text{cos}\,\theta_{0}}=\,{\large\int}_{0}^{v}\,d\,v \end{equation}

\begin{equation} \Rightarrow \text{cos}\,\theta-\text{cos}\,\theta_{0}=v(1-\text{cos}\,\theta_{0})\\  
\Rightarrow  
\text{cos}\,\theta=v+(1-v)\text{cos}\,\theta_{0} \end{equation}

Le nombre de coups enregistrés dans le compteur pendant $\Delta t$ va suivre une loi de Poisson.

Exercice 5.1 :

On dispose de mesures $y_{i}\,\,i=1,...,n$ dépendant d’une coordonnée $x_{i}$ dont le modèle théorique est linéaire $y=ax+b$. A l’aide de ces mesures, on cherche à déterminer les valeurs des paramètres $a$ et $b$.

Les mesures $y_{i}$ ont une erreur $\sigma _{i}$ et dans un premier temps, les coordonnées $x_{i}$ sont considérées sans erreur.

- Exprimer le $\chi ^{2}$ que vous allez utiliser.
- Donner les 2 équations vous permettant de calculer les estimations de $a$ et $b$.

Correction :

Quand nous avons $n$ mesures indépendantes $y_{i}\,i=1,...,n$ ainsi que $n$ coordonnées $x_{i}$ dans un modèle linéaire $y=ax+b$, avec une erreur $\sigma _{i}$ sur $y_{i}$ et sans erreur sur $x_{i}$, le $\chi ^{2}$ s’écrit :

\begin{equation} \chi^{2}=\sum_{i=1}^{n}\,\dfrac{(y_{i}-(a\,x_{i}+b))^{2}}{\sigma_{i}^{2}} \end{equation}

Il faut alors minimiser le $\chi ^{2}$ pour calculer les valeurs $a$ et $b$, ce qui s’obtient avec les 2 équations linéaires suivantes à 2 inconnues $a$ et $b$ :

\begin{equation} \dfrac{\partial\chi^{2}}{\partial a}=\sum_{i=1}^{n}\,\dfrac{(y_{i}-a\,x_{i}-b)\,x_{i}}{\sigma_{i}^{2}}=0 \end{equation}

et

\begin{equation} \dfrac{\partial\chi^{2}}{\partial b}=\sum_{i=1}^{n}\,\dfrac{(y_{i}-a\,x_{i}-b)}{\sigma_{i}^{2}}=0 \end{equation}

Exercice 5.2 :

Les coordonnées $x_{i}$ sont elles aussi connues avec une erreur $\delta _{i}$.

Exprimez le $\chi ^{2}$ qui doit être utilisé dans ce cas.
Donnez les 2 équations vous permettant de calculer les estimations de $a$ et $b$. Que constatez-vous par rapport à la situation précédente ?

Correction :

La formule du $\chi ^{2}$ va être modifiée car il faut tenir compte de l’erreur $\delta _{i}$ sur les coordonnées $x_{i}$. En effet, la variance de $(y_{i}-a\,x_{i}-b)$ n’est plus seulement égale à $V(y_{i})=\sigma _{i}^{2}$ :

\begin{equation} V(y_{i}-a\,x_{i}-b)=V(y_{i}^{2})+a^{2}\,V(x_{i})=\sigma_{i}^{2}+a^{2}\,\delta_{i}^{2} \end{equation}

Le dénominateur du $\chi ^{2}$ dépend donc du paramètre $a$ :

\begin{equation} \chi^{2}=\sum_{i=1}^{n}\,\dfrac{(y_{i}-(a\,x_{i}+b))^{2}}{\sigma_{i}^{2}+a^{2}\,\delta_{i}^{2}} \end{equation}

La minimisation du $\chi ^{2}$ s’obtient toujours par les 2 équations suivantes : \begin{equation} \dfrac{\partial\chi^{2}}{\partial  
a}=0\,\,\,\text{et}\,\,\,\dfrac{\partial\chi^{2}}{\partial b}=0 \end{equation}

Mais nous voyons que ces équations ne sont pas linéaires car la deuxième qui minimise le $\chi ^{2}$ par $b$ dépend d’une puissance de $a$. Nous n’avons pas de solution analytique dans ce cas là.

Exercice 6.1 :

La méthode du $\chi ^{2}$ vous a permis de déterminer les valeurs de 2 paramètres $a\pm \sigma _{a}$ et $b\pm \sigma _{b}$ et donc la valeur de $\chi _{min}^{2}$.

On veut tracer dans le plan $a,b$ le contour correspondant à un niveau de confiance donné.

Donnez la loi de probabilité que vous utilisez.
Dans ce cas, en fixant le niveau de confiance $CL$, donnez l’expression de la variation du $\chi ^{2}$ par rapport à $\chi _{min}^{2}$, c’est-à-dire le contour correspondant à une valeur du $\chi ^{2}$ telle que : $\chi ^{2}(CL)=\chi _{min}^{2}+\Delta \chi ^{2}$

Qu’obtenez-vous pour $CL=0.68$ ?

Correction :

Le terme $\chi ^{2}(CL)$ ne fait intervenir que les dérivées secondes suivantes du $\chi ^{2}$ à l’ordre le plus bas :

\begin{equation} \dfrac{\partial^{2}\chi^{2}}{\partial  
a^{2}}\,\,\,\text{,}\,\,\dfrac{\partial^{2}\chi^{2}}{\partial  
b^{2}}\,\,\text{et}\,\,\dfrac{\partial^{2}\chi^{2}}{\partial a\partial b} \end{equation}

Pour $\Delta \chi ^{2}$, la loi de distribution est une loi du $\chi ^{2}$ à 2 degrés de liberté dont la pdf est :

\begin{equation} f(\Delta\chi^{2})=\dfrac{1}{2}\,e^{-\dfrac{\Delta\chi^{2}}{2}} \end{equation}

Donc pour un niveau de confiance donné $CL$, on a :

\begin{equation} 1-CL={\large\int}_{\Delta\chi^{2}_{CL}}^{+\infty}\,\dfrac{1}{2}\,e^{-\dfrac{\Delta\chi^{2}}{2}}\,d\,\chi^{2}=e^{-\dfrac{\Delta\chi_{CL}^{2}}{2}} \end{equation}

D’où : $\Delta \chi ^{2}_{CL}=-2\ln(1-CL)$.

Pour $CL=0.68$, on obtient : $\Delta \chi ^{2}_{CL}=2.28$

ps : contribuez comme moi au projet Cosmology@Home dont le but est d'affiner le modèle décrivant le mieux notre Univers.

    Accueil | Astronomie | Sciences | Philosophie | Informatique | Cv    
- dournac.org © 2003 by fab -

Haut de Page