Stimatore Monte Carlo


Articoli di approfondimento

Metodo Monte Carlo

Il metodo monte Carlo fu creato da Von Neumann, Enrico Fermi e altri studiosi all’inizio degli anni ’40 del secolo scorso nel Progetto Manhattan. Questo metodo si pone come obbiettivo quello di risolvere problemi matematici “complicati” come ad esempio il calcolo di integrali con l’uso di replicazioni da distribuzioni note.
Sia:

\[ \psi =\int f(x) \space dx = \int m(x) \space \space p(x) \space dx = E[m(x)]\]

Dove \(p(x)\) è un funzione di densità (continua) o di probabilità (discreta) da cui è possibile generare valori pseudo-casuali

allora:

\[ \hat \psi = \frac{\sum_r m(x_r)}{R} \]

Stimo il suo valore con la media empirica.

Proprietà dello stimatore Monte Carlo

  • Non distorto \[E[\hat \psi] = R^{-1}\sum_r E[m(Y_r)] = \int m(y) \space \space p(y) \space dy = \psi \]
  • La sua varianza è: \[ Var(\hat\psi) = R^{-1} \space Var(m(Y_r)) = R^{-1} \bigg\{ \int m^2(y) \space \space p(y) \space dy - \psi^2 \bigg\}\]
  • Asintoticamente tende ad una Normale, questa proprietà è utile nel calcolo degli intervalli di confidenza utilizzando il Teorema centrale del limite \(\bigg(\hat\psi \pm 1,96 \space \sqrt{\hat{Var}(\hat\psi)}\bigg)\)
  • La varianza dello stimatore può essere stimata utilizzando valori simulati: \[ \hat{Var}(\hat\psi)= R^{-1} \space \bigg\{ (R-1)^{-1} \sum_r \bigg(m(y_r)- \hat\psi\bigg)^2 \bigg\} \]
  • Per la legge dei grandi numeri \(\hat \psi\) converge q.c. a \(\psi\)



Ridurre la variabilità dello stimatore MC:

Metodo delle variabili di controllo

Supponiamo che esista una \(n(x)\) correlata con \(m(x)\) e t.c. \(E[n(x)] = \mu\) nota con uguale funzione di densità allora una metodo per calcolare lo stimatore \(\psi\) riducendo la varianza è:

\[\hat\psi_c = R^{-1} \sum_r \bigg( m(x_r) + c \space \space (n(x_r) - \mu) \bigg)\]

dove \(c\) viene trovato minimizzando la varianza: \[ c= \frac{-cov(m(x),n(x))}{\sqrt{Var(n(x))}} \] Questo stimatore ha lo stesso valore atteso ma minore varianza rispetto allo stimatore Monte Carlo “classico”, infatti:

  • Il valore atteso risulta:\[ E[\hat\psi_c] = E\bigg[ R^{-1} \sum_r \bigg( m(x_r) + c \space \space (n(x_r) - \mu) \bigg) \bigg] = \\ = R^{-1} \space \space R \space \space \bigg( E[m(x)] + c \space \space E[n(x_r) - \mu] \bigg) = \\= E[m(x)] = \psi \]
  • La sua varianza è: \[ Var(\hat\psi_c)= Var(m(x))- \bigg( \frac{cov(m(x),n(x))}{\sqrt{Var(n(x))}} \bigg)^2 \]

Metodo delle variabili antitetiche

Supponiamo che esista una \(n(x)\) correlata negativamente con \(m(x)\) t.c. il suo valore atteso sia \(E[n(x)]=\psi\) allora un metodo per calcolare lo stimatore \(\psi\) riducendo la varianza è:

\[\hat\psi_a = R^{-1} \sum_r \bigg( \frac{m(x_r) + n(x_r)}{2} \bigg)\]

Questo stimatore ha lo stesso valore atteso ma minore varianza rispetto allo stimatore Monte Carlo “classico”, infatti:

  • Il valore atteso risulta:\[ E[\hat\psi_a] = E\bigg[R^{-1} \sum_r \bigg( \frac{m(x_r) + n(x_r)}{2} \bigg) \bigg] = \\ = R^{-1} \space \space R \space \space \bigg( \frac{2 \space \space E[m(x)]}{2} \bigg) = \\= E[m(x)] = \psi \]
  • La sua varianza è: \[ Var(\hat\psi_a)= Var(m(x))+ \frac{cov(m(x),n(x))}{2}\] Quindi la varianza risulta minore il quanto la correlazione è negativa e quindi la covarianza lo sarà allo stesso modo.