Bedingte Varianz & Vorhersagen: 7 wichtige Fakten


In diesem Artikel werden die bedingte Varianz und Vorhersagen mit bedingten Erwartungen für die verschiedenen Arten von Zufallsvariablen mit einigen Beispielen diskutiert.

Inhaltsverzeichnis

Bedingte Varianz

Die bedingte Varianz der Zufallsvariablen X bei gegebenem Y wird in ähnlicher Weise definiert als bedingter Erwartungswert der Zufallsvariablen X bei gegebenem Y als

(X|Y)=E[(XE[X|Y])2|Y]

[latex]Var(X|Y)=E[(XE[X|Y])^{2}|Y][/latex]

hier ist Varianz die bedingte Erwartung der Differenz zwischen Zufallsvariable und Quadrat der bedingten Erwartung von X bei gegebenem Y, wenn der Wert von Y gegeben ist.

Die Beziehung zwischen dem bedingte Varianz und bedingte Erwartung is

(X|Y) = E[X2|Y] – (E[X|Y])2

E[(X|Y)] = E[E[X2|Y]] – E[(E[X|Y])2]

= E[X2] – E[(E[X\Y])2]

da E[E[X|Y]] = E[X], haben wir

(E[X|Y]) = E[(E[X|Y])2] - (EX])2

[latex]\operatorname{Var}(X \mid Y)=E\left[X^{2} \mid Y\right]-(E[X \mid Y])^{2}
\\\begin{aligned} E[\operatorname{Var}(X \mid Y)] &=E\left[E\left[X^{2} \mid Y\right]\right]-E\left[ (E[X \mid Y])^{2}\right] \\ &=E\left[X^{2}\right]-E\left[(E[X \mid Y])^{2} \right] \end{aligned}
\\seit \; E[E[X \mid Y]]=E[X], \;wir\; haben
\\\operatorname{Var}(E[X \mid Y])=E\left[(E[X \mid Y])^{2}\right]-(E[X])^{2}[/ Latex]

das ist irgendwie ähnlich aus der Beziehung von unbedingter Varianz und Erwartung, die war

X = E[X2] - (EX])2

[latex]\operatorname{Var}(X)=E\left[X^{2}\right]-(E[X])^{2}[/latex]

und wir können die Varianz mit Hilfe der bedingten Varianz finden als

X = E[(X|Y] + (E[X|Y])

[latex]\operatorname{Var}(X)=E[\operatorname{Var}(X \mid Y)]+\operatorname{Var}(E[X \mid Y])[/latex]

Beispiel für bedingte Abweichung

Ermitteln Sie den Mittelwert und die Varianz der Anzahl der Reisenden, die in den Bus einsteigen, wenn die am Busbahnhof angekommenen Personen Poisson-verteilt sind mit dem Mittelwert λt und der anfänglich am Busbahnhof ankommende Bus gleichmäßig über das Intervall (0,T) unabhängig von den Personen verteilt ist angekommen oder nicht.

Lösung:

Um den Mittelwert und die Varianz let für einen beliebigen Zeitpunkt t zu ermitteln, ist Y die Zufallsvariable für die Busankunftszeit und N(t) die Anzahl der Ankünfte

E[N(Y)|Y = t] = E[N(t)|Y = t]

[latex]E[N(Y) \mid Y=t]=E[N(t) \mid Y=t]
\\=E[N(t)][/latex]

durch die Unabhängigkeit von Y und N(t)

=λt

[latex]=\lambda t[/latex]

da N(t) Poisson mit Mittelwert ist \lambda t
Daher

E[N(Y)|Y]=λY

[latex]E[N(Y) \mid Y]=\lambda Y[/latex]

also die erwartungen zu nehmen gibt

E[N(Y)] = λE[Y] = λT / 2

[latex]E[N(Y)]=\lambda E[Y]=\frac{\lambda T}{2}[/latex]

Um Var(N(Y)) zu erhalten, verwenden wir die bedingte Varianzformel

[latex]\operatorname{Var}(N(Y) \mid Y=t)=\operatorname{Var}(N(t) \mid Y=t)
\\=\Operatorname{Var}(N(t)) \quadby \quad Unabhängigkeit \quad\quad
\\=\lambda t[/latex]

so

(N(Y)|Y) = λY

E[N(Y)|Y] = λY

[latex]\begin{ausgerichtet}
\operatorname{Var}(N(Y) \mid Y) &=\lambda Y \\
E[N(Y) \mid Y] &=\lambda Y
\end{aligned}[/latex]

Daher gilt aus der bedingten Varianzformel

Var(N(Y)) = E[λJ]+(λY)

=λT/2 + λ2T2/ 12

[latex]\begin{ausgerichtet}
\operatorname{Var}(N(Y)) &=E[\lambda Y]+\operatorname{Var}(\lambda Y) \\
&=\lambda \frac{T}{2}+\lambda^{2} \frac{T^{2}}{12}
\end{aligned}[/latex]

wobei wir die Tatsache verwendet haben, dass Var(Y)=T2 / 12.

Varianz einer Summe einer zufälligen Anzahl von Zufallsvariablen

Betrachten Sie die Folge von unabhängig und identisch verteilt Zufallsvariablen X1,X2,X3,………. und eine weitere Zufallsvariable N, die von dieser Folge unabhängig ist, werden wir finden Varianz der Summe dieser Sequenz als

[latex]\operatorname{Var}\left(\sum_{i=1}^{N} X_{i}\right)[/latex]

Verwendung von

[latex]\begin{ausgerichtet}
E\left[\sum_{i=1}^{N} X_{i} \mid N\right] &=NE[X] \\
\operatorname{Var}\left(\sum_{i=1}^{N} X_{i} \mid N\right) &=N \operatorname{Var}(X)\right]
\end{ausgerichtet}
[/Latex]

was mit der Definition von Varianz und bedingter Varianz für die einzelne Zufallsvariable zur Summe der Folge von Zufallsvariablen also offensichtlich ist

[Latex] \\
\operatorname{Var}\left(\sum_{i=1}^{N} X_{i}\right)=E[N] \operatorname{Var}(X)+(E[X])^{2} \operatorname{Var}(N) [/latex]

Prognose

Bei der Vorhersage kann der Wert einer Zufallsvariablen auf der Grundlage der Beobachtung einer anderen Zufallsvariablen vorhergesagt werden. Für die Vorhersage der Zufallsvariablen Y, wenn die beobachtete Zufallsvariable X ist, verwenden wir g(X) als Funktion, die den vorhergesagten Wert angibt, offensichtlich wir versuche g(X) geschlossen zu Y zu wählen dafür das beste g ist g(X)=E(Y|X) dafür müssen wir den Wert von g minimieren mit der Ungleichung

[Latex]\\
E\left[(Yg(X))^{2}\right] \geq E\left[(YE[Y \mid X])^{2}[/latex]

Diese Ungleichung können wir erhalten als

[latex]\begin{ausgerichtet}
E\left[(Yg(X))^{2} \mid X\right]=& E\left[(YE[Y \mid X]+E[Y \mid X]-g(X))^{ 2} \mid X\right] \\
=& E\left[(YE[Y \mid X])^{2} \mid X\right] \\
&+E\left[(E[Y \mid X]-g(X))^{2} \mid X\right] \\
&+2 E[(YE[Y \mid X])(E[Y \mid X]-g(X)) \mid X]
\end{aligned}[/latex]

Bei gegebenem X kann jedoch E[Y|X]-g(X) als Funktion von X als Konstante behandelt werden. So,

[Latex]\
\begin{ausgerichtet}
E[&(YE[Y \mid X])(E[Y \mid X]-g(X)) \mid X] \\
&=(E[Y \mid X]-g(X)) E[YE[Y \mid X] \mid X] \\
&=(E[Y \mid X]-g(X))(E[Y \mid X]-E[Y \mid X]) \\
&=0
\end{aligned}[/latex]

was die erforderliche Ungleichung ergibt

[Latex]\
E\left[(Yg(X))^{2}\right] \geq E\left[(YE[Y \mid X])^{2}[/latex]

a

Beispiele zur Vorhersage

1. Es wird beobachtet, dass die Körpergröße einer Person 1 m beträgt, was wäre die Vorhersage der Körpergröße seines Sohnes nach dem Erwachsenwerden, wenn die Körpergröße des Sohnes, die jetzt x Zoll beträgt, normal mit dem Mittelwert x + 4 und der Varianz XNUMX verteilt ist.

Lösung: Sei X die Zufallsvariable für die Körpergröße der Person und Y die Zufallsvariable für die Körpergröße des Sohnes, dann ist die Zufallsvariable Y

[Latex]
Y=X+e+1[/latex]

hier repräsentiert e die normale Zufallsvariable unabhängig von der Zufallsvariablen X mit Mittelwert Null und Varianz vier.

die Vorhersage für die Größe der Söhne lautet also

[Latex]
E[Y \mid X=72]= E[X+1+e \mid X=72] \\
= 73+E[e \mid X=72]
\\=73+E(e) \quad by \quadunabhängigkeit \\=73[/latex]

so wird die Größe des Sohnes nach dem Wachstum 73 Zoll betragen.

2. Betrachten Sie ein Beispiel für das Senden von Signalen von Ort A und Ort B, wenn von Ort A ein Signalwert s gesendet wird, der an Ort B durch Normalverteilung mit Mittelwert s und Varianz 1 empfangen wird, während wenn das Signal S, das an A gesendet wird, normalverteilt ist Wie können wir mit Mittelwert \mu und Varianz \sigma^2 vorhersagen, dass der von Ort A gesendete Signalwert R am Ort B empfangen wird?

Lösung: Die Signalwerte S und R bezeichnen hier die normalverteilten Zufallsvariablen, zunächst finden wir die bedingte Dichtefunktion S gegeben R als

[Latex]\
\begin{ausgerichtet}
f_{S \mid R}(s \mid r)&=\frac{f_{S, R}(s, r)}{f_{R}(r)} \\
&=\frac{f_{S}(s) f_{R \mid S}(r \mid s)}{f_{R}(r)} \\
&=K e^{-(s-\mu)^{2} / 2 \sigma^{2}} e^{-(rs)^{2} / 2}
\end{aligned}[/latex]

dieses K ist nun unabhängig von S

[Latex]\
\begin{ausgerichtet}
\frac{(s-\mu)^{2}}{2 \sigma^{2}}+\frac{(r-s)^{2}}{2}&=s^{2}\left(\frac{1}{2 \sigma^{2}}+\frac{1}{2}\right)-\left(\frac{\mu}{\sigma^{2}}+r\right) s+C_{1}\\
&=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left[s^{2}-2\left(\frac{\mu+r \sigma^{2}}{1+\sigma^{2}}\right) s\right]+C_{1} \\
&=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left(s-\frac{\left(\mu+r \sigma^{2}\right)}{1+\sigma^{2}}\right)^{2}+C_{2}
\end{aligned}[/latex]

hier auch C1 und C2 unabhängig von S sind, daher ist der Wert der bedingten Dichtefunktion

[Latex]\
f_S \mid R(s \mid r)=C e^{ \left\{\frac{-\left[s-\frac{\left(\mu+r \sigma^{2}\right)}{1 +\sigma^{2}}\right]^{2}}{2\left(\frac{\sigma^{2}}{1+\sigma^{2}}\right)}\right\}} }[/Latex]

C ist auch unabhängig von s. Somit ist das von Ort A als R gesendete und am Ort B als r empfangene Signal normal mit Mittelwert und Varianz

[Latex]
\begin{array}{l}E[S \mid R=r]=\frac{\mu+r \sigma^{2}}{1+\sigma^{2}} \\ \operatorname{Var}( S \mid R=r)=\frac{\sigma^{2}}{1+\sigma^{2}}\end{array}
[/Latex]

und der mittlere quadratische Fehler für diese Situation ist

[latex]E[S \mid R=r]=\frac{1}{1+\sigma^{2}} \mu+\frac{\sigma^{2}}{1+\sigma^{2}} r
[/Latex]

Linearer Prädiktor

Jedes Mal, wenn wir die gemeinsame Wahrscheinlichkeitsdichtefunktion nicht finden können, ist sogar der Mittelwert, die Varianz und die Korrelation zwischen zwei Zufallsvariablen bekannt, in einer solchen Situation ist ein linearer Prädiktor einer Zufallsvariablen in Bezug auf eine andere Zufallsvariable sehr hilfreich, der das Minimum vorhersagen kann , also nehmen wir für den linearen Prädiktor der Zufallsvariablen Y bezüglich der Zufallsvariablen X a und b zum Minimieren

[latex]\begin{ausgerichtet}
E\left[(Y-(a+b X))^{2}\right]=& E\left[Y^{2}-2 a Y-2 b X Y+a^{2}+2 ab X+b^{2} X^{2}\right] \\
=& E\left[Y^{2}\right]-2 a E[Y]-2 b E[XY]+a^{2} +2 ab E[X]+b^{2} E\left [X^{2}\right]
\end{aligned}[/latex]

Unterscheide nun teilweise nach a und b und wir erhalten

[latex]\begin{ausgerichtet}
\frac{\partial}{\partial a} E\left[(Yab X)^{2}\right]&=-2 E[Y]+2 a+2 b E[X] \\
\frac{\partial}{\partial b} E\left[(Yab X)^{2}\right]&=-2 E[XY]+2 a E[X]+2 b E\left[X^ {2}\right] \\
\end{aligned}[/latex]

Wenn wir diese beiden Gleichungen nach a und b lösen, erhalten wir

[latex]\begin{ausgerichtet}
b&=\frac{E[XY]-E[X] E[Y]}{E\left[X^{2}\right]-(E[X])^{2}}=\frac{\operatorname {Cov}(X, Y)}{\sigma_{x}^{2}}=\rho \frac{\sigma_{y}}{\sigma_{x}} \\
a&=E[Y]-b E[X]=E[Y]-\frac{\rho \sigma_{y} E[X]}{\sigma_{x}}
\end{aligned}[/latex]

die Minimierung dieser Erwartung ergibt den linearen Prädiktor als

[latex]\mu_{y}+\frac{\rho \sigma_{y}}{\sigma_{x}}\left(X-\mu_{x}\right)[/latex]

wobei die Mittelwerte die jeweiligen Mittelwerte der Zufallsvariablen X und Y sind, erhält man den Fehler für den linearen Prädiktor mit der Erwartung von obtained

[latex]\begin{array}{l}
E\left[\left(Y-\mu_{y}-\rho\frac{\sigma_{y}}{\sigma_{x}}\left(X-\mu_{x}\right)\right)^ {2}\right] \\
\quad=E\left[\left(Y-\mu_{y}\right)^{2}\right]+\rho^{2} \frac{\sigma_{y}^{2}}{\sigma_ {x}^{2}} E\left[\left(X-\mu_{x}\right)^{2}\right]-2 \rho \frac{\sigma_{y}}{\sigma_{x }} E\left[\left(Y-\mu_{y}\right)\left(X-\mu_{x}\right)\right] \\
\quad=\sigma_{y}^{2}+\rho^{2} \sigma_{y}^{2}-2 \rho^{2} \sigma_{y}^{2} \\
\quad=\sigma_{y}^{2}\left(1-\rho^{2}\right)
\end{array}[/latex]

bedingte Varianz
bedingte Varianz: Fehler in der Vorhersage

Dieser Fehler liegt näher bei Null, wenn die Korrelation perfekt positiv oder perfekt negativ ist, dh der Korrelationskoeffizient ist entweder +1 oder -1.

Fazit

Die bedingte Varianz für die diskrete und stetige Zufallsvariable mit verschiedenen Beispielen wurde diskutiert, eine der wichtigen Anwendungen der bedingten Erwartung in der Vorhersage wird auch mit geeigneten Beispielen und mit dem besten linearen Prädiktor erklärt, wenn Sie weiterlesen möchten, gehen Sie durch die untenstehenden Links.

Weitere Beiträge zu Mathematik finden Sie in unserem Mathematik Seite

Ein erster Wahrscheinlichkeitskurs von Sheldon Ross

Schaums Umrisse von Wahrscheinlichkeit und Statistik

Eine Einführung in Wahrscheinlichkeit und Statistik von ROHATGI und SALEH

DR. MOHAMMED MAZHAR UL HAQUE

Ich bin Dr. Mohammed Mazhar Ul Haque, Assistenzprofessor für Mathematik. Mit 12 Jahren Erfahrung im Unterrichten. Mit umfassenden Kenntnissen in Reiner Mathematik, insbesondere in der Algebra. Mit der immensen Fähigkeit, Probleme zu entwerfen und zu lösen. In der Lage, Kandidaten zu motivieren, ihre Leistung zu verbessern. Ich liebe es, zu Lambdageeks beizutragen, um Mathematik sowohl für Anfänger als auch für Experten einfach, interessant und selbsterklärend zu machen. Verbinden wir uns über LinkedIn – https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Neueste Beiträge