Kovarianz, Summenvarianz: 7 wichtige Fakten


KOVARIANZ, VARIANZ VON SUMMEN UND KORRELATIONEN VON ZUFÄLLIGEN VARIABLEN

  Die statistischen Parameter der Zufallsvariablen unterschiedlicher Natur mit der Definition des Erwartungswerts der Zufallsvariablen sind leicht zu erhalten und zu verstehen, im Folgenden finden wir einige Parameter mit Hilfe der mathematischen Erwartung der Zufallsvariablen.

Momente der Anzahl der auftretenden Ereignisse

    Bisher wissen wir, dass die Erwartung verschiedener Potenzen von Zufallsvariablen die Momente von Zufallsvariablen ist und wie man die Erwartung der Zufallsvariablen aus den Ereignissen findet, wenn die Anzahl der Ereignisse bereits aufgetreten ist bereits aufgetreten, wenn X nun die Anzahl der aufgetretenen Ereignisse darstellt, dann für die Ereignisse A1, Ein2, ….,EINn Definiere die Indikatorvariable Ii as

[latex]I_{i}=\begin{cases} 1, &\text{wenn } A_{i} \ \ vorkommt \\ 0, &\text{sonst} \end{cases}[/latex]

der Erwartungswert von X im diskreten Sinne ist

[latex]E[X]= E\left [ \sum_{i=1}^{n} I_{i} \right ] =\sum_{i=1}^{n} E[I_{i}] = \sum_{i=1}^{n} P\left ( A_{i} \right )[/latex]

denn die Zufallsvariable X ist

[latex]E=\sum_{i=1}^{n} E I_{i}[/latex]

Um nun die Erwartung zu finden, wenn die Anzahl der Ereignispaare bereits aufgetreten ist, müssen wir verwenden Kombination as

[latex]\binom{X}{2} = \sum_{i< j} I_{i}J_{i}[/latex]

das gibt erwartungen als

[latex]E\left [ \binom{X}{2} \right ]=\sum_{i< j} E[I_{i}I_{j}] = \sum_{i< j} P(A_{i }A_{j})[/latex]

[latex]E\left [ \frac{X(X-1)}{2} \right ] = \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]E[X^{2}] -E[X] =2 \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

daraus erhalten wir den Erwartungswert von x-Quadrat und den Varianzwert ebenfalls um

[latex]Var(X)=E[X^{2}] -(E[X])^{2}[/latex]

Mit dieser Diskussion konzentrieren wir uns auf verschiedene Arten von Zufallsvariablen, um solche Momente zu finden.

Momente binomialer Zufallsvariablen

   Wenn p die Erfolgswahrscheinlichkeit aus n unabhängigen Versuchen ist, dann bezeichne Ai für den versuch i als erfolg so

[latex]Wenn \ \ i\neq j, P(A_{i}A_{j})=p^{2}[/latex]

[latex]E\left [ \binom{X}{2} \right ]= \sum_{i< j}^{} p^{2} = \binom{n}{2}p^{2}[/ Latex]

[latex]E[X(X-1)] =n(n-1)p^{2}[/latex]

[latex]E[X^{2}] -E[X] =n(n-1)p^{2}[/latex]

und daher die Varianz einer binomialen Zufallsvariablen wird sein

[latex]Var(X)=E[X^{2}] -(E[X])^{2}=n(n-1)p^{2} +np – (np)^{2}= np(1-p)[/latex]

weil

[latex]E[X] =\sum_{i=1}^{n} P(A_{i}) =np[/latex]

wenn wir für k Ereignisse verallgemeinern

[latex]P(A_{i_{1}}A_{i_{2}} \cdot \cdot \cdot A_{i_{k}})=p^{k}[/latex]

[Latex]E[X(X-1) \cdot \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot\cdot\cdot (n-k+1)p^{ k}[/latex]

diese Erwartung können wir sukzessive für den Wert von k größer als 3 erhalten. Finden wir für 3

[latex]E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3}] =3E[X^{2}] -2E[X] + n(n-1)(n-2)p^{3}[/latex]

[latex]=3n(n-1)p^{2} +np + n(n-1)(n-2)p^{3}[/latex]

Mit dieser Iteration können wir erhalten

[latex]E[X^{k}], k\geq 3,[/latex]

Momente hypergeometrischer Zufallsvariablen

  Die Momente dieser Zufallsvariablen werden wir anhand eines Beispiels verstehen unter der Annahme, dass n Stifte zufällig aus einer Box ausgewählt werden, die N Stifte enthält, von denen m blau sind. Sei Ai Bezeichnen Sie die Ereignisse, dass der i-te Stift blau ist. Jetzt ist X die Anzahl der ausgewählten blauen Stifte gleich der Anzahl der Ereignisse A1,A2,…..,EINn die auftreten, weil der ausgewählte i-te Stift mit gleicher Wahrscheinlichkeit für alle N Stifte, von denen m blau sind

[latex]P(A_{i}) =\frac{m}{N} \ \ , E[X]=\sum_{i=1}^{n}P(A_{i})[/latex]

und so

[Latex]P(A_{i}A_{j}) = P(A_{i}) P(A_{j}/A_{i}) =\frac{m}{N} \frac{m-1} {N-1}[/latex]

[latex]E\left [ \binom{X}{2} \right ] =\sum_{i< j}^{}\frac{m(m-1)}{n(n-1)} =\binom {n}{2}\frac{m(m-1)}{n(n-1)}[/latex]

[latex]X[X(X-1)] =n(n-1)\frac{m(m-1)}{N(N-1)}[/latex]

das gibt

[latex]E[X^{2}] =n(n-1)\frac{m(m-1)}{N(N-1)} + E[X][/latex]

die Varianz der hypergeometrischen Zufallsvariablen ist also

[latex]Var(X)=E[X^{2}]-(E[X])^{2}[/latex]

[Latex]= n(n-1)\frac{m(m-1)}{N(N-1)} +\frac{nm}{N} -\frac{n^{2}m^{2 }}{N^{2}}[/latex]

[latex]=\frac{nm}{N} \left [ \frac{(n-1)(m-1)}{N-1} +1 + -\frac{mn}{N} \right ][ /Latex]

ähnlich für die höheren Momente

[Latex]P(A_{i_{1}} A_{i_{2}} \cdot \cdot \cdot \cdot A_{i_{k}}) =\frac{m(m-1)\cdot \cdot \ cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

[latex]E\left [ \binom{X}{k} \right ] = \binom{n}{k} \frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1 )}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

daher

[Latex]E[X(X-1) \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot \cdot \cdot \cdot (n-k+1) \frac{ m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

Momente der negativen hypergeometrischen Zufallsvariablen

  Betrachten wir das Beispiel einer Packung, die n+m Impfstoffe enthält, von denen n speziell und m gewöhnlich sind. Diese Impfstoffe werden nacheinander entfernt, wobei jede neue Entnahme mit gleicher Wahrscheinlichkeit einer der Impfstoffe ist, die in der Packung verbleiben. Lassen Sie nun die Zufallsvariable Y die Anzahl der Impfstoffe bezeichnen, die zurückgezogen werden müssen, bis insgesamt r spezielle Impfstoffe entfernt wurden, was eine negative hypergeometrische Verteilung ist, dies ist irgendwie ähnlich mit negativer Binomial zu binomialer als hypergeometrischer Verteilung. um die zu finden Wahrscheinlichkeit Massenfunktion, wenn die k-te Ziehung den speziellen Impfstoff ergibt, nachdem die k-1 Ziehung r-1 spezielle und kr normale Impfung ergibt ordinary

[latex]P(X=k)=\frac{\binom{n}{r-1}\binom{m}{kr}}{\binom{n+m}{k-1}} \frac{n -r+1}{n+m-k+1}[/latex]

nun die Zufallsvariable Y

Y=r+X

für die Veranstaltungen Ai

[latex]E[Y]=r+E[X] =r + \sum_{i=1}^{m} P(A_{i})[/latex]

[latex]E[Y]=r+ m\frac{r}{n+1}=\frac{r(n+m+1)}{n+1}[/latex]

as

[latex]P(A_{i})=\frac{r}{n+1}[/latex]

Um also die Varianz von Y zu bestimmen, müssen wir die Varianz von X kennen also

[latex]E(X(X-1))=2\sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]\sum_{i< j}^{} P(A_{i}A_{j}) = \frac{\binom{2}{2}\binom{n}{r-1}}{\binom {n+2}{r+1}} =\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X^{2}] = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} + E[X][/latex]

[latex]Var(Y)=Var(X) = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} m \frac{r}{n+ 1} – \left ( m\frac{r}{n+1} \right )^{2}[/latex]

daher

[latex]Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}[/latex]

KOVARIANZ             

Die Beziehung zwischen zwei Zufallsvariablen kann durch den statistischen Parameter Kovarianz dargestellt werden, bevor die Definition der Kovarianz zweier Zufallsvariablen X und Y daran erinnert, dass der Erwartungswert zweier Funktionen g und h der Zufallsvariablen X bzw. Y ergibt

[latex]E[g(X)h(Y)]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f(x ,y)dxdy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f_{X}(x) f_{Y}(x) dx dy[/latex]

[latex]= \int_{-\infty}^{\infty} h(y) f_{Y}(x) dy \int_{-\infty}^{\infty} g(x)f_{X}(x ) dx[/latex]

[latex]=E[h(Y)] E[g(X)][/latex]

[latex]E[g(X)h(Y)]=E[h(Y)] E[g(X)][/latex]

Mit dieser Erwartungsrelation können wir die Kovarianz definieren als

   “ Die Kovarianz zwischen Zufallsvariable X und Zufallsvariable Y bezeichnet mit cov(X,Y) ist definiert als

[latex]Cov(X,Y)=E[(XE[X])(YE[Y])][/latex]

unter Verwendung der Erwartungsdefinition und Erweiterung erhalten wir

[latex]Cov(X,Y)=E[XY-E[X]Y -XE[Y] +E[Y]E[X] ][/latex]

[latex]=E[XY] – E[X]E[Y] – E[X]E[Y] +E[X]E[Y][/latex]

[latex]=E[XY] – E[X]E[Y][/latex]

es ist klar, dass, wenn die Zufallsvariablen X und Y unabhängig sind, dann

[latex]Cov(X,Y)=0[/latex]

aber das Umgekehrte gilt nicht zum Beispiel wenn

[latex]P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}[/latex]

und Definieren der Zufallsvariablen Y als

[latex]Y= \begin{cases} 0 &\text{if } X \neq 0 \\ 1 &\text{if } X =0 \end{cases}[/latex]

so

[latex]Cov(X,Y)=E[XY] -E[X]E[Y]=0[/latex]

hier sind X und Y eindeutig nicht unabhängig, aber die Kovarianz ist null.

Eigenschaften der Kovarianz

  Die Kovarianz zwischen den Zufallsvariablen X und Y hat einige Eigenschaften wie folgt

[latex]\ \ (i) \ \ Cov(X,Y)=Cov(Y,X)[/latex]

[latex]\ \ (ii) \ \ Cov(X,X)=Var(X)[/latex]

[latex]\ \ (iii) \ \ Cov(aX, Y)=aCov(X,Y)[/latex]

[latex]\ \ (iv) \ \ Cov\left ( \sum_{i=1}^{n} X_{i} , \sum_{j=1}^{m} Y_{j} \right ) = \ sum_{i=1}^{n} \sum_{j=1}^{m} Cov(X_{i}, Y_{j})[/latex]

unter Verwendung der Definition außerhalb der Kovarianz sind die ersten drei Eigenschaften unmittelbar und die vierte Eigenschaft folgt unter Berücksichtigung von

[latex]E\left [ \sum_{i=1}^{n} X_{i} \right ] =\sum_{i=1}^{n} \mu {i} , \ \ E\links [ \sum{j=1}^{m} Y_{j} \right ] =\sum_{j=1}^{m} v_{j}[/latex]

jetzt per definitionem

Kovarianz

Varianz der Summen

Das wichtige Ergebnis dieser Eigenschaften ist

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

as

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =Cov\left ( \sum_{i=1}^{n} X_{i} \sum_{j= 1}^{n} X_{j} \right )[/latex]

[latex]= \sum_{i=1}^{n} \sum_{j=1}^{n}X_{i} X_{j}[/latex]

[latex]= \sum_{i=1}^{n} Var(X_{i}) \sum \sum_{i\neq j}^{} Cov(X_{i},X_{j})[/latex ]

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i}) +2 \sum \sum_ {i< j}^{} Cov(X_{i},X_{j})[/latex]

Wenn Xi 's sind dann paarweise unabhängig

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i})[/latex]

Beispiel: Varianz einer binomialen Zufallsvariablen

  Wenn X die Zufallsvariable ist

[latex]X=X_{1} + \cdot \cdot \cdot \cdot + X_{n}[/latex]

wo X.i sind die unabhängigen Bernoulli-Zufallsvariablen, so dass

[latex]X_{i}=\begin{cases} 1 &\text{wenn der i-te Trail erfolgreich ist } \\ 0 &\text{sonst } \end{cases}[/latex]

 Bestimmen Sie dann die Varianz einer binomialen Zufallsvariablen X mit den Parametern n und p.

Lösung:

da

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

[latex]Var(X) =Var(X_{1}) + \cdot \cdot \cdot \cdot +Var(X_{n})[/latex]

für einzelne Variable haben wir also

[latex]Var(X_{i}) =E[X_{i}^{2}] -(E[X_{i}])^{2}[/latex]

[latex]=E[X_{i}] -(E[X_{i}])^{2} \ \ Seit \ \ X_{i}^{2} =X_{i}[/latex]

[latex]=pp^{2}[/latex]

die Varianz ist also

[latex]Var(X)=np(1-p)[/latex]

Beispiel

  Für die unabhängigen Zufallsvariablen Xi mit dem jeweiligen Mittelwert und der Varianz und einer neuen Zufallsvariable mit Abweichung als

[latex]S^{2}=\sum_{i=1}^{n}\frac{(X_{i} -\overline{X})^{2}}{n-1}[/latex]

dann berechne

[latex]\ \ (a) \ \ Var(\overline{X}) \ \ und \ \ (b) \ \ E[S^{2}][/latex]

Lösung:

Unter Verwendung der obigen Eigenschaft und Definition haben wir

[latex]\ \ (a) \ \ Var(\overline{X}) =\left ( \frac{1}{n} \right )^{2} Var\left ( \sum_{i=1}^{ n} X_{i} \right )[/latex]

[latex] =\left ( \frac{1}{n} \right )^{2} \sum_{i=1}^{n} Var(X_{i}) \ \ durch \ \ independence[/latex]

[latex]=\frac{\sigma ^{2}}{n}[/latex]

nun für die Zufallsvariable S

KOVARIANZ

nimm die erwartung

[latex](n-1)E[S^{2}] =\sum_{i=1}^{n} E[(X_{i} -\mu)^{2}] -nE[(\overline {X} -\mu )^{2}][/latex]

Beispiel:

Bestimmen Sie die Kovarianz der Indikatorfunktionen für die Ereignisse A und B.

Lösung:

für die Ereignisse A und B sind die Indikatorfunktionen

[latex]I_{A}=\begin{cases} 1 &\text{falls A vorkommt} \\ 0 &\text{sonst } \end{cases}[/latex]

[latex]I_{B}=\begin{cases} 1 &\text{wenn B vorkommt} \\ 0 &\text{sonst } \end{cases}[/latex]

also die erwartung davon ist

[latex]E[I_{A}] =P(A)[/latex]

[latex]E[I_{B}] =P(B)[/latex]

[latex]E[I_{A}I_{B}] =P(AB)[/latex]

somit ist die Kovarianz

[latex]Cov(I_{A},I_{B}) = P(AB) – P(A)P(B)[/latex]

[Latex]= P(B)[P(A/B) – P(A)][/Latex]

Beispiel:

     Zeige, dass

[latex]Cov(X_{i}- \overline{X}, \overline{X}) =0[/latex]

wo X.i sind unabhängige Zufallsvariablen mit Varianz.

Lösung:

Die Kovarianz unter Verwendung der Eigenschaften und Definition ist

[latex]Cov(X_{i}- \overline{X}, \overline{X}) = Cov(X_{i}, \overline{X}) – Cov(\overline{X}, \overline{X} )[/Latex]

[latex]Cov\left ( X_{i}, \frac{1}{n} \sum_{j=1}^{n} X_{j} \right ) – Var(\overline{X})[/latex ]

[latex]= \frac{1}{n} \sum_{j=1}^{n} Cov(X_{i},X_{j}) – \frac{\sigma ^{2}}{n}[ /Latex]

[latex]= \frac{\sigma ^{2}}{n} – \frac{\sigma ^{2}}{n} =0[/latex]

Beispiel:

  Berechnen Sie den Mittelwert und die Varianz der Zufallsvariablen S, die die Summe von n Abtastwerten ist, wenn eine Menge von N Personen, von denen jede eine Meinung zu einem bestimmten Thema hat, das durch eine reelle Zahl gemessen wird v das repräsentiert die „Stärke des Gefühls“ der Person in Bezug auf das Thema. Lassen  repräsentieren die Stärke des Gefühls einer Person  die unbekannt ist, um Informationen zu sammeln, wird eine Stichprobe von n von N zufällig gezogen, diese n Personen werden befragt und ihr Gefühl wird eingeholt, um vi . zu berechnen

Lösung

definieren wir die Indikatorfunktion als

[latex]I_{i}=\begin{cases} 1 &\text{wenn Person i in der Stichprobe ist } \\ 0 &\text{sonst } \end{cases}[/latex]

also können wir S ausdrücken als

[latex]S = \sum_{i=1}^{N} v_{i}I_{i}[/latex]

und seine Erwartung als

[latex]E[S] = \sum_{i=1}^{N} v_{i}E[I_{i}][/latex]

dies ergibt die Varianz als

[latex]Var(S) =\sum_{i=1}^{N} Var(v_{i}I_{i}) +2\sum_{}^{}\sum_{i< j}^{} Cov (v_{i}I_{i}, v_{j}I_{j})[/latex]

[latex]=\sum_{i=1}^{N} v_{i}^{2} Var(I_{i}) +2\sum_{}^{}\sum_{i< j}^{} v_ {i}v_{j} Cov(I_{i}, I_{j})[/latex]

da

[latex]E[I_{i}] =\frac{n}{N}[/latex]

[latex]E[I_{i} I_{j}] =\frac{n}{N} \frac{n-1}{N-1}[/latex]

Wir haben

[latex]Var (I_{i}) =\frac{n}{N}\left ( 1- \frac{n}{N} \right )[/latex]

[latex]Cov(I_{i}, I_{j}) = \frac{n(n-1)}{N(N-1)} -\left ( \frac{n}{N} \right )^ {2}[/latex]

[latex]= \frac{-n(N-1)}{N^{2}(N-1)}[/latex]

[latex]E[s] =n\sum_{i=1}^{N}\frac{v_{i}}{N} =n\overline{v}[/latex]

[latex]Var(S)=\frac{n}{N}\frac{Nn}{N} \sum_{i=1}^{N}v_{i}^{2} -\frac{2n(Nn )}{N^{2}(N-1)} \sum \sum_{i< j}^{} v_{i}v_{j}[/latex]

wir kennen die identität

[Latex](v_{1} + \cdot \cdot \cdot + v_{N})^{2} =\sum_{i=1}^{N}v_{i}^{2} +2 \sum \ sum_{i< j}^{} v_{i}v_{j}[/latex]

so

[latex]Var(S) =\frac{n(N-1)}{(N-1)} \left ( \frac{\sum_{i=1}^{N}v_{i}^{2} }{N} -\overline{v}^{2} \right )[/latex]

[latex]E[S]= n\overline{v}= np \ \ seit \ \ n\overline{v}=\frac{Np}{N}=p[/latex]

[latex]Var(S)= \frac{n(Nn)}{N-1} \left ( \frac{Np}{N} -p^{2} \right )[/latex]

[latex]= \frac{n(Nn)}{N-1} p(1-p)[/latex]

der Mittelwert und die Varianz für die besagte Zufallsvariable sind also

[latex]E\left [ \frac{S}{n} \right ] =p[/latex]

[latex]Var\left ( \frac{S}{n} \right )=\frac{Nn}{n(N-1)}p(1-p)[/latex]

Fazit:

Die Korrelation zwischen zwei Zufallsvariablen wird als Kovarianz definiert und mit der Kovarianz wird die Summe der Varianz für verschiedene Zufallsvariablen erhalten, die Kovarianz und verschiedene Momente mit Hilfe der Erwartungsdefinition erhalten, falls Sie weiterlesen möchten, gehen Sie durch

https://en.wikipedia.org/wiki/Expectation

Ein erster Wahrscheinlichkeitskurs von Sheldon Ross

Schaums Umrisse von Wahrscheinlichkeit und Statistik

Eine Einführung in Wahrscheinlichkeit und Statistik von ROHATGI und SALEH.

Für weitere Beiträge zum Thema Mathematik folgen Sie bitte unserem Seite Mathematik

DR. MOHAMMED MAZHAR UL HAQUE

Ich bin Dr. Mohammed Mazhar Ul Haque, Assistenzprofessor für Mathematik. Mit 12 Jahren Erfahrung im Unterrichten. Mit umfassenden Kenntnissen in Reiner Mathematik, insbesondere in der Algebra. Mit der immensen Fähigkeit, Probleme zu entwerfen und zu lösen. In der Lage, Kandidaten zu motivieren, ihre Leistung zu verbessern. Ich liebe es, zu Lambdageeks beizutragen, um Mathematik sowohl für Anfänger als auch für Experten einfach, interessant und selbsterklärend zu machen. Verbinden wir uns über LinkedIn – https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Neueste Beiträge