Bedingte Erwartung: 7 Fakten, die Sie kennen sollten

Da für die voneinander abhängigen Zufallsvariablen die bereits besprochene Berechnung bedingter Wahrscheinlichkeiten erforderlich ist, werden nun einige weitere Parameter für solche Zufallsvariablen oder Experimente wie bedingter Erwartungswert und bedingte Varianz für verschiedene Arten von Zufallsvariablen diskutiert.

Bedingte Erwartung

   Die Definition der bedingten Wahrscheinlichkeits-Massenfunktion der diskreten Zufallsvariablen X bei gegebenem Y ist

hier pY(y)>0 , also die Bedingung Erwartung für die diskrete Zufallsvariable X gegeben Y wenn pY(y)>0 ist

in der oben genannten Erwartung Wahrscheinlichkeit ist die Bedingung Wahrscheinlichkeit.

  In ähnlicher Weise, wenn X und Y stetig sind, dann ist die bedingte Wahrscheinlichkeitsdichtefunktion der Zufallsvariablen X gegeben Y

wobei f(x,y) die gemeinsame Wahrscheinlichkeitsdichtefunktion ist und für alle yfY(y)>0 , also ist der bedingte Erwartungswert für die Zufallsvariable X bei gegebenem y

für alle yfY(y) > 0.

   Wie wir wissen, dass alle Eigenschaften der Wahrscheinlichkeit gelten für bedingte Wahrscheinlichkeit Gleiches gilt für die bedingte Erwartung, alle Eigenschaften der mathematischen Erwartung werden durch die bedingte Erwartung erfüllt, zum Beispiel wird die bedingte Erwartung der Funktion einer Zufallsvariablen sein

und die Summe der Zufallsvariablen im bedingten Erwartungswert ist

Bedingter Erwartungswert für die Summe binomialer Zufallsvariablen

    Bedingt zu finden Erwartung der Summe binomialer Zufallsvariablen X und Y mit unabhängigen Parametern n und p, wissen wir, dass X+Y auch eine binomiale Zufallsvariable mit den Parametern 2n und p sein wird, also wird für die Zufallsvariable X bei X+Y=m der bedingte Erwartungswert durch Berechnung erhalten Die Wahrscheinlichkeit

seit wir das wissen

also ist der bedingte Erwartungswert von X gegeben X+Y=m

Beispiel:

Finden Sie die bedingte Erwartung

wenn das Gelenk Wahrscheinlichkeitsdichtefunktion kontinuierlicher Zufallsvariablen X und Y sind gegeben als

Lösung:

Um den bedingten Erwartungswert zu berechnen, benötigen wir eine bedingte Wahrscheinlichkeitsdichtefunktion, also

da für die kontinuierliche Zufallsvariable die bedingt Erwartung ist

daher wäre für die gegebene Dichtefunktion der bedingte Erwartungswert

Erwartung durch Konditionierung||Erwartung durch bedingte Erwartung

                Wir können das berechnen mathematische Erwartung mit Hilfe der bedingten Erwartung von X gegeben Y als

für die diskreten Zufallsvariablen ist dies

die erhältlich als

und für den stetigen Zufall können wir analog zeigen

Beispiel:

                Eine Person ist in seinem Gebäude unter der Erde gefangen, da der Eingang wegen schwerer Last blockiert ist zum Glück gibt es drei Rohrleitungen, aus denen sie herauskommen kann die erste Rohrleitung bringt ihn nach 3 Stunden sicher heraus, die zweite nach 5 Stunden und die dritte Rohrleitung danach 7 Stunden, Wenn eine dieser Pipelines von ihm gleich wahrscheinlich gewählt wird, was wäre dann die voraussichtliche Zeit, in der er sicher nach draußen kommt.

Lösung:

Sei X die Zufallsvariable, die die Zeit in Stunden angibt, bis die Person sicher herausgekommen ist, und Y die Pfeife, die sie anfangs wählt, also

da

Wenn die Person die zweite Pfeife wählt, verbringt sie 5 Stunden darin, kommt aber mit der erwarteten Zeit nach draußen

also wird die erwartung sein

Erwartung der Summe einer Zufallszahl von Zufallsvariablen mit bedingter Erwartung

                Sei N die Zufallszahl der Zufallsvariablen und die Summe der Zufallsvariablen ist     dann die erwartung  

da

as

so

Korrelation der bivariaten Verteilung

Ist die Wahrscheinlichkeitsdichtefunktion der bivariaten Zufallsvariablen X und Y

woher

dann ist die Korrelation zwischen Zufallsvariablen X und Y für die bivariate Verteilung mit Dichtefunktion function

da Korrelation definiert ist als

da der Erwartungswert mit bedingtem Erwartungswert ist

für die Normalverteilung hat die bedingte Verteilung X gegeben Y einen Mittelwert

nun ist der Erwartungswert von XY bei gegebenem Y

das gibt

daher

Varianz der geometrischen Verteilung

    In der geometrischen Verteilung führen wir sukzessive unabhängige Versuche durch, die mit der Wahrscheinlichkeit p zum Erfolg führen. Wenn N den Zeitpunkt des ersten Erfolgs in dieser Folge darstellt, dann ist die Varianz von N definitionsgemäß

Sei die Zufallsvariable Y=1, wenn der erste Versuch erfolgreich ist und Y=0, wenn der erste Versuch fehlschlägt. Um nun den mathematischen Erwartungswert hier zu finden, wenden wir den bedingten Erwartungswert an als

da

wenn der Erfolg im ersten Versuch ist, dann N=1 und N2=1 Wenn im ersten Versuch ein Fehler auftritt, dann wird die Gesamtzahl der Versuche, um den ersten Erfolg zu erzielen, die gleiche Verteilung wie 1 haben, dh der erste Versuch, der zu einem Fehlschlag führt, plus der erforderlichen Anzahl zusätzlicher Versuche, d

Somit wird die Erwartung sein

da der Erwartungswert der geometrischen Verteilung so

daher

und

E

die Varianz der geometrischen Verteilung ist also

Erwartung des Minimums der Folge gleichförmiger Zufallsvariablen

   Die Folge gleichförmiger Zufallsvariablen U1, SIE IST2 … .. über das Intervall (0, 1) und N ist definiert als

dann für den Erwartungswert von N für jedes x ∈ [0, 1] der Wert von N

wir setzen den Erwartungswert von N als

um den Erwartungswert zu finden, verwenden wir die Definition des bedingten Erwartungswerts auf stetige Zufallsvariable

nun Konditionierung für den ersten Term der Folge  Wir haben

hier bekommen wir

die verbleibende Anzahl gleichförmiger Zufallsvariablen ist an dem Punkt gleich, an dem der erste gleichförmige Wert y ist, und dann würden gleichförmige Zufallsvariablen hinzugefügt, bis ihre Summe x − y überschreitet.

Bei Verwendung dieses Erwartungswerts ist der Wert des Integrals

wenn wir diese Gleichung differenzieren

und

jetzt integrieren das gibt

daher

der Wert von k=1 wenn x=0 , also

m

und m(1) =e, die erwartete Anzahl gleichförmiger Zufallsvariablen über das Intervall (0, 1), die addiert werden müssen, bis ihre Summe 1 überschreitet, ist gleich e

Wahrscheinlichkeit mit bedingter Erwartung || Wahrscheinlichkeiten mit Konditionierung

   Wir können die Wahrscheinlichkeit auch finden, indem wir bedingte Erwartungen verwenden, wie die Erwartung, die wir mit bedingter Erwartung gefunden haben, um dies zu erhalten, betrachten Sie ein Ereignis und eine Zufallsvariable X als

aus der Definition dieser Zufallsvariablen und Erwartung eindeutig

jetzt durch bedingte Erwartung in irgendeiner Weise, die wir haben

Beispiel:

berechne die Wahrscheinlichkeitsmassenfunktion der Zufallsvariablen X , wenn U die einheitliche Zufallsvariable auf dem Intervall (0,1) ist, und betrachte die bedingte Verteilung von X bei U=p als binomial mit den Parametern n und p.

Lösung:

Für den Wert von U ist die Wahrscheinlichkeit durch Konditionierung

wir haben das ergebnis

also werden wir bekommen

Beispiel:

was ist die Wahrscheinlichkeit von X < Y, wenn X und Y die stetigen Zufallsvariablen mit Wahrscheinlichkeitsdichtefunktionen f . sindX und fY beziehungsweise.

Lösung:

Mit bedingter Erwartung und bedingter Wahrscheinlichkeit

as

Beispiel:

Berechnen Sie die Verteilung der Summe der stetigen unabhängigen Zufallsvariablen X und Y.

Lösung:

Um die Verteilung von X+Y zu finden, müssen wir die Wahrscheinlichkeit der Summe ermitteln, indem wir die Konditionierung wie folgt anwenden

Fazit:

Die bedingte Erwartung für die diskrete und kontinuierliche Zufallsvariable mit verschiedenen Beispielen unter Berücksichtigung einiger der Arten dieser Zufallsvariablen, die unter Verwendung der unabhängigen Zufallsvariablen und der gemeinsamen Verteilung unter verschiedenen Bedingungen diskutiert werden Beispiele, wenn Sie weitere Lektüre benötigen, lesen Sie die folgenden Bücher oder für weitere Artikel über Wahrscheinlichkeit, folgen Sie bitte unseren Mathematikseiten.

https://en.wikipedia.org/wiki/probability_distribution

Ein erster Wahrscheinlichkeitskurs von Sheldon Ross

Schaums Umrisse von Wahrscheinlichkeit und Statistik

Eine Einführung in Wahrscheinlichkeit und Statistik von ROHATGI und SALEH

Nach oben scrollen