Gemeinsam verteilte Zufallsvariablen: 11 wichtige Fakten


Inhalt

Gemeinsam verteilte Zufallsvariablen

     Die gemeinsam verteilten Zufallsvariablen sind mehr als eine Zufallsvariable mit einer für diese Zufallsvariablen gemeinsam verteilten Wahrscheinlichkeit, dh in Experimenten, bei denen das unterschiedliche Ergebnis mit ihrer gemeinsamen Wahrscheinlichkeit als gemeinsam verteilte Zufallsvariable oder gemeinsame Verteilung bekannt ist, tritt eine solche Art von Situation auf häufig beim Umgang mit den Problemen der Chancen.

Gemeinsame Verteilungsfunktion Gemeinsame kumulative Wahrscheinlichkeitsverteilungsfunktion gemeinsame Wahrscheinlichkeitsmassenfunktion gemeinsame Wahrscheinlichkeitsdichtefunktion

    Für die Zufallsvariablen X und Y ist die Verteilungsfunktion oder die gemeinsame kumulative Verteilungsfunktion

[latex]F(a,b)= P\left \{ X\leq a, Y\leq b \right \} \ \ , \ \ -\infty< a , b< \infty[/latex]

wobei die Art der gemeinsamen Wahrscheinlichkeit von der Art der Zufallsvariablen X und Y abhängt, entweder diskret oder kontinuierlich, und die einzelnen Verteilungsfunktionen für X und Y unter Verwendung dieser gemeinsamen kumulativen Verteilungsfunktion als erhalten werden können

[latex]F_{X}(a)=P \left \{ { X\leq a } \right \} \\ = P \left \{ X\leq a, Y< \infty \right \} \\ = P\left ( \lim_{b \to \infty} X\leq a, Y< b \right ) \\ =\lim_{b \to \infty} P \left \{ X\leq a, Y\leq b \right \} \\ = \lim_{b \to \infty} F(a,b) \\ \equiv F(a, \infty)[/latex]

ähnlich für Y als

[latex]F_{Y} (b)=P\left \{ Y\leq b \right \} \\ =\lim_{a \to \infty} F(a,b) \\ \equiv F(\infty , b)[/latex]

Diese einzelnen Verteilungsfunktionen von X und Y werden als Randverteilungsfunktionen bezeichnet, wenn eine gemeinsame Verteilung in Betracht gezogen wird. Diese Verteilungen sind sehr hilfreich, um die Wahrscheinlichkeiten wie zu erhalten

[latex]P\left { X> a, Y> b \right } = 1-P(\left { X> a, Y> b \right }^{c}) \\ =1-P(\left { X> a \right }^{c}\cup \left { Y> b \right }^{c}) \\ =1- P(\left { X\leq a \right }\cup \left { Y\ leq b \right }) \\ =1-\left [ P\left { X\leq a \right } +P\left { Y\leq b \right }-P\left { X\leq a , Y\leq b\right }\right ] \\ =1- F_{X}(a)-F_{Y}(b)+F(a,b)[/latex]

und

[latex]P\left {a_{1}\leq X\leq a_{2} , b_{1}\leq Y\leq b_{2} \right } \\ =F(a_{2},b_{2 })+F(a_{1},b_{1})-F(a_{1},b_{2})-F(a_{2},b_{1})[/latex]

zusätzlich ist die gemeinsame Wahrscheinlichkeitsmassenfunktion für die Zufallsvariablen X und Y definiert als

[latex]p(x,y)=P\left { X=x, Y=y \right }[/latex]

die individuellen Wahrscheinlichkeitsmassen- oder Dichtefunktionen für X und Y können mit Hilfe solcher gemeinsamen Wahrscheinlichkeitsmassen- oder Dichtefunktionen wie in Bezug auf erhalten werden diskrete Zufallsvariablen as

[latex]p_{X}(x)=P\left { X=x \right } \\ =\sum_{y:p(x,y)> 0}^{}p(x,y) \\ p_ {Y}(y)=\sum_{y:p(x,y)> 0}^{}p(x,y)[/latex]

und in Bezug auf die kontinuierliche Zufallsvariable wird die gemeinsame Wahrscheinlichkeitsdichtefunktion sein

[latex]P\left { (X,Y)\in C \right }=\int_{(x,y)\in C}^{}\int f(x,y)dxdy[/latex]

wobei C eine beliebige zweidimensionale Ebene ist und die gemeinsame Verteilungsfunktion für eine kontinuierliche Zufallsvariable ist

[latex]F(a,b)=P\left { X\in (-\infty,a], Y\in (-\infty,b] \right } \\ =\int_{-\infty}^{ b}\int_{-\infty}^{a} f(x,y)dxdy[/latex]

Die Wahrscheinlichkeitsdichtefunktion aus dieser Verteilungsfunktion kann durch Differenzieren erhalten werden

[latex]f(a,b)=\frac{\partial^2 }{\partial a \partial b} F(a,b)[/latex]

und die Grenzwahrscheinlichkeit aus der gemeinsamen Wahrscheinlichkeitsdichtefunktion

[latex]P\left { X\in A \right }=P\left { X\in A,Y\in (-\infty,\infty) \right } \ =\int_{A}^{}\int_ {-\infty}^{\infty}f(x,y)dydx \ =\int_{A}^{}f_{X}(x)dx[/latex]

as

[latex]f_{X}(x)=\int_{-\infty}^{\infty}f(x,y)dy[/latex]

und

[latex]f_{Y}(y)=\int_{-\infty}^{\infty}f(x,y)dx[/latex]

in Bezug auf die Zufallsvariablen X bzw. Y.

Beispiele zur gemeinsamen Verteilung

  1. Die gemeinsamen Wahrscheinlichkeiten für die Zufallsvariablen X und Y, die die Anzahl der Mathematik- und Statistikbücher aus einer Reihe von Büchern darstellen, die 3 Mathematik-, 4 Statistik- und 5 Physikbücher enthalten, wenn 3 Bücher zufällig entnommen wurden

[latex]p(0,0)=\binom{5}{3}/\binom{12}{3}=\frac{10}{220} \\ p(0,1)=\binom{4} {1} \binom{5}{2}/\binom{12}{3}=\frac{40}{220} \\ p(0,2)=\binom{4}{2} \binom{5 }{1}/\binom{12}{3}=\frac{30}{220} \\ p(0,3)=\binom{4}{3}/\binom{12}{3}=\ frac{4}{220} \\ p(1,0)=\binom{3}{1} \binom{5}{2}/\binom{12}{3}=\frac{30}{220} \\ p(1,1)=\binom{3}{1} \binom{4}{1} \binom{5}{1}/\binom{12}{3}=\frac{60}{220 } \\ p(1,2)=\binom{3}{1} \binom{4}{2}/\binom{12}{3}=\frac{18}{220} \\ p(2,0, 3)=\binom{2}{5} \binom{1}{12}/\binom{3}{15}=\frac{220}{2,1} \\ p(3)=\binom{2 }{4} \binom{1}{12}/\binom{3}{12}=\frac{220}{3,0} \\ p(3)=\binom{3}{12}/\binom {3}{1}=\frac{220}{XNUMX} \[/latex]

  • Finden Sie das Gelenk Wahrscheinlichkeitsmassenfunktion für die Stichprobe von Familien mit 15 % ohne Kind, 20 % mit 1 Kind, 35 % mit 2 Kindern und 30 % mit 3 Kindern, wenn die Familie, die wir zufällig aus dieser Stichprobe als Kind auswählen, ein Junge oder ein Mädchen ist?

Die gemeinsame Wahrscheinlichkeit finden wir anhand der Definition als

Gemeinsam verteilte Zufallsvariablen
Gemeinsam verteilte Zufallsvariablen: Beispiel

und dies können wir in tabellarischer Form wie folgt veranschaulichen

Gemeinsam verteilte Zufallsvariablen
Gemeinsam verteilte Zufallsvariablen: Beispiel für eine gemeinsame Verteilung
  • Berechnen Sie die Wahrscheinlichkeiten

[Latex] (a) P\left { X> 1, Y> 1 \right } , \ \ (b) P\left { X< Y \right } und \ \ (c) P\left { X< a \right }[/latex]

wenn für die Zufallsvariablen X und Y die gemeinsame Wahrscheinlichkeitsdichtefunktion gegeben ist durch

[latex]f(x,y) = \begin{cases} 2e^{-x}y^{-2y} \ \ 0< x< \infty , \ \ 0< y< \infty \\ 0 &\text {sonst} \end{cases}[/latex]

mit Hilfe der Definition der gemeinsamen Wahrscheinlichkeit für kontinuierliche Zufallsvariable

[latex]=\int_{-\infty}^{b}\int_{-\infty}^{a}f(x,y)dxdy[/latex]

und die gegebene Gelenkdichtefunktion ist die erste Wahrscheinlichkeit für den gegebenen Bereich

[latex]P\left { X> 1,Y< 1 \right }=\int_{0}^{1}\int_{1}^{\infty}2e^{-x} e^{-2y} dxdy [/Latex]

[latex]=\int_{0}^{1}2e^{-2y} \left ( -e^{-x}\lvert_{1}^{\infty} \right )dy[/latex]

[latex]=e^{-1}\int_{0}^{1}2e^{-2y}dy[/latex]

[latex]=e^{-1}(1-e^{-2})[/latex]

in ähnlicher Weise die Wahrscheinlichkeit

[latex]P\left { X< Y \right }=\int_{(x,y):}^{}\int_{x< y}^{}2e^{-2x}e^{-2y}dxdy [/Latex]

[latex]=\int_{0}^{\infty}\int_{0}^{y}2e^{-2x}e^{-2y}dxdy[/latex]

[latex]=\int_{0}^{\infty}2e^{-2y}(1-e^{-y})dy[/latex]

[latex]=\int_{0}^{\infty}2e^{-2y}dy – \int_{0}^{\infty}2e^{-3y}dy =1-\frac{2}{3}=\frac{1}{3}[/latex]

und schlussendlich

P \ left \ {X <a \ right \} = \ int_ {0} ^ {a} \ int_ {0} ^ {\ infty} 2e ^ {- 2y} e ^ {- x} dydx

[latex]=\int_{0}^{a}e^{-x}dx[/latex]

[latex]=1-e^{-a}[/latex]

  • Finden Sie die Gelenkdichtefunktion für den Quotienten X / Y der Zufallsvariablen X und Y, wenn ihre Gelenkwahrscheinlichkeitsdichtefunktion ist

[latex]f(x,y) = \begin{cases} e^{-(x+y)} \ \ 0< x< \infty , \ \ 0< y< \infty \\ \ 0 &\text{ sonst} \end{cases}[/latex]

Um die Wahrscheinlichkeitsdichtefunktion für die Funktion X / Y zu finden, finden wir zuerst die gemeinsame Verteilungsfunktion, dann differenzieren wir das erhaltene Ergebnis.

also durch die Definition der gemeinsamen Verteilungsfunktion und der gegebenen Wahrscheinlichkeitsdichtefunktion haben wir

[latex]F_{X}/_{Y}(a)=P\left { \frac{X}{Y}\leq a \right }[/latex]

[latex]=\int_{\frac{X}{Y}\leq a}^{}\int e^{-(x+y)}dxdy[/latex]

[latex]=\int_{0}^{\infty}\int_{0}^{ay}e^{-(x+y)}dxdy[/latex]

[latex]= \left { \int_{0}^{\infty}-e^{-y}dxdy +\frac{e^{-(a+1)y}}{a+1} \right }\ lvert_{0}^{\infty}[/latex]

[latex]=1-\frac{1}{a+1}[/latex]

Durch Differenzieren dieser Verteilungsfunktion in Bezug auf a erhalten wir also die Dichtefunktion als

[latex]f_{\frac{X}{Y}}(a)=\frac{1}{(a+1)^{2}}[/latex]

wobei a innerhalb von Null bis unendlich ist.

Unabhängige Zufallsvariablen und gemeinsame Verteilung

     In den gemeinsame Verteilung Die Wahrscheinlichkeit für zwei Zufallsvariablen X und Y gilt als unabhängig, wenn

[latex]P\left { X \in A, Y \in B\right } =P \left { X \in A \right } P\left { Y \in B \right }[/latex]

wobei A und B die realen Mengen sind. Wie bereits in Bezug auf Ereignisse wissen wir, dass die unabhängigen Zufallsvariablen die Zufallsvariablen sind, deren Ereignisse unabhängig sind.

Also für alle Werte von a und b

[latex]P\left { X\leq a, Y\leq b \right } =P\left {X\leq a \right }P\left {Y\leq b \right }[/latex]

und die gemeinsame Verteilung oder kumulative Verteilungsfunktion für die unabhängigen Zufallsvariablen X und Y wird sein

[latex]F(a,b)=F_{X}(a)F_{Y}(b) \ \ für \ \ alle \ \ a,b[/latex]

Wenn wir die diskreten Zufallsvariablen X und Y betrachten, dann

[latex]p(x,y)=p_{X}(x)p_{Y}(y) \ \ für \ \ alle \ \ x,y[/latex]

da

[latex]P\left { X\in A, Y\in B \right } =\sum_{y\in B}^{}\sum_{x \in A}^{}p(x,y)[/ Latex]

[latex]=\sum_{y\in B}^{}\sum_{x \in A}^{}p_{X}(x)p_{Y}(y)[/latex]

[latex]=\sum_{y\in B}p_{Y}(y) \sum_{x\in A}p_{X}(x)[/latex]

[latex]= P\left { Y \in B \right } P\left { X \in A \right }[/latex]

ähnlich auch für die kontinuierliche Zufallsvariable

[latex]f(x,y)=f_{X}(x)f_{Y}(y) \ \ für \ \ alle \ \ x,y[/latex]

Beispiel für eine unabhängige gemeinsame Verteilung

  1. Wenn für einen bestimmten Tag in einem Krankenhaus die eingegebenen Patienten mit dem Parameter λ und der Wahrscheinlichkeit eines männlichen Patienten als p und der Wahrscheinlichkeit eines weiblichen Patienten als (1-p) poissonverteilt sind, zeigen Sie, dass die Anzahl der männlichen und weiblichen Patienten, die in das Krankenhaus eingegeben wurden sind unabhängige Poisson-Zufallsvariablen mit den Parametern λp und λ (1-p)?

Betrachten Sie dann die Anzahl der männlichen und weiblichen Patienten anhand der Zufallsvariablen X und Y.

[latex]P\left { X=i, Y=j \right }= P\left { X=i, Y=j|X +Y=i+j \right }P\left { X+Y=i+ j \right }+P\left { X=i,Y=j|X +Y\neq i+j \right }P\left { X+Y\neq i+j \right }[/latex]

[latex]P\left { X=i, Y=j \right }= P\left { X=i, Y=j|X +Y=i+j \right }P\left { X+Y=i+ j \right }[/latex]

als X + Y ist die Gesamtzahl der in das Krankenhaus eingegebenen Patienten, die so verteilt sind

[latex]P\left { X+Y=i+j \right }=e^{-\lambda }\frac{\lambda ^{i+j}}{(i+j)!}[/latex]

Da die Wahrscheinlichkeit, dass ein männlicher Patient p und eine weibliche Patientin (1-p) ist, genau von der Gesamtfixzahl männlich oder weiblich ist, zeigt sich die Binomialwahrscheinlichkeit als

[latex]P\left { X=i, Y=j|X + Y=i+j \right }=\binom{i+j}{i}p^{i}(1-p)^{j} [/Latex]

Mit diesen beiden Werten erhalten wir die obige gemeinsame Wahrscheinlichkeit als

[latex]P\left { X=i, Y=j \right }=\binom{i+j}{i}p^{i}(1-p)^{j}e^{-\lambda} \ frac{\lambda ^{i+j}}{(i+j)!}[/latex]

[latex]=e^{-\lambda} \frac{\lambda p^i}{i! j!}\left [ \lambda (1-p) \right ]^{j}[/latex]

[latex]=e^{-\lambda p} \frac{(\lambda p)^i}{i!} e^{-\lambda (1-p)} \frac{\left [ \lambda (1- p) \right ]^{j}}{j!}[/latex]

somit wird die Wahrscheinlichkeit von männlichen und weiblichen Patienten sein

[latex]P\left { X=i \right } =e^{-\lambda p} \frac{(\lambda p)^i}{i!} \sum_{j} e^{-\lambda (1 -p)} \frac{\left [ \lambda (1-p) \right ]^{j}}{j!} = e^{-\lambda p} \frac{(\lambda p)^i}{ ich!}[/latex]

und

[latex]P\left { Y=j \right } =e^{-\lambda (1-p)} \frac{\left [ \lambda (1-p) \right ]^{j}}{j! }[/Latex]

was zeigt, dass beide Poisson-Zufallsvariablen mit den Parametern λp und λ (1-p) sind.

2. Finden Sie die Wahrscheinlichkeit, dass eine Person bei der Besprechung länger als zehn Minuten auf einen Kunden warten muss, als ob jeder Kunde und diese Person nach einer gleichmäßigen Verteilung zwischen 12 und 1 Uhr eintreffen würden.

Betrachten Sie die Zufallsvariablen X und Y, um die Zeit für diese Person und diesen Kunden zwischen 12 und 1 zu bezeichnen, sodass die Wahrscheinlichkeit für X und Y gemeinsam ist

[latex] 2P \left { X+10 < Y \right } =2 \int_{X+10 < Y} \int f(x,y)dxdy[/latex]

[latex]=2 \int_{X+10 < Y} \int f_{X}(x) f_{Y}(y)dxdy[/latex]

[latex]=2 \int_{10}^{60} \int_{0}^{y-10} \left (\frac{1}{60}\right )^{2} dxdy[/latex]

[latex]=\frac{2}{(60)^{2}}\int_{10}^{60} (y-10)dy[/latex]

[latex]=\frac{25}{36}[/latex]

Berechnen

[latex]P\left { X\geq YZ \right }[/latex]

wobei X, Y und Z über das Intervall (0,1) eine einheitliche Zufallsvariable sind.

hier wird die Wahrscheinlichkeit sein

[latex]P\left { X\geq YZ \right } = \int \int_{x\geq yz}\int f_{X,Y,Z} (x,y,z) dxdydz[/latex]

für die gleichmäßige Verteilung die Dichtefunktion

[latex]f_{X,Y,Z} (x,y,z) =f_{X} (x) f_{Y}(y) f_{Z}(z) =1 , \ \ 0\leq x\ leq 1 , \ \ 0\leq y\leq 1 , \ \ 0\leq z\leq 1[/latex]

für den gegebenen Bereich also

[latex]=\int_{0}^{1}\int_{0}^{1}\int_{yz}^{1} dxdydz[/latex]

[latex]=\int_{0}^{1}\int_{0}^{1} (1-yz) dydz[/latex]

[latex]=\int_{0}^{1}\left ( 1-\frac{z}{2} \right ) dydz[/latex]

[latex]=\frac{3}{4}[/latex]

SUMS UNABHÄNGIGER ZUFÄLLIGER VARIABLEN NACH GEMEINSAMER VERTEILUNG

  Die Summe der unabhängigen Variablen X und Y mit der Wahrscheinlichkeitsdichte fungiert als kontinuierliche Zufallsvariable, die kumulative Verteilungsfunktion wird sein

[latex]F_{X+Y} (a)= P\left \{ X+Y\leq a \left. \right \} \right.[/latex]

[latex]= \int_{x+y\leq a}\int f_{X} (x)f_{Y}(y)dxdy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{ay} f_{X}(x)f_{Y}(y)dxdy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{ay} f_{X}(x) dx f_{Y}(y)dy[/latex]

[latex]= \int_{-\infty}^{\infty} F_{X} (ay) f_{Y}(y)dy[/latex]

durch Differenzieren dieser kumulativen Verteilungsfunktion für die Wahrscheinlichkeitsdichtefunktion dieser unabhängigen Summen werden

[latex]f_{X+Y} (a)=\frac{\mathrm{d} }{\mathrm{d} a}\int_{-\infty}^{\infty} F_{X} (ay)f_ {Y} (y)dy[/latex]

[latex]f_{X+Y} (a)=\int_{-\infty}^{\infty} \frac{\mathrm{d} }{\mathrm{d} a} F_{X} (ay)f_ {Y} (y)dy[/latex]

[latex]=\int_{-\infty}^{\infty} f_{X} (ay)f_{Y} (y)dy[/latex]

Wenn wir diesen beiden Ergebnissen folgen, sehen wir einige kontinuierliche Zufallsvariablen und ihre Summe als unabhängige Variablen

Summe unabhängiger einheitlicher Zufallsvariablen

   für die zufällige Variablen X und Y gleichverteilt über das Intervall (0,1) ist die Wahrscheinlichkeitsdichtefunktion für diese beiden unabhängigen Variablen

[latex]f_{X}(a)=f_{Y}(a) = \begin{cases} 1 & \ 0< a< 1 \\ \ \ 0 & \text{ sonst } \end{cases}[/ Latex]

also für die Summe X + Y haben wir

[latex]f_{X+Y}(a) = \int_{0}^{1}f_{X}(ay)dy[/latex]

für jeden Wert liegt a zwischen null und eins

[latex]f_{X+Y}(a)= \int_{0}^{a}dy =a[/latex]

Wenn wir ein zwischen eins und zwei einschränken, wird es sein

[latex]f_{X+Y}(a)= \int_{a-1}^{a}dy =2-a[/latex]

Dies ergibt die dreieckige Formdichtefunktion

[latex]f_{X+Y}(a) = \begin{cases} \ a & 0\leq a \leq 1 \\ \ 2-a & \ 1< a< 2 \\ \ 0 & \text{ sonst } \end{cases}[/latex]

Wenn wir für die n unabhängigen einheitlichen Zufallsvariablen 1 bis n verallgemeinern, dann funktioniert ihre Verteilung

[latex]F_{n}(x)=P\left ( X_{1} + ……+ X_{n} \leq x \right )[/latex]

durch mathematische Induktion wird sein

[latex]F_{n}(x)=\frac{x^{n}}{n!} , 0\leq x\leq 1[/latex]

Summe unabhängiger Gamma-Zufallsvariablen

    Wenn wir zwei unabhängige Gamma-Zufallsvariablen mit ihrer üblichen Dichtefunktion haben

[latex]f(y)= \frac{\lambda e^{-\lambda y}(\lambda y)^{t-1}}{\Gamma (t)} \ \ , 0< y< \infty[ /Latex]

dann folgt die Dichte für die Summe der unabhängigen Gamma-Zufallsvariablen

[latex]f_{X+Y}(a)=\frac{1}{\Gamma (s)\Gamma (t)}\int_{0}^{a}\lambda e^{-\lambda (ay) }\left [ \lambda (ay) \right ]^{s-1}\lambda e^{-\lambda y} (\lambda y)^{t-1}dy[/latex]

[latex]=K e^{-\lambda a} \int_{0}^{a}\left [ (ay) \right ]^{s-1}(y)^{t-1}dy[/latex ]

[Latex]=K e^{-\lambda a} a^{s+t-1} \int_{0}^{1} (1-x)^{s-1}x^{t-1} dx \ \ indem \ \ vermietet wird \ \ x=\frac{y}{a}[/latex]

[latex]=C e^{-\lambda a} a^{s+t-1}[/latex]

[latex]f_{X+Y}(a)=\frac{\lambda e^{-\lambda a} (\lambda a)^{s+t-1}}{\Gamma (s+t)}[ /Latex]

Dies zeigt die Dichtefunktion für die Summe der unabhängigen Gamma-Zufallsvariablen

Summe unabhängiger exponentieller Zufallsvariablen

    Ähnlich wie bei einer Gamma-Zufallsvariablen, der Summe unabhängiger exponentieller Zufallsvariablen, können wir eine Dichtefunktion und eine Verteilungsfunktion erhalten, indem wir nur spezifisch Werte von Gamma-Zufallsvariablen zuweisen.

Summe der unabhängigen normalen Zufallsvariablen | Summe der unabhängigen Normalverteilung

                Bei n unabhängigen normalen Zufallsvariablen Xi , i=1,2,3,4….n mit jeweiligen Mittelwerten μi und Varianzen σ2i dann ihre Summe ist auch eine normale Zufallsvariable mit dem Mittelwert als Σμi und Varianzen Σσ2i

    Wir zeigen zunächst die normalverteilte unabhängige Summe für zwei normale Zufallsvariablen X mit den Parametern 0 und σ2 und Y mit den Parametern 0 und 1, lassen Sie uns die Wahrscheinlichkeitsdichtefunktion für die Summe X + Y mit finden

[latex]c=\frac{1}{2\sigma ^{2}} +\frac{1}{2} =\frac{1+\sigma ^{2}}{2\sigma ^{2}} [/Latex]

in der Gelenkverteilungsdichtefunktion

[latex]f_{X+Y}(a)=\int_{-\infty}^{\infty}f_{X}(ay)f_{Y}(y)dy[/latex]

mit Hilfe der Definition der Dichtefunktion der Normalverteilung

[latex] f_{X}(ay)f_{Y}(y)=\frac{1}{\sqrt{2\pi }\sigma } exp\left { -\frac{(ay)^{2}} {2\sigma ^{2}} \right }\frac{1}{\sqrt{2\pi }}exp\left { -\frac{y^{2}}{2} \right } [/latex]

[latex]=\frac{1}{2\pi \sigma } exp \left { -\frac{a^{2}}{2\sigma ^{2}} \right } exp \left { -c\left ( y^{2} -2y\frac{a}{1+\sigma ^{2}}\right ) \right }[/latex]

somit wird die Dichtefunktion sein

[latex]f_{X+Y}(a)=\frac{1}{2\pi \sigma }exp \left { -\frac{a^{2}}{2\sigma ^{2}} \right } exp \left { \frac{a^{2}}{2\sigma ^{2}(1+\sigma ^{2})} \right } X \int_{-\infty}^{\infty} exp \left { -c\left ( y-\frac{a}{1+\sigma ^{2}} \right )^{2} \right } dy[/latex]

[latex]=\frac{1}{2\pi \sigma } exp \left { – \frac{a^{2}}{2(1+\sigma ^{2})} \right } \int_{- \infty}^{\infty} exp \left { -cx^{2} \right } dx[/latex]

[latex]=C exp \left { -\frac{a^{2}}{2(1+\sigma ^{2})} \right }[/latex]

was nichts anderes ist als die Dichtefunktion von a Normalverteilung mit Mittelwert 0 und Varianz (1+σ2) nach demselben Argument können wir sagen

[latex]X_{1} + X_{2}=\sigma {2}\left(\frac{X{1}-\mu {1}}{\sigma {2}}+\frac{X_{2}-\mu {2}}{\sigma {2}} \right ) +\mu {1} +\mu {2}[/latex]

mit üblichen Mittelwerten und Abweichungen. Wenn wir die Erweiterung nehmen und beobachten, dass die Summe normalerweise mit dem Mittelwert als Summe der jeweiligen Mittelwerte und der Varianz als Summe der jeweiligen Varianzen verteilt ist,

auf die gleiche Weise ist die n-te Summe die normalverteilte Zufallsvariable mit dem Mittelwert Σμi  und Varianzen Σσ2i

Summen unabhängiger Poisson-Zufallsvariablen

Wenn wir zwei unabhängige Poisson-Zufallsvariablen X und Y mit den Parametern λ haben1 und λ2 dann ist ihre Summe X + Y auch Poisson-Zufallsvariable oder Poisson-verteilt

da X und Y Poisson-verteilt sind und wir ihre Summe als Vereinigung disjunkter Ereignisse so schreiben können

[latex]P \left { X+Y =n \right } =\sum_{k=0}^{n}P\left { X=k, Y=nk \right }[/latex]

[latex]=\sum_{k=0}^{n}P\left { X=k \right },P\left { Y=nk \right }[/latex]

[latex]=\sum_{k=0}^{n}e^{-\lambda {1}} \frac{\lambda {1}^{k}}{k!}e^{-\lambda {2}}\frac{\lambda {2}^{nk}}{(nk)!}[/latex]

unter Verwendung der Wahrscheinlichkeit unabhängiger Zufallsvariablen

[latex]=e^{-(\lambda {1}+λ {2})} \sum_{k=0}^{n} \frac{\lambda {1}^{k}\lambda {2}^{nk}}{k!(nk)!}[/latex]

[latex]=\frac{e^{-(\lambda {1}+λ {2})}}{n!}\sum_{k=0}^{n} \frac{n!}{k!(nk)!} \lambda {1}^{k}\lambda {2}^{nk}[/latex]

[latex]=\frac{e^{-(\lambda {1}+λ {2})}}{n!} (\lambda {1}+λ {2})^{n}[/latex]

so erhalten wir die Summe X + Y ist auch Poisson verteilt mit dem Mittelwert λ1 + λ2

Summen unabhängiger binomialer Zufallsvariablen

                Wenn wir zwei unabhängige binomiale Zufallsvariablen X und Y mit den Parametern (n, p) und (m, p) haben, dann ist ihre Summe X + Y auch eine binomiale Zufallsvariable oder ein mit dem Parameter (n + m, p) verteiltes Binomial.

Verwenden wir die Wahrscheinlichkeit der Summe mit der Definition des Binomials als

[latex]P\left { X+Y= k \right } =\sum_{i=0}^{n}P\left { X=i, Y=ki \right }[/latex]

[latex]=\sum_{i=0}^{n}P\left { X=i \right } P\left { Y=ki \right }[/latex]

[latex]=\sum_{i=0}^{n}\binom{n}{i}p^{i}q^{ni}\binom{m}{ki}p^{ki}q^{m -k+i}[/latex]

[latex]wo \ \ q=1-p \ \ und \ \ wo \ \ \binom{r}{j}=0 \ \ wenn \ \ j< 0[/latex]

[latex]\binom{m+n}{k}=\sum_{i=0}^{n}\binom{n}{i}\binom{m}{ki}[/latex]

was gibt

[latex]P\left { X+Y=k \right }=p^{k}q^{n+mk}\sum_{i=0}^{n}\binom{n}{i}\binom{ m}{ki}[/latex]

Die Summe X + Y wird also auch binomial mit dem Parameter (n + m, p) verteilt.

Fazit:

Das Konzept der gemeinsam verteilten Zufallsvariablen, das die Verteilung für mehr als eine Variable in der Situation vergleichend angibt, wird zusätzlich diskutiert. Das Grundkonzept der unabhängigen Zufallsvariablen mit Hilfe der gemeinsamen Verteilung und die Summe der unabhängigen Variablen mit einem Verteilungsbeispiel wird mit gegeben Wenn Sie weitere Informationen benötigen, lesen Sie die genannten Bücher durch. Für weitere Beiträge zur Mathematik bitte klicken Sie hier.

https://en.wikipedia.org

Ein erster Wahrscheinlichkeitskurs von Sheldon Ross

Schaums Umrisse von Wahrscheinlichkeit und Statistik

Eine Einführung in Wahrscheinlichkeit und Statistik von ROHATGI und SALEH

DR. MOHAMMED MAZHAR UL HAQUE

Ich bin Dr. Mohammed Mazhar Ul Haque, Assistenzprofessor für Mathematik. Mit 12 Jahren Erfahrung im Unterrichten. Mit umfassenden Kenntnissen in Reiner Mathematik, insbesondere in der Algebra. Mit der immensen Fähigkeit, Probleme zu entwerfen und zu lösen. In der Lage, Kandidaten zu motivieren, ihre Leistung zu verbessern. Ich liebe es, zu Lambdageeks beizutragen, um Mathematik sowohl für Anfänger als auch für Experten einfach, interessant und selbsterklärend zu machen. Verbinden wir uns über LinkedIn – https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Neueste Beiträge