Momenterzeugende Funktionen: 13 wichtige Fakten


Momenterzeugungsfunktion    

Die momenterzeugende Funktion ist eine sehr wichtige Funktion, die die Momente der Zufallsvariablen erzeugt, die Mittelwert, Standardabweichung und Varianz usw. beinhalten. Mit Hilfe der momenterzeugenden Funktion können wir also nur grundlegende Momente sowie höhere Momente finden werden momenterzeugende Funktionen für die verschiedenen diskreten und kontinuierlichen Zufallsvariablen sehen. da die Momenterzeugende Funktion (MGF) mit Hilfe des mathematischen Erwartungswerts definiert ist, der mit M(t) bezeichnet wird als

[latex][/latex]

[latex]M(t)=E\left[e^{t X}\right][/latex]

und mit der Definition von Erwartung für die diskrete und kontinuierliche Zufallsvariable Diese Funktion wird sein

[latex]M(t)=\left\{\begin{array}{ll}
\sum_{x} e^{tx} p(x) & \text { wenn } X \text { ist diskret mit Massenfunktion } p(x) \\
\int_{-\infty}^{\infty} e^{ix} f(x) dx & \text { if } X \text { is stetig mit Dichte } f(x)
\end{array}\right.
[/Latex]

was durch Einsetzen des Wertes von t durch Null entsprechende Momente erzeugt. Diese Momente müssen wir sammeln, indem wir diese momenterzeugende Funktion zum Beispiel für den ersten Moment differenzieren oder meinen, wir können durch einmaliges Differenzieren erhalten als

[latex]\begin{ausgerichtet}
M^{\prime}(t) &=\frac{d}{dt} E\left[e^{t X}\right] \\
&=E\left[\frac{d}{dt}\left(e^{LX}\right)\right] \\
&=E\left[X e^{t X}\right]
\end{aligned}[/latex]

Dies gibt den Hinweis, dass die Differentiation unter dem Erwartungswert austauschbar ist, und wir können sie schreiben als

[latex]\frac{d}{dt}\left[\sum_{x} e^{ix} p(x)\right]=\sum_{x} \frac{d}{dt}\left[e^ {\operatorname{tr}} p(x)\right][/latex]

und

[latex]\frac{d}{dt}\left[\int e^{ix} f(x) dx\right]=\int \frac{d}{dt}\left[e^{tx} f( x)\right] dx[/latex]

wenn t=0 sind die obigen Momente

[latex]M^{\prime}(0)=E[X][/latex]

und

[latex]\begin{ausgerichtet}
M^{\prime \prime}(t) &=\frac{d}{dt} M^{\prime}(t) \\
&=\frac{d}{dt} E\left[X e^{t X}\right] \\
&=E\left[\frac{d}{dt}\left(X e^{t X}\right)\right] \\
&=E\left[X^{2} e^{LX}\right]\\
M^{\prime \prime}(0)&=E\left[X^{2}\right]
\end{aligned}[/latex]

Im Allgemeinen können wir das sagen

[latex]M^{n}(t)=E\left[X^{n} e^{t X}\right] \quad n \geq 1[/latex]

daher

[latex]M^{n}(0)=E\left[X^{n}\right] \quad n \geq 1[/latex]

Momenterzeugungsfunktion der Binomialverteilung||Binomialverteilung Momenterzeugungsfunktion||MGF der Binomialverteilung||Mittelwert und Varianz der Binomialverteilung unter Verwendung der Momenterzeugungsfunktion

Die Moment erzeugende Funktion für die Zufallsvariable X, die Binomialverteilung ist, folgt der Wahrscheinlichkeitsfunktion der Binomialverteilung mit den Parametern n und p as

[latex]\begin{ausgerichtet}
M(t) &=E\left[e^{t X}\right] \\
&=\sum_{k=0}^{n} e^{tk}\left(\begin{array}{l}
n \\
k
\end{array}\right) p^{k}(1-p)^{nk} \\
&=\sum_{k=0}^{n}\left(\begin{array}{l}
n \\
k
\end{array}\right)\left(pe^{t}\right)^{k}(1-p)^{nk} \\
&=\left(pe^{t}+1-p\right)^{n}
\end{aligned}[/latex]

was das Ergebnis des Binomialsatzes ist, nun differenzieren und setzen den Wert von t=0

[Latex]M^{\prime}(t)=n\left(pe^{t}+1-p\right)^{n-1} pe^{t}\\
E[X]=M^{\prime}(0)=np[/latex]

was der Mittelwert oder das erste Moment der Binomialverteilung ist, ähnlich ist das zweite Moment

[Latex]M^{\prime}(t)=n(n-1)\left(pe^{t}+1-p\right)^{n-2}\left(pe^{t}\right )^{2}+n\links(pe^{t}+1-p\rechts)^{n-1}pe^{t}\\
E\left[X^{2}\right]=M^{\prime \prime}(0)=n(n-1) p^{2}+np[/latex]

die Varianz der Binomialverteilung ist also

[latex]\begin{ausgerichtet}
\operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\
&=n(n-1) p^{2}+n pn^{2} p^{2} \\
&=np(1-p)
\end{aligned}[/latex]

Dies ist der Standardmittelwert und die Varianz der Binomialverteilung, ähnlich wie die höheren Momente, die wir auch mit dieser momenterzeugenden Funktion finden können.

Momenterzeugende Funktion von Fisch Verteilung||Fisch Verteilungsmoment-Erzeugungsfunktion||MGF von Fisch Verteilung||Mittelwert und Varianz der Poisson-Verteilung unter Verwendung der momenterzeugenden Funktion

 Wenn wir die Zufallsvariable X haben, die Poisson-verteilt mit dem Parameter Lambda ist, dann ist die momenterzeugende Funktion für diese Verteilung

[latex]\begin{ausgerichtet}
M(t) &=E\left[e^{\ell X}\right] \\
&=\sum_{n=0}^{\infty} \frac{e^{in} e^{-\lambda} \lambda^{n}}{n !} \\
&=e^{-\lambda} \sum_{n=0}^{\infty} \frac{\left(\lambda e^{t}\right)^{n}}{n !}\\
&=e^{-\lambda} e\\
&=e^ {\left\{\lambda\left(e^{t}-1\right)\right\}}
\end{aligned}[/latex]

jetzt differenzieren wird das geben

[latex]\begin{ausgerichtet}
M^{\prime}(t) &=\lambda e^{t} e^{\left\{\lambda\left(e^{t}-1\right)\right\} }\\
M^{\prime \prime}(t) &=\left(\lambda e^{t}\right)^{2} e^{\left\{\lambda\left(e^{t}-1\) rechts)\right\}}+\lambda e^{t} e^{ \left\{\lambda\left(e^{t}-1\right)\right\}}
\end{aligned}[/latex]

das gibt

[latex]\begin{ausgerichtet}
E[X] &=M^{\prime}(0)=\lambda \\
E\left[X^{2}\right] &=M^{\prime \prime}(0)=\lambda^{2}+\lambda \\
\operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\
&=\lambda
\end{aligned}[/latex]

was den Mittelwert und die Varianz für die Poisson-Verteilung gleich ergibt, was wahr ist

Momentenerzeugende Funktion der Exponentialverteilung||Exponentiell Verteilungsmoment-Erzeugungsfunktion||MGF von Exponentiell Verteilung||Mittelwert und Varianz von Exponentiell Verteilung mit momenterzeugender Funktion

                Die Moment erzeugende Funktion für die exponentielle Zufallsvariable X nach der Definition lautet

[latex]\begin{ausgerichtet}
M(t) &=E\left[e^{t X}\right] \\
&=\int_{0}^{\infty} e^{\lfloor x} \lambda e^{-\lambda x} dx \\
&=\lambda \int_{0}^{\infty} e^{-(\lambda-t) x} dx \\
&=\frac{\lambda}{\lambda-t} \quad \text { für } t<\lambda
\end{aligned}[/latex]

hier ist der Wert von t kleiner als der Parameter Lambda, jetzt wird dies differenziert

[Latex]M^{\prime}(t)=\frac{\lambda}{(\lambda-t)^{2}} \quad M^{\prime \prime}(t)=\frac{2 \ lambda}{(\lambda-t)^{3}}[/latex]

der die momente liefert

[latex]E[X]=M^{\prime}(0)=\frac{1}{\lambda} \quad E\left[X^{2}\right]=M^{\prime \prime} (0)=\frac{2}{\lambda^{2}}[/latex]

[latex]\begin{ausgerichtet}
\operatorname{Var}(X) &=E\left[X^{2}\right]-(E[X])^{2} \\
&=\frac{1}{\lambda^{2}}
\end{aligned}[/latex]

Welches sind der Mittelwert und die Varianz der Exponentialverteilung.

Momentenerzeugende Funktion der Normalverteilung||Normal Verteilungsmoment-Erzeugungsfunktion||MGF von Normal Verteilung||Mittelwert und Varianz von Normal Verteilung mit momenterzeugender Funktion

  Die momenterzeugende Funktion für die kontinuierlichen Verteilungen ist auch dieselbe wie die diskrete, so dass die momenterzeugende Funktion für die Normalverteilung mit der Standardwahrscheinlichkeitsdichtefunktion

[latex]\begin{ausgerichtet}
M_{Z}(t) &=E\left[e^{t Z}\right] \\
&=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{tx} e^{-x^{2} / 2} dx
\end{aligned}[/latex]

diese Integration können wir durch Anpassung lösen als

[latex]\begin{array}{l}
=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ \left\{-\frac{\left(x^{2}-2 tx\ rechts)}{2}\rechts\} }dx \\
=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ \left\{-\frac{(xt)^{2}}{2}+ \frac{t^{2}}{2}\right\}} dx \\
=e^{t^{2} / 2} \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{-(xt)^{2} / 2} dx \\
=e^{t^{2} / 2}
\end{array}[/latex]

da der Integrationswert 1 ist. Somit ist die momenterzeugende Funktion für die Standardnormalvariate

[latex]M_{Z}(t)=e^{t^{2} / 2}[/latex]

daraus können wir für jede allgemeine normale Zufallsvariable die momenterzeugende Funktion finden, indem wir die Beziehung

[latex]X=\mu+\sigma Z[/latex]

so

[latex]\begin{ausgerichtet}
M_{X}(t) &=E\left[e^{t X}\right] \\
&=E\left[e^{t(\mu+\sigma Z)}\right] \\
&=E\left[e^{t\mu} e^{b\sigma Z}\right] \\
&=e^{t \mu} E\left[e^{k \sigma Z}\right] \\
&=e^{t \mu} M_{Z}(t \sigma) \\
&=e^{t \mu} e^{(t \sigma)^{2} / 2} \\
&=e^{\left\{\frac{\sigma^{2} t^{2}}{2}+\mu t\right\}}
\end{aligned}[/latex]

also differenzierung gibt uns

[latex]\begin{array}{l}
M_{X}^{\prime}(t)=\left(\mu+t \sigma^{2}\right) \exp \left\{\frac{\sigma^{2} t^{2}} {2}+\mu t\right\} \\
M_{X}^{\prime \prime}(t)=\left(\mu+t \sigma^{2}\right)^{2} \exp \left\{\frac{\sigma^{2} t^{2}}{2}+\mu t\right\}+\sigma^{2} \exp \left\{\frac{\sigma^{2} t^{2}}{2}+\ mu t\richtig\}
\end{array}[/latex]

so

[latex]\begin{ausgerichtet}
E[X] &=M^{\prime}(0)=\mu \\
E\left[X^{2}\right] &=M^{\prime \prime}(0)=\mu^{2}+\sigma^{2}
\end{aligned}[/latex]

die Varianz wird also sein

[latex]\begin{ausgerichtet}
\operatorname{Var}(X) &=E\left[X^{2}\right]-E([X])^{2} \\
&=\sigma^{2}
\end{aligned}[/latex]

Momenterzeugende Funktion der Summe von Zufallsvariablen

Das Momenterzeugungsfunktion der Summe der Zufallsvariablen gibt eine wichtige Eigenschaft, dass sie gleich dem Produkt der momenterzeugenden Funktion der jeweiligen unabhängigen Zufallsvariablen ist, dh für unabhängige Zufallsvariablen X und Y dann ist die momenterzeugende Funktion für die Summe der Zufallsvariablen X+YY

Momenterzeugungsfunktion
MGF VON SUM

hier sind momenterzeugende Funktionen jedes X und Y durch die unabhängig Eigenschaft der mathematischen Erwartung. In der Folge finden wir die Summe momenterzeugender Funktionen verschiedener Verteilungen.

Summe binomialer Zufallsvariablen

Wenn die Zufallsvariablen X und Y durch Binomialverteilung mit den Parametern (n,p) bzw. (m,p) verteilt werden, dann ist die momenterzeugende Funktion ihrer Summe X+Y

[latex]\begin{ausgerichtet}
M_{X+Y}(t)=M_{X}(t) M_{Y}(t) &=\left(pe^{t}+1-p\right)^{n}\left(pe^ {t}+1-p\right)^{m} \\
&=\left(pe^{t}+1-p\right)^{m+n}
\end{aligned}[/latex]

wobei die Parameter für die Summe (n+m,p) sind.

Summe der Poisson-Zufallsvariablen

Die Verteilung für die Summe der unabhängigen Zufallsvariablen X und Y mit jeweiligen Mittelwerten, die durch die Poisson-Verteilung verteilt sind, finden wir als

[latex]\begin{ausgerichtet}
M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\
&=\exp \left\{\lambda_{1}\left(e^{t}-1\right)\right\} \exp \left\{\lambda_{2}\left(e^{t}- 1\richtig)\richtig\} \\
&=\exp \left\{\left(\lambda_{1}+\lambda_{2}\right)\left(e^{t}-1\right)\right\}
\end{aligned}[/latex]

Wo

[latex]\lambda_{1}+\lambda_{2}[/latex]

ist der Mittelwert der Poisson-Zufallsvariablen X+Y.

Summe normaler Zufallsvariablen

     Betrachten Sie das Unabhängige normale Zufallsvariablen X und Y mit den Parametern

[latex]left(\mu_{1}, \sigma_{1}^{2}\right) \ und \ \left(\mu_{2}, \sigma_{2}^{2}\right)[/latex ]

dann für die Summe der Zufallsvariablen X+Y mit Parametern

[latex]\mu_{1}+\mu_{2} \ und \ \sigma_{1}^{2}+\sigma_{2}^{2}[/latex]

die momenterzeugende Funktion ist also

[latex]\begin{ausgerichtet}
M_{X+Y}(t) &=M_{X}(t) M_{Y}(t) \\
&=e^{\left\{\frac{\sigma_{1}^{2} t^{2}}{2}+\mu_{1} t\right\} \exp \left\{\frac{ \sigma_{2}^{2} t^{2}}{2}+\mu_{2} t\right\}} \\
&=e^{\left\{\frac{\left(\sigma_{1}^{2}+\sigma_{2}^{2}\right) t^{2}}{2}+\left(\mu_{1}+\mu_{2}\right) t\right\}}
\end{aligned}[/latex]

das ist eine momenterzeugende Funktion mit additivem Mittelwert und Varianz.

Summe der Zufallszahl von Zufallsvariablen

Um die momenterzeugende Funktion der Summe der Zufallszahlen von Zufallsvariablen zu finden, nehmen wir an, dass die Zufallsvariable

[latex]Y=\sum_{i=1}^{N} X_{i[/latex]

wo die Zufallsvariablen X.1,X2, … sind Folge von Zufallsvariablen beliebiger Art, die unabhängig und gleich verteilt sind, dann ist die momenterzeugende Funktion

[latex]\begin{ausgerichtet}
E\left[\exp \left\{t \sum_{1}^{N} X_{i}\right\} \mid N=n\right] &=E\left[\exp \left\{t \ sum_{1}^{n} X_{i}\right\} \mid N=n\right] \\
&=E\left[\exp \left\{t \sum_{1}^{n} X_{i}\right\}\right] \\
&=\left[M_{X}(t)\right]^{n}
\end{aligned}[/latex]

[latex]\text{wobei }MX(t)=E\left[e^{t X_{i}}\right]\\ \text{So } E\left[e^{t Y} \mid N\ rechts]=\left(M_{X}(t)\right)^{N}\\ M_{Y}(t)=E\left[\left(M_{X}(t)\right)^{N }\right][/latex]

Daraus ergibt sich die momenterzeugende Funktion von Y bei Differentiation als

[latex]M_{Y}^{\prime}(t)=E\left[N\left(M_{X}(t)\right)^{N-1} M_{X}^{\prime}( t)\right][/latex]

daher

[latex]\begin{ausgerichtet}
E[Y] &=M_{Y}^{\prime}(0) \\
&=E\left[N\left(M_{X}(0)\right)^{N-1} M_{X}^{\prime}(0)\right] \\
&=E[NEX] \\
&=E[N]E[X]
\end{aligned}[/latex]

in ähnlicher Weise ergibt die Differenzierung zweimal

[latex]M_{Y}^{\prime \prime}(t)=E\left[N(N-1)\left(M_{X}(t)\right)^{N-2}\left( M_{X}^{\prime}(t)\right)^{2}+N\left(M_{X}(t)\right)^{N-1} M_{X}^{\prime \prime }(t)\right][/latex]

die geben

[latex]\begin{ausgerichtet}
E\left[Y^{2}\right] &=M_{Y}^{\prime \prime}(0) \\
&=E\left[N(N-1)(E[X])^{2}+NE\left[X^{2}\right]\right] \\
&=(E[X])^{2}\left(E\left[N^{2}\right]-E[N]\right)+E[N] E\left[X^{2}\ Rechts] \\
&=E[N]\left(E\left[X^{2}\right]-(E[X])^{2}\right)+(E[X])^{2} E\left[ N^{2}\right] \\
&=E[N] \operatorname{Var}(X)+(E[X])^{2} E\left[N^{2}\right]
\end{aligned}[/latex]

somit wird die Varianz sein

[latex]\begin{ausgerichtet}
\operatorname{Var}(Y) &=E[N] \operatorname{Var}(X)+(E[X])^{2}\left(E\left[N^{2}\right]-( E[N])^{2}\right) \\
&=E[N] \operatorname{Var}(X)+(E[X])^{2} \operatorname{Var}(N)
\end{aligned}[/latex]

Beispiel für eine Chi-Quadrat-Zufallsvariable

Berechnen Sie die momenterzeugende Funktion der Chi-Quadrat-Zufallsvariablen mit n-Freiheitsgrad.

Lösung: Betrachten Sie die Chi-Quadrat-Zufallsvariable mit dem n-Freiheitsgrad für

[latex]Z_{1}^{2}+\cdots+Z_{n}^{2}[/latex]

die Folge von Standardnormalvariablen, dann ist die momenterzeugende Funktion

[latex]M(t)=\left(E\left[e^{t Z^{2}}\right]\right)^{n}[/latex]

also gibt es

[latex]\begin{ausgerichtet}
E\left[e^{t Z^{2}}\right] &=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{tx^ {2}} e^{-x^{2} / 2} dx \\
&=\frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{-x^{2} / 2 \sigma^{2}} dx \quad \ text { wobei } \sigma^{2}=(1-2 t)^{-1} \\
&=\sigma \\
&=(1-2 t)^{-1 / 2}
\end{aligned}[/latex]

die Normaldichte mit Mittelwert 0 und Varianz σ2 integriert zu 1

[latex]M(t)=(1-2 t)^{-n / 2}[/latex]

das ist die erforderliche momenterzeugende Funktion von n Freiheitsgraden.

Beispiel für eine einheitliche Zufallsvariable

Finden Sie die momenterzeugende Funktion der Zufallsvariablen X, die binomialverteilt ist, wobei die Parameter n und p gegeben sind bedingt Zufallsvariable Y=p im Intervall (0,1)

Lösung: Um die momenterzeugende Funktion der Zufallsvariablen X bei gegebenem Y . zu finden

[latex]E\left[e^{XX} \mid Y=p\right]=\left(pe^{t}+1-p\right)^{n}[/latex]

Unter Verwendung der Binomialverteilung ist sin Y die gleichmäßige Zufallsvariable auf dem Intervall (0,1)

[Latex]
\begin{array}{l}
E\left[e^{t X}\right]=\int_{0}^{1}\left(pe^{t}+1-p\right)^{n} dp
\\=\frac{1}{e^{t}-1} \int_{1}^{e^{t}} y^{n} dy\\
=\frac{1}{n+1} \frac{e^{t(n+1)}-1}{e^{t}-1} \\
=\frac{1}{n+1}\left(1+e^{t}+e^{2 t}+\cdots+e^{nt}\right)
\end{array}
\\\text{durch Ersetzen von }\left.y=pe^{t}+1-p\right)
[/Latex]

Gemeinsame momenterzeugende Funktion

Die gemeinsame momenterzeugende Funktion für die Anzahl n Zufallsvariablen X1,X2,…,Xn

[latex]M\left(t_{1}, \ldots, t_{n}\right)=E\left[e^{t_{1} X_{1}+\cdots+t_{n} X_{n} }\right][/latex]

wo t1,t2,……Tn sind die reellen Zahlen, aus der gemeinsamen momenterzeugenden Funktion können wir die individuelle momenterzeugende Funktion finden als

[latex]M_{X_{i}}(t)=E\left[e^{t X_{i}}\right]=M(0, \ldots, 0, t, 0, \ldots, 0)[ /Latex]

Satz: Die Zufallsvariablen X1,X2,…,Xn sind genau dann unabhängig, wenn die gemeinsame Elementerzeugungsfunktion

[latex]M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{ n}\right)[/latex]

Beweis: Nehmen wir an, die gegebenen Zufallsvariablen X1,X2,…,Xn sind dann unabhängig

[latex]\begin{ausgerichtet}
M\left(t_{1}, \ldots, t_{n}\right) &=E\left[e^{\left(t_{1} X_{1}+\cdots+t_{n} X_{n). }\richtig richtig] \\
&=E\left[e^{t_{1} X_{1}} \ldots e^{t_{n} X_{n}}\right] \\
&=E\left[e^{t_{1} X_{1}}\right] \cdots E\left[e^{t_{n} X_{n}}\right] \quad \text { durch Unabhängigkeit } \\
&=M_{X_{1}}\left(t_{1}\right) \cdots M_{X_{n}}\left(t_{n}\right)
\end{aligned}[/latex]

Angenommen, die gemeinsame momenterzeugende Funktion erfüllt die Gleichung

[latex]M\left(t_{1}, \ldots, t_{n}\right)=M X_{1}\left(t_{1}\right) \cdots M X_{n}\left(t_{ n}\right)[/latex]

  • um die Zufallsvariablen X . zu beweisen1,X2,…,Xn unabhängig sind, haben wir das Ergebnis, dass die gemeinsame momenterzeugende Funktion eindeutig die gemeinsame Verteilung angibt (dies ist ein weiteres wichtiges Ergebnis, das einen Beweis erfordert).

Beispiel für eine Funktion zur Generierung des Gelenkmoments

1.Berechnen Sie die gemeinsame momenterzeugende Funktion der Zufallsvariablen X+Y und XY

Lösung : Da die Summe der Zufallsvariablen X+Y und die Subtraktion der Zufallsvariablen XY unabhängig von den unabhängigen Zufallsvariablen X und Y sind, ist die gemeinsame momenterzeugende Funktion für diese

[latex]\begin{ausgerichtet}
E\left[e^{n(X+Y)+s(XY)}\right] &=E\left[e^{(t+s) X+(ts) Y}\right] \\
&=E\left[e^{(t+s) X}\right] E\left[e^{(ts) Y}\right] \\
&=e^{\mu(t+s)+\sigma^{2}(t+s)^{2} / 2} e^{\mu(ts)+\sigma^{2}(ts)^ {2} / 2} \\
&=e^{2 \mu t+\sigma^{2} t^{2}} e^{\sigma^{2} s^{2}}
\end{aligned}[/latex]

Da diese momenterzeugende Funktion die gemeinsame Verteilung bestimmt, können wir daraus X+Y und XY als unabhängige Zufallsvariablen erhalten.

2. Betrachten Sie für das Experiment die Anzahl der gezählten und nicht gezählten Ereignisse, die durch die Poisson-Verteilung mit der Wahrscheinlichkeit p und des Mittelwerts verteilt sind, und zeigen Sie, dass die Anzahl der gezählten und nicht gezählten Ereignisse unabhängig von den jeweiligen Mittelwerten λp und λ(1-p) sind.

Lösung: Wir betrachten X als die Anzahl der Ereignisse und Xc die Anzahl der gezählten Ereignisse, sodass die Anzahl der nicht gezählten Ereignisse XX beträgtc, die gemeinsame momenterzeugungsfunktion erzeugt moment will

[latex]\begin{ausgerichtet}
E\left[e^{\kappa X_{\varepsilon}+t\left(X-X_{c}\right)} \mid X=n\right] &=e^{\ln } E\left[e ^{(st) X_{c}} \mid X=n\right] \\
&=e^{in}\left(pe^{st}+1-p\right)^{n} \\
&=\left(pe^{s}+(1-p) e^{t}\right)^{n}
\end{aligned}[/latex]

und durch die momenterzeugende Funktion der Binomialverteilung

[latex]E\left[e^{s X_{\varepsilon}+t\left(X-X_{\varepsilon}\right)} \mid X\right]=\left(pe^{s}+(1 -p) e^{t}\right)^{X}[/latex]

und die Erwartung von diesen zu nehmen, wird geben

[latex]E\left[e^{\sum X_{c}+t\left(X-X_{c}\right)}\right]=E\left[\left(pe^{s}+(1 -p) e^{t}\right)^{X}\right]\\
\begin{ausgerichtet}
E\left[e^{s X_{c}+t\left(X-X_{c}\right)}\right] &=e^{\lambda\left(pe^{\prime}+(1- p) e^{t}-1\right)} \\
&=e^{\lambda p\left(e^{c-1}\right)} e^{\lambda(1-p)\left(e^{t}-1\right)}
\end{aligned}[/latex]

Fazit:

Unter Verwendung der Standarddefinition der momenterzeugenden Funktion wurden die Momente für die verschiedenen Verteilungen wie Binomial, Poisson, Normal usw. diskutiert und die Summe dieser Zufallsvariablen entweder die diskrete oder kontinuierliche die momenterzeugende Funktion für diese und die gemeinsame momenterzeugende Funktion erhalten mit geeignete Beispiele , wenn Sie weiterlesen möchten, gehen Sie durch die untenstehenden Bücher.

Weitere Artikel zum Thema Mathematik finden Sie in unserem Seite Mathematik.

Ein erster Wahrscheinlichkeitskurs von Sheldon Ross

Schaums Umrisse von Wahrscheinlichkeit und Statistik

Eine Einführung in Wahrscheinlichkeit und Statistik von ROHATGI und SALEH

DR. MOHAMMED MAZHAR UL HAQUE

Ich bin Dr. Mohammed Mazhar Ul Haque, Assistenzprofessor für Mathematik. Mit 12 Jahren Erfahrung im Unterrichten. Mit umfassenden Kenntnissen in Reiner Mathematik, insbesondere in der Algebra. Mit der immensen Fähigkeit, Probleme zu entwerfen und zu lösen. In der Lage, Kandidaten zu motivieren, ihre Leistung zu verbessern. Ich liebe es, zu Lambdageeks beizutragen, um Mathematik sowohl für Anfänger als auch für Experten einfach, interessant und selbsterklärend zu machen. Verbinden wir uns über LinkedIn – https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Neueste Beiträge