Voorwaardelijke variantie en voorspellingen: 7 belangrijke feiten


In dit artikel zullen we de voorwaardelijke variantie en voorspellingen met behulp van voorwaardelijke verwachting voor de verschillende soorten willekeurige variabelen met enkele voorbeelden bespreken.

Inhoudsopgave

Voorwaardelijke variantie

De voorwaardelijke variantie van willekeurige variabele X gegeven Y wordt op dezelfde manier gedefinieerd als conditioneel Verwachting van willekeurige variabele X gegeven Y als

(X|Y)=E[(XE[X|Y])2|J]

[latex]Var(X|Y)=E[(XE[X|Y])^{2}|Y][/latex]

hier is variantie de voorwaardelijke verwachting van het verschil tussen de willekeurige variabele en het kwadraat van de voorwaardelijke verwachting van X gegeven Y wanneer de waarde van Y wordt gegeven.

De relatie tussen de voorwaardelijke variantie en voorwaardelijke verwachting is

(X|Y) = E[X2|Y] – (E[X|Y])2

E[(X|Y)] = E[E[X2|Y]] – E[(E[X|Y])2]

= E[X2] – E[(E[X\Y])2]

aangezien E[E[X|Y]] = E[X], hebben we

(E[X|Y]) = E[(E[X|Y])2] - (E [X])2

[latex]\operatorname{Var}(X \mid Y)=E\left[X^{2} \mid Y\right]-(E[X \mid Y])^{2}
\\\begin{aligned} E[\operatorname{Var}(X \mid Y)] &=E\left[E\left[X^{2} \mid Y\right]\right]-E\left[ (E[X \mid Y])^{2}\right] \\ &=E\left[X^{2}\right]-E\left[(E[X \mid Y])^{2} \rechts] \end{uitgelijnd}
\\sinds \; E[E[X \mid Y]]=E[X], \;wij\; hebben
\\\operatorname{Var}(E[X \mid Y])=E\left[(E[X \mid Y])^{2}\right]-(E[X])^{2}[/ latex]

dit is op de een of andere manier vergelijkbaar met de relatie van onvoorwaardelijke variantie en verwachting die was

X = E[X2] - (E [X])2

[latex]\operatorname{Var}(X)=E\left[X^{2}\right]-(E[X])^{2}[/latex]

en we kunnen de variantie vinden met behulp van voorwaardelijke variantie als

X = E[(X|Y] + (E[X|Y])

[latex]\operatornaam{Var}(X)=E[\operatornaam{Var}(X \mid Y)]+\operatornaam{Var}(E[X \mid Y])[/latex]

Voorbeeld van voorwaardelijke variantie

Vind het gemiddelde en de variantie van het aantal reizigers dat in de bus stapt als de mensen bij het busdepot aankomen is Poisson verdeeld met gemiddelde λt en de eerste bus die bij het busdepot arriveerde, is uniform verdeeld over het interval (0,T) onafhankelijk van mensen aangekomen of niet.

Oplossing:

Om het gemiddelde en de variantie te vinden voor elk tijdstip t, is Y de willekeurige variabele voor de tijd dat de bus aankomt en is N(t) het aantal aankomsten

E[N(Y)|Y = t] = E[N(t)|Y = t]

[latex]E[N(Y) \mid Y=t]=E[N(t) \mid Y=t]
\\=E[N(t)][/latex]

door de onafhankelijkheid van Y en N(t)

=λt

[latex]=\lambda t[/latex]

aangezien N(t) Poisson is met gemiddelde \lambda t
Vandaar

E[N(Y)|Y]=λY

[latex]E[N(Y) \mid Y]=\lambda Y[/latex]

dus verwachtingen aannemen geeft

E[N(Y)] = λE[Y] = λT / 2

[latex]E[N(Y)]=\lambda E[Y]=\frac{\lambda T}{2}[/latex]

Om Var(N(Y)) te verkrijgen, gebruiken we de voorwaardelijke variantieformule

[latex]\operatornaam{Var}(N(Y) \mid Y=t)=\operatornaam{Var}(N(t) \mid Y=t)
\\=\operatornaam{Var}(N(t)) \quadby \quad onafhankelijkheid \quad\quad
\\=\lambda t[/latex]

dus

(N(Y)|Y) = λY

E[N(Y)|Y] = λY

[latex]\begin{uitgelijnd}
\operatornaam{Var}(N(Y) \mid Y) &=\lambda Y \\
E[N(Y) \mid Y] &=\lambda Y
\end{uitgelijnd}[/latex]

Vandaar dat uit de voorwaardelijke variantieformule,

Var(N(Y)) = E[λJ]+(λY)

=λT/2 + λ2T2/ 12

[latex]\begin{uitgelijnd}
\operatornaam{Var}(N(Y)) &=E[\lambda Y]+\operatornaam{Var}(\lambda Y) \\
&=\lambda \frac{T}{2}+\lambda^{2} \frac{T^{2}}{12}
\end{uitgelijnd}[/latex]

waarbij we het feit hebben gebruikt dat Var(Y)=T2 / 12.

Variantie van een som van een willekeurig aantal willekeurige variabelen

beschouw de reeks van onafhankelijke en identieke verdeeld willekeurige variabelen X1,X2,X3,…………. en een andere willekeurige variabele N onafhankelijk van deze reeks, zullen we vinden variantie van som van deze reeks als

[latex]\operatornaam{Var}\left(\sum_{i=1}^{N} X_{i}\right)[/latex]

gebruik

[latex]\begin{uitgelijnd}
E\left[\sum_{i=1}^{N} X_{i} \mid N\right] &=NE[X] \\
\operatornaam{Var}\left(\sum_{i=1}^{N} X_{i} \mid N\right) &=N \operatornaam{Var}(X)\right]
\end{uitgelijnd}
[/latex]

wat duidelijk is met de definitie van variantie en voorwaardelijke variantie voor de individuele willekeurige variabele tot de som van de reeks willekeurige variabelen vandaar

[latex] \\
\operatornaam{Var}\left(\sum_{i=1}^{N} X_{i}\right)=E[N] \operatornaam{Var}(X)+(E[X])^{2} \operatornaam{Var}(N) [/latex]

Voorspelling

Bij voorspelling kan de waarde van een willekeurige variabele worden voorspeld op basis van observatie van een andere willekeurige variabele, voor voorspelling van willekeurige variabele Y als de waargenomen willekeurige variabele X is, gebruiken we g(X) als de functie die de voorspelde waarde vertelt, uiteraard kunnen we probeer g(X) gesloten voor Y te kiezen hiervoor is g het beste g(X)=E(Y|X) hiervoor moeten we de waarde van g minimaliseren door gebruik te maken van de ongelijkheid

[latex]\\
E\left[(Yg(X))^{2}\right] \geq E\left[(YE[Y \mid X])^{2}[/latex]

Deze ongelijkheid kunnen we krijgen als

[latex]\begin{uitgelijnd}
E\left[(Yg(X))^{2} \mid X\right]=& E\left[(YE[Y \mid X]+E[Y \mid X]-g(X))^{ 2} \mid X\rechts] \\
=& E\links[(YE[Y \mid X])^{2} \mid X\right] \\
&+E\left[(E[Y \mid X]-g(X))^{2} \mid X\right] \\
&+2 E[(YE[Y \mid X])(E[Y \mid X]-g(X)) \mid X]
\end{uitgelijnd}[/latex]

Echter, gegeven X, E[Y|X]-g(X), een functie van X, kan worden behandeld als een constante. Dus,

[latex]\
\begin{uitgelijnd}
E[&(YE[Y \mid X])(E[Y \mid X]-g(X)) \mid X] \\
&=(E[Y \mid X]-g(X)) E[YE[Y \mid X] \mid X] \\
&=(E[Y \mid X]-g(X))(E[Y \mid X]-E[Y \mid X]) \\
&=0
\end{uitgelijnd}[/latex]

wat de vereiste ongelijkheid geeft

[latex]\
E\left[(Yg(X))^{2}\right] \geq E\left[(YE[Y \mid X])^{2}[/latex]

a

Voorbeelden van voorspelling

1. Opgemerkt wordt dat de lengte van een persoon zes voet is, wat de voorspelling zou zijn van de lengte van zijn zoons nadat hij volwassen is als de lengte van de zoon die nu x inches is normaal verdeeld is met gemiddelde x+1 en variantie 4.

Oplossing: laat X de willekeurige variabele zijn die de lengte van de persoon aangeeft en Y de willekeurige variabele voor de lengte van de zoon, dan is de willekeurige variabele Y

[latex]
Y=X+e+1[/latex]

hier e vertegenwoordigen de normale willekeurige variabele onafhankelijk van willekeurige variabele X met gemiddelde nul en variantie vier.

dus de voorspelling voor de lengte van de zonen is

[latex]
E[Y \mid X=72]= E[X+1+e \mid X=72] \\
= 73+E[e \mid X=72]
\\=73+E(e) \quad door \quad onafhankelijkheid \\=73[/latex]

dus de hoogte van de zoon zal na de groei 73 inch zijn.

2. Beschouw een voorbeeld van het verzenden van signalen vanaf locatie A en locatie B, als vanaf locatie A een signaalwaarde s wordt verzonden die op locatie B wordt ontvangen door normale verdeling met gemiddelde s en variantie 1, terwijl als het signaal S verzonden naar A normaal verdeeld is met gemiddelde \mu en variantie \sigma^2, hoe kunnen we voorspellen dat de signaalwaarde R die vanaf locatie A wordt verzonden, r op locatie B is?

Oplossing: De signaalwaarden S en R geven hier de willekeurige variabelen aan die normaal zijn verdeeld, eerst vinden we de voorwaardelijke dichtheidsfunctie S gegeven R als

[latex]\
\begin{uitgelijnd}
f_{S \mid R}(s \mid r)&=\frac{f_{S, R}(s, r)}{f_{R}(r)} \\
&=\frac{f_{S}(s) f_{R \mid S}(r \mid s)}{f_{R}(r)} \\
&=K e^{-(s-\mu)^{2} / 2 \sigma^{2}} e^{-(rs)^{2} / 2}
\end{uitgelijnd}[/latex]

deze K is onafhankelijk van S, nu

[latex]\
\begin{uitgelijnd}
\frac{(s-\mu)^{2}}{2 \sigma^{2}}+\frac{(r-s)^{2}}{2}&=s^{2}\left(\frac{1}{2 \sigma^{2}}+\frac{1}{2}\right)-\left(\frac{\mu}{\sigma^{2}}+r\right) s+C_{1}\\
&=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left[s^{2}-2\left(\frac{\mu+r \sigma^{2}}{1+\sigma^{2}}\right) s\right]+C_{1} \\
&=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left(s-\frac{\left(\mu+r \sigma^{2}\right)}{1+\sigma^{2}}\right)^{2}+C_{2}
\end{uitgelijnd}[/latex]

hier ook C1 en C2 zijn onafhankelijk van S, dus de waarde van de voorwaardelijke dichtheidsfunctie is

[latex]\
f_S \mid R(s \mid r)=C e^{ \left\{\frac{-\left[s-\frac{\left(\mu+r \sigma^{2}\right)}{1 +\sigma^{2}}\right]^{2}}{2\left(\frac{\sigma^{2}}{1+\sigma^{2}}\right)}\right\}} }[/latex]

C is ook onafhankelijk van s, dus het signaal verzonden vanaf locatie A als R en ontvangen op locatie B als r is normaal met gemiddelde en variantie

[latex]
\begin{array}{l}E[S \mid R=r]=\frac{\mu+r \sigma^{2}}{1+\sigma^{2}} \\ \operatornaam{Var}( S \mid R=r)=\frac{\sigma^{2}}{1+\sigma^{2}}\end{array}
[/latex]

en de gemiddelde kwadratische fout voor deze situatie is

[latex]E[S \mid R=r]=\frac{1}{1+\sigma^{2}} \mu+\frac{\sigma^{2}}{1+\sigma^{2}} r
[/latex]

Lineaire voorspeller

Elke keer dat we de gezamenlijke kansdichtheidsfunctie niet kunnen vinden, is zelfs het gemiddelde, de variantie en de correlatie tussen twee willekeurige variabelen bekend, in een dergelijke situatie is de lineaire voorspeller van een willekeurige variabele ten opzichte van een andere willekeurige variabele zeer nuttig die het minimum kan voorspellen , dus voor de lineaire voorspeller van willekeurige variabele Y met betrekking tot willekeurige variabele X nemen we a en b om te minimaliseren

[latex]\begin{uitgelijnd}
E\left[(Y-(a+b X))^{2}\right]=& E\left[Y^{2}-2 a Y-2 b X Y+a^{2}+2 ab X+b^{2} X^{2}\right] \\
=& E\left[Y^{2}\right]-2 a E[Y]-2 b E[XY]+a^{2} +2 ab E[X]+b^{2} E\left [X^{2}\rechts]
\end{uitgelijnd}[/latex]

Differentieer nu gedeeltelijk met betrekking tot a en b, we krijgen

[latex]\begin{uitgelijnd}
\frac{\partial}{\partial a} E\left[(Yab X)^{2}\right]&=-2 E[Y]+2 a+2 b E[X] \\
\frac{\partial}{\partial b} E\left[(Yab X)^{2}\right]&=-2 E[XY]+2 a E[X]+2 b E\left[X^ {2}\rechts] \\
\end{uitgelijnd}[/latex]

het oplossen van deze twee vergelijkingen voor a nd b krijgen we

[latex]\begin{uitgelijnd}
b&=\frac{E[XY]-E[X] E[Y]}{E\left[X^{2}\right]-(E[X])^{2}}=\frac{\operatornaam {Cov}(X, Y)}{\sigma_{x}^{2}}=\rho \frac{\sigma_{y}}{\sigma_{x}} \\
a&=E[Y]-b E[X]=E[Y]-\frac{\rho \sigma_{y} E[X]}{\sigma_{x}}
\end{uitgelijnd}[/latex]

dus het minimaliseren van deze verwachting geeft de lineaire voorspeller als

[latex]\mu_{y}+\frac{\rho \sigma_{y}}{\sigma_{x}}\left(X-\mu_{x}\right)[/latex]

waarbij de gemiddelden de respectievelijke gemiddelden van willekeurige variabelen X en Y zijn, zal de fout voor de lineaire voorspeller worden verkregen met de verwachting van

[latex]\begin{array}{l}
E\left[\left(Y-\mu_{y}-\rho \frac{\sigma_{y}}{\sigma_{x}}\left(X-\mu_{x}\right)\right)^ {2}\rechts] \\
\quad=E\left[\left(Y-\mu_{y}\right)^{2}\right]+\rho^{2} \frac{\sigma_{y}^{2}}{\sigma_ {x}^{2}} E\left[\left(X-\mu_{x}\right)^{2}\right]-2 \rho \frac{\sigma_{y}}{\sigma_{x }} E\left[\left(Y-\mu_{y}\right)\left(X-\mu_{x}\right)\right] \\
\quad=\sigma_{y}^{2}+\rho^{2} \sigma_{y}^{2}-2 \rho^{2} \sigma_{y}^{2} \\
\quad=\sigma_{y}^{2}\left(1-\rho^{2}\right)
\end{array}[/latex]

voorwaardelijke variantie
voorwaardelijke variantie: fout in voorspelling

Deze fout zal dichter bij nul zijn als de correlatie perfect positief of perfect negatief is, dat wil zeggen dat de correlatiecoëfficiënt +1 of -1 is.

Conclusie

De voorwaardelijke variantie voor de discrete en continue willekeurige variabele met verschillende voorbeelden werden besproken, een van de belangrijke toepassingen van voorwaardelijke verwachting bij voorspelling wordt ook uitgelegd met geschikte voorbeelden en met de beste lineaire voorspeller, als u meer wilt lezen, ga dan door onderstaande links.

Voor meer bericht over wiskunde, verwijzen wij u naar onze Wiskunde pagina

Een eerste kanscursus door Sheldon Ross

Schaum's contouren van waarschijnlijkheid en statistiek

Een inleiding tot kansrekening en statistiek door ROHATGI en SALEH

dr. MOHAMMED MAZHAR UL HAQUE

Ik ben DR. Mohammed Mazhar Ul Haque, assistent-professor in de wiskunde. Met 12 jaar ervaring in het lesgeven. Grote kennis hebben in zuivere wiskunde, precies op algebra. Het enorme vermogen hebben om problemen te ontwerpen en op te lossen. Kan kandidaten motiveren om hun prestaties te verbeteren. Ik draag graag bij aan Lambdageeks om wiskunde eenvoudig, interessant en zelfverklarend te maken voor zowel beginners als experts. Laten we verbinding maken via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Recente Nieuws