Covariantie, variantie van bedragen: 7 belangrijke feiten


COVARIANTIE, VARIANTIE VAN SOMMEN EN CORRELATIES VAN WILLEKEURIGE VARIABELEN

  De statistische parameters van de willekeurige variabelen van verschillende aard met behulp van de definitie van de verwachting van een willekeurige variabele zijn gemakkelijk te verkrijgen en te begrijpen, in het volgende zullen we enkele parameters vinden met behulp van de wiskundige verwachting van een willekeurige variabele.

Momenten van het aantal gebeurtenissen dat zich voordoet

    Tot nu toe weten we dat de verwachting van verschillende machten van willekeurige variabelen de momenten van willekeurige variabelen zijn en hoe we de verwachting van willekeurige variabelen van de gebeurtenissen kunnen vinden als het aantal gebeurtenissen al heeft plaatsgevonden, nu zijn we geïnteresseerd in de verwachting als een paar aantal gebeurtenissen al heeft plaatsgevonden, nu als X staat voor het aantal gebeurtenissen dat is opgetreden, dan voor de gebeurtenissen A1, A2, ….,EENn definieer de indicatorvariabele Ii as

de verwachting van X in discrete zin zal zijn

omdat de willekeurige variabele X is

nu om de verwachting te vinden als het aantal paar gebeurtenissen al heeft plaatsgevonden, moeten we gebruiken combinatie van as

dit geeft verwachting als

[latex]E\left [ \frac{X(X-1)}{2} \right ] = \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]E[X^{2}] -E[X] =2 \sum_{i< j}^{} P(A_{i}A_{j})[/latex]

hieruit krijgen we de verwachting van x kwadraat en de waarde van variantie ook door

[latex]Var(X)=E[X^{2}] -(E[X])^{2}[/latex]

Door deze discussie te gebruiken, richten we ons op verschillende soorten willekeurige variabelen om dergelijke momenten te vinden.

Momenten van binominale willekeurige variabelen

   Als p de kans op succes is van n onafhankelijke proeven, dan geven we A . aani voor de proef i als succes dus

[latex]When \ \ i\neq j, P(A_{i}A_{j})=p^{2}[/latex]

[latex]E\left [ \binom{X}{2} \right ]= \sum_{i< j}^{} p^{2} = \binom{n}{2}p^{2}[/ latex]

[latex]E[X(X-1)] =n(n-1)p^{2}[/latex]

[latex]E[X^{2}] -E[X] =n(n-1)p^{2}[/latex]

en vandaar de variantie van binominale willekeurige variabele zal zijn

[latex]Var(X)=E[X^{2}] -(E[X])^{2}=n(n-1)p^{2} +np – (np)^{2}= np(1-p)[/latex]

omdat

[latex]E[X] =\sum_{i=1}^{n} P(A_{i}) =np[/latex]

als we generaliseren voor k gebeurtenissen

[latex]P(A_{i_{1}}A_{i_{2}} \cdot \cdot \cdot A_{i_{k}})=p^{k}[/latex]

[latex]E[X(X-1) \cdot \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot\cdot\cdot (n-k+1)p^{ k}[/latex]

deze verwachting kunnen we achtereenvolgens verkrijgen voor de waarde van k groter dan 3 laten we zoeken voor 3

[latex]E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}[/latex]

[latex]E[X^{3}] =3E[X^{2}] -2E[X] + n(n-1)(n-2)p^{3}[/latex]

[latex]=3n(n-1)p^{2} +np + n(n-1)(n-2)p^{3}[/latex]

met behulp van deze iteratie kunnen we krijgen

[latex]E[X^{k}], k\geq 3,[/latex]

Momenten van hypergeometrische willekeurige variabelen

  De momenten van deze willekeurige variabele zullen we aan de hand van een voorbeeld begrijpen, veronderstel dat n pennen willekeurig worden geselecteerd uit een doos met N pennen waarvan m blauw zijn, laat Ai geef de gebeurtenissen aan dat i-de pen blauw is. Nu is X het aantal geselecteerde blauwe pen gelijk aan het aantal gebeurtenissen A1,A2,…..,EENn die optreden omdat de geselecteerde pen even waarschijnlijk is als een van de N pennen waarvan m blauw is

[latex]P(A_{i}) =\frac{m}{N} \ \ , E[X]=\sum_{i=1}^{n}P(A_{i})[/latex]

en dus

[latex]P(A_{i}A_{j}) = P(A_{i}) P(A_{j}/A_{i}) =\frac{m}{N} \frac{m-1} {N-1}[/latex]

[latex]E\left [ \binom{X}{2} \right ] =\sum_{i< j}^{}\frac{m(m-1)}{n(n-1)} =\binom {n}{2}\frac{m(m-1)}{n(n-1)}[/latex]

[latex]X[X(X-1)] =n(n-1)\frac{m(m-1)}{N(N-1)}[/latex]

dit geeft

[latex]E[X^{2}] =n(n-1)\frac{m(m-1)}{N(N-1)} + E[X][/latex]

dus de variantie van de hypergeometrische willekeurige variabele zal zijn

[latex]Var(X)=E[X^{2}]-(E[X])^{2}[/latex]

[latex]= n(n-1)\frac{m(m-1)}{N(N-1)} +\frac{nm}{N} -\frac{n^{2}m^{2 }}{N^{2}}[/latex]

[latex]=\frac{nm}{N} \left [ \frac{(n-1)(m-1)}{N-1} +1 + -\frac{mn}{N} \right ][ /latex]

op dezelfde manier voor de hogere momenten

[latex]P(A_{i_{1}} A_{i_{2}} \cdot \cdot \cdot \cdot A_{i_{k}}) =\frac{m(m-1)\cdot \cdot \ cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

[latex]E\left [ \binom{X}{k} \right ] = \binom{n}{k} \frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1 )}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

Vandaar

[latex]E[X(X-1) \cdot \cdot \cdot (X-k+1) ] =n(n-1) \cdot \cdot \cdot \cdot (n-k+1) \frac{ m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}[/latex]

Momenten van de negatieve hypergeometrische willekeurige variabelen

  neem het voorbeeld van een pakket met n+m vaccins waarvan n speciaal en m gewoon zijn, deze vaccins worden één voor één verwijderd, waarbij elke nieuwe verwijdering even waarschijnlijk een van de vaccins is die in de verpakking achterblijven. Laat nu willekeurige variabele Y het aantal vaccins aangeven dat moet worden teruggetrokken totdat een totaal van r speciale vaccins is verwijderd, wat een negatieve hypergeometrische verdeling is, dit is op de een of andere manier vergelijkbaar met negatief binomiaal tot binomiaal als met hypergeometrische verdeling. om de te vinden waarschijnlijkheid massafunctie als de kde trekking het speciale vaccin geeft nadat k-1 trekking r-1 speciaal en kr gewone vaccin geeft

[latex]P(X=k)=\frac{\binom{n}{r-1}\binom{m}{kr}}{\binom{n+m}{k-1}} \frac{n -r+1}{n+m-k+1}[/latex]

nu de willekeurige variabele Y

Y=r+X

voor de evenementen Ai

[latex]E[Y]=r+E[X] =r + \sum_{i=1}^{m} P(A_{i})[/latex]

[latex]E[Y]=r+ m\frac{r}{n+1}=\frac{r(n+m+1)}{n+1}[/latex]

as

[latex]P(A_{i})=\frac{r}{n+1}[/latex]

dus om de variantie van Y te vinden, moeten we de variantie van X kennen so

[latex]E(X(X-1))=2\sum_{i< j}^{} P(A_{i}A_{j})[/latex]

[latex]\sum_{i< j}^{} P(A_{i}A_{j}) = \frac{\binom{2}{2}\binom{n}{r-1}}{\binom {n+2}{r+1}} =\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}[/latex]

[latex]E[X^{2}] = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} + E[X][/latex]

[latex]Var(Y)=Var(X) = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} m \frac{r}{n+ 1} – \links ( m\frac{r}{n+1} \rechts )^{2}[/latex]

Vandaar

[latex]Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}[/latex]

COVARIANTIE             

De relatie tussen twee willekeurige variabelen kan worden weergegeven door de statistische parameter covariantie, vóór de definitie van covariantie van twee willekeurige variabelen X en Y herinneren eraan dat de verwachting van twee functies g en h van willekeurige variabelen X en Y respectievelijk geeft

[latex]E[g(X)h(Y)]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f(x ,y)dx dy[/latex]

[latex]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f_{X}(x) f_{Y}(x) dx-dy[/latex]

[latex]= \int_{-\infty}^{\infty} h(y) f_{Y}(x) dy \int_{-\infty}^{\infty} g(x)f_{X}(x ) dx[/latex]

[latex]=E[h(Y)] E[g(X)][/latex]

[latex]E[g(X)h(Y)]=E[h(Y)] E[g(X)][/latex]

met behulp van deze verwachtingsrelatie kunnen we covariantie definiëren als

   “ De covariantie tussen willekeurige variabele X en willekeurige variabele Y aangeduid met cov(X,Y) wordt gedefinieerd als

[latex]Cov(X,Y)=E[(XE[X])(YE[Y])][/latex]

met behulp van de definitie van verwachting en uitbreiden krijgen we

[latex]Cov(X,Y)=E[XY-E[X]Y -XE[Y] +E[Y]E[X] ][/latex]

[latex]=E[XY] – E[X]E[Y] – E[X]E[Y] +E[X]E[Y][/latex]

[latex]=E[XY] – E[X]E[Y][/latex]

het is duidelijk dat als de willekeurige variabelen X en Y onafhankelijk zijn dan and

[latex]Cov(X,Y)=0[/latex]

maar het omgekeerde is niet waar, bijvoorbeeld als

[latex]P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}[/latex]

en het definiëren van de willekeurige variabele Y als

[latex]Y= \begin{cases} 0 &\text{if } X \neq 0 \\ 1 &\text{if } X =0 \end{cases}[/latex]

so

[latex]Cov(X,Y)=E[XY] -E[X]E[Y]=0[/latex]

hier zijn X en Y duidelijk niet onafhankelijk, maar de covariantie is nul.

Eigenschappen van covariantie

  Covariantie tussen willekeurige variabelen X en Y heeft enkele eigenschappen als volgt:

[latex]\ \ (i) \ \ Cov(X,Y)=Cov(Y,X)[/latex]

[latex]\ \ (ii) \ \ Cov(X,X)=Var(X)[/latex]

[latex]\ \ (iii) \ \ Cov(aX, Y)=aCov(X,Y)[/latex]

[latex]\ \ (iv) \ \ Cov\left ( \sum_{i=1}^{n} X_{i} , \sum_{j=1}^{m} Y_{j} \right ) = \ sum_{i=1}^{n} \sum_{j=1}^{m} Cov(X_{i}, Y_{j})[/latex]

met behulp van de definitie van de covariantie zijn de eerste drie eigenschappen onmiddellijk en volgt de vierde eigenschap door te overwegen

[latex]E\left [ \sum_{i=1}^{n} X_{i} \right ] =\sum_{i=1}^{n} \mu {i} , \ \ E\links [ \som{j=1}^{m} Y_{j} \right ] =\sum_{j=1}^{m} v_{j}[/latex]

nu per definitie

covariantie

Variantie van de sommen

Het belangrijke resultaat van deze eigenschappen is:

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

as

[latex]var\left ( \sum_{i=1}^{n} X_{i} \right ) =Cov\left ( \sum_{i=1}^{n} X_{i} \sum_{j= 1}^{n} X_{j} \rechts )[/latex]

[latex]= \sum_{i=1}^{n} \sum_{j=1}^{n}X_{i} X_{j}[/latex]

[latex]= \sum_{i=1}^{n} Var(X_{i}) \sum \sum_{i\neq j}^{} Cov(X_{i},X_{j})[/latex ]

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i}) +2 \sum \sum_ {i< j}^{} Cov(X_{i},X_{j})[/latex]

Als Xi 's zijn paarsgewijs onafhankelijk dan

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n}Var(X_{i})[/latex]

Voorbeeld: variantie van een binominale willekeurige variabele

  Als X de willekeurige variabele is

[latex]X=X_{1} + \cdot \cdot \cdot \cdot + X_{n}[/latex]

waar Xi zijn de onafhankelijke willekeurige Bernoulli-variabelen zodanig dat

[latex]X_{i}=\begin{cases} 1 &\text{als de i-th trail succesvol is } \\ 0 &\text{anders } \end{cases}[/latex]

 zoek vervolgens de variantie van een binominale willekeurige variabele X met parameters n en p.

Oplossing:

sinds

[latex]Var\left ( \sum_{i=1}^{n} X_{i} \right ) =\sum_{i=1}^{n} Var(X_{i})[/latex]

[latex]Var(X) =Var(X_{1}) + \cdot \cdot \cdot \cdot +Var(X_{n})[/latex]

dus voor een enkele variabele hebben we

[latex]Var(X_{i}) =E[X_{i}^{2}] -(E[X_{i}])^{2}[/latex]

[latex]=E[X_{i}] -(E[X_{i}])^{2} \ \ Since \ \ X_{i}^{2} =X_{i}[/latex]

[latex]=pp^{2}[/latex]

dus de variantie is

[latex]Var(X)=np(1-p)[/latex]

Voorbeeld

  Voor de onafhankelijke toevalsvariabelen Xi met de respectievelijke gemiddelden en variantie en een nieuwe willekeurige variabele met afwijking als

[latex]S^{2}=\sum_{i=1}^{n}\frac{(X_{i} -\overline{X})^{2}}{n-1}[/latex]

bereken dan

[latex]\ \ (a) \ \ Var(\overline{X}) \ \ en \ \ (b) \ \ E[S^{2}][/latex]

oplossing:

Door de bovenstaande eigenschap en definitie te gebruiken, hebben we:

[latex]\ \ (a) \ \ Var(\overline{X}) =\left ( \frac{1}{n} \right )^{2} Var\left ( \sum_{i=1}^{ n} X_{i} \rechts )[/latex]

[latex] =\links ( \frac{1}{n} \right )^{2} \sum_{i=1}^{n} Var(X_{i}) \ \ door \ \ onafhankelijkheid[/latex]

[latex]=\frac{\sigma ^{2}}{n}[/latex]

nu voor de willekeurige variabele S

COVARIANTIE

neem de verwachting

[latex](n-1)E[S^{2}] =\sum_{i=1}^{n} E[(X_{i} -\mu)^{2}] -nE[(\overline {X} -\mu )^{2}][/latex]

Voorbeeld:

Vind de covariantie van indicatorfuncties voor de gebeurtenissen A en B.

Oplossing:

voor de gebeurtenissen A en B zijn de indicatorfuncties:

[latex]I_{A}=\begin{cases} 1 &\text{als A voorkomt} \\ 0 &\text{anders } \end{cases}[/latex]

[latex]I_{B}=\begin{cases} 1 &\text{als B voorkomt} \\ 0 &\text{anders } \end{cases}[/latex]

dus de verwachting hiervan is:

[latex]E[I_{A}] =P(A)[/latex]

[latex]E[I_{B}] =P(B)[/latex]

[latex]E[I_{A}I_{B}] =P(AB)[/latex]

dus de covariantie is

[latex]Cov(I_{A},I_{B}) = P(AB) – P(A)P(B)[/latex]

[latex]= P(B)[P(A/B) – P(A)][/latex]

Voorbeeld:

     Laat zien

[latex]Cov(X_{i}- \overline{X}, \overline{X}) =0[/latex]

waar Xi zijn onafhankelijke willekeurige variabelen met variantie.

Oplossing:

De covariantie met behulp van de eigenschappen en definitie zal zijn

[latex]Cov(X_{i}- \overline{X}, \overline{X}) = Cov(X_{i}, \overline{X}) – Cov(\overline{X}, \overline{X} )[/latex]

[latex]Cov\left ( X_{i}, \frac{1}{n} \sum_{j=1}^{n} X_{j} \right ) – Var(\overline{X})[/latex ]

[latex]= \frac{1}{n} \sum_{j=1}^{n} Cov(X_{i},X_{j}) – \frac{\sigma ^{2}}{n}[ /latex]

[latex]= \frac{\sigma ^{2}}{n} – \frac{\sigma ^{2}}{n} =0[/latex]

Voorbeeld:

  Bereken het gemiddelde en de variantie van willekeurige variabele S, die de som is van n steekproefwaarden als een set van N mensen die elk een mening hebben over een bepaald onderwerp dat wordt gemeten door een reëel getal v die de 'gevoelskracht' van de persoon over het onderwerp vertegenwoordigt. Laat  vertegenwoordigen de kracht van het gevoel van persoon  wat onbekend is, om informatie te verzamelen wordt willekeurig een steekproef van n uit N genomen, deze n mensen worden ondervraagd en hun gevoel wordt verkregen om vi te berekenen

oplossing

laten we de indicatorfunctie definiëren als:

[latex]I_{i}=\begin{cases} 1 &\text{als persoon i in de willekeurige steekproef zit } \\ 0 &\text{anders } \end{cases}[/latex]

dus kunnen we S uitdrukken als

[latex]S = \sum_{i=1}^{N} v_{i}I_{i}[/latex]

en zijn verwachting als

[latex]E[S] = \sum_{i=1}^{N} v_{i}E[I_{i}][/latex]

dit geeft de variantie als

[latex]Var(S) =\sum_{i=1}^{N} Var(v_{i}I_{i}) +2\sum_{}^{}\sum_{i< j}^{} Cov (v_{i}I_{i}, v_{j}I_{j})[/latex]

[latex]=\sum_{i=1}^{N} v_{i}^{2} Var(I_{i}) +2\sum_{}^{}\sum_{i< j}^{} v_ {i}v_{j} Cov(I_{i}, I_{j})[/latex]

sinds

[latex]E[I_{i}] =\frac{n}{N}[/latex]

[latex]E[I_{i} I_{j}] =\frac{n}{N} \frac{n-1}{N-1}[/latex]

we

[latex]Var (I_{i}) =\frac{n}{N}\links ( 1- \frac{n}{N} \right )[/latex]

[latex]Cov(I_{i}, I_{j}) = \frac{n(n-1)}{N(N-1)} -\links ( \frac{n}{N} \rechts )^ {2}[/latex]

[latex]= \frac{-n(N-1)}{N^{2}(N-1)}[/latex]

[latex]E[s] =n\sum_{i=1}^{N}\frac{v_{i}}{N} =n\overline{v}[/latex]

[latex]Var(S)=\frac{n}{N}\frac{Nn}{N} \sum_{i=1}^{N}v_{i}^{2} -\frac{2n(Nn )}{N^{2}(N-1)} \sum \sum_{i< j}^{} v_{i}v_{j}[/latex]

we kennen de identiteit

[latex](v_{1} + \cdot \cdot \cdot + v_{N})^{2} =\sum_{i=1}^{N}v_{i}^{2} +2 \sum \ sum_{i< j}^{} v_{i}v_{j}[/latex]

so

[latex]Var(S) =\frac{n(N-1)}{(N-1)} \left ( \frac{\sum_{i=1}^{N}v_{i}^{2} }{N} -\overline{v}^{2} \right )[/latex]

[latex]E[S]= n\overline{v}= np \ \ sinds \ \ n\overline{v}=\frac{Np}{N}=p[/latex]

[latex]Var(S)= \frac{n(Nn)}{N-1} \left ( \frac{Np}{N} -p^{2} \right )[/latex]

[latex]= \frac{n(Nn)}{N-1} p(1-p)[/latex]

dus het gemiddelde en de variantie voor de genoemde willekeurige variabele zullen zijn

[latex]E\links [ \frac{S}{n} \rechts ] =p[/latex]

[latex]Var\links ( \frac{S}{n} \right )=\frac{Nn}{n(N-1)}p(1-p)[/latex]

Conclusie:

De correlatie tussen twee willekeurige variabelen wordt gedefinieerd als covariantie en met behulp van de covariantie wordt de som van de variantie verkregen voor verschillende willekeurige variabelen, de covariantie en verschillende momenten met behulp van definitie van verwachting wordt verkregen, als u meer wilt lezen, ga door

https://en.wikipedia.org/wiki/Expectation

Een eerste kanscursus door Sheldon Ross

Schaum's contouren van waarschijnlijkheid en statistiek

Een inleiding tot kansrekening en statistiek door ROHATGI en SALEH.

Voor meer berichten over wiskunde, volg onze Wiskunde pagina

dr. MOHAMMED MAZHAR UL HAQUE

Ik ben DR. Mohammed Mazhar Ul Haque, assistent-professor in de wiskunde. Met 12 jaar ervaring in het lesgeven. Grote kennis hebben in zuivere wiskunde, precies op algebra. Het enorme vermogen hebben om problemen te ontwerpen en op te lossen. Kan kandidaten motiveren om hun prestaties te verbeteren. Ik draag graag bij aan Lambdageeks om wiskunde eenvoudig, interessant en zelfverklarend te maken voor zowel beginners als experts. Laten we verbinding maken via LinkedIn - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Recente Nieuws