सहप्रसरण, राशियों की भिन्नता और उनके 5 महत्वपूर्ण गुण

सहसंयोजकता, राशियों का प्रसरण, और यादृच्छिक चरों का सहसम्बन्ध

  यादृच्छिक चर की अपेक्षा की परिभाषा का उपयोग करते हुए विभिन्न प्रकृति के यादृच्छिक चर के सांख्यिकीय पैरामीटर प्राप्त करना और समझना आसान है, निम्नलिखित में हम यादृच्छिक चर की गणितीय अपेक्षा की सहायता से कुछ पैरामीटर पाएंगे।

होने वाली घटनाओं की संख्या के क्षण

    अब तक हम जानते हैं कि यादृच्छिक चर की विभिन्न शक्तियों की अपेक्षा यादृच्छिक चर के क्षण हैं और घटनाओं से यादृच्छिक चर की अपेक्षा कैसे प्राप्त करें, यदि घटनाओं की संख्या पहले ही हो चुकी है, तो अब हम उम्मीद में रुचि रखते हैं यदि घटनाओं की संख्या की जोड़ी पहले से ही हुआ है, अब यदि X घटना की संख्या का प्रतिनिधित्व करता है तो घटनाओं के लिए A1, एक2, …।,एn संकेतक चर I को परिभाषित करेंi as

I_{i}=\begin{cases} 1, &\text{if } A_{i} \ \ होता है \\ 0, और\text{अन्यथा} \end{केस}

असतत अर्थों में एक्स की अपेक्षा होगी

ई[एक्स]= ई\बाएं [ \sum_{i=1}^{n} I_{i} \right ] =\sum_{i=1}^{n} E[I_{i}] =\sum_{ i=1}^{n} P\बाएं (A_{i} \दाएं)

क्योंकि यादृच्छिक चर X है

ई=\sum_{i=1}^{n} ई I_{i}

अब उम्मीद का पता लगाने के लिए यदि घटना की जोड़ी की संख्या पहले से ही हुई है तो हमें संयोजन का उपयोग करना होगा

\binom{X}{2} = \sum_{i< j} I_{i}J_{i}

यह उम्मीद देता है

ई\बाएं [ \binom{X}{2} \right ]=\sum_{i< j} E[I_{i}I_{j}] = \sum_{i< j} P(A_{i}A_{ जे})

E\बाएं [ \frac{X(X-1)}{2} \right ] = \sum_{i< j}^{} P(A_{i}A_{j})

ई[एक्स^{2}] -ई[एक्स] =2 \sum_{i< j}^{} P(A_{i}A_{j})

इससे हमें x वर्ग की अपेक्षा और विचरण का मान भी प्राप्त होता है

वार(X)=E[X^{2}] -(E[X])^{2}

इस चर्चा का उपयोग करके हम ऐसे क्षणों को खोजने के लिए विभिन्न प्रकार के यादृच्छिक चर पर ध्यान केंद्रित करते हैं।

द्विपद यादृच्छिक चर के क्षण

   यदि p, n स्वतंत्र परीक्षणों से सफलता की प्रायिकता है तो आइए A को निरूपित करेंi परीक्षण के लिए मैं सफलता के रूप में इसलिए

जब \ \ i\neq j, P(A_{i}A_{j})=p^{2}

ई\बाएं [ \binom{X}{2} \right ]= \sum_{i< j}^{} p^{2} = \binom{n}{2}p^{2}

ई[X(X-1)] =n(n-1)p^{2}

ई[X^{2}] -E[X] =n(n-1)p^{2}

और इसलिए द्विपद यादृच्छिक चर का प्रसरण होगा

Var(X)=E[X^{2}] -(E[X])^{2}=n(n-1)p^{2} +np - (np)^{2}=np(1 -पी)

क्योंकि

ई[एक्स] =\sum_{i=1}^{n} P(A_{i}) =np

अगर हम k घटनाओं के लिए सामान्यीकरण करते हैं

P(A_{i_{1}}A_{i_{2}} \cdot \cdot \cdot A_{i_{k}})=p^{k}

E[X(X-1) \cdot \cdot \cdot \cdot (X-k+1)] =n(n-1) \cdot\cdot\cdot (n-k+1)p^{k}

यह अपेक्षा हम 3 से अधिक k के मान के लिए क्रमिक रूप से प्राप्त कर सकते हैं आइए हम 3 के लिए खोजें

E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}

E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}

ई[X^{3}] =3E[X^{2}] -2E[X] + n(n-1)(n-2)p^{3}

=3n(n-1)p^{2} +np + n(n-1)(n-2)p^{3}

इस पुनरावृत्ति का उपयोग करके हम प्राप्त कर सकते हैं

ई[एक्स^{के}], के\geq 3,

हाइपरज्यामितीय यादृच्छिक चर के क्षण

  इस यादृच्छिक चर के क्षणों को हम एक उदाहरण की मदद से समझेंगे कि मान लीजिए कि एन पेन वाले बॉक्स से n पेन ​​यादृच्छिक रूप से चुने गए हैं जिनमें से एम नीले हैं, मान लीजिए एi घटनाओं को निरूपित करें कि i-th पेन नीला है, अब X चयनित नीले पेन की संख्या घटनाओं की संख्या के बराबर है A1,A2,…..,एn ऐसा इसलिए होता है क्योंकि चयनित ith पेन किसी भी N पेन के समान होने की संभावना है, जिनमें से m नीला है

P(A_{i}) =\frac{m}{N} \ \ , E[X]=\sum_{i=1}^{n}P(A_{i})

इसलिए

P(A_{i}A_{j}) = P(A_{i}) P(A_{j}/A_{i}) =\frac{m}{N} \frac{m-1}{N- 1}

ई\बाएं [ \binom{X}{2} \right ] =\sum_{i< j}^{}\frac{m(m-1)}{n(n-1)} =\binom{n} {2}\frac{m(m-1)}{n(n-1)}

X[X(X-1)] =n(n-1)\frac{m(m-1)}{N(N-1)}

यह देता है

ई[X^{2}] =n(n-1)\frac{m(m-1)}{N(N-1)} + E[X]

अत: हाइपरज्यामितीय यादृच्छिक चर का प्रसरण होगा

वर (X) = E [X ^ {2}] - (E [X]) ^ {2}

= n(n-1)\frac{m(m-1)}{N(N-1)} +\frac{nm}{N} -\frac{n^{2}m^{2}}{ एन^{2}}

=\frac{nm}{N} \बाएं [ \frac{(n-1)(m-1)}{N-1} +1 + -\frac{mn}{N} \right ]

इसी तरह उच्च क्षणों के लिए

P(A_{i_{1}} A_{i_{2}} \cdot \cdot \cdot \cdot A_{i_{k}}) =\frac{m(m-1)\cdot \cdot \cdot \cdot (एम-के+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

ई\बाएं [ \binom{X}{k} \right ] = \binom{n}{k} \frac{m(m-1)\cdot \cdot \cdot \cdot (m-k+1)}{ N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

इसलिये

E[X(X-1) \cdot \cdot \cdot (X-k+1)] =n(n-1) \cdot \cdot \cdot \cdot (n-k+1) \frac{m(m -1)\cdot \cdot \cdot \cdot (m-k+1)}{N(N-1)\cdot \cdot \cdot \cdot (N-k+1)}

नकारात्मक हाइपरजोमेट्रिक यादृच्छिक चर के क्षण

  एक पैकेज के उदाहरण पर विचार करें जिसमें n+m टीके हैं जिनमें से n विशेष हैं और m सामान्य हैं, इन टीकों को एक बार में हटा दिया जाता है, प्रत्येक नए निष्कासन के समान रूप से पैकेज में रहने वाले किसी भी टीके के होने की संभावना होती है। अब यादृच्छिक चर Y को उन टीकों की संख्या को निरूपित करें जिन्हें कुल r विशेष टीकों को हटाए जाने तक वापस लेने की आवश्यकता है, जो कि ऋणात्मक हाइपरज्यामितीय वितरण है, यह किसी तरह नकारात्मक द्विपद के साथ द्विपद के समान है जैसा कि हाइपरजोमेट्रिक वितरण के लिए है। खोजने के लिए संभावना मास फंक्शन अगर kth ड्रा विशेष वैक्सीन देता है k-1 ड्रा के बाद r-1 स्पेशल और kr साधारण वैक्सीन देता है

P(X=k)=\frac{\binom{n}{r-1}\binom{m}{kr}}{\binom{n+m}{k-1}} \frac{n-r+ 1}{एन+एम-के+1}

अब यादृच्छिक चर Y

वाई = आर + एक्स

घटनाओं के लिए एi

E[Y]=r+E[X] =r + \sum_{i=1}^{m} P(A_{i})

E[Y]=r+ m\frac{r}{n+1}=\frac{r(n+m+1)}{n+1}

as

P(A_{i})=\frac{r}{n+1}

इसलिए Y का प्रसरण ज्ञात करने के लिए हमें X के प्रसरण को जानना चाहिए

E(X(X-1))=2\sum_{i< j}^{} P(A_{i}A_{j})

\sum_{i< j}^{} P(A_{i}A_{j}) = \frac{\binom{2}{2}\binom{n}{r-1}}{\binom{n+ 2}{r+1}} =\frac{r(r+1)}{(n+1)(n+2)}

E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}

ई[X^{2}] = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} + E[X]

Var(Y)=Var(X) = m(m-1)\frac{r(r+1)}{(n+1)(n+2)} m \frac{r}{n+1} - \बाएं (एम\frac{r}{n+1} \दाएं)^{2}

इसलिये

Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}

सहप्रसरण             

दो यादृच्छिक चर के बीच संबंध को सांख्यिकीय पैरामीटर सहप्रसरण द्वारा दर्शाया जा सकता है, दो यादृच्छिक चर X और Y के सहप्रसरण की परिभाषा से पहले याद करते हैं कि यादृच्छिक चर X और Y के दो कार्यों g और h की अपेक्षा क्रमशः देता है

ई[जी(एक्स)एच(वाई)]= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f(x,y) डीएक्स डाई

= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x)h(y) f_{X}(x) f_{Y}(x) dx dy

= \int_{-\infty}^{\infty} h(y) f_{Y}(x) डाई \int_{-\infty}^{\infty} g(x)f_{X}(x) dx

= ई [एच (वाई)] ई [जी (एक्स)]

ई [जी (एक्स) एच (वाई)] = ई [एच (वाई)] ई [जी (एक्स)]

अपेक्षा के इस संबंध का उपयोग करके हम सहप्रसरण को इस प्रकार परिभाषित कर सकते हैं:

   यादृच्छिक चर X और यादृच्छिक चर Y के बीच सहप्रसरण को cov(X,Y) द्वारा निरूपित किया जाता है:

Cov(X,Y)=E[(XE[X])(YE[Y])]

उम्मीद और विस्तार की परिभाषा का उपयोग करके हम प्राप्त करते हैं

कोव (एक्स, वाई) = ई [एक्सवाई-ई [एक्स] वाई-एक्सई [वाई] + ई [वाई] ई [एक्स]]

= ई [एक्सवाई] - ई [एक्स] ई [वाई] - ई [एक्स] ई [वाई] + ई [एक्स] ई [वाई]

=ई [एक्सवाई] - ई [एक्स] ई [वाई]

यह स्पष्ट है कि यदि यादृच्छिक चर X और Y स्वतंत्र हैं तो

सीओवी (एक्स, वाई) = 0

लेकिन विलोम सत्य नहीं है उदाहरण के लिए if

P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}

और यादृच्छिक चर Y को परिभाषित करना

Y= \शुरू {केस} 0 &\text{if } X \neq 0 \\ 1 &\text{if } X =0 \end{cases}

so

Cov(X,Y)=E[XY] -E[X]E[Y]=0

यहाँ स्पष्ट रूप से X और Y स्वतंत्र नहीं हैं लेकिन सहप्रसरण शून्य है।

सहप्रसरण के गुण

  यादृच्छिक चर X और Y के बीच सहप्रसरण के कुछ गुण इस प्रकार हैं:

\ \ (i) \ \ Cov(X,Y)=Cov(Y,X)

\ \ (ii) \ \ Cov(X,X)=Var(X)

\ \ (iii) \ \ Cov(aX, Y)=aCov(X,Y)

\ \ (iv) \ \ Cov\बाएं ( \sum_{i=1}^{n} X_{i} , \sum_{j=1}^{m} Y_{j} \right ) = \sum_{i =1}^{n} \sum_{j=1}^{m} Cov(X_{i}, Y_{j})

कॉन्वर्सिस की परिभाषा का उपयोग करते हुए पहले तीन गुण तत्काल होते हैं और चौथी संपत्ति पर विचार करते हैं

ई\बाएं [ \sum_{i=1}^{n} X_{i} \right ] =\sum_{i=1}^{n} \mu {i} , \\ E\बाएं [ \sum {j =1}^{m} Y_{j} \right ] =\sum_{j=1}^{m} v_{j}

अब परिभाषा के अनुसार

सहप्रसरण

राशियों की भिन्नता

इन गुणों से महत्वपूर्ण परिणाम है

वर\बाएं ( \sum_{i=1}^{n} X_{i} \right) =\sum_{i=1}^{n} Var(X_{i})

as

वर\बाएं ( \sum_{i=1}^{n} X_{i} \right) =कोव\बाएं ( \sum_{i=1}^{n} X_{i} \sum_{j=1}^ {एन} एक्स_{जे} \दाएं)

= \sum_{i=1}^{n} \sum_{j=1}^{n}X_{i} X_{j}

= \sum_{i=1}^{n} Var(X_{i}) \sum \sum_{i\neq j}^{} Cov(X_{i},X_{j})

वार\बाएं ( \sum_{i=1}^{n} X_{i} \right) =\sum_{i=1}^{n}वर(X_{i}) +2 \sum \sum_{i< j}^{} Cov(X_{i},X_{j})

अगर Xi जोड़ीदार स्वतंत्र हैं तो

वार\बाएं ( \sum_{i=1}^{n} X_{i} \right) =\sum_{i=1}^{n}वर(X_{i})

उदाहरण: द्विपद यादृच्छिक चर का प्रसरण

  यदि X यादृच्छिक चर है

X=X_{1} + \cdot \cdot \cdot \cdot + X_{n}

जहां एक्सi स्वतंत्र बर्नौली यादृच्छिक चर हैं जैसे कि

X_{i}=\begin{cases} 1 &\text{अगर i-th ट्रेल सफलता है } \\ 0 &\text{अन्यथा } \end{cases}

 फिर पैरामीटर n और p के साथ एक द्विपद यादृच्छिक चर X का प्रसरण ज्ञात कीजिए।

उपाय:

के बाद से

वार\बाएं ( \sum_{i=1}^{n} X_{i} \right) =\sum_{i=1}^{n} Var(X_{i})

वार(X) =वर(X_{1}) + \cdot \cdot \cdot \cdot +Var(X_{n})

तो एकल चर के लिए हमारे पास है

वार(X_{i}) =E[X_{i}^{2}] -(E[X_{i}])^{2}

=E[X_{i}] -(E[X_{i}])^{2} \ \ चूंकि \ \ X_{i}^{2} =X_{i}

=पीपी^{2}

तो भिन्नता है

वार (एक्स) = एनपी (1-पी)

उदाहरण

  स्वतंत्र यादृच्छिक चर X . के लिएi संबंधित साधनों और विचरण के साथ और विचलन के साथ एक नया यादृच्छिक चर के रूप में

एस^{2}=\sum_{i=1}^{n}\frac{(X_{i} -\overline{X})^{2}}{n-1}

फिर गणना करें

\ \ (ए) \ \ Var(\overline{X}) \ \ और \ \ (b) \ \ E[S^{2}]

उपाय:

उपरोक्त संपत्ति और परिभाषा का उपयोग करके हमारे पास है

\ \ (ए) \ \ Var(\overline{X}) =\बाएं ( \frac{1}{n} \right)^{2} Var\left ( \sum_{i=1}^{n} X_ {मैं सही हूं )

=\बाएं ( \frac{1}{n} \right )^{2} \sum_{i=1}^{n} Var(X_{i}) \ \ by \ \ स्वतंत्रता

=\frac{\sigma ^{2}}{n}

अब यादृच्छिक चर S . के लिए

सहप्रसरण

उम्मीद ले लो

(n-1)E[S^{2}] =\sum_{i=1}^{n} E[(X_{i} -\mu)^{2}] -nE[(\overline{X} -\म्यू )^{2}]

उदाहरण:

घटनाओं ए और बी के लिए संकेतक कार्यों के सहप्रसरण का पता लगाएं।

उपाय:

घटनाओं ए और बी के लिए संकेतक कार्य हैं

मैं_{ए}=\शुरू {मामलों} 1 &\पाठ{अगर एक होता है} \\ 0 &\पाठ{अन्यथा} \end{मामलों}

I_{B}=\शुरू {केस} 1 &\text{अगर B होता है} \\ 0 &\text{अन्यथा } \end{केस}

तो इन की उम्मीद कर रहे हैं

ई [I_ {ए}] = पी (ए)

ई [I_ {बी}] = पी (बी)

ई[I_{A}I_{B}] =P(AB)

इस प्रकार सहप्रसरण है

Cov(I_{A},I_{B}) = P(AB) - P(A)P(B)

= पी (बी) [पी (ए / बी) - पी (ए)]

उदाहरण:

     बताते हैं कि

Cov(X_{i}- \overline{X}, \overline{X}) =0

जहां एक्सi विचरण के साथ स्वतंत्र यादृच्छिक चर हैं।

उपाय:

गुणों और परिभाषा का उपयोग करने वाला सहप्रसरण होगा

Cov(X_{i}- \overline{X}, \overline{X}) = Cov(X_{i}, \overline{X}) - Cov(\overline{X}, \overline{X})

Cov\बाएं ( X_{i}, \frac{1}{n} \sum_{j=1}^{n} X_{j} \right ) - Var(\overline{X})

= \frac{1}{n} \sum_{j=1}^{n} Cov(X_{i},X_{j}) - \frac{\sigma ^{2}}{n}

= \frac{\sigma ^{2}}{n} - \frac{\sigma ^{2}}{n} =0

उदाहरण:

  यादृच्छिक चर S के माध्य और विचरण की गणना करें, जो कि n नमूना मूल्यों का योग है यदि N लोगों का सेट है, जिनमें से प्रत्येक के पास एक निश्चित विषय के बारे में एक राय है जिसे वास्तविक संख्या द्वारा मापा जाता है v जो विषय के बारे में व्यक्ति की "भावना की शक्ति" का प्रतिनिधित्व करता है। लश्कर सहप्रसरण, राशियों की भिन्नता और उनके 5 महत्वपूर्ण गुण व्यक्ति की भावना की ताकत का प्रतिनिधित्व करते हैं सहप्रसरण, राशियों की भिन्नता और उनके 5 महत्वपूर्ण गुण जो अज्ञात है, जानकारी एकत्र करने के लिए N से n का एक नमूना यादृच्छिक रूप से लिया जाता है, इन n लोगों से पूछताछ की जाती है और vi की गणना करने के लिए उनकी भावना प्राप्त की जाती है।

उपाय

आइए हम संकेतक फ़ंक्शन को परिभाषित करें define

I_{i}=\begin{cases} 1 &\text{अगर व्यक्ति मैं यादृच्छिक नमूने में है} \\ 0 &\text{अन्यथा } \end{मामलों}

इस प्रकार हम S को इस प्रकार व्यक्त कर सकते हैं

एस = \sum_{i=1}^{N} v_{i}I_{i}

और इसकी अपेक्षा

ई[एस] = \sum_{i=1}^{N} v_{i}E[I_{i}]

यह भिन्नता देता है

Var(S) =\sum_{i=1}^{N} Var(v_{i}I_{i}) +2\sum_{}^{}\sum_{i< j}^{} Cov(v_{ i}I_{i}, v_{j}I_{j})

=\sum_{i=1}^{N} v_{i}^{2} Var(I_{i}) +2\sum_{}^{}\sum_{i< j}^{} v_{i} v_{j} Cov(I_{i}, I_{j})

के बाद से

ई[I_{i}] =\frac{n}{N}

ई[I_{i} I_{j}] =\frac{n}{N} \frac{n-1}{N-1}

हमारे पास है

वार (I_{i}) =\frac{n}{N}\बाएं ( 1- \frac{n}{N} \right )

Cov(I_{i}, I_{j}) = \frac{n(n-1)}{N(N-1)} -\बाएं ( \frac{n}{N} \right )^{2}

= \frac{-n(N-1)}{N^{2}(N-1)}

E[s] =n\sum_{i=1}^{N}\frac{v_{i}}{N} =n\overline{v}

Var(S)=\frac{n}{N}\frac{Nn}{N} \sum_{i=1}^{N}v_{i}^{2} -\frac{2n(Nn)}{ N^{2}(N-1)} \sum \sum_{i< j}^{} v_{i}v_{j}

हम पहचान जानते हैं

(v_{1} + \cdot \cdot \cdot + v_{N})^{2} =\sum_{i=1}^{N}v_{i}^{2} +2 \sum \sum_{i < j}^{} v_{i}v_{j}

so

वार(एस) =\frac{n(N-1)}{(N-1)} \बाएं ( \frac{\sum_{i=1}^{N}v_{i}^{2}}{N } -\overline{v}^{2} \right )

E[S]= n\overline{v}= np \ \ चूंकि \ \ n\overline{v}=\frac{Np}{N}=p

Var(S)= \frac{n(Nn)}{N-1} \left ( \frac{Np}{N} -p^{2} \right )

= \frac{n(Nn)}{N-1} p(1-p)

तो उक्त यादृच्छिक चर के लिए माध्य और प्रसरण होगा

ई\बाएं [ \frac{S}{n} \right ] =p

वार\बाएं ( \frac{S}{n} \right )=\frac{Nn}{n(N-1)}p(1-p)

निष्कर्ष:

दो यादृच्छिक चर के बीच संबंध को सहप्रसरण के रूप में परिभाषित किया गया है और सहप्रसरण का उपयोग करके विभिन्न यादृच्छिक चर के लिए विचरण का योग प्राप्त किया जाता है, सहप्रसरण और अलग-अलग क्षण अपेक्षा की परिभाषा की सहायता से प्राप्त किए जाते हैं, यदि आपको आगे पढ़ने की आवश्यकता है

https://en.wikipedia.org/wiki/Expectation

शेल्डन रॉस द्वारा संभाव्यता में पहला कोर्स

Schaum की संभावना और सांख्यिकी की रूपरेखा

ROHATGI और SALEH द्वारा संभाव्यता और सांख्यिकी का परिचय।

गणित पर अधिक पोस्ट के लिए, कृपया हमारा अनुसरण करें गणित पेज

डीआर के बारे में मोहम्मद मजहर उल हक

सहप्रसरण, राशियों की भिन्नता और उनके 5 महत्वपूर्ण गुणमैं डॉ. मोहम्मद मजहर उल हक, गणित में सहायक प्रोफेसर। अध्यापन में 12 वर्ष का अनुभव हो। शुद्ध गणित में विशाल ज्ञान, ठीक बीजगणित पर। समस्या को डिजाइन करने और हल करने की अपार क्षमता होना। उम्मीदवारों को अपने प्रदर्शन को बढ़ाने के लिए प्रेरित करने में सक्षम।
शुरुआती और विशेषज्ञों के लिए गणित को सरल, दिलचस्प और आत्म व्याख्यात्मक बनाने के लिए लैम्ब्डेजेक्स में योगदान करना मुझे अच्छा लगता है।
आइए लिंक्डइन के माध्यम से जुड़ें - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

en English
X