गणितीय अपेक्षा और यादृच्छिक चर | इसके 5 महत्वपूर्ण गुण

गणितीय अपेक्षा और यादृच्छिक चर    

     संभाव्यता सिद्धांत में गणितीय अपेक्षा बहुत महत्वपूर्ण भूमिका निभाती है, गणितीय अपेक्षा की मूल परिभाषा और बुनियादी गुण पहले से ही हमने पिछले कुछ लेखों में चर्चा की थी, अब विभिन्न वितरणों और वितरणों के प्रकारों पर चर्चा करने के बाद, निम्नलिखित लेख में हम कुछ और से परिचित होंगे गणितीय अपेक्षा के उन्नत गुण।

यादृच्छिक चर के योग की अपेक्षा | यादृच्छिक चर के कार्य की अपेक्षा | संयुक्त संभाव्यता वितरण की अपेक्षा

     हम जानते हैं कि असतत प्रकृति के यादृच्छिक चर की गणितीय अपेक्षा है

ई[एक्स]=\sum_{x} xp(x)

और निरंतर एक के लिए है

ई[एक्स]=\int_{-\infty}^{\infty} xf(x)dx

अब यादृच्छिक चर X और Y के लिए यदि असतत है तो संयुक्त संभाव्यता द्रव्यमान फलन p(x,y) के साथ

यादृच्छिक चर X और Y के फलन की अपेक्षा होगी

ई\बाएं [जी(एक्स,वाई) \दाएं]=\sum_{y}\sum_{x}g(x,y)p(x,y)

और यदि निरंतर है तो संयुक्त प्रायिकता घनत्व फलन f(x, y) के साथ यादृच्छिक चर X और Y के फलन की अपेक्षा होगी

ई\बाएं [जी(एक्स,वाई) \दाएं]=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} g(x,y)f(x,y) dxdy

यदि g इन दो यादृच्छिक चरों का निरंतर रूप में योग है तो

E\बाएं [ X +Y \right ]=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} (x + y)f(x,y) dxdy

=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} xf(x,y) dydx + \int_{-\infty}^{\infty} \int_{-\ infty}^{\infty} yf(x,y) dxdy

=\int_{-\infty}^{\infty} x f_{X}(x) dx + \int_{-\infty}^{\infty} yf_{Y}(y) dy

= ई [एक्स] + ई [वाई]

और यदि यादृच्छिक चर X और Y के लिए हमारे पास है

एक्स \ गीक वाई

फिर उम्मीद भी

ई [एक्स] \ गीक ई [वाई]

उदाहरण

एक कोविड -19 अस्पताल समान रूप से लंबाई एल की सड़क पर एक बिंदु एक्स पर वितरित किया जाता है, रोगियों के लिए ऑक्सीजन ले जाने वाला वाहन एक स्थान वाई पर है जो सड़क पर समान रूप से वितरित किया जाता है, कोविड -19 अस्पताल के बीच अपेक्षित दूरी का पता लगाएं और ऑक्सीजन ले जाने वाले वाहन यदि वे स्वतंत्र हैं।

उपाय:

X और Y के बीच की अपेक्षित दूरी ज्ञात करने के लिए हमें E {| की गणना करनी होगी एक्सवाई | }

अब X और Y का संयुक्त घनत्व फलन होगा

f(x,y)=\frac{1}{L^{2}} , \ \ 0 < x < एल, \ \ 0 < y < एल

के बाद से

ई\बाएं [जी(एक्स,वाई) \दाएं] =\int_{-\infty}^{\infty}\int_{-\infty}^{\infty} g(x,y)f(x,y) dxdy

इसका पालन करके हमारे पास है

ई\बाएं [ \बाएं | एक्स-वाई \दाएं | \right ]=\frac{1}{L^{2}} \int_{0}^{L} \int_{0}^{L} \left | xy \ सही | डाई डीएक्स

अब समाकलन का मान होगा

\int_{0}^{L} \बाएं | xy \ सही | डाई =\int_{0}^{x} (xy)dy +\int_{x}^{L} (yx)dy

=\frac{x^{2}}{2} + \frac{L^{2}}{2} -\frac{x^{2}}{2} -x(Lx)

= \frac{L^{2}}{2} +x^{2} -xL

इस प्रकार इन दोनों बिंदुओं के बीच अपेक्षित दूरी होगी

ई \बाएं [ \बाएं | एक्स-वाई \दाएं | \right ] =\frac{1}{L^{2}}\int_{0}^{L}\left ( \frac{L^{2}}{2} +x^{2} -xL \right )dx =\frac{L}{3}

नमूना माध्य की अपेक्षा

  यादृच्छिक चर के अनुक्रम के नमूना माध्य के रूप में X1, एक्स2, ………, एक्सn वितरण फलन F के साथ और प्रत्येक का अपेक्षित मान μ is . के रूप में

\overline{X} =\sum_{i=1}^{n}\frac{X_{i}}{n}

तो इस नमूना माध्य की अपेक्षा होगी

ई \बाएं [ \overline{X} \right ]=E \बाएं [ \sum_{i=1}^{n}\frac{X_{i}}{n} \right ]

=\frac{1}{n} ई \बाएं [ \sum_{i=1}^{n} X_{i} \right ]

=\frac{1}{n} \sum_{i=1}^{n} ई [X_{i}]

=\mu \ \ चूंकि \ \ E [X_{i}] \equiv \mu

जो दर्शाता है कि नमूना माध्य का अपेक्षित मान भी μ है।

बूले की असमानता

                बूले की असमानता उम्मीदों के गुणों की मदद से प्राप्त की जा सकती है, मान लीजिए कि यादृच्छिक चर एक्स को परिभाषित किया गया

X=\sum_{i=1}^{n} X_{i}

जहां

X_{i}= \शुरू {मामलों} 1 \ \ अगर \ \ A_ {i} \ \ होता है \\ 0 \ \ \ \ अन्यथा \ अंत {मामलों}

यहां एकi यादृच्छिक घटनाएं हैं, इसका मतलब है कि यादृच्छिक चर एक्स घटनाओं की संख्या की घटना का प्रतिनिधित्व करता है एi और एक अन्य यादृच्छिक चर Y as

Y= \शुरू {मामलों} 1 \ \ अगर \ \ X\geq 1 \ \ \\ 0 \ \ \ अन्यथा \ अंत {मामलों}

स्पष्ट रूप से

एक्स\गीक वाई

और ऐसे ही

ई [एक्स] \ गीक ई [वाई]

अब यदि हम यादृच्छिक चर X और Y का मान लें तो ये अपेक्षाएं होंगी

ई[एक्स] = \sum_{i=1}^{n} ई\बाएं [ X_{i} \दाएं] =\sum_{i=1}^{n} P(A_{i})

और

ई[वाई] = पी \बाएं ( \ \ \ \ कम से कम \ \ एक \ \ \ \ \ ए_ {i} \ \ होता है \ दायां) = पी \ बाएं ( \ bigcup_ {i = 1} ^ { एन} ए_{i} \दाएं)

उपरोक्त असमानता में इन अपेक्षाओं को प्रतिस्थापित करने पर हमें बूल की असमानता इस प्रकार मिलेगी

पी\बाएं ( \bigcup_{i=1}^{n} A_{i} \right) \leq \sum_{i=1}^{n} P\बाएं (A_{i} \दाएं)

द्विपद यादृच्छिक चर की अपेक्षा | द्विपद यादृच्छिक चर का माध्य

  हम जानते हैं कि द्विपद यादृच्छिक चर यादृच्छिक चर है जो n स्वतंत्र परीक्षणों में सफलता की संख्या को p के रूप में सफलता की संभावना और q = 1-p के रूप में विफलता के साथ दिखाता है, इसलिए

एक्स = एक्स1 + एक्स2+ …….+ एक्सn

कहा पे

X_{i}= \begin{cases} 1 \ \ if \ \ the \ \ ith \ \ ट्रेल \ \ \ \ a \ \ सफलता \\ 0 \ \ है अगर \ \ ith \ \ ट्रेल \ \ है \ \ a \ \ विफलता \ अंत {मामलों}

यहाँ ये Xi के हैं Bernoulli और उम्मीद होगी

ई(X_{i}) =1(p) +0(1-p)=p

तो एक्स की उम्मीद होगी

E[X] =E[X_{1}] + E[X_{2}] + \cdot \cdot \cdot + E[X_{n}]

ऋणात्मक द्विपद यादृच्छिक चर की अपेक्षा | ऋणात्मक द्विपद यादृच्छिक चर का माध्य

  मान लीजिए एक यादृच्छिक चर X जो r सफलताओं को एकत्रित करने के लिए आवश्यक परीक्षणों की संख्या का प्रतिनिधित्व करता है, तो ऐसे यादृच्छिक चर को ऋणात्मक द्विपद यादृच्छिक चर के रूप में जाना जाता है और इसे इस प्रकार व्यक्त किया जा सकता है

X =X_{1} + X_{2} + \cdot \cdot \cdot + X_{r}

यहाँ प्रत्येक Xi कुल i सफलताओं को प्राप्त करने के लिए (i-1) सफलता के बाद आवश्यक परीक्षणों की संख्या को निरूपित करें।

चूंकि इनमें से प्रत्येक Xi ज्यामितीय यादृच्छिक चर का प्रतिनिधित्व करते हैं और हम जानते हैं कि ज्यामितीय यादृच्छिक चर की अपेक्षा है

ई[X_{i}] =\frac{1}{p}

so

E[X] =E[X_{1}] + \cdot \cdot \cdot \cdot \cdot + E[X_{r}]=\frac{r}{p}

जो नकारात्मक द्विपद यादृच्छिक चर की अपेक्षा है।

हाइपरज्यामितीय यादृच्छिक चर की अपेक्षा | हाइपरज्यामितीय यादृच्छिक चर का माध्य

हाइपरज्यामितीय यादृच्छिक चर की अपेक्षा या माध्य हम एक साधारण वास्तविक जीवन उदाहरण की सहायता से प्राप्त करेंगे, यदि n पुस्तकों की संख्या को यादृच्छिक रूप से N पुस्तकों वाले शेल्फ से चुना जाता है, जिनमें से m गणित की हैं, तो अपेक्षित संख्या ज्ञात करने के लिए गणित की किताबें X को चुनी गई गणित की किताबों की संख्या बताती हैं तो हम X को इस प्रकार लिख सकते हैं

X =X_{1} + X_{2} + \cdot \cdot \cdot + X_{m}

जहां

X_{i}= \शुरू {केस} 1, \ \ if \ \ ith \ \ गणित \ \ पुस्तक \ \ \ \ चयनित \\ 0, \ \ \ \ अन्यथा \ अंत {मामलों}

so

ई[X_{i}] = P\बाएं \{ X_{i}=1 \दाएं।\बाएं। \सही \}

=\frac{\binom{1}{1}\binom{N-1}{n-1}}{\binom{N}{n}}

=\frac{n}{एन}

जो देता है

E[X]=E[X_{1}] + \cdot \cdot \cdot \cdot +E[X_{m}]=\frac{mn}{N}

जो इस तरह के हाइपरज्यामितीय यादृच्छिक चर का माध्य है।

मैचों की अपेक्षित संख्या

   यह अपेक्षा से संबंधित बहुत लोकप्रिय समस्या है, मान लीजिए कि एक कमरे में एन संख्या में लोग हैं जो कमरे के बीच में अपनी टोपी फेंकते हैं और सभी टोपी मिश्रित होते हैं उसके बाद प्रत्येक व्यक्ति यादृच्छिक रूप से एक टोपी चुनते हैं तो लोगों की अपेक्षित संख्या जो अपनी खुद की टोपी चुनते हैं, हम एक्स को मैचों की संख्या देकर प्राप्त कर सकते हैं

X=X_{1}+ X_{2} + \cdot \cdot \cdot \cdot +X_{N}

कहा पे

X_ {i} = \ start {केस} 1, \ \ if \ \ ith \ \ व्यक्ति \ \ \ \ \ \ \ \ \ टोपी \\ 0 का चयन करता है, \ \ \ \ अन्यथा \ अंत {मामलों}

चूँकि प्रत्येक व्यक्ति के पास N हैट में से किसी भी हैट को चुनने का समान अवसर होता है

ई[X_{i}]=P\बाएं { X_{i}=1 \दाएं।\बाएं। \दाएं }=\frac{1}{एन}

so

E[X]=E[X_{1}] + \cdot \cdot \cdot \cdot \cdot + E[X_{n}] = \बाएं (\frac{1}{N} \right ) N =1

जिसका मतलब है कि औसतन एक व्यक्ति अपनी टोपी खुद चुनता है।

घटनाओं के मिलन की संभावना

     आइए उम्मीद की मदद से घटनाओं के संघ की संभावना प्राप्त करें ताकि घटनाओं ए के लिएi

X_{i}= \शुरू {केस} 1, \ \ if \ \ A_{i} \ \ होता है \\ 0, \ \ अन्यथा \end{cases}

इसके साथ हम लेते हैं

1- \prod_{i=1}^{n} (1-X_{i})= \begin{cases} 1, \ \ if \\ A_{i} \ \ होता है \\ 0, \ \ अन्यथा \end {मामलों}

तो इसकी उम्मीद होगी

E\बाएं [ 1- \prod_{i=1}^{n} (1-X_{i}) \right ]= P\बाएं ( \bigcup_{i=1}^{n} A_{i} \right )

और उम्मीद संपत्ति का उपयोग करके विस्तार करना

P\बाएं ( \bigcup_{i=1}^{n} A_{i} \right) =E\बाएं [ \sum_{i=1}^{n} X_{i} - \sum \sum_{i< j} X_{i}X_{j} + \sum \sum_{i< j< k}\sum X_{i}X_{j}X_{k} - \cdot \cdot \cdot \cdot \cdot \cdot \ cdot + (-)^{n+1}X_{1} \cdot \cdot \cdot X_{n} \right ]

चूंकि हमारे पास है

गणितीय अपेक्षा
गणितीय अपेक्षा: घटनाओं के मिलन की प्रायिकता

और

X_{i_{1}} X_{i_{2}} \cdot \cdot \cdot \cdot X_{i_{k}}= \begin{cases} 1, \ \ if \ \ A_{i_{1}} A_ {i_{2}} \cdot \cdot \cdot A_{i_{k}} \ \ होता है \\ 0, \ \ अन्यथा \end{cases}

so

ई \बाएं [ X_{i_{1}} X_{i_{2}} \cdot \cdot \cdot \cdot X_{i_{k}} \right ]= P\बाएं ( A_{i_{1}} A_{ i_{2}} \cdot \cdot \cdot A_{i_{k}} \right )

इसका मतलब है कि संघ की संभावना

P\बाएं ( \कप A_{i} \दाएं)=\sum_{i}P(A_{i}) -\sum \sum_{i< j}P \बाएं (A_{i}A_{j} \दाएं ) + \sum \sum_{i< j< k}\sum P\left ( A_{i}A_{j}A_{k} \right ) - \cdot \cdot \cdot + (-1)^{n+ 1} पी\बाएं (ए_{1} \cdot \cdot \cdot A_{n} \right)

संभाव्यता पद्धति का उपयोग करके अपेक्षा से सीमा

    मान लीजिए S एक परिमित समुच्चय है और f, S और के तत्वों पर फलन है

m=\अंडरसेट{s \in \mathfrak{s} }{अधिकतम} f(s)

यहाँ हम f(s) की अपेक्षा से इस m के लिए निचली सीमा प्राप्त कर सकते हैं जहाँ "s" S का कोई यादृच्छिक तत्व है जिसकी अपेक्षा हम गणना कर सकते हैं

एम \ geq एफ (एस)

एम \geq ई\बाएं [एफ(एस) \दाएं]

यहां हमें अधिकतम मूल्य के लिए निचली सीमा के रूप में अपेक्षा मिलती है

अधिकतम-न्यूनतम पहचान

 अधिकतम न्यूनतम पहचान किसी भी संख्या x के लिए इन संख्याओं के सबसेट के न्यूनतम सेट की अधिकतम संख्या हैi

\अंडरसेट{i}{अधिकतम} \ \ x_{i}=\sum_{i}x_{i} -\sum_{i< j} min(x_{i},x_{j}) + \sum_{i< j< k} मिनट(x_{i},x_{j},x_{k}) + \cdot \cdot \cdot + (-1)^{n+1} min\left ( x_{1}, \cdot \cdot \cdot ,x_{n} \right )

इसे दिखाने के लिए आइए x . को प्रतिबंधित करेंi अंतराल [0,1] के भीतर, मान लीजिए कि अंतराल (0,1) और घटनाओं A पर एक समान यादृच्छिक चर U हैi क्योंकि एकसमान चर U, x . से छोटा हैi है

ए_{i}=\बाएं {यू< x_{i} \दाएं।\बाएं। \सही }

चूँकि उपरोक्त में से कम से कम एक घटना घटित होती है क्योंकि U एक से कम है, x . का मानi

U_{i}A_{i}=\बाएं { U< \अंडरसेट{i}{अधिकतम} \ \ x_{i} \दाएं।\बाएं। \सही }

और

पी\बाएं (यू_{i}ए_{i} \दाएं)= पी\बाएं (यू< \अंडरसेट{i}{अधिकतम} x_{i} \दाएं) =\अंडरसेट{i}{अधिकतम} x_{i}

स्पष्ट रूप से हम जानते हैं

<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U

पी(ए_{i}) =पी\बाएं (यू < x_{i} \दाएं) =x_{i}

और सभी घटनाएँ घटित होंगी यदि U सभी चरों से कम है और

ए_{i_{1}} \cdot \cdot \cdot A_{i_{r}} =\बाएं ( U< \underset{j=1 \cdot \cdot \cdot r}{min} x_{i_{j}} \सही )

संभावना देता है

पी\बाएं (ए_{i_{1}} \cdot \cdot \cdot A_{i_{r}} \right)=P \बाएं (यू< \अंडरसेट{j=1 \cdot \cdot \cdot r}{min } x_{i_{j}} \right ) = \अंडरसेट{j=1 \cdot \cdot \cdot r}{min} x_{i_{j}}

हमारे पास संघ की संभावना का परिणाम है

P\बाएं ( U_{i} A_{i}\दाएं) \sum_{i} P\बाएं (A_{i} \दाएं) -\sum_{i< j} P(A_{i}A_{j}) +\sum_{i< j< k} P(A_{i}A_{j}A_{k}) + \cdot \cdot \cdot \cdot + (-1)^{n+1} P(A_{1 } \cdot \cdot \cdot \cdot A_{n})

संभाव्यता के लिए इस समावेश बहिष्करण सूत्र का पालन करना

\अंडरसेट{i}{अधिकतम} (x_{i} +b) =\sum_{i} (x_{i} +b) -\sum_{i< j} मिनट (x_{i} +b, x_{j } +b) + \cdot \cdot \cdot \cdot + (-1)^{n+1} मिनट (x_{1} +b, \cdot \cdot \cdot , x_{n} +b)

विचार करना

एम =\sum_{i} x_{i} -\sum_{i< j} मिनट (x_{i},x_{j}) + \cdot \cdot \cdot \cdot + (-1)^{n+1 } मिनट (x_{1}, \cdot \cdot \cdot \cdot x_{n})

यह देता है

\अंडरसेट{i}{अधिकतम} \ \ x_{i} + b= M+ b\बाएं ( n-\binom{n}{2} + \cdot \cdot \cdot + (-1)^{n+1} \binom{n}{n} \दाएं)

के बाद से

0= (1-n)^{n}=1-n +\binom{n}{2} + \cdot \cdot \cdot + (-1)^{n+1} \binom{n}{n}

जिसका मतलब है

\अंडरसेट{i}{अधिकतम} \ \ x_{i} =M

  • इसलिए हम इसे इस प्रकार लिख सकते हैं

\अंडरसेट{i}{अधिकतम} \ \ x_{i} =\sum_{i} x_{i} - \sum_{i< j} मिनट (x_{i}, x_{j}) \sum_{i< j < k} मिनट (x_{i}, x_{j}, x_{k}) + \cdot \cdot \cdot + (-1)^{n+1} मिनट (x_{1}, \cdot \cdot \ सीडीओटी, एक्स_{एन})

उम्मीद लेते हुए हम अधिकतम और आंशिक न्यूनतम के अपेक्षित मान प्राप्त कर सकते हैं:

ई \बाएं [ \अंडरसेट{i}{अधिकतम} \ \ X_{i} \right ] =\sum_{i} E\बाएं [ X_{i} \right ] - \sum_{i< j} E\left [ मिनट (X_{i}, X_{j}) \right ] + \cdot \cdot \cdot + (-1)^{n+1} E\left [ min\left ( X_{1} , \cdot \cdot \cdot \cdot \cdot , X_{n} \right ) \right ])

निष्कर्ष:

विभिन्न वितरण के संदर्भ में अपेक्षा और कुछ संभाव्यता सिद्धांत अवधारणाओं के साथ अपेक्षा के सहसंबंध इस लेख का फोकस थे जो विभिन्न प्रकार के यादृच्छिक चर के अपेक्षित मूल्यों को प्राप्त करने के लिए एक उपकरण के रूप में अपेक्षा के उपयोग को दर्शाता है, यदि आपको आगे पढ़ने की आवश्यकता है नीचे की किताबों के माध्यम से

गणित पर अधिक लेखों के लिए, कृपया हमारा देखें गणित पेज.

https://en.wikipedia.org/wiki/Expectation

शेल्डन रॉस द्वारा संभाव्यता में पहला कोर्स

Schaum की संभावना और सांख्यिकी की रूपरेखा

ROHATGI और SALEH द्वारा संभाव्यता और सांख्यिकी का परिचय

डीआर के बारे में मोहम्मद मजहर उल हक

गणितीय अपेक्षा और यादृच्छिक चर | इसके 5 महत्वपूर्ण गुणमैं डॉ. मोहम्मद मजहर उल हक, गणित में सहायक प्रोफेसर। अध्यापन में 12 वर्ष का अनुभव हो। शुद्ध गणित में विशाल ज्ञान, ठीक बीजगणित पर। समस्या को डिजाइन करने और हल करने की अपार क्षमता होना। उम्मीदवारों को अपने प्रदर्शन को बढ़ाने के लिए प्रेरित करने में सक्षम।
शुरुआती और विशेषज्ञों के लिए गणित को सरल, दिलचस्प और आत्म व्याख्यात्मक बनाने के लिए लैम्ब्डेजेक्स में योगदान करना मुझे अच्छा लगता है।
आइए लिंक्डइन के माध्यम से जुड़ें - https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

en English
X