Bayes Theorem कैलकुलेटर
नए साक्ष्यों के आधार पर संभावनाओं को अद्यतन करने के लिए बेयस के प्रमेय का उपयोग करके पीछे की संभावना की गणना करें।
अपने मूल्य दर्ज करें
सामग्री तालिका
बायस के लिए व्यापक गाइड Theorem
Bayesian का परिचय सोचना
बेयस के सिद्धांत, जिसे रेवरेंड थॉमस बेयेस (1701-1761) के नाम पर रखा गया है, संभावना सिद्धांत और आँकड़ों में एक मूलभूत सिद्धांत है जो वर्णन करता है कि नए सबूतों के आधार पर मान्यताओं को कैसे अद्यतन किया जाए। यह theorem नई जानकारी को शामिल करने के लिए एक गणितीय ढांचा प्रदान करता है और बायेसियन सांख्यिकी के कोनेस्टोन का प्रतिनिधित्व करता है, जो सांख्यिकीय अनुमान के लिए एक शक्तिशाली दृष्टिकोण है।
ऐतिहासिक पृष्ठभूमि
Thomas Bayes was an English statistician, philosopher, and minister whose work wasn't published until after his death. His friend Richard Price edited and presented Bayes' essay titled "An Essay towards solving a Problem in the Doctrine of Chances" to the Royal Society in 1763. Initially, Bayesian methods were overshadowed by frequentist statistics, but with the advent of computers in the 20th century, Bayesian approaches experienced a significant resurgence.
बायेसियन आंकड़े एक मौलिक तरीके से पारंपरिक बार-बार सांख्यिकी से भिन्न होते हैं: जबकि बार-बार सांख्यिकी निर्धारित (लेकिन अज्ञात) मानों के रूप में मापदंडों का व्यवहार करता है, बेयेशियन आँकड़े उन्हें संभावित वितरण के साथ यादृच्छिक चर के रूप में व्यवहार करता है।
Bayesian Inference
-
पूर्व संभावना (P(A)):
नए सबूतों पर विचार करने से पहले एक घटना के बारे में आपका प्रारंभिक विश्वास। यह दर्शाता है कि नया डेटा आने से पहले आपको क्या पता है।
-
संभावना (P(B)
सबूतों का अवलोकन करने की संभावना यह है कि आपकी परिकल्पना सच है। यह उपाय करता है कि आपका सबूत आपके परिकल्पना के साथ कैसे संगत है।
-
Posterior Probability (P(A HO)):
नए सबूतों पर विचार करने के बाद आपका अद्यतन विश्वास। यह वही है जो बेयेस की गणना करता है।
-
Evidence or Marginal Likelihood (P(B)):
सबूतों का अवलोकन करने की कुल संभावना, भले ही परिकल्पना सच या झूठी है।
Theorem के पीछे अंतर्ज्ञान
अनुभव से सीखने के एक औपचारिक तरीके के रूप में बेयस के सिद्धांत के बारे में सोचना। जब आप नई जानकारी का सामना करते हैं, तो आप अपने पिछले ज्ञान को खारिज नहीं करते - आप इसे अपडेट करते हैं। यदि आपने शुरू में सोचा था कि कुछ संभावना नहीं थी, लेकिन फिर इसका समर्थन करने वाले मजबूत सबूतों का पालन करें, तो आपका विश्वास तदनुसार स्थानांतरित होना चाहिए।
उदाहरण के लिए, कल्पना करें कि आप एक डॉक्टर का आकलन कर रहे हैं कि क्या एक मरीज की दुर्लभ बीमारी है। शुरू में, केवल यह जानने के लिए कि रोग 1 को प्रभावित करता है% जनसंख्या की, आप 1 असाइन कर सकते हैं% संभावना। लेकिन अगर एक परीक्षण 99 है% इस बीमारी के लिए सटीक सकारात्मक है, आपको अपने विश्वास को अपडेट करना चाहिए। बायस का सिद्धांत आपको बताता है कि आपके संभावित अनुमान को कितना समायोजित किया जाए।
विभिन्न क्षेत्रों में अनुप्रयोगों
चिकित्सा
पूर्वता दर के साथ परीक्षण परिणामों के संयोजन से नैदानिक सटीकता में सुधार। यह निर्धारित करने में मदद करता है कि क्या सकारात्मक परीक्षण वास्तव में रोग की उपस्थिति को इंगित करता है।
मशीन लर्निंग
पाठ वर्गीकरण, स्पैम फ़िल्टरिंग और सिफारिश प्रणालियों के लिए Powers Naive Bayes classifiers। कई मशीन लर्निंग एल्गोरिदम के लिए आधार बनाता है।
वित्त
जोखिम मूल्यांकन, पोर्टफोलियो प्रबंधन और एल्गोरिदमिक व्यापार में प्रयुक्त होता है। नए बाज़ार की जानकारी के आधार पर पूर्वानुमान को समायोजित करने में मदद करता है।
कानून
Helps assess evidence in legal proceedings. The "prosecutor's fallacy" occurs when Bayes' theorem is misapplied in court cases.
बेयेशियन दृष्टिकोण के लाभ
- पूर्व ज्ञान और विशेषज्ञ राय को शामिल करना
- मापदंडों के बारे में प्रत्यक्ष संभावना बयान बनाता है
- जटिल मॉडल और लापता डेटा को अच्छी तरह से संभालती है
- संभावना वितरण के माध्यम से पूर्ण अनिश्चितता quantification प्रदान करता है
- नए डेटा के रूप में अनुक्रमिक अद्यतन करने की अनुमति देता है
- स्वाभाविक रूप से कार्यान्वयन Occam के रेजर, सरल स्पष्टीकरण के पक्ष में
कॉमन Misconception
अभियोजक का पतन
यह सामान्य त्रुटि तब होती है जब सशर्त संभावना P(Evidence Chinnocent) P(Innocent) के साथ भ्रमित है। उदाहरण के लिए, यदि इनोसेन्स दिए गए डीएनए मैच की संभावना 10,000 में 1 है, तो यह निष्कर्ष निकाला जा सकता है कि 99.99 है।% व्यक्ति को दोषी होने की संभावना है।
बेस रेट Fallacy
यह तब होता है जब लोग पूर्व संभावना (आधार दर) को अनदेखा करते हैं और केवल नए सबूतों पर ध्यान केंद्रित करते हैं। दुर्लभ स्थितियों के लिए, यहां तक कि अत्यधिक सटीक परीक्षण भी कई झूठे सकारात्मक परिणाम उत्पन्न करेगा यदि आधार दर पर विचार नहीं किया जाता है।
Posterior Probability
पीछे की संभावना - क्या बेयेज़ 'समृद्धि की गणना करता है - नए सबूतों पर विचार करने के बाद विश्वास की एक अद्यतन डिग्री प्रदान करता है। यह गणितीय रूप से सटीक तरीके से नए सबूतों की ताकत के साथ अपने पूर्व ज्ञान को जोड़ती है।
निर्णय लेने के लिए, यह पूर्ववर्ती संभावना महत्वपूर्ण है। चिकित्सा संदर्भों में, यह निर्धारित करता है कि उपचार क्या करना चाहिए। व्यापार में, यह निवेश निर्णयों को प्रभावित करता है। और विज्ञान में, यह प्रतिस्पर्धी सिद्धांतों में हमारे विश्वास को आकार देता है।
उदाहरण: रोग के लिए परीक्षण
एक बीमारी को प्रभावित करता है 1% आबादी का, और एक परीक्षण 99 है% सटीक (दोन संवेदनशीलता और विशिष्टता)। यदि कोई सकारात्मक परीक्षण करता है, तो वे क्या संभावना है?
- Prior: P(Disease) = 0.01
- Likelihood: P(Positive) = 0.99
- झूठी सकारात्मक रेट: P(Positive)
Bayes' theorem: P(Disease) = 0.99 × 0.01 / [(0.99 × 0.01) + (0.01 × 0.99)] = 0.5
परीक्षण के 99 के बावजूद% सटीकता, केवल 50 है% वास्तव में सकारात्मक परीक्षण करने का मौका!
Bayes' Theorem सूत्र
Bayes' theorem एक गणितीय सूत्र है जिसका उपयोग नए साक्ष्यों के आधार पर संभावनाओं को अद्यतन करने के लिए किया जाता है। यह हमें एक घटना होने की संभावना के बारे में हमारी मान्यताओं को संशोधित करने में मदद करता है।
कहां:
- P(A) of the postior probability
- P(B) is the likelihood
- P(A) पूर्व संभावना है
- P(B) सबूत है
बायस का उपयोग कैसे करें Theorem
इन चरणों का पालन करें:
-
1पूर्व संभावना निर्धारित करें (P(A)))
-
2समानता की गणना (P(B))
-
3सबूत का निर्धारण (P(B))
-
4बायस' theorem लागू करने के लिए की गणना करने के लिए पोस्टर संभावना
व्याख्या परिणाम
यह समझना कि पीछे की संभावना आपको क्या बताती है:
-
1उच्च Posterior संभावना (> 0.7):
परिकल्पना के पक्ष में मजबूत सबूत।
-
2मध्यम Posterior संभावना (0.3-0.7):
कुछ सबूत, लेकिन निर्णायक नहीं।
-
3कम Posterior संभावना< 0.3):
परिकल्पना के खिलाफ कमजोर सबूत।
व्यावहारिक उदाहरण
उदाहरण 1चिकित्सा निदान
रोग की पूर्व संभावना: 0.01
परीक्षण संवेदनशीलता: 0.95
टेस्ट विशिष्टता: 0.90
पोस्टियर संभावना 0.087
सकारात्मक परीक्षण के साथ भी, रोग होने की संभावना अभी भी अपेक्षाकृत कम है।
उदाहरण 2मौसम भविष्यवाणी
बारिश की संभावना: 0.3
क्लाउड कवर संभावना: 0.8
क्लाउड कवर बारिश: 0.9
पोस्टियर संभावना 0.337
बारिश की संभावना बादल कवर के साथ थोड़ा बढ़ जाती है।
उदाहरण 3स्पैम जांच
स्पैम की पूर्व संभावना: 0.5
Word "free" in spam: 0.8
Word "free" in non-spam: 0.2
Posterior संभावना ≈ 0.8
High probability of spam when the word "free" is present.