Bayes Teoremi

Kısaca: Bayes teoremi olasılık kuramı içinde incelenen önemli bir konudur. Bu teorem bir rassal değişken için olasılık dağılımı içinde koşullu olasılık]lar ile marjinal olasılıklar arasındaki ilişkiyi gösterir. Bu şekli ile Bayes teoremi bütün istatistikçiler için kabul edilir bir ilişkiyi açıklar. Bu kavram için Bayes kuralı veya Bayes kanunu adları da kullanılır. Ancak bazı istatistikçiler için Bayes teoremi özel olarak değişik bir önem de taşır. Felsefi temelde o ...devamı ☟

Bayes teoremi olasılık kuramı içinde incelenen önemli bir konudur. Bu teorem bir rassal değişken için olasılık dağılımı içinde
lar ile marjinal olasılıklar arasındaki ilişkiyi gösterir. Bu şekli ile Bayes teoremi bütün istatistikçiler için kabul edilir bir ilişkiyi açıklar. Bu kavram için Bayes kuralı veya Bayes kanunu adları da kullanılır. Ancak bazı istatistikçiler için Bayes teoremi özel olarak değişik bir önem de taşır. Felsefi temelde olasılık değerlerinin nesnesel bir özellik değil, gözlemcinin meydana çıkardığı subjektif bir değer olarak kabul eden subjektivist olasılık düşünürlerine göre Bayes teoremi, yeni kanıtlar ışığında olasılık değeri hakkındaki subjektif inanışların güncelleştirilip değiştirilmesini sağlayan temel bir gereçtir; yani sonsal bir yaklaşımın temelidir. Olasılık teorisi içinde incelenen bir 'olay olarak B olayına koşullu bir A olayı (yani B olayının bilindiği halde A olayı) için olasılık değeri, A olayına koşullu olarak B olayı (yani A olayı bilindiği haldeki B olayı) için olasılık değerinden farklıdır. Ancak bu iki birbirine ters koşulluluk arasında çok belirli bir ilişki vardır ve bu ilişkiye (ilk açıklayan istatistikçi İngiliz Thomas Bayes (1702–1761) adına atfen) Bayes Teoremi denilmektedir. Formel bir teorem olarak Bayes teoremi, olasılık kavramını inceleyen her türlü değişik felsefi temel fikre bağlı olan her türlü istatisikçi tarafından kabul edilir. Ancak olasılığı objektif bir değer olarak gören ve relatif çokluluk olarak tayin eden çoklulukçu (en:frequentist) ekolüne bağlı olan istatistikçiler ile sübjektivist (veya Bayes tipi) ekoline bağlı olan istatistikçiler arasında bu teoremin pratikte nasıl kullanılabileceği hakkında büyük bir fikir ayrılığı bulunmaktadır. Çoklulukcu ekolüne dahil olanlar olasılık değerlerini rastgele olaylarda meydana çıkma çokluluğuna göre veya anakütlenin altsetlerinin tam anakütleye orantısı olarak saptanması gerekeğini kabul etmektedirler. Bunlara göre yeni kanıtlar karşısında olasılık değerinin değişme imkanı yoktur. Bu nedenle çoklulukcu ekolü için Bayes teoremi sadece koşulluluklar arasında ilişkiyi gösterir ve bunun pratikte kullanılma gücü küçüktür. Halbuki sübjektivist ekolüne göre olasılık gözlemcinin sübjektif belirsizlik ifadesidir. Bu nedenle olasılık değeri sübjektif olup yeni kanıtlar geldikçe değiştirilebileceğine inanmakta ve böylece Bayes teoremini istatistik bir incelemenin temel taşı saymaktadırlar. Bayes teoreminin ifade edilişi Bayes teoremi bir stokastik sürec sırasında ortaya çıkan bir rastgele olay A ile bir diğer rastgele olay B (eğer B için kaybolmamış olasılık varsa) için koşullu olasılıkları ve marjinal olasılıkları arasındaki ilişkidir, yani :P(A|B) = \frac. Bayes teoremi formülü içinde bulunan her bir terime özel isimler verilmektedir: * P(A) terimine A için önsel olasılık veya marjinal olasılık adı verilir. Bu önseldir, çünkü B olayı hakkında önceden herhangi bir bilgiyi içermemektedir. * P(A|B) terimi verilmiş B için Anın koşullu olasılığı adını alır. * P(B|A) terimi verilmiş A için Bnin koşullu olasılığı adını taşır. * P(B) terimi B olayı için 'önsel' olasılıktır veya Bnin marjinal olasılığıdır ve matematiksel rolü normalize eden bir sabittir. Bu şekildeki Bayes teoremini, fazla matematiksel olmadan, sezgiye dayanarak şöyle açıklayabiliriz: Bayes teoremi eğer B gözlemlenmis ise, A gözlemi hakkındaki inançların ne şekilde güncelleştirilebileceğini ortaya çıkartır. Bayes teoreminin olabilirlilik terimleri ile ifadesi Bayes teoremi olabilirlilik terimleri ile de şöyle ifade edilebilir: :P(A|B) \propto L(A | b)\, P(A). Burada L(A|b) terimi verilmiş sabit b için Anin olabilirliğidir ve L(A|B)/P(B) orantısına bazan standardize edilmis olabilirlilik veya normalize edilmiş olabilirlilik adı da verilir. Böylece :P(B | A) \propto L(A | B) ilişkisini kullanarak Bayes teoremi ortaya çıkartılır. Bu sonucu sözcüklerle şöyle de yazabiliriz: :: \mbox = \times \mbox.} Daha uygun sözcüklerle ::Sonsal olasılık önsel olasılık ile olabilirlilik çarpımına orantılıdır. Koşullu olasılıklar kullanılarak matematiksel ispat Bu teoremi ispat etmek icin koşullu olasılık tanımından başlanır. B olayı bilinirse A olayının olasılığı şöyle verilir: :P(A|B)=\frac. Aynı şekilde A olayı verilmiş ise B olayının olasılığı şudur: :P(B|A) = \frac. \! Bu iki denklem yeniden düzenlenip birbirlerine birleştirilirse, :P(A|B)\, P(B) = P(A \cap B) = P(B|A)\, P(A). \! ifadesi bulunur. Bu lemma bazan olasılıklar için çarpım kuralı olarak anılmaktadır. Her iki taraf da P(B) (eğer sıfır değilse) ile bolunurse, ortaya çıkan şu ifade Bayes teoremidir: :P(A|B) = \frac. \! Bayes teoreminin değişik şekilleri Bayes teoremi çok kere daha ek kavramlar eklenerek, sanki daha süslü olarak, ifade de edilir. Bunun için önce şu ifade kullanılır: :P(B) = P(A\cap B) + P(A^C\cap B) = P(B|A) P(A) + P(B|A^C) P(A^C)\, Burada AC (çok kere A olmayan olarak ifade edilen) A olayının tamamlayıcısı olur. Bu Bayes teoremi formulüne konulunca Bayes teoremi için yeni alternatif bir formül elde edilir: :P(A|B) = \frac. \! Daha genel olarak, olay uzayının bir bölüntüsünü oluşturduğu göz önüne alınca, bu bölüntü içinde bulunan herhangi bir Ai için şu ifade elde edilir: :P(A_i|B) = \frac , \! Toplam olasılık yasası maddesine de bakınız.

Bahis oranı ve olabilirlilik orantısı şeklinde Bayes teoremi

Bayes teoremi çok daha düzgünce bir olabilirlik orantısı olan λ ile göreceli olasılıklar oranı veya bahis oranı olan O terimleri ile şöyle ifade edilir: :O(A|B)=O(A) \cdot \Lambda (A|B) Burada :O(A|B)=\frac \! B verilimişse A olayının göreceli olasılıklar oranı veya bahis oranı ; :O(A)=\frac \! A kendi bahis oranı ve :\Lambda (A|B) = \frac = \frac \! olabilirlik orantısı olur.

Olasılık yoğunluk fonksiyonları ile Bayes teoremi

Bayes teoreminin sürekli olasılık dağılımlarına uygun olan bir şekli de vardır. Olasılık yoğunluk fonksiyonları tıpatıp olasılık olmadıkları için bu şeklin isbatı biraz daha karmaşıktır. Bu şekilde Bayes theoremi bir limit işlemin geliştirilmesi sonucu ile ortaya çıkarlar. A.Papoulis (1984), Probability, Random Variables, and Stochastic Processes, 2nci edisyon. New York: McGraw-Hill. Kısım 7.3. : f(x|y) = \frac = \frac \! Buna benzer olan bir diğer ifade de toplam olasılık yasası için şöyle ortaya çıkartılabilir: : f(x|y) = \frac^ f(y|x)\,f(x)\,dx}. \! Aynı genel aralıklı hal gibi bu formülde bulunan parçalara da özel isimler verilmiştir: *f(x, y) X ve Y için bileşik dağılımdır; *f(x|y) Y=y verilmiş iken X in sonsal dağılımıdır; *f(y|x) = L(x|y) (x in bir fonksiyonu olarak) Y=y verilmiş ise Xin olabilirlilik fonksiyonudur; *f(x) Xin marjinal dağılımı ve ve Xin önsel dağılımı olur; *f(y) Yin marjinal dağılımı olur. Dikkat edilirse burada biraz alışılmış notasyon karışıklığı kavramına kendimizi kaptırdık. Burada her bir terim icin f notasyonu kullanıldı ama gerçekte bunlarin hepsi değişik birer fonksiyonlardir. Burada verilen hali ile fonksiyonların birbirinden değişik olduklar ancak içlerinde bulunan terimlerin farklı olmaları ile anlaşılabilmektedir.

Soyut Bayes teoremi

Olasılık uzayında verilmiş olan iki mutlak sürekli olasılık ölçümleri P \sim Q (\Omega, \mathcal) ve bir sigma-cebiri \mathcal \subset \mathcal olsun. Bu halde \mathcal-ölçülmeli rassal değişken X için soyut Bayes teorem şöyle ifade edilir: :E_P[1] = \frac X |\mathcal]}|\mathcal]}. Bu formulasyon şekli Kalman filtreleme tekniğinde Zekai denklemleri bulmak için kullanılır. Bu şekil ayrıca finansman matematiği içinde numeraire değişmesi tekniklerinde uygulanır.

Bayes teoreminin kapsamının genişletilmesi

İkiden daha fazla değişken kapsayan problemler icin de Bayes teoremine benzer teoremler oluşturulabilir. Örneğin : P(A|B,C) = \frac Bu Bayes teoreminin ve koşullu olasılık tanımlamasının üzerine birkaç işlem yaparak ortaya çıkarılabilir: : P(A|B,C) = \frac = \frac = : = \frac = \frac . Bu çalışmalar için uygulanacak genel strateji ortak olasılık için parçalama ile çalışmaya başlayıp ilgimizi çekmek istemediğimiz değişkenleri entregrasyon ile marginalize etmektir. Uygulanan parçalama şekline göre, bazı entegrallerin 1e eşit olup parçalama ifadesinden düşmeleri sağlanma imkanı bulunabilir; eğer bu özellik ve imkan kullanilabilirse gereken hesaplamalar çok önemli şekilde azaltılabilir. Örneğin, bir Bayes tipi şebeke için verilen spesifikasyon dolayısıyla, (geri kalan değişkenler verilmiş olurlarsa) herhangi bir değişken için koşullu olasılık, birkaç değişkenli ortak dağılımın faktorize edilmesi ile belirlenir ve bu nedenle sonucun özellikle basit bir form alması sağlanmış olur. (Markov battaniyesi maddesine bakınız.) Örneğinler

Örneğin #1: Koşullu olasılıklar

İki tabak dolusu biskui düşünülsün; tabak #1 içinde 10 tane çikolatalı biskui ve 30 tane sade biskui bulunduğu kabul edilsin. Tabak #2 içinde ise her iki tip biskuiden 20şer tane olduğu bilinsin. Evin küçük çocuğu bir tabaği rastgele seçip bu tabaktan rastgele bir biskui seçip alsın. Çocuğun bir tabağı diğerine ve bir tip biskuiyi diğerine tercih etmekte olduğuna dair elimizde hiçbir gösterge bulunmamaktadır. Çocuğun seçtiği biskuinin sade olduğu görülsün. Çocuğun bu sade biskuiyi tabak #1 den seçmiş olmasının olasığının ne olacağı problemi burada incelenmektedir. Sezgi ile, tabak #1de sade biskui sayısının çikolatali buskui sayısına gore daha fazla olduğu göz önüne alınırsarak incelenen olasılığın %50den daha fazla olacağı hemen algılanır. Bu soruya cevap Bayes teoremi kullanarak kesin olarak verilebilir. Önce soruyu değiştirip Bayes teoremi uygulanabilecek şekle sokmak gerekmektedir: Çocuğun bir sade biskui seçmiş olduğu bilinmektedir; o halde bu koşulla birlikte tabak #1den seçim yapması olasığı ne olacaktır? Böylece Bayes teoremi formülüne uymak için A olayı çocugun tabak #1den seçim yapması; B olayı ise çocugun bir sade biskui seçmesi olsun. İstenilen olasılık böylece Pr(A|B) olacaktır ve bunu hesaplamak için şu olasılıkların bulunması gerekir: *Pr(A) veya hiçbir diğer bilgi olmadan çocuğun tabak #1 den seçim yapması olasığı; İki tabak arasında tercih olmayıp seçimin eşit olasığı olduğu kabul edilmektedir. *Pr(B) veya hiçbir diğer bilgi olmadan çocuğun bir sade biskui seçmesi olasığı: Diğer bir ifade ile, bu çocuğun her bir tabaktan bir sade biskui seçme olasığıdır. Bu olasılık, önce her iki tabaktan ayrı ayrı olarak secilen bir tabaktan bir sade biskui seçme olasıği ile bu tabağı seçme olasığının birbirine çarpılması ve sonra bu iki çarpımın toplanması suretiyle elde edilir. Tabaklarda olan sade biskuinin sayısının toplama orantısından bilinmektedir ki tabak #1den bir sade biskui seçme olasılığı (30/40=) 0,75; tabak #2den sade biskui seçme olasılığı (20/40=) 0,5 olur. Her iki tabaktan seçme olasılığı ise her tabak ayn sekilde uygulama gördüğü için 0,50 olur. Böylece bu problemin tümü için bir sade biskui seçme olasılığı 0.75×0.5 + 0.5×0.5 = 0.625 olarak bulunur. * Pr(B|A), veya çocuğun tabak #1den seçim yaptığı bilirken bir sade biskui seçmesi.: Bu 0,75 olarak bilinmektedir çünkü tabak #1deki toplam 40 biskuiden 30u sade biskuidir. Şimdi bu aciklanan tüm olasılık değerleri Bayes teoremi formüne konulabilir: :P(A|B) = \frac = \frac = 0.6 Böylece çocuğun tabak #1den seçim yaptığı bilindiğine göre bir sade biskui seçimi yapmasının olasılığı %60dir ve sezgimize göre seçtiğimiz %50den daha büyüktür.

Ortaya çıkma tabloları ve orantısal çokluklar

Kosşullu olasılıkları hesaplarken her bir bağımsız değişken için her mümkün sonucun ortaya cikma sayısını veya her sonucun relatif çoklulukunu gösteren basit bir tablo hazırlamak konuyu daha iyi anlamaya yardımcı olabilir. Biskuvi örneği için bu yöntemin kullanışını gösteren tablolar şöyle verilmiştir: | | |} Sağdaki tablo, sol taraftaki tablo içindeki her bir hücre elemanını toplam biskui sayısı (yani 80) ile bölerek elde edilmiştir.

Örneğin #2: Yeni ilaç sınamaları

Örneğin #3: Bayes tipi çıkarımsal analiz

Bayes Teoreminin uygulanmaları için çok defa Bayes tipi olasılık konusunun altında bulunan felsefeyi, yani belirsizlik ve inançların dereceler ıskalası bulunduğu hakkındaki açıklamaları, kabul ederiz. Bu örneğinden başka işlemlere tabi tutulmuş örnekler Bayes tipi çıkarımsal analiz de bulunabilir. Bir değişken olan A'nin marjinal olasılık dağılımını önsel olasılık dağılım veya daha basite önsel olarak tanımlayalım. B "verisi" verilmiş olduğu halde A için koşullu dağılıma sonsal olasılık dağılım veya sonsal adı veriyoruz. Bir referendum yapılması halini ele alalım. Bu referendumda bir soru sorulduğu ve sadece buna "evet" veya "hayır" olarak verildiğini düşünelim. Bu referendum sonucu için büyük bir anakütlede evet yanıtına oy veren kısmının toplama oranının r olduğunu kabullenelim. (İstatistiksel bağımsızlık sağlamak nedeni ile seçtikten sonra geri koyulma usulünü kullanarak) n sayıda seçmeni basit rassal örnekleme ile örneklem olarak seçelim; elde edilen bu örneklemde bulunan evet yanıtına oy veren seçmen sayısının m olduğunu düşünelim. Düşünelim ki bir gözlemde bu parametreler n = 10 seçmen and m = 7 evet oyu veren seçmen olsun. r için olasılık dağılım fonksiyonunu Bayes teoremini kullanarak şöyle bulabiliriz: : f(r | n=10, m=7) = \frac . \! Bundan görülür ki f(r) önsel olasılık dağılım fonksiyondan ve L(r) = f(m = 7|r, n = 10) olabilirlilik fonksiyonundan f(r|n = 10, m = 7) sonsal olasılık fonksiyonunu hesaplayabiliriz. f(r) önsel olasılık dağılımı, hiçbir gözlem yapılmadığı veya bulunmadığı halde r nin dağılımı hakkında bilgilerimizi özetler. Geçici olarak, bu halde r için önsel dağılım fonksiyonunun [2] aralığında bulunan bir tekdüze dağılım olduğunu kabul edelim; yani f(r) = 1. Eğer arka planda bulunan diğer bilgileri daha önceden biliyorsak bu önseli bunlara dayanarak değiştirebiliriz ama şu ilk bakışta bütün sonuçların aynı olasılıkta olduğu geçici olarak kabul edilmektedir. Rastgele örnekleme hakkında yaptığımız varsayım dolayısıyla, seçmenleri bu örnekleme ile seçme, bir küp problemi, (bir küp veya benzeri bir kap içinde bulunan çeşitli renkli toplardan birini seçme problemi) ile aynıdır. Bu tip problem için olabilirlilik fonksiyonu L(r) = P(m = 7|r, n = 10,) olur ve bu 10 çekiş sınamasında 7 başarı bulmanın binom dağılımı olur: : P( m=7 | r, n=10) = \, r^7 \, (1-r)^3. Bir önsel olduğu için bu olabilirlilik değişmeye maruz kalabilecektir - daha karmaşık on varsayımlar daha karmaşık olabilirlilik fonksiyonlar ortaya çıkaracaktır. Şu halde basit varsayımlarımızı olduğu gibi kabul edelim ve şu normalize etme faktörünü hesaplayalım: : \int_0^1 P( m=7|r, n=10) \, f(r) \, dr = \int_0^1 \, r^7 \, (1-r)^3 \, 1 \, dr = \, \frac \! Bu halde r için sonsal dağılım şu olur: : f(r | n=10, m=7) = \frac \, r^7 \, (1-r)^3 \, 1} \, \frac} = 1320 \, r^7 \, (1-r)^3 burada r değerleri 0 ve 1 e de eşit olarak 0 ile 1 arasındadır. Bir diğer sorun olarak seçmenlerin yarısından çoğunun "evet" oyu vermesinin olasılığının ne olabileceği ile ilgilenebiliriz. Bu halde seçmenlerin yarısından çoğunun "evet" oyu vermesinin önsel dağılımı (tekdüze dağılımın simetrik olması nedeniyle) (1/2)ye eşit olur. Buna karşılık, seçmenlerin yarısından daha fazlasının evet oyu vermesinin sonsal olasılığı (yani oylamadan önceki yapılan anket sonuçları) 10 seçmenden 7sinin "evet" oyu vereceğini bize açıklamıştır; yani :1320\int_^1 r^7(1-r)^3\,dr \approx 0.887, \! veya bu sonsal olasılık yaklaşık %89 olarak hesaplanır. Örneğin #4: Monty Hall problemi Bir TV oyun programında üç tane (kirmizi, yesil ve mavi boyali) kapali kapi gosterilmekte ve bu kapilardan birinin arkasinda bir armagan bulunmaktadir. Kirmizi kapiyi sectigimizi dusunelim; ama bu kapi program sunucunun bir faaliyet goistermesini bitirmeden acilmamaktadir. Program sunucusu hangi kapi arkasinda armagan bulundugunu bilmektedir; ama ona verilen direktife gore ne arkasinda armagan bulunan kapiyi ne de sectigimiz kapiyi acabilir. Yesil kapiyi acar ve arkasinda bir armagan bulunmadigini gosterir ve su soruyu yarismaciya sorar: "Ilk tercihiniz olan kirmizi kapi hakkinda fikrinizi değistirmek ister misiniz?" Incelenecek sorun armaganin mavi veya kirmizi kapilar arkasinda bulunma olasiliklari nedir? Yarismanin ana sonuclari olan degisik renkli kapilar arkasinda armagan bulunmasini soyle ifade edelim Ak, Ay ve Am. Ilk olarak her bir kapi arkasinda armagan bulunmasi birbirine esit olasigi oldugu kaabul edilir yani P(A_k) = P(A_y) = P(A_m) = \frac 1 3 oilur. Yine dusunelim kirmizi kapiyi yarismaci secmis durumdadir. "Sunucunun yesil kapiyi acmasi olayina B olayi adini verelim. Arkasinda armagan bulunan kapiyi bilmeseydi bu olay icin olasilik %50 olacaktir. *Eger gercekte armagan kirmizi kapi arkasinda ise, sunucu ya yesil ya da mavi kapiyi acmakta serbest olacaktir. Bu halde P(B|A_k) = 1/2 *Eger gercekte armagan yesil kapi arkasinda ise, sunucu mavi kapiyi acacaktir. Yani P(B|A_y) = 0. *Eger gercekte armagan mavi kapi arkasinda ise, sunucu yesil kapiyi acacaktir. Yani P(B|A_m) = 1. Boylece \begin P(A_k|B) & = \frac & = \frac & = \frac 1 3 \\ P(A_y|B) & = \frac & = \frac & = 0 \\ P(A_m|B) & = \frac & = \frac & = \frac 2 3 \end Dikkatle incelenirse bunun P(B) degerine bagli oldugu gorulecektir. Bir an armaganin kirmizi kapi arkasinda olmadığını farzedelim; o halde sunucunun yesil kapiyi acma olasigi cok yuksek olacaktir - diyelim %90. Bundan dolayi, eger sunucu baska kapi acmaya zorlanmadikca, yesil kapiyi acmayi tercih edecektir. Boylece, B olayi olasigi 1/3 * 1 + 1/3 * 0 + 1/3 * 9/10 = 19/30 olur. \begin P(A_k|B) & = \frac & = \frac \frac 1 3} } & = \frac 9 \\ P(A_y|B) & = \frac & = \frac } & = 0 \\ P(A_m|B) & = \frac & = \frac } & = \frac \end Bu nedenle sunucunun yesil kapiyi acmasi bizi cok az bilgi vermektedir - zaten bu secime yapamaga zorundadir. Pr(Am) olasigi 1/2in cok az ustundedir. Buna karsilik, armaganin kirmizi kapi arkasinda oldugunu farzedersek; o halde sunucunun yesil kapi acma olasigi cok kucuk olacaktir - diyelim %10. Bu demektir ki ozellikle zorlanmadikca sunucu nerede ise hic bir halde yesil kapiyi acmiyacaktir. O halde B olasigi 1/3 * 1 + 1/3 * 0 + 1/3 * 1/10 = 11/30 olur \begin P(A_k|B) & = \frac & = \frac \frac 1 3} } & = \frac 1 \\ P(A_y|B) & = \frac & = \frac } & = 0 \\ P(A_m|B) & = \frac & = \frac } & = \frac \end Bu halde, gercekte sunucunun yesil kapiyi acmasi bize cok onemli bilgi vermektedir. Aramagan nerede ise hic suphesiz mavi kapi arkasinda bulunmaktadir. Eger mavi kapi arkasinda degilse sunucu cok muhtemelen mavi kapiyi acacakti. Birkaç tarihsel açıklama Bayes Teoremi, (mordern terimlerle) bir binom dağılımin parameteresinin olasılık dağılımının hesaplanmasını incelemekte olan, İngiliz Rahip Thomas Bayes (1702–1761) tarafından bulunmuştur. Bu çalışma Bayes yaşamakta iken yayınlanmamış; ancak Bayes'in ölümünden sonra 1763de yakın arkadaşı olan "Richard Price" tarafından yayına hazırlanıp bastırılmıştır. Bayes'in çalışmalarından haberdar olmayan Fransız matematikci Pierre-Simon Laplace aynı sonuçları aynen sırf kendi gayretiyle yeniden çıkartıp genişleterek 1774de yazdığı bir makalede yayınlamıştır. Bir Amerikan istatistik profesörü (Stigler 1983), yaptığı bir araştırma sonucunda, Bayes Teoremi'nin, Bayes'ten bir süre önce Nicholas Saunderson tarafından bulunduğunu öne sürmüştür. İçsel kaynaklar Referanslar

Yazının değişik versiyonları

* Thomas Bayes (1763), "An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S.", Philosophical Transactions, Giving Some Account of the Present Undertakings, Studies and Labours of the Ingenious in Many Considerable Parts of the World 53:370–418. * Thomas Bayes (1763/1958) "Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances", Biometrika 45:296–315. (Bayes'in eserinin modern notasyona değiştirilmiş şekli) * Thomas Bayes "An essay towards solving a Problem in the Doctrine of Chances". (Bayes'in eserinin orijinal notasyonlu şekli)

Yorumlar

* G. A. Barnard (1958) "Studies in the History of Probability and Statistics: IX. Thomas Bayes' Essay Towards Solving a Problem in the Doctrine of Chances", Biometrika 45:293–295. (Biyografik açıklamalar) * Daniel Covarrubias. "An Essay Towards Solving a Problem in the Doctrine of Chances". (Bayes'in eseri üzerinde bir anahatlar taslağı ve açıklamalar) * Stephen M. Stigler (1982). "Thomas Bayes' Bayesian Inference," Journal of the Royal Statistical Society, Series A, 145:250–258. (Stigler, Bayes'in eserinin değişik bir şekilde yorumlanmasını önermektedir. Okunması tavsiye edilir. ) * Isaac Todhunter (1865). A History of the Mathematical Theory of Probability from the time of Pascal to that of Laplace, Macmillan. Reprinted 1949, 1956 by Chelsea and 2001 by Thoemmes.

Ek kaynaklar

* Pierre-Simon Laplace (1774), "Míémoire sur la Probabilitíé des Causes par les í‰víénements", Savants í‰tranges 6:621–656; also Å’uvres 8:27–65. * Pierre-Simon Laplace (1774/1986), "Memoir on the Probability of the Causes of Events", Statistical Science 1(3):364–378. * Stephen M. Stigler (1986), "Laplace's 1774 memoir on inverse probability", Statistical Science 1(3):359–378. * Stephen M. Stigler (1983), "Who Discovered Bayes' Theorem?" The American Statistician 37(4):290–296. * Jeff Miller, et al., Earliest Known Uses of Some of the Words of Mathematics (B). (Aydınlatıcı bilgi sağlamakta. Okunması tavsiye edilir.) * Athanasios Papoulis (1984), Probability, Random Variables, and Stochastic Processes, second edition. New York: McGraw-Hill. * James Joyce (2003), "Bayes' Theorem", Stanford Encyclopedia of Philosophy. * The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J. C. MacKay Bayes teoreminin enformasyon kurami ve makina-ogrenimi konularinda kullanilmasi icin bir guncel tanitma saglamaktadir. * Stanford Encyclopedia of Philosophy: Bayes' Theorem Bayes teoremine çok kapsamlı bir giriş sağlar. * Eliezer S. Yudkowsky (2003), " Bayes tipi mantık yürütmek için sezgiye dayanan bir açıklama" * Oksford Üniversitesi psikoloji öğrencileri için hazırlanmış olasılık ve Bayes teoremi hakkında ders notları

Kaynaklar

Vikipedi

Bu konuda henüz görüş yok.
Görüş/mesaj gerekli.
Markdown kullanılabilir.

Thomas Bayes
2 yıl önce

Thomas Bayes (yak. 1701 - 7 Nisan 1761), kendi adını taşıyan Bayes teoremi ile bilinen İngiliz matematikçi. Edinburgh Üniversitesi'nde okudu. Hayatta...

Bayesci istatistik
2 yıl önce

Bayes istatistiksel yöntemleri, yeni veriler elde ettikten sonra olasılıkları hesaplamak ve güncellemek için Bayes teoremini kullanır. Bayes teoremi,...

Önsel olasılık
6 yıl önce

istatistikte tanı testlerinin değerlendirilmesinde kullanılır. Bakınız Bayes teoremi Bayes teoremi aşağıdaki denklemle ifade edilir; P ( A | B ) = P ( B | A ) P...

Bayesci Olasılık
6 yıl önce

James Franklin The Science of Conjecture: Evidence and Probability Before Pascal, Bayesci bakış açısından tarih Bayes teoremi Bayes ağı Enbüyük artçıl...

Koşullu olasılık
2 yıl önce

Dolayısıyla: P ( A ∣ B ) = 0 {\displaystyle P(A\mid B)=0} ve P ( B ∣ A ) = 0 {\displaystyle P(B\mid A)=0} Olasılık kuramı Bayes teoremi Ortak olasılık...

Koşullu olasılık, Olasılık Kuramı, Ortak olasılık, Bayes Kuramı
İstatistiksel terimler, kavramlar ve konular listesi
2 yıl önce

teoremi Bates-Neyman modeli Baule denklemi Bayes aralıkları Bayes çözümü Bayes etkeni Bayes faktörü Bayes güven aralığı Bayes güven aralıkları Bayes karar...

Kenneth Arrow
2 yıl önce

imkânsızlık teoremi, Arrow-Pratt katsayısı gibi önemli kavramlar yine onun ve arkadaşlarının ellerinde meydana getirilmiştir. 1949, Bayes and Minimax...

Kenneth Arrow, 1921, 1972, 23 Ağustos, Nobel, Arrow'un imkansızlık teoremi, Arrow-Pratt katsayısı, Arrow-Debreu dengesi
Multinom dağılımı
2 yıl önce

aynıdır Dirichlet dağılımı Bayes tipi istatistikte multinom dağılımının eşlenik önselidir. Çokdeğişirli Polya dağılımı Multinom teoremi Ayrık olasılık dagılımı...