4 Temmuz 2020 Cumartesi

Yudi Pawitan “In All Likelihood: Çok Muhtemelen” Bölüm 1

Yudi Pawitan “In All Likelihood: Çok Muhtemelen”

Çeviren: Ahmet Diril (e-posta)

Bölüm 1: Giriş

İstatistiksel modelleme ve çıkarsama (inference), her şeyden önce, değişkenlik (varyasyon) ve belirsizlik problemini çözmek için ortaya çıkmış ve geliştirilmiştir. Bu, iddialı bir girişim gibi görünebilir, çünkü hayatını yaşayan herkes, sakince bile yaşasa, her yerde yaygın şekilde var olan belirsizlikleri fark eder. Belirsizlikle karşılaştığımızda titiz, bilimsel ve hatta mantıklı bir şeyler söyleyebileceğimiz kesin/açık değildir.

Belirsizliğe tepki olarak istatistikte farklı düşünce okulları (ekolleri) ortaya çıkmıştır. Bayesçi (Bayesian) dünyada tüm belirsizlikler, standart olasılık kuralları kullanılarak modellenebilir ve işlenebilir (hesaplanabilir) kabul edilir. Sıklıkçılık (Frequentism), istatistiksel olarak incelenebilecek belirsizlik tiplerini sınırladığı için daha şüphecidir (septik). Biz ise Bayesian ve Frequentism yaklaşımları arasında bir orta nokta sunan olabilirlik (Fisherian/Fisherci) ekolü üzerinde duracağız. Bu bölümün amacı, bu istatistiksel yaklaşımların evveliyatını ve motivasyonunu (nedenlerini) incelemektir.

1.1 İstatistiksel problemlerin prototipi (ilkörneği)

Sadece iki değer içeren, en basit ve istatistiksel olarak çözümü aşikar olmayan (non-trivial) bir problemi ele alalım. Son çalışmalar, araç sürerken önemli sayıda sürücünün cep telefonlarında konuştuğunu göstermektedir. Bu durumun kaza oranları üzerinde bir etkisi var mı? Trafik kazasında ölümlerin geçen yıl 170'ken bu yıl 190'a yükseldiğini varsayalım. Sayısal olarak 190, 170'ten büyüktür; ancak artışın 'gerçek' olup olmadığı net değildir. Bunun yerine bu yılki sayının 174 olduğunu varsayalım, bu durumda sezgisel olarak değişimin 'gerçek' olmadığını hissediyoruz. Sayı 300 olsaydı, bunun 'gerçek' bir artış olduğundan daha fazla emin olacaktık (bu artışın cep telefonu kullanımıyla bağlantılı olup olmadığı tamamen farklı bir konudur; cep telefonu kullanırken sürücülerin trafik kazası geçirme riski hakkında bir rapor için bkz. Redelmeier ve Tibshirani (1997)).

Bir değişimin 'gerçek' olduğunu hissedersek, onun 'anlamlı' (significant) olduğunu kabul edelim. Sezgisel düzeyde, bu anlamlılık hissi nedir? Sayısal bir uyarana (stimulus) tepki verdiği kuşkusuz, çünkü 174'ün 300'den farklı olduğunu 'hissediyoruz'. Hangi noktada belirsiz/kararsız olmaktan daha emin olmaya geçiyoruz? Aritmetiğin veya calculusun temel yasalarında bize bu soruya sayısal bir cevap sağlayabilecek hiçbir şey yok. Ve elbette cevap, verilerin (bu durumda iki değer) kendisinin bütününde (totality) de bulunmuyor.

Belirsizlik, gerçek dünyayla ilgili problemlerde yaygındır, ancak istatistik, belirsizliği ele almak için sistematik çaba harcayan tek bilim dalıdır. İstatistik, sınırlı bilgi nedeniyle doğasında belirsizliği olan problemler için uygundur; belirsizliği ortadan kaldırmayı amaçlamaz, ancak çoğu durumda sadece onu nicelendirir (ölçer/hesaplar); bir analiz bittikten sonra bile belirsizlik kalmaya devam edebilir.

Aspirin verileri örneği

Sağlıklı bireyler için düşük dozda aspirinin hastalanmayı önleyici faydalarına ilişkin çığır açan bir çalışmada (1989 tarihli Doktorlarda Sağlık Çalışması Araştırma Grubu Yönlendirme Komitesi), toplam 22.071 sağlıklı doktor, rasgele olarak aspirin ve plasebo gruplarına ayrıldı ve ortalama 5 yıl takip edildi. Takip sırasındaki kalp krizi ve felç sayıları Tablo 1.1'de verilmiştir.

Grup Kalp Krizi Felç Toplam
Aspirin 139 119 11.037
Plasebo 239 98 11.034
Toplam 378 217 22.071

Tablo 1.1: Doktorlarda Sağlık Çalışmasında takip sırasında kalp krizi ve felç sayısı.

Ana tıbbi sorumuz istatistikseldir: aspirin faydalı mı? Aspirin grubunda (139'a karşı 239) daha az kalp krizi olduğu açık, ancak aynı durum ile karşı karşıyayız: kanıtlar, bu soruyu güvenle cevaplayabilmemiz için yeterince güçlü mü? Felç sayısı olarak ölçülen yan etkiler aspirin grubunda daha fazlaydı, ancak (119'a karşı 98) faydası kadar ikna edici değil.

Aspirinin faydasını göreceli bir risk olarak ifade ettiğimizi varsayalım:

\[{{139/11.037} \over {239/11.034}} = 0,58 \]

Bire (1) eşit bir göreceli risk, aspirinin yararlı olmadığını gösterirken, birden çok düşük bir değer ise bir yararı olduğunu gösterir. 0,58 değeri 1’den “yeterince uzakta” mı? Böyle bir soruyu cevaplamak için gözlemlediğimiz verileri tanımlayan stokastik bir model gerekir. Bu örnekte, aspirin grubundaki kalp krizi sayısını θ1 olasılığına sahip bir binomial olarak ve plasebo grubundaki kalp krizi sayısını θ2 olasılığı olan bir binomial olarak modelleyebiliriz. Bu durumda gerçek göreceli risk \( \theta \equiv \theta_{1}/ \theta_{2}\)’dir.

Gözlemlenen göreceli riski \(\hat{\theta}\) = 0,58 ile gösterelim. Bu sayıya eşlik eden bir belirsizlik yok, bu nedenle asıl sorunun istatistiksel doğasını karşılayamaz. Denemede, \(\hat{\theta}\)'in gerçekten de birden "çok daha" küçük olduğu bilgisi bulunuyor mu? Şimdi çalışmanın 10 kat daha büyük bir çalışma olduğunu varsayalım, bu yüzden benzer olay oranlarını varsayarak, 1390'a karşı 2390 kalp krizi gözlemledik. Bu durumda daha önce olduğu gibi \(\hat{\theta}\)= 0,58 , ama sezgisel olarak bilgiler artık daha güçlü. Dolayısıyla, verilerde, \(\hat{\theta}\)’in 1’den uzakta (küçük) olduğundan ne kadar emin olduğumuzu belirleyecek bir kesinlik ölçütü olmalı.

Şimdi istatistiksel çıkarsamanın (inference) temel problemini ifade edebiliriz: gözlemlenen verilerden ilgilendiğimiz parametre ile ilgili ifadelere/önermelere  nasıl geçebiliriz?

1.2 İstatistiksel problemler ve modelleri

Stokastik unsur

[stochastic: istatistiksel olarak analiz edilebilen ancak kesin olarak öngörülemeyen rastgele bir olasılık dağılımına veya örüntüsüne/modeline (pattern) sahip olan]

İstatistiksel bir problemde, temel aritmetik yasalarının uygulanamadığı bariz bir stokastik veya rastgele unsur vardır. Trafik kazası örneğinde, ölümlerin sayısına katkıda bulunan çeşitli beklenmedik olayların veya rastgele olayların varlığını sezgisel olarak kabul ederiz; aslında, iki sayının (yani önceki yıl ve bu yıl) eşit olması çok şaşırtıcı olurdu. Dolayısıyla, istatistiksel yöntemler sorunun bu yönüyle başa çıkmak için stokastik modellere ihtiyaç duyar. Modellerin ve yöntemlerin geliştirilmesi istatistiğin tümdengelimli (deductive) veya matematiksel yönüdür.

[deductive: genel bir kanundan belirli örnekler/durumlar kullanılarak çıkarılan veya bu çıkarıma (inference) dayanan, tümdengelimli]

[tümdengelim: akıl yürütmede tümelden tikele, yasadan olaya, etkenden etkiye, genelden özele geçme yolu]

Modellerin matematiksel uygulanışı genellikle kesin ve muhtemelen tartışmasız olsa da, modelin kendisinin seçimi belirsizdir. Bunun farkında olmak önemlidir; çünkü çoğu istatistiksel analizin geçerliliği modelin doğru olmasına bağlıdır. Bu bir ödünleşme/dengeleme (trade-off) durumudur: özellikle seyrek (az) verilerle bir analiz yapabilmek için bir modele ihtiyaç vardır, ancak yanlış bir model yanlış bir sonuca götürebilir.

Tümevarımsal (inductive) süreç

[inductive: belirli örneklerden genel yasaların çıkarılması ile ilişkili, tümevarımsal]

[Tümevarımsal (inductive) istatistik (veya tümevarımsal akıl yürütme), büyük bir popülasyondan örnekler almak ve bu verileri aşağıdakiler için kullanmakla ilgilenen bir istatistik dalıdır: sonuçlar çıkarmak, kararlar vermek, tahminler yapmak, gelecekteki davranışları tahmin etmek]

[Tümdengelimli (deductive) istatistik; bir örneklemden elde edilen verilerden başlayarak popülasyonla/bütünle ilgili kararlar alınmasına dayanır]

[Tümdengelimli akıl yürütme bir ifade veya hipotezle başlar ve gözlem yoluyla bunun doğru olup olmadığını test eder, tümevarımsal akıl yürütme gözlemlerle başlar ve genelleme ve teorilere doğru geri gider.]

İstatistiksel problemler tümevarımsaldır: belirli gerçekleri/olayları gözlemlemenin sonucu olarak ortaya çıkan sorularla ilgilenirler. Gerçekler genellikle bir deneyin veya çalışmanın sonucudur. Sorular genellikle gözlemlerden daha geneldir; doğrudan gözlenmeyen ancak bir şekilde gözlenen verilerde mantıksal olarak bulunan bir şeyi bulmak isterler. Buna verilerden bir “çıkarsama” (infer) yaparız deriz. Trafik kazası ölümleri örneğinde, rastlantısallık yaratan çeşitli beklenmedik olayları dikkate aldıktan sonra altta yatan kaza / ölüm oranlarını karşılaştırmak istiyoruz.

Matematikteki gibi tümdengelimli (deductive) problemler için, bazen yeni bir teorem oluşturmak için mevcut bilgilerin sadece bir kısmı yeterli olur. Tümevarımsal (inductive) bir problemde ana sonuca varılırken, verilerin her bir parçası dikkate alınmalıdır; verilerin bazı bölümlerini göz ardı etmek genellikle kabul edilebilir değildir. İstatistiksel çıkarımsama (inference) ile bazı paralellikleri olan tümevarımsal bir sorun, bir sanığın suçunu veya masumiyetini tespit etmek için yapılan bir mahkeme duruşması gibidir. Tanığın ‘gerçeği, tüm gerçeği anlatacağına ve gerçeğin dışında hiçbir şeyi anlatmayacağına’ yemin etmesi, tümevarımsal sürecinin şartlarını özetler.

Tümdengelimli problemlerde, yeni teoremin gerçeklik kalitesi/oranı, onu kurarken kullanılan 'verilerin' (aksiyomlar, tanımlar ve önceki teoremler) kalitesiyle/doğruluğuyla aynıdır. Aksine, tümevarımsal bir sonuçtaki kesinlik derecesi tipik olarak veri bileşenlerinin derecesinden daha yüksektir ve daha fazla veri kullandıkça, sonucun gerçeklik kalitesi artar.

Ancak, tek bir yeni bilgi parçası dikkatle hazırlanmış bir sonucu yok edebilir; tümevarımsal çıkarsamanın bu yönü gizemli romanlar ve mahkeme salonu dramaları için idealdir, ancak istatistikçiler için bir felaket olabilir.

Diyelim ki İrlanda'daki besin zincirine girmiş, BSE- (Sığır Süngerimsi Ensefalopati veya 'deli dana') enfekte sığır sayısını tahmin etmek istiyoruz. Bu basit (trivial) bir problem değildir, ancak gözlemlenen BSE vakalarının sayısına ve hastalık hakkında bazı varsayımlara dayanarak, semptomlarını göstermeden önce kesilen enfekte hayvanların sayısını tahmin edebiliriz. İhraç edilen sığırlara ilişkin yeni ve son dakika bilgileri mevcut bir tahmini geçersiz kılabilir; ihraç edilen hayvanların yaş dağılımının yurt içi tüketime ayrılan hayvanlardan farklı olduğuna dair ek bilgiler de tahmini değiştirecektir.

İstatistik bilimde önemli bir rol oynar, çünkü birçok bilimsel soru stokastikten ziyade deterministik olsa da tüm bilimsel çalışmalar tümevarımlıdır (inductive). İstatistik biliminin ortaya çıkışı, kısmen tümevarımlı süreci titiz (doğru/kesin) hale getirme çabasının sonucudur. Bununla birlikte, bir bilim filozofu olan Lipton (1993), “tümevarımsal çıkarsamanın kesin kanıtlar bulmakla değil, kanıtları tartmak ve olabilirliği belirlemekle ilgili olduğu” konusunda uyarmaktadır.

[Deterministik modellerde, modelin çıktısı tamamen parametre değerleri ve başlangıç koşulları ile belirlenir. Stokastik modeller içinde bazı rastgelelikler barındırır; aynı parametre değerleri ve başlangıç koşulları, farklı çıktılardan oluşan bir grubu (ensemble) sonuç verir.]

Tümevarımlı süreç doğası gereği biraz belirsizdir: girdiler benzersiz/tek bir çözümü garanti etmez, bu da doğru bir tümevarımın bile hatalı sonuç verebileceği anlamına gelir.

Ampirik veya mekanik (mechanistic) modeller

İstatistiksel problemleri çözmek için kullanılan modeller ya ampiriktir ya da mekanik. Mekanik modeller, altta yatan süreçler hakkında ayrıntılı bilgilerin var olduğu uygulamalar ile sınırlıdır. Örneğin, fizikteki Newton yasaları veya genetikteki Mendel yasaları mekanik modellerdir. Burada gözlem altındaki farklı nicelikler arasındaki kesin ilişkiler, verilere bakmak yerine çoğunlukla bir ilgi konusunun  değerlendirilmesiyle/irdelenmesiyle önerilir. Bir mekanik model, gözlemlenen verileri açıklayan temeldeki bir mekanizmayı ifade eder.

[Ampirik modeller doğrudan gözlem, ölçüm ve kapsamlı veri kayıtlarına dayanır. Mekanik modeller, bir sistemin bileşenlerinin davranışının anlaşılmasına dayanır.]

Tıp, epidemiyoloji (salgın hastalıklar), psikoloji, iklimbilim veya tarım gibi uygulamalı bilimlerdeki modeller genellikle ampiriktir. Bir insan veya bir arazi alanı gibi analitik bir birim, çoğunlukla bilimsel bir formülle tanımlanamayacak kadar karmaşıktır. Trafik kazaları örneğindeki ölüm sayısını Poisson dağılımı olarak modellersek, neden 100 ölüm yerine 170 ölüm gözlemlediğimizi zar zor açıklayabiliyoruz. Ampirik modeller, ilgi konusu çok fazla dikkate alınmadan/irdelenmeden yalnızca verilere bakarak oluşturulabilir (bu elbette bir istatistikçinin ıssız bir adada çalışmasının kabul edilebilir olduğu anlamına gelmez). Ampirik bir modelin temel şartı, gözlemlenen verilerdeki temel mekanizmadan ziyade değişkenliği açıklamasıdır.

Bu iki tip model arasındaki ayrım henüz çok net değildir. Mekanik bir modelin geliştirilmesine yardımcı olmak için bazı ampirik kanıtların kullanıldığı veya bir modelin kısmen mekanik ve kısmen ampirik alt modellerden oluşabildiği gri bölgeler mevcuttur. Örneğin elektronun yükü, ampirik bir niceliktir, ancak elektronların (ortalama) davranışı kuantum teorisi tarafından mekanik olarak modellenir.

19. ve 20. yüzyılın başlarında deneylerin çoğu temel bilimlerde gerçekleştirilmiştir; dolayısıyla o zamanki bilimsel modeller çoğunlukla mekanikti. Ampirik modellemenin yükselişi özgürleştirici bir etki yarattı. Şimdi uygulamalı bilimlerin çoğunda deneyler yapılabiliyor veya daha da “kötüsü”: veriler, kontrollü deneyler yerine gözlemleme çalışmalarından bile toplanabiliyor. İstatistikteki dağılım sınıfları ve doğrusal veya doğrusal olmayan regresyon modelleri gibi genel modellerin çoğu ampirik modellerdir. Dolayısıyla, istatistiksel modellemenin yükselişi ampirik modelleme ile eşzamanlıdır.

Ampirik modeller yaygın olarak uygulanabilir olsa da, bunların sınırlamalarını bilmemiz gerekir; bkz. Örnek 1.1. Mekanik bir model, ampirik bir modelden daha tatmin edicidir, ancak şimdinin ampirik modeli geleceğin mekanik modeli de olabilir. İstatistiksel uygulamaların bazı alanlarında hiçbir zaman mekanik bir model olmayabilir; örneğin, trafik kazalarının sayısı için asla mekanik bir model olmayacaktır. İlgili konunun teorisinden olabildiğince çok girdi/katkı alan bir ampirik model ile bu ikisinin arası bulunabilir.

İstatistiksel bakış açısından modellerin rolü Lehmann (1990) ve Cox (1990) 'da daha ayrıntılı tartışılmaktadır.

Örnek 1.1: Ampirik modelin klasik bir örneği, 18. yüzyılda, gezegenlerin Güneşe olan mesafesini (dk) tanımlayan Bode'nin geometrik artış yasasıdır. Good (1969) ve Efron (1971) bu yasanın 'gerçekliğinin' istatistiksel bir değerlendirmesini yapmıştır. Yasaya göre:

dk = 4 + 3 × 2k

Burada k = -∞, 0, 1, ... değerlerini alır ve Dünya için d1 = 10 olacak şekilde dk ölçeklendirilmiştir. Biraz 'hokkabazlık' ile yasa, önerildiği sırada varlığı bilinen gezegenlere çok iyi uyuyordu (Satürn'e kadar olan gezegenler çıplak gözle görülebilir). Daha iyi uyum sağlamak için Jüpiter, k = 4 konumuna kaydırıldı ve Mars ile Jüpiter arasında k = 3'te eksik bir nokta kaldı. Bu yasa ortaya çıktıktan sonra 'kayıp gezegen' için bir arama çalışması yapıldı. k = 6'da olan Uranüs, öngörülen mesafede keşfedildi ve böylece yasaya olan güven güçlendi. Kayıp gezegen hiç bulunamadı; bununla birlikte yaklaşık olarak varlığının tahmin edildiği mesafede bir asteroit grubu bulunmaktadır.

Gezegen k Bode kanunu Gözlenen mesafe Dördüncü derece polinom
Merkür -∞ 4 4,0 4,1
Venüs 0 7 7,2 6,7
Dünya 1 10 10 10,2
Mars 2 16 15,3 16,0
? 3 28 ? 26,9
Jüpiter 4 52 51,9 50,0
Satürn 5 100 95,5 97,0
Uranüs (1781) 6 196 191,4 186,5
Neptün (1846) 7 388 300,0 312,8
Pluto (1930) 8 772 394,6 388,2

Formül (Uranüs'e kadar; bkz. Şekil 1.1) verilere iyi uyuyor olsa da, asıl soru cevaplanmış değil: Bu 'gerçek' bir fiziksel kanun mu? Gerçekten de, kanun Neptün ve Plüton'a uymamaktadır. Dördüncü derece bir polinom kullanarak verilere daha iyi uyum elde edilebiliyor, ancak şimdi bu modelden çok fazla mekanik değer bekleyemeyeceğimiz açık.

Şekil 1.1: Güneş'ten itibaren sıra numarasına göre gezegen mesafelerinin ampirik modeli: Bode kanunu (katı çizgi) ve dördüncü derece polinom fiti (noktalı çizgi).

1.3 İstatistiksel belirsizlik: kaçınılmaz tartışmalar


Gerçeklikten (gerçek dünyadan) bahseden matematik kanunlarına gelince, bu kanunlar kesin değildir; kesin olduklarında da gerçek dünyadan bahsetmezler. - Albert Einstein (1879-1955)



Önceki bölümde bahsedilen özellikler (özellikle ampirik problemler için) istatistiksel problemlerin belirsiz/muğlak (vague) görünmesinde etkili olmuştur. Burada iki tür istatistiksel belirsizliği tanımlamak uygun olacaktır:



(i) stokastik belirsizlik: sabit bir parametre ve rastgele bir sonuç hakkındaki/üzerindeki belirsizliği içerir. Bu belirsizliğin üstesinden gelmek nispeten kolaydır. Prensipte sabit bir parametre hakkındaki belirsizlik, her zaman daha büyük bir deney yapılarak azaltılabilir. İstatistiksel çıkarsamadaki (inference) birçok kavram bu belirsizlikle ilgilidir: örneklem dağılımı, değişkenlik, güven seviyesi, P değeri, vb.



(ii) tümevarımsal (inductive) belirsizlik: bilgi eksikliği nedeniyle ortaya çıkan bu belirsizliğin üstesinden gelmek daha zordur, çünkü bunu ölçmemiz/nicelendirmemiz veya kontrol etmemiz mümkün olmayabilir.



Matematiksel olarak, stokastik belirsizliği varsayılan bir modele bağlılık olarak görebiliriz. Model dahilindeki matematik kesin ve muhtemelen istatistikçinin kontrolü altında olabilir. Bununla birlikte, modelin seçilmesinin kendisi, daha az kesin ve muhtemelen istatistikçinin kontrolünün dışında olabilecek, tümevarımsal bir belirsizlik taşır.



Büyük bir veri kümesini analiz ederken bu iki belirsizlik arasındaki fark daha belirgin hale gelir. Bu durumda stokastik belirsizlik önem kaybederken, tümevarımsal belirsizlik hala oldukça güçlüdür: Doğru model sınıfını seçtik mi? Verilerde bulduklarımızı genelleştirebiliyor muyuz? İlgili tüm değişkenleri hesaba kattık ve ölçtük mü? Doğru soruları soruyor muyuz? Bir veri kümesi verildiğinde, verilerin toplanma şekline bağlı olarak, genellikle değişken tanımları veya anlamı, soruların kelimelere dökülmesi ve sıralaması, örneklemin/örneğin (sample) temsil edebilirliği (representativeness) vb. hakkında bir belirsizlik vardır.



Stokastik belirsizliği aksiyomatik bir şekilde ele almak mümkün olsa da, tümevarımsal belirsizliğin bu tür bir girişime olumlu yanıt vereceği şüphelidir. İstatistiksel veri analizinde, verilerin kendisinin stokastik doğasına ilaveten genellikle tümevarımsal belirsizliğin de mevcut olduğunu bilmek önemlidir. Tümevarımsal süreç ve istatistiksel problemlerin ampirik doğası nedeniyle, tartışmalar/anlaşmazlıklar ortaya çıkması bazen kaçınılmazdır.



Trafik kazası ölümleri örneği, tartışmaların nasıl ortaya çıktığını göstermektedir. Ölüm sayısı bir yıl sonra 170'ten 300'e çıkarsa, 'gerçek' bir değişiklik gibi görünecek ve kaza oranının arttığını iddia etmek tartışmalı olmayacaktır, yani belirsizlik düşüktür. Peki ya daha ayrıntılı bir inceleme, 25 arabanın dahil olduğu ve çok sayıda ölüm içeren büyük bir trafik kazasını veya 40 kişinin öldüğü bir otobüs kazasını ortaya çıkarırsa ne olur? Bu noktada, muhtemelen probleme bakmanın daha iyi bir yolunun ölümlerden ziyade kaza sayısını dikkate almak olduğunu düşünmeye başlarız. Belki de bu yılki kazaların çoğu kış aylarında oldu, ama geçen yılki yıl boyunca dağılmıştı. Muhtemelen genç sürücülerin sayısı artmıştır, bu da verilerin yaş grubuna göre bölünmesini gerekli kılar. Verilerin sürüş deneyim yılı miktarına göre ayrılması daha anlamlı olabilir, ancak böyle bir tanım sadece sürücüler için anlamlıdır; ölüm sayısı yolcular ve yayaları da içeriyor!



Oldukça bilimsel bir süreç olan bu tümevarımsal (inductive) süreç, iki problem doğurur: birincisi, stokastik belirsizliği artırır, çünkü orijinal gözlemleri daha küçük açıklayıcı gruplara bölerek, daha küçük sayılardaki grupları karşılaştırmak zorunda kalırız. Diğer sorun, bir açıklama bulmak için nerede durulacağına karar vermektir. Bu sorunun usule uygun (formal) ya da kesin bir cevabı yoktur, bu nedenle istatistikçiler ya da bilim adamları, duruma göre davranmalıdır, bu da çoğunlukla bir yerde belirleyici bir karar vermeyi gerektirir. En akıllıca yaklaşım, belirsizlik üzerinde makul ölçüde bir kontrolünün olduğu bir noktada durmak ve çok fazla belirsizliğin olduğu diğer ilgili faktörler hakkında karar vermeyi ertelemektir. İstatistikçiler farklı deneyime, uzmanlığa, öngörü ve önyargılara sahiptir; bu nedenle aynı gözlemlerden farklı sonuçlara varabilirler. Dikkat! 'Yalanlar, kahrolası yalanlar ve istatistikleri' bulabileceğimiz yer işte tam burası.


Pedagojik yönü


Stokastik belirsizliği ele alan yöntemleri öğrenmek, öğretmek ve tanımlamak daha kolaydır ve geleneksel bir akademi veya sınıf ortamında bunlar üzerinde uzmanlaşma imkanı vardır. İstatistiksel metinlerdeki/kitaplardaki kaçınılmaz sınırlama, bu tip yöntemlere odaklanma eğiliminde olmalarıdır. Veri analizinden alınan zevk ve acı, belirsizliklere bir tepki olarak ortaya çıkar; bu nedenle bu tartışma mükemmeliyetçilik/detaycılık/ukalalık (pedantic) değildir. Bazıları, belirsizliğin istatistikten ziyade problemin bir parçası olduğunu iddia edebilir; ancak bunu kabul etsek bile, bunu izleyen ampirik model oluşturma ve model seçimindeki zorluk, istatistiğin ve bir istatistikçinin hayatının bir parçasıdır. Bu tartışma aynı zamanda istatistikçilerin boşlukta (vakum) çalışamayacağına dair bir uyarı içermektedir, çünkü bir problemde tümevarımsal belirsizlikler yaratan ilgili faktörlerin çoğu konuya/teoriye (subject matter) özeldir.



1.4 İstatistiğin ortaya çıkışı



Şansla (tesadüfle) belirlenen olayları doğru bir şekilde hesaplamak imkansızdır. - Thukididis (c. MÖ 400)



İstatistiğin ortaya çıkması iki aşamada olmuştur. Birincisi olasılık teorisinin geliştirilmesidir, bunun da orijinal motivasyonu Pascal (1623-1662) ve Fermat (1601-1665) tarafından kumar problemlerinde beklenti (expectation) veya belirsizliğin hesaplanmasında yatar. Teori ise daha sonra matematik tarafında Huygens (1629-1695), Bernoulli kardeşler, özellikle de James Bernoulli (1654-1705), de Moivre (1667-1754) ve Laplace (1749-1827) tarafından ve mantık tarafında Bayes (1701-1761), Boole (1815-1864) ve Venn (1834-1923) tarafından geliştirilmiştir.



Olasılık teorisinin gelişimi, bilim tarihinde önemli bir dönüm noktasıydı. Fisher, Yunan ve İslam matematikçileri tarafından bu konunun bilinmediğini (Thukididis bir tarihçiydi) ifade etmekten hoşlanırdı; Persi Diaconis bir keresinde beynimizin olasılık problemlerini çözmek için uygun olmadığını söylemişti. Olasılık teorisi ile, matematiğin doğumundan bu yana ilk kez, belirsiz olaylar hakkında kesin (rigorous) açıklamalar yapabiliyoruz. Bununla birlikte, teori çoğunlukla tümdengelimseldir (deductive), bu da onu gerçekten matematiğin bir dalı yapar. Olasılık ifadeleri spesifik gözlemlerden ziyade aksiyomların veya varsayımların sonuçları olarak değerlendirilir. Olasılık teorisinin çocuğu olarak istatistik, 1763 yılında Bayes’in makalesi ile doğdu ve Laplace tarafından olgunlaştırıldı.



[Hatalar teorisi: Bkz.]



İstatistiğin ortaya çıkışındaki ikinci aşama, hatalar teorisinin neredeyse paralel olarak geliştirilmesiydi. Üzerinde durulan nokta, olasılıkların veya belirsizliklerin hesaplanması değil, astronomi veya ölçümlerden (surveying) elde edilen gözlemsel verilerin özetlenmesiydi. Genel bir tahmin yöntemi olarak en küçük kareler ilkesi ile Gauss (1777-1855) bu alanda en fazla katkıda bulunan kişidir. Bu ikinci gelişme aşamasının önemli bileşeni, veri açısından zengin ortamdı. Bu bağlamda Fisher, 19. yüzyılın sonlarına doğru modern istatistiğin doğuşunda Galton'un (1822-1911) özel rolüne dikkat çekmiştir. Amansız (compulsive) bir veri toplayıcı olan Galton, 'değişken olgularla' (variable phenomena) uğraşırken nicel ve istatistiksel yöntemlerin gücüne dair güçlü bir kanaate sahipti.



İstatistikteki müteakip gelişmeler, veri açısından zengin ortamlara bağlı olmaya devam etmiştir. Bu ortam, ilk olarak Fisher'ın çokça yer aldığı tarım ve biyometri deneyleriyle sağlandı. Sonraki uygulamalar arasında endüstriyel kalite kontrol, askeri, mühendislik, psikoloji, işletme, tıp ve sağlık bilimleri sayılabilir. Diğer etkileri, kamusal politikalar veya ekonomi politikaları için veri toplama ve analizinde görülmektedir.



Bayesçiler (Bayesians) ve sıklıkçılar (frequentists)

[Bayesçi ve sıklıkçı akıl yürütme: 


1) Link-1

2) Link-2

3) Link-3


4) Link-4


5) Link-5]



Bayesçi ve sıklıkçı istatistik ekolleri, belirsizlik problemlerine, özellikle de olasılığa bakış tarzına yanıt olarak ortaya çıkmıştır. 18. ve 19. yüzyıllardaki konuyla ilgili ilk yazarlar olasılığı hem (öznel) bir güven/inanç derecesi hem de (nesnel) uzun dönem frekans (sıklık) olarak ele aldılar. 20. yüzyıl güçlü bir ikilik getirdi. Sıklıkçılar olasılığı sadece uzun dönemli bir sıklık anlamı ile sınırlarken, Bayesçiler’e göre öznel belirsizlik kavramını taşıyabiliyordu.



Bu Bayesçi-sıklıkçı bölünmesi, belirli bir örnek / veri kümesi hakkında anlamlı bir şey söyleme ihtiyacı ile uzun dönem sıklıklardaki (frequency, tekrarlama, dizi) tarafsızlık duygusu arasındaki temel gerilimi/çekişmeyi temsil eder. Bir bozuk parayı havaya attığımızda, sonucu hakkında bir belirsizlik hissine sahibizdir: tura gelme olasılığının 0,5 olduğunu söyleriz. Şimdi bir sonraki atışı düşünün: belirsizlik hissimizin 0,5 olduğunu söyleyebilir miyiz? Yoksa 0,5 sayısının sadece uzun dönemli bir ortalama olarak anlamlı olduğunu mu söyleriz? Bayesçilere göre her iki yorum da eşit derecede geçerlidir, ancak gerçek bir sıklıkçı (frequentist) sadece ikincisini kabul eder.



Bu iki düşünce ekolü farklı pratik metodolojiler ürettiğinden, aralarındaki ayrım gerçek ve önemlidir. Bu anlaşmazlıklar istatistiksel uygulamaları engellemez, ancak istatistiğin temelinin hala tam oturmadığını gösterir. Bu anlaşmazlık aynı zamanda istatistiğe verimli bir diyalektik süreç sağlar, normalde sıkıcılaşabilen bir konuya biraz tutku ve duygu katar. (İstatistikçiler muhtemelen kendi konularının/alanlarının temeli üzerinde sürekli olarak düşünmeleriyle bilim adamları arasında benzersizdir; Einstein, kuantum fizikçileriyle fiziğin temeli olarak kuantum mekaniğinin rolü hakkında tartışsa da, fizikçilerden bu beklenmez.)



Ters (inverse) olasılık: Bayesçiler



Nicel tümevarımsal (inductive) akıl yürütme için gözlemlenen verileri asimile etmeye yönelik ilk modern yöntem, “Şanslar/olasılıklar doktrininde problem çözmeyle ilgili” makalesi ile 1763 yılında (ölümünden sonra) Bayes tarafından yayınlanmıştır. Bayes, şimdilerde standartlaşmış olan Bayes teoremi aracılığıyla binom olasılığını tahmin etmek için ters olasılığı kullandı. A ve B olayları için Bayes teoreminin en basit şekli aşağıdaki gibidir:



\( P(A|B) = {{P(AB)}\over {P(B)}} = {{P(B|A)P(A)} \over {P(B|A)P(A)+P(B|\bar{A})P(\bar{A})}} \quad \quad \quad (1.1) \)


[Ters olasılık, gözlemlenmeyen şeylerin olasılığıdır; veya daha teknik olmak gerekirse gözlemlenmemiş bir değişkenin olasılık dağılımıdır. Genellikle eski/modası geçmiş bir terim olarak kabul edilir.]


[Bu kural, bir hipotez ve bir durum arasındaki bağlantıyı göstermek için biraz farklı gösterimle yazılabilir:
P (H | D) = ( P (D | H) P (H) ) / P (D)

Burada P (H | D), belirli bir D koşulu sağlandığında H hipotezinin doğru olma olasılığıdır, P (D | H), hipotez doğru olduğunda D koşulunun doğru olma olasılığıdır ve P (H) ve P (D), hipotezi ve D durumunu/koşulunu birbirinden bağımsız gözlemleme olasılıklarıdır.]


[Bayes


Ters Olasılık


Bayesçi ve Sıklıkçının Atışması


Yine quoradan


Makine öğrenmesi


]

[Basit Ters Olasılık Örneği: Bayes Kuralının Bir Uygulaması


Belirli bir genetik anormallik için bir tarama testi oldukça etkilidir; anormalliği taşıyanlar için %99, pozitif olmayanlar için %95 gerçek pozitif sonuç verir. Genel popülasyonun sadece çok küçük bir yüzdesi, %0,001, bu genetik anormalliği taşımaktadır.


Ters olasılık ve Bayes kuralı, rastgele bir kişinin pozitif bir test verildiğinde, rastgele bir kişinin genetik anormalliği taşıma olasılığının ne olduğunu hesaplamamızı sağlar. Genetik anormallik hipotezdir ve pozitif test bizim durumumuzdur/koşulumuzdur. Yukarıdaki formülümüzde, değerleri eklersek:



P (D | H) = 0,99
P (H) = 0,00001


P (D) ya da pozitif test olasılığı sadece iki terimin toplamıdır. İlk terim, genetik anormallik varken pozitif bir test olasılığı ile anormalliğin mevcut olma olabilirliğinin çarpımıdır. İkinci terim, genetik bir anormallik yokken pozitif bir test olasılığı ile genetik anormallik olmama olabilirliğinin çarpımı olacaktır. Yani:



P (D) = P (D | H) P (H) + P (D | ~H) P (~H).



Bu değer de 0,99 \(\times\) 0,00001 + 0,01 \(\times\) 0,999999 veya 0,0100098'e eşittir.


Bunları Bayes kuralı için yukarıdaki formüle yerleştirdiğimizde şunu elde ederiz:

P (H | D) = [0,99 \(\times\) 0,00001] / 0,0100098

Bu da yuvarlama yapmadan 0,00098903074 değerini verir. Buna göre test oldukça güvenilir olsa da, genetik anormallik o kadar nadirdir ki, pozitif bir test bile kişinin anormalliğe sahip olma olasılığının sadece yüzde 0,09 olduğu anlamına gelmektedir.

Bilinmeyen binom olasılığının θ olduğunu ve n bağımsız denemede gözlenen başarı sayısının x olduğunu varsayalım. Bu durumda, modern gösterimde Bayes'in çözümü aşağıdaki gibidir:



\(f(\theta|x) = {{f(x|\theta)f(\theta)} \over {\int f(x|\theta)f(\theta)d\theta'}} \quad \quad \quad (1.2)\)

Burada f (θ|x) verilen x için θ’nın koşullu yoğunluğu, f (θ) ise θ'nın önceki yoğunluğudur ve f (x) ise x'in marjinal olasılığıdır. (Olasılık için P (.) sembolünü kullandığımız gibi, f (.) sembolünü genel bir fonksiyon için kullanıyoruz. Fonksiyonun parantez içinde verilen argümanları, fonksiyonun ne olduğunu belirler. Dolayısıyla f (θ, x), θ ve x'in birleşik yoğunluğu; f (x|θ) ise verilen bir θ için x'in koşullu yoğunluğudur vb.)



f (θ)’yı (öncül olasılık) belirleme problemini bir kenara bırakırsak, Bayes dev bir adım atmıştı: tümevarımsal çıkarımsama (yani x verilerinden öğrenme) problemini matematiğin açık tümdengelimli adımları arasına yerleştirmişti. Ne yazık ki, f (θ)’yı “önceden” belirleme sorunu, günümüze kadar devam eden eşit derecede büyük bir tartışma konusudur.



Bayes teoremi (1.1) hakkında tartışmalı bir şey yoktur, ancak (1.2) farklı bir konudur. (1.1) 'deki A ve B'nin her ikisi de rastgele olaylardır, (1.2)' nin Bayes kullanımında ise sadece x’in rastgele bir sonuç olması şarttır; tipik bir binom deneyinde θ, bilinmeyen bir sabit parametredir. Bayes, bu sorunun farkındaydı ve θ'nın yardımcı bir fiziksel deneyde (düz bir kare masaya bir top atarak) (θ'nın (0,1) aralığında tekdüze/uniform olması beklenecek şekilde) elde edildiğini düşünerek bu sorunun üstesinden geldi. Özellikle, bu durumda f (θ) = 1 ve


\( f(\theta|x) = {{\theta^{x}(1-\theta)^{n-x}}\over{\int_{0}^{1}u^{x}(1-u)^{n-x}du }} \quad \quad \quad (1.3)\)

Fisher, Bayes'in aksiyomatik bir öndeğer/öncül değer (prior) kullanma konusundaki endişesine önem veriyordu; aslında Bayes'in modern anlamda bir Bayesçi olmadığını göstermek için Bayes'in yardımcı deneyini kullandı. θ rastgele bir değişkense, o zaman Bayes teoreminin kullanımında 'Bayesçi' bir yön yoktur. Sıklıkçılar Bayes teoremini, kullanımını gerektiren uygulamalarda kullanırlar.



Ancak Bayes, önermesinden hemen sonra bir Scholium (kelimenin tam anlamıyla bir 'tez'; bkz. Stigler 1982) yazdı:
... kendisiyle ilgili herhangi bir deneme öncesinde hakkında hiçbir şey bilmediğimiz bir olasılıkla ilgili bir olay durumunda aynı kuralın [yani yukarıdaki formül (1.3)] kullanılması yerinde olacaktır.

Aslında, θ hakkında hiçbir şey bilmiyorsak, sıfır ile bir arasında eşit derecede olası olduğunu söylemenin karşı konulmaz cazibesini kabul etmişti. Daha da önemlisi, şimdilerde tamamen aksiyomatik olabilen tekdüze (uniform) öncül (prior) yoğunluğun, ardıl (posterior) bir olasılık üretmek için objektif binom olasılığı ile ele alınabileceğini kabul etmişti. Yani aslında, Bayes biraz isteksiz de olsa bir Bayesçiydi. (Geriye dönüp bakıldığında, o zaman için mevcut tek belirsizlik kavramı olasılıktı, bu yüzden Bayes'in başka seçeneği yoktu.)



Pearson'a (1920) kadar Bayes'in makalesi büyük ölçüde gözlerden kaçtı. Bugün anladığımız haliyle Bayesci istatistiği geliştiren kişi, Bayes teoremini bağımsız olarak keşfeden Laplace oldu. Boole'un Bayes teoreminden 'sebepler probleminde' bahseden, olasılık teorisi üzerine çalışmaları (ör. Düşüncenin Kanunları), Laplace'ı ana referans olarak belirtmiştir. Laplace'ın “Olasılıkların Analitik Teorisi” ilk olarak 1812'de yayınlandı ve yüzyılın geri kalanında standart referans oldu. Laplace, tüm tahmin problemleri için, bilgi eksikliğinin makul bir ifadesi olarak sunulan veya görülen düz veya tekdüze (uniform) öncül (prior) kullandı. Ters olasılık ilkesi, dolayısıyla Bayesci istatistik, 19. yüzyılın sonuna kadar olasılık öğretiminin ayrılmaz bir parçasıydı. Fisher (1936) okulda ters olasılığı böyle öğrendiğini ve “yıllarca geçerliliğini sorgulamak için bir neden görmediğini” söylemiştir.



19. yüzyılda ve 20. yüzyılın başlarında Gauss ve diğerleri tarafından yapılan istatistiksel çalışmalar, büyük ölçüde Bayesci idi ve ters olasılık argümanlarını kullanıyordu. Daha sonra aksiyomatik Bayesçiliğin en güçlü eleştirenlerinden biri olan Fisher bile, 1912 tarihli 'Sıklık eğrilerinin uydurulması (fitting) için mutlak bir ölçüt hakkında' adlı makalesinde, maksimum olabilirliğe “en olası değerler kümesi” deme hatasına düşmüş, böylece bu iki kavramı ayrı gördüğü açık olmasına rağmen olabilirlik yerine ters olasılığın kullanımını önermiştir.



Tekrarlanan örnekleme ilkesi: sıklıkçılar



Günümüzde istatistiğin etkili bir bölümü, olasılığı resmen, tekrarlanan deneylere dayanan bir uzun dönem sıklık olarak görmektedir. Bu, matematiksel bir modelin gerçekliğinin, dışarıdan gözlemlenebilir niceliklere dayanan nesnel bir ölçümle doğrulanmasının gerektiği sıklıkçı görüşlerin ve yöntemlerin temelidir. Bu size tabii gelebilir, ancak Shafer'ın (1990) tespit ettiği gibi, olasılıkta 'sıklıkçılığın yükselişi' ancak 19. yüzyılın ortalarında John Stuart Mill gibi ampirist filozofların yazdıkları sayesinde olmuştur. Popülasyon sayımı ve sınıflandırma da modelleme için kullanıldığında olasılığın ampirik anlamında bir faktördü.



[Harika bir özet daha]



Tekrarlanan örnekleme ilkesi, prosedürlerin aynı koşullar altında tekrarlanan deneyler temel alınarak değerlendirilmesi gerektiğini belirtir. Tekrarlanan deneylerden elde edilebilecek olası sonuçları ifade eden örnekleme dağılımı teorisi, sıklıkçı metodolojinin temelini oluşturur. Bias, değişkenlik ve bir istatistiğin standart hatası, P-değeri, tip I hata olasılığı ve bir testin gücü veya güven düzeyi gibi günümüzde kullanılan birçok kavram tekrarlanan örnekleme ilkesine dayanmaktadır. Günümüzde bu kavramların uygulamalı istatistikte yaygın olarak kullanımı, sıklıkçı yöntemlerin uygulamadaki gücünü kanıtlamaktadır. Neyman (1894-1981) ve Wald (1902-1950), sıklıkçı felsefenin en etkili savunucularıydı: Fisher, sıklıkçı metodolojiye muazzam katkılarda bulunsa da felsefesine tamamen katılmamıştır.

Gerçek sıklıkçılık, belirsizlik ölçütlerinin sadece tekrarlanan örnekleme anlamında yorumlanması gerektiğini belirtir. Prosedürlerin doğal olarak birçok kez tekrarlandığı tıbbi laboratuvar bilimi veya endüstriyel kalite kontrolü gibi istatistiksel uygulama alanlarında, istatistikçi ölçütler çok önemlidir.

Deneylerin tekrarlanmasının gerekliliğinin farazi (hayali) olmasına izin verildiğinde sorun ortaya çıkmaktadır. Arkeoloji, ekonomi, jeoloji, astronomi, tıp gibi deneylerin tekrarlanmasının mümkün olmadığı birçok bilim dalı vardır. Ezoterik (derinlikli, uzmanların anlayabildiği) ilkeler yerine tekrarlanan örnekleme fikirlerine güvenilmesi yaygın görülen mantıksal paradokslara yol açabilir.

Uygulamalı/gerçekçi (practical) istatistikçiler arasında aşırı/radikal sıklıkçılık muhtemelen çok nadirdir. Bir aşırılık yanlısı, gözlemlenen 95%'lik bir güven aralığının (diyelim ki 1,3 < θ < 7,1 ) parametreyi ya kapsadığı ya da kapsamadığı, hangisi olduğunu bilmediğimiz ve belirsizliği ifade etmenin bir yolu olmadığı üzerinde ısrar edecektir; 95% yalnızca prosedür için geçerlidir ve belirtilen aralık için geçerli değildir. Aslında bu, güven aralığının ortodoks/gelenekçi/orijinal yorumudur. Belirli bir aralıkta/veri kümesinde bulunan kanıtları dikkate almaz, çünkü belirsizlik ölçümleri sadece hayali tekrarlarda değerlendirilmektedir. Çoğu bilim adamı, güven aralığını sezgisel olarak öznel/Bayesci bir şekilde yorumlayacaktır: aralığın gerçek parametreyi içerme olasılığı 95%’dir, yani 95% oranının, gözlemlenen aralıkla açık/kanıtlanmış bir bağlantısı vardır. Bayesçiler ve sıklıkçılar
Büyük bir gerçeğin zıddı da büyük bir gerçektir. - Thomas Mann (1875-1955)


Bayesci hesaplamalar, bir θ parametresinin f (θ) öncül (prior) yoğunluğuna sahip bir dağılımı olduğunu açıkça varsaymakla başlar; örneğin, bir θ olasılığını tahmin etme probleminde, (0,1) aralığında tekdüze olarak dağıldığı varsayılabilir. Buradaki ayırt edici tutum, θ'nın bir deneyin rastgele bir sonucu olması gerekmediğinden, bu öncül yoğunluğun yalnızca düşünmeye dayalı olarak aksiyomatik şekilde belirlenebilmesidir. Bu, Bayescileri sıklıkçılardan ayıran metodolojik başlangıç noktasıdır, çünkü ikinci grup bir parametrenin bir dağılımı olabileceğini kabul edemez, çünkü böyle bir dağılımın harici bir gerçekliği yoktur. Bayesciler θ hakkında bir belirsizlik olduğunu söyler ve tüm belirsizliklerin olasılığa dayalı ifade edilmesi konusunda ısrar ederler. θ'nın dağılımı öznel (subjective) bir şekilde bir inanma/güven derecesi (degree of belief) olarak değerlendirilir.

θ için öndeğer/öncül (prior) f (θ) kabul edildikten ve bunun olağan (regular) bir yoğunluk olarak değerlendirilebileceği kabul edildikten sonra, gidilecek yol tamamen tümdengelimlidir (deductive) ve (kendi içinde, dahili olarak) tutarlıdır. Verilen bir θ için, x verilerinin pθ(x) = f (x|θ) istatistiksel modeline uyduğunu varsayarsak, verilerde bulunan θ hakkındaki bilgiler, (1.2)'deki Bayes teoremini kullanarak, ardıl/son (posterior) yoğunluk ile ifade edilir:


\[ f(\theta|x) = {{f(x|\theta)f(\theta)}\over{f(x)}} \] 

Bayesci düşüncede, güven ölçen bir öncül yoğunluk f(θ) ile gözlemlenebilir bir niceliği ölçen f(x|θ ) arasında operasyonel/kullanımsal bir fark yoktur. Teorik olarak bu iki şey, belirsizlik ölçüsü olarak eşittir ve Bayes teoremi kullanılarak birbiri yerine kullanılabilir.

Prensipte ardıl/son yoğunluk f (θ|x), verilerden θ ile ilgili tüm bilgileri alır. Bu nedenle, öncül f (θ) 'nın bir güncellemesidir/yeni halidir. Bir deneyler dizisinde, mevcuttaki ardılın sonrakinde öncül olarak işlev görebileceği açıktır; bu nedenle Bayes yöntemi bilgi toplamak için doğal bir yola sahiptir.

Zorda kaldıklarında, sıklıkçıların çoğu, bir güven derecesinin öznel olarak var olduğunu kabul edecektir. Anlaşmazlık, bir parametrenin yoğunluğa sahip olup olamayacağı konusunda değildir, çünkü sıklıkçılar da f(θ)'yı bir öncül olabilirlik (elde hiç veri yokken parametrenin olabilirliği) olarak görebilirler. İki haklı endişeleri vardır:

(i) pratikte uygun bir öncül seçme sorunu. Öznel değerlendirme sorununu bir kenara bırakırsak, f(θ)'yı nasıl seçeceğimiz konusunda devam eden bir tartışma mevcuttur. Boole (1854, sayfa 384, 392) ve Venn (1816) gibi birçok erken dönem yazar, f(θ)'nın aksiyomatik seçimindeki keyfiliği eleştirmişlerdi. Fisher da, (genetik gibi) bazı uygulamaların fiziksel olarak anlamlı f(θ)'ları olabileceğini göz ardı etmese de, herhangi bir aksiyomatik öncül değeri reddetme konusunda netti. Modern Bayescilerin 'nesnel öncüller' (objective priors) denilen yaklaşıma yöneldiği görülmektedir (örneğin, Gatsonis ve ark. 1991), ancak Bayesçiliğin birçok tonu vardır (Berger 2000).

(ii) öznel/subjektif güven derecesi ile ilgili 'muamele kuralları'. 
Kişinin nasıl hissettiği hakkında gerçekten tartışılacak pek bir şey yoktur ve olasılığı öznel bir şekilde düşünmekte yanlış bir şey yoktur. Bununla birlikte, kişinin böyle bir hisse dayanarak resmi (formal) bir eylemde bulunması, gerçekten üzerinde tartışılabilecek bir konudur. Öznel (subjective) bir olasılık yoğunluğunu normal (regular) bir yoğunluk fonksiyonu gibi kabul etmek, örneğin integrali alınabileceği ve farklı bir ölçeğe dönüştürüldüğünde bir Jacobian terimine ihtiyaç duyacağı anlamına gelir. Bu ikincisi, öncülün seçiminde değişmezlik (invariance) olmamasına neden olur: bir ölçekte bilgi eksikliği olarak görünen başka bir ölçekte bilgi haline gelir (bkz. Bölüm 2.8).

Efron (1998) iki düşünce okulu/ekolü arasındaki psikolojik farklılıkları karşılaştırır. Karşılaştırmalı bir çalışma, her yaklaşımın güçlü ve zayıf yanlarını ortaya koyar. Bayesçi ekolün gücü, tüm belirsizlik sorunlarına aynı şekilde yaklaşmasıdır. Bu birlik/teklik, özellikle karmaşık problemlerde netlik sağlar, ancak bu, Bayesçi çözümlerin pratik olduğu anlamına gelmez. Aslında, yakın zamana kadar Bayesçiler hesaplama zorlukları nedeniyle karmaşık problemleri çözemiyorlardı (Efron 1986a). Her ne kadar daha az bağlayıcı kurala sahip olsa da, sıklıkçı bir çözümün gücü genellikle pratikliğidir.

Örnek 1.2: Yeni bir göz ilacı, eskisine karşı 10 denek üzerinde test edildi. İki ilaç rastgele her deneğin her iki gözüne de uygulandı. Her durumda yeni ilaç eski ilaçtan daha iyi performans gösterdi. Gözlenen verilerden elde edilen P değeri 2-10 = 0,001'dir; bu da gözlemlediğimiz şeyin sadece şanstan/tesadüften kaynaklanmadığını ve yeni ilacın büyük olasılıkla eskisinden daha iyi olduğunu göstermektedir.

Böyle bir basitliği yenmek zordur. Gerçekten de fiziksel bir tesadüfileştirmenin (randomizasyon) kullanıldığı göz önüne alındığında, geçerli bir sonuç elde etmek için çok az ek varsayım gereklidir. Ve yeni ilacın eskisinden daha iyi olduğu nihai sonucu, deneyden almamız gereken tek bilgi olabilir. Elde edilen basitlik odaklanma sayesindedir: yalnızca gözlemlenen verilerin tesadüfen elde edilip edilemeyeceğini bilmekle ilgileniyoruz. Elbette gerçek çalışmalarda, biyolojik mekanizma veya olası yan etkiler hakkında daha fazla bilgi edinmek isteyebiliriz, bu da daha karmaşık ölçümleri gerektirebilir.

Ucuz bilgisayar gücünün ve Monte Carlo tekniklerinin (ör. Gilks ve ark. 1995) ortaya çıkışı, Bayesçilerin karşısındaki hesaplama duvarını büyük ölçüde yıkmıştır. Karmaşık problemler artık Bayesçi metodoloji kullanılarak rutin olarak çözülmektedir. Aslında, pragmatik olursak, Bayesçi sayısal yöntemleri altta yatan felsefeden ayırabilir ve bunları olabilirlik fonksiyonlarını elde etmenin bir aracı olarak kullanabiliriz. Bu, örneğin moleküler genetikte yeni bir eğilimdir. Bölüm 10.6'da Bayesçi ve olabilirlik hesaplamalar arasında yakın bir sayısal ilişki olduğunu göreceğiz.

Neyse ki, büyük örneklemli problemlerde, sıklıkçı ve Bayesçi hesaplamalar genellikle benzer sayısal sonuçlar verir, çünkü bu durumda veriler öncül yoğunluğa baskındır ve belirsizlik düzeyi düşüktür. Küçük ve orta ölçekli örneklemlerde, iki yaklaşımın sonuçları aynı olmayabilir, ancak gerçek veri analizinde aradaki fark, genellikle verilerdeki ve model seçimindeki tümevarımsal (inductive) belirsizlikten daha düşük bir büyüklük kertesine (order of magnitude) sahiptir.

Christensen ve Utts (1992) tarafından ayrıntılı olarak tartışılan aşağıdaki 'değiştirme paradoksu', belirsizliği ele almamızın mantıksal düşüncemizi nasıl etkilediğine bir örnektir. Hikayeyi kolayca anlamak veya başkalarına anlatarak eğlenmek için x'i 100 ile değiştirebilirsiniz.

Örnek 1.3: Öğretmenin biri bilinmeyen miktarda parayı bir zarfa ve bunun iki katı parayı da başka bir zarfa koyuyor. Sizden bir zarfı rastgele seçmenizi, açmanızı ve ardından elinizdekini diğer zarfla değiştirip değiştirmeyeceğinize karar vermenizi istiyor. Bir zarfı (rastgele) seçtiniz, açtınız ve içinde diyelim ki X = x dolar olduğunu gördünüz. Diyelim ki diğer zarfın içindeki para Y kadar olsun, o zaman Y,  yarı yarıya olasılıkla ya x/2 ya da 2x'e eşittir; zarfı değiştirirseniz (x/2 + 2x) / 2 = 5x / 4 miktarında para alacaksınız, bu da elinizdeki x'ten daha büyüktür. Hemen 'gözünüzde dolarlar belirir' ve zarfı değiştirirdiniz, değil mi?

Bu mantık her x değeri için geçerlidir, bu da zarfı ilk başta açmanıza bile gerek olmadığı anlamına gelir, hiç açmadan değiştirmek istersiniz! Ayrıca, ikinci zarfı aldığınızda, aynı akıl yürütme tekrar uygulanabilir, o zaman zarfı geri değiştirmek istersiniz. Bu paradoksun Bayesçi ve sıklıkçı yönlerinin tartışılmasını size bir alıştırma olarak bırakıyoruz.

1.5 Fisher ve üçüncü yol

Olabilirlik yaklaşımı, farklı bir 'üçüncü yol' olarak Bayesçilik ve sıklıkçılık arasında bir denge sunar. Kavramsal gelişiminin çoğunu Fisher'a (1890-1962) borçlu olduğu için buna Fishercilik diyebiliriz. Fisher, Bayesçiler için vazgeçilmez olan aksiyomatik öncül olasılığın kullanılmasına açıkça karşıydı, ancak olasılığı yorumlamanın tek yolu olarak uzun dönem sıklığın görülmesini de eşit derecede reddediyordu. Fisher, istatistiksel çıkarsamanın objektif/nesnel/tarafsız olarak doğrulanabilir olması gerektiği konusunda ısrarıyla bir sıklıkçıydı; ancak olasılık tabanlı çıkarsamanın yapılamadığı durumlarda olabilirlik çıkarsamasını savunması onu Bayesçi ekole yaklaştırıyordu.

Fisher’ın eserleri ile ilgili heyecan verici bir makalede Efron (1998), Fisherci, Bayesçi ve sıklıkçı noktalardan istatistiksel bir üçgen oluşturdu. Daha sonra eğilimlerini belirtmek için birçok istatistiksel tekniği bu üçgenin içine yerleştirdi.

Fisher'ın öncül olasılık kullanmadan nesnel/tarafsız çıkarımsama yapma çabası onu güvenme olasılığı (fiducial probability) fikrine yönlendirdi (Fisher 1930, 1934). Bu kavram güven aralığı prosedürünü doğurdu (Neyman 1935). Görünüşe göre Fisher, kavramsal olarak, 'erken dönem yazarların klasik olasılığı ile tamamen aynı' olduğunda (Fisher 1973, sayfa 54) ısrarına rağmen, diğerlerini güvenme olasılığının ne olduğu konusunda ikna etmeyi başaramadı. Bazı modellerde, güvenme olasılığı alışılagelen/klasik sıklıkçı/uzun-dönem-sıklık olasılığı ile örtüşmektedir. Kesin olasılık ifadelerinin mümkün olmadığı daha karmaşık modellerde sorunlar ortaya çıkmaktadır.

Son kitabı İstatistiksel Yöntemler ve Bilimsel Çıkarsama (1973, özellikle Bölüm III) incelendiğinde, Fisher'ın aşağıdaki fikirlere sahip olduğu açıktır:

• kesin sonuçlar elde etmek mümkünse, çıkarsamayı olasılık ifadelerine dayandırmalıyız, aksi takdirde olabilirliğe dayandırılmalıdır;
• olabilirlik, öznel olarak rasyonel bir güven/inanma derecesi olarak yorumlanabilir, ancak olasılıktan daha zayıftır çünkü harici bir doğrulamaya izin vermez ve
• büyük örneklemlerde, olabilirlik ifadelerinin güçlendirilmesi söz konusudur, bu durumda bazı olasılıksal özellikler eklenebilir ('daha yüksek bir duruma asimptotik yaklaşım' - Fisher 1973, sayfa 78).

Bunlar Fisherci görüşü özetlemektedir. (Fisher'ın olasılığı güvene dayalı olasılık olsa da, kendi sözlerine güvenerek “klasik olasılıkla tamamen aynı” olduğunu kabul edelim.) Tahmin yapma amacıyla olabilirliğin açık tanımlanması ile Fisher'ın olabilirlik çıkarmasıyla ilgili nihai kararı arasında yaklaşık 40 yıl geçti. Baskın çıkan görüş, çıkarsamanın doğrudan olabilirlik fonksiyonundan yapılmasının mümkün olduğudur; bu ne Bayesçi ne de sıklıkçı görüşe uyar ve aslında her iki ekol de sadece olasılık temelli çıkarsamaya izin verdiğinden bu görüşü reddedecektir.

Bu Fisherci görüşler aynı zamanda, istatistiksel çıkarsamadaki belirsizliğin tek taşıyıcısı olarak olabilirliği gören 'saf olabilirlik görüşünden' de farklıdır (ör. Royall 1997, ancak burada 'belirsizlik' yerine 'kanıtlar/deliller' sözcüğünü kullanmıştır). Fisher, parametreler hakkındaki belirsizlik için iki 'iyi tanımlanmış mantıksal durum seviyesi' kabul etmiştir; bunlardan biri olasılıkla diğeri olabilirlikle sağlanır. “Gerçek olasılık ifadeleri sağlamak amacıyla çok zayıf türlerdeki istatistiksel kanıtları analiz etmek, özetlemek ve iletmek için” olasılık temelli bir çıkarsama kullanılır (Fisher 1973, sayfa 75). Ayrıca, mümkün olduğunda, bir olasılık ifadesi, harici bir doğrulamaya (gözlemlenebilir niceliklerle bir doğrulama) izin vermelidir, bu nedenle, sıklıkçı değerlendirmenin de Fisherci görüşün önemli bir yönü olduğu açıktır.

Fisher'in kesin bir olasılık çıkarsaması şartı, bugün istatistikte 'kesin çıkarsama' denenden daha katıdır (Fisher 1973, sayfa 69-70). Kendisinin kesin olasılık temelli çıkarsama prototipi, normal ortalama (normal mean) için ('güven aralığı' terimi Neyman’a ait olsa da) güven aralığıdır.

\[ P(\bar{x} - 1,96\sigma / \sqrt{n} < \mu < \bar{x}+1,96\sigma / \sqrt{n} ) = 0,95   \]

ifadesi açık (unambiguous) ve tam olarak/nesnel olarak doğrulanabilirdir; bu, ideal bir çıkarsama biçimidir. Bununla birlikte, binom oranı için 'kesin %95 güven aralığı' (bkz. Bölüm 5.8) aslında tam olarak %95 kapsama olasılığına sahip değildir, bu nedenle mantıksal olarak normal model için kesin aralıktan daha düşük bir statüye sahiptir. Olabilirliğin belirtildiği yer bu gibi durumlardır.

Fisher için, hem olasılık hem de olabilirlik belirsizlik ölçütleridir, ancak temelleri farklıdır. Bu Bayesçi olmayan bir görüştür, çünkü Bayesçiler için tüm belirsizlikler olasılıkla ölçülür. Ancak, olabilirliğin yorumlanmasındaki öznel unsur, Bayesçi olan /sıklıkçı olmayan bir yaklaşımla benzerlik göstermektedir. Olasılık ifadeleri sağlamak için büyük örneklem teorisi ile desteklendiğinde, olabilirlik çıkarımsamasının mekaniği ve sayısal sonuçlarının genellikle sıklıkçı istatistikçiler için kabul edilebilir olduğunu belirtmek gerekir. Bu nedenle, psikolojileri açısından Fisherciler, tek başına olabilirlik fonksiyonundan çıkarsama yapmanın mümkün olduğunu söylemekte sıklıkçılardan daha cesurdurlar, ancak argümana/ konuya bir aksiyomatik öncül kabul etme konusunda Bayesçiler kadar cesur değildirler.

İlgili Eserler

1920 yılına gelindiğinde istatistik alanı kafa karıştırıcı bir yer olmalı. Yates (1990) bu dönemin her türlü korelasyon ve katsayılar çağı olduğunu yazmıştır. 2 \(\times\) 2 tablolarda ilişkileri değerlendirmek için birliktelik/ilişki (association) katsayısı, ortalama kare olumsallık (contingency) katsayısı, dört-düzeyli korelasyon katsayısı, eş-olasılıklı dört-düzeyli korelasyon ve bir araya getirme (colligation) katsayısı kullanılıyordu, ancak ilişki (association) tahmini düşüncesi ve bunun anlamlılık testi karman çormandı. En küçük kareler prensibi, momentler yöntemi, ters olasılık yöntemi, \(\chi^{2}\) testi, normal dağılım, Pearson’ın eğriler sistemi, merkezi limit teoremi gibi birçok teknik mevcuttu, ancak mantıksal temel tam oturmamıştı.

Kafaların ne kadar karışık olduğu, 1908'de Edgeworth'un makalesi ve 1913'te Pearson'un Biometrika'daki başyazısından görülebilir: “sıklık sabitlerinin olası hataları hakkında”. Modern terminolojide bu “sabit parametrelerin standart hatası” olurdu. Bir parametre ve tahmini değeri için mantıksak bir ayrım veya kullanılabilecek terimler yoktu. Matematiksel tarafta, 2 \(\times\) 2 tablolar için \(\chi^{2}\) ilişki (association) testinde 3 serbestlik derecesi bulunuyordu!

Teorideki karışıklığı gösteren daha ciddi bir kaynak, başlangıçta birçok istatistiksel çalışmada ters olasılık argümanlarının örtülü kullanımı olabilir. Burada Laplace'ın etkisi olduğu şüphesiz. Ters olasılık argümanlarında öncül dağılımın rolü, 20. yüzyılın başına kadar ciddi bir şekilde sorgulanmamıştır. Açıkça ifade edildiğinde, öncülün keyfi olarak belirlenmesi muhtemelen istatistiksel soruların doğru bir şekilde nesnel sorular olarak değerlendirilmesinin önünde bir engeldi. Boole (1854), Düşüncelerin Kanunları’nda (Bölüm XX, sayfa 384) böyle bir keyfiliğin “kesin çözümün imkansız olduğu anlamına geldiğini ve sorgulamanın durması gereken noktayı işaret ettiğini” yazmıştır.

Boole ters olasılık yöntemini ayrıntılı olarak ele almış ve zayıf yönlerini tespit etmiş, ancak kullanılacak başka bir alternatif görememiştir; tümevarımsal (inductive) çıkarsama sorununu "Olasılıklar Teorisi’ndeki en önemli sorun olarak kabul etmiş, hak ettiği dikkatli ilgiyi göreceğini umut ettiğini söylemiştir."

Hatalar teorisi üzerine yaptığı çalışmalarında Gauss da bu sorunun farkındaydı, ancak tahmin/kestirim (estimation) yöntemini en küçük kareler ilkesini kullanarak doğrulamış ve bu sorundan kurtulmuştur; bu ilkenin, regresyon modellerine yönelik çoğu standart girişlerde/tanıtımlarda hala merkezi bir konumda olması çok talihsizdir, çünkü (i) kendi içinde, çıkarımsal (inferential) içerikten yoksundur ve (ii) genel olasılık modelleri için doğal/uygun (natural) değildir, bu nedenle çok daha zengin olan genelleştirilmiş doğrusal modeller sınıfı ile arada gereksiz bir kavramsal fark/uçurum/ayrılık yaratır.

Fisher olabilirliği, öznel öncül olasılıklar içermeyen anahtar çıkarımsal nicelik olarak açıkça tanımlayarak Boole'un meydan okumasını yanıtladı. Verilerden önce, bir parametre hakkında kesinlikle hiçbir şey bilmediğimizi (yukarıdaki Bayes'in Scholium'unu/Tezini hatırlayın), o halde verilerden gelen tüm bilgilerin olabilirliğin içinde olduğunu vurguladı. Bayesçilerin olasılığı yorumlarken kullandığı sübjektif yolla aynı şekilde, olabilirlik, olası parametre değerleri üzerinde 'rasyonel bir güven/inanma derecesi' veya bir 'tercihler sırası' sağlar; aradaki temel fark, olabilirliğin olasılık yasalarına uymamasıdır. Dolayısıyla olasılık ve olabilirlik, farklı düzeylerde belirsizlikleri ele almak/hesaplamak için kullanılabilecek farklı kavramlardır.

İlkel formlarda maksimum olabilirlik fikrini kullanmış veya bundan bahsetmiş olan Daniel Bernoulli veya Venn gibi daha eski yazarlar da vardı (bakınız Edwards 1992, Ek 2). Genellikle bu, 'en olası değer' adı altında ortaya çıkmıştır, bu da ters olasılık argümanının etkisini göstermektedir. İfadelerden aklındakinin olabilirlik olduğu açık olsa da, Fisher bile 1912'de bu terimi kullanmıştır. Bu karışıklık Fisher'ın 'olabilirlik' terimini icat ettiği 1921 yılına kadar devam etti.

İstatistiğin en önemli/etkili bir dizi makalesinde Fisher (özellikle 1922 ve 1925'te), 'parametre', 'istatistik', 'varyans', 'yeterlilik', ‘tutarlılık’, 'bilgi' ve 'tahmin/kestirim', 'maksimum olabilirlik tahmini', 'verimlilik' ve ‘eniyilik (optimality)’gibi temel kavramları tanımlayıp isimlendirerek kaosa düzen getirdi. Bilinmeyen parametreler için Yunan harflerini ve tahminler için Latin harflerini ilk kullanan da o oldu. Önemli soruları belirleyip formüle ederek istatistiksel araştırma gündemini oluşturdu.

2\(\times\)2 tablolar için \(\chi^{2}\) testinin serbestlik derecesini 1922'de 'düzeltti'. 1908 yılında, t-testi üzerine 'Öğrenci' tarafından hazırlanan ve o zamanların büyük örneklem tabanlı istatistik dünyası tarafından göz ardı edilen makaleyi, istatistik tarihinde bir kilometre taşı olarak kabul etti: bu ilk kesin (exact) testti. Kesin dağılıma dayalı çıkarsamanın önemini vurgulamış ve 'dağılım probleminin' teorik istatistiğin saygın bir dalı olduğunu belirtmiştir. t ve F istatistiklerinin yanı sıra örneklem korelasyonu ve çoklu korelasyon katsayısının da kesin dağılımını ilk kez elde eden Fisher, bu alanda eşsizdi.

Fisher'ın etkisi, istatistiğin temelleri ve olasılık yöntemlerinin ötesine de geçmiştir. İlk olarak 1925'te yayınlanan “Araştırmacılar için İstatistiksel Yöntemler”, nesiller boyu pratik/uygulamalı araştırmacılara yeni fikirler getirdi. Rasgele dağıtım (randomizasyon, tesadüfileştirme), yineleme (replication), engelleme (blocking), faktöryel deneyleri gibi temel fikirleri ortaya koyan Fisher, pratikte deneysel tasarım alanını ve varyans analizini icat etmiştir. İlk kez 1935'te yayınlanan “Deney Tasarımı” adlı eseri, takip eden analizleri basitleştirmek ve kesin sonuçlara varabilmek için dikkatle toplanan verilerin önemini vurgulamaktadır. Örneklem dağılımı teorisi, regresyon analizi, aşırı değer teorisi, parametrik olmayan ve çok değişkenli analiz alanlarına önemli katkılarda bulunmuştur. Fisher'ın eserlerini dikkatle inceleyen Savage (1976), Fisher'ın temellerine ciddi miktarda katkıda bulunmadığı (sıralı analiz ve zaman serisi modelleme gibi) istatistik alanlarını saymanın çok daha kolay olacağını söylemiştir.

İstatistiğin dışında, birçok genetikçi Fisher'ı Darwin'den sonra en önemli evrimsel biyolog olarak görmektedir. 1930'da Fisher, Mendel genetiğinin ve Darwin'in evrim teorisinin önemli/temel bir sentezini sağlayarak, evrim teorisi için nicel bir temel/dayanak oluşturan ilk kişi olmuştur. Fisher hiçbir zaman bir istatistik profesörü olmamıştır: Londra Üniversitesi Koleji'nde Öjenik (İnsan Irkının Islahı) Bölümü’nde Galton Profesörü, ardından Cambridge Üniversitesi'nde Genetik’te Balfour Profesörü idi.

Bilimde ve 'insan muhakemesinin/akıl yürütmesinin iyileştirilmesinde’ istatistiksel yöntemlerin temel rolü ve katkıları konusunda inançla dolu olan yazıları bir istatistikçi için ilham verici olabilir.
Fisher’e göre (1952) "İstatistik Bilimi, yirminci yüzyıla kendi özel karakterini veren, beşeri ilerlemenin kendine özgü bir yönüydü. ...Mevcut çağın, tüm çok önemli faaliyetler arasında en gerekli/hayati olana yönelmesi istatistikçi sayesindedir.”

'Önemli faaliyetler' arasında deneysel programlar, gözlemsel araştırmalar, kalite kontrol mühendisliği vb yer almaktadır. Lyell'in Jeolojinin İlkeleri ve Darwin'in evrim teorisindeki gibi 19. yüzyılın temel bilimsel ilerlemelerinde istatistiksel fikirlerin/görüşlerin önemli katkısını tespit etmiştir.

Fisher'in makale ve kitaplarının, istatistik eğitiminde artık standart olarak okunmaması talihsiz bir durumdur. Fisher genellikle anlaşılmaz veya okunması zor olduğu eleştirilerini almıştır. Ancak Savage (1976), Milton Friedman ve W. Allen Wallis'ten oluşan istatistik danışmanlarının ona şu tavsiyede bulunduğunu bildirmiştir: 'İstatistikçi olmak için, istatistik çalış ve Fisher'ın eserleri üzerinde sabır, saygı ve şüphecilikle kafa yor'. Savage, 1970’de Fisher’ı Anma Dersi’ni 'biraz Fisher okumadan bir hafta geçmesine izin vermeyeceğinizi umuyorum' ile kapattı.

Fisher'ın eserleri, Bennett ve Cornish’in (1974) tarafından yayına hazırlanan “R.A. Fisher'ın Makalelerinin Derlemesi” adlı beş ciltte toplanmıştır. “R.A. Fisher, Bir Bilim Adamının Hayatı” adlı biyografisi, kızı Joan Fisher Box tarafından 1978'de yayınlanmıştır. Diğer önemli biyografileri, anıları veya eserlerinin incelemeleri Barnard (1963), Bartlett (1965), Yates ve Mather (1963), Kendall (1963), Neyman (1961, 1967), Pearson (1974) ve Savage (1976) tarafından yazılmıştır. Kendisiyle ilgili yakın tarihli makaleler arasında Aldrich (1997), Efron (1998) ve Hald (1999) sayılabilir. Edwards'ın (1992) olabilirlik hakkındaki kitabı büyük ölçüde Fisher’dan etkilenmiştir ve “Ekler”, olabilirlik tarihinin ve Fisher'in temel katkılarının faydalı açıklamalarını içermektedir. Fienberg ve Hinkley (1980) Fisher'ın makaleleri ve istatistiğe etkisinden detaylı olarak bahsetmektedir.

1.6 Alıştırmalar


Alıştırma 1.1: Aşağıdaki ifadelerdeki stokastik ve tümevarımsal (inductive) belirsizliği açıklayın:
(a) Bir çalışma, sigara içen annelerin çocuklarının sigara içmeyen annelerin çocuklarından daha düşük IQ'ya sahip olduğunu göstermektedir.
(b) 1994 yılında Interpol tarafından hazırlanan bir rapor, 1000 kişi başına suç oranının ABD'de (yaklaşık) 55’ken İngiltere’de 100 ve İsveç'te 125 olduğunu göstermektedir. ('Küçük' bir not: raporu yayınlayan gazete daha sonra ülkedeki İsveç Büyükelçiliği yetkilisinden gelen bir mektup yayınladı, mektupta İsveç'te bir dolandırıcı 1000 kişiyi dolandırırsa vakanın 1000 suç olarak kaydedileceği ifade ediliyordu.)
(c) Endonezya'da yaşam beklentisi şu anda kadınlar için 64 yıl, erkekler için 60 yıldır. (Bu sayılar hangi nesil için geçerlidir?)
(d) İrlanda'daki mevcut işsizlik oranı %4,7'dir. ('İşsiz' ne demektir?)
(e) Kenya'daki kadınlar için toplam doğurganlık oranı 4,1 bebektir.
(f) Kahire'nin nüfusu yaklaşık 16 milyondur. (Gece ve gündüz arasında birkaç milyon fark vardır.)
(g) Yaklaşık 22.000 sağlıklı erkek hekim üzerinde yapılan aspirin üzerine ulusal klinik deneme, aspirin almanın faydasını göstermiştir. (Sonuç hangi popülasyon için geçerlidir?)

Alıştırma 1.2: Örnek 1.3'teki değiştirme paradoksundaki mantıkta/akıl yürütmede yanlış olan nedir? Paradoksun Bayesçi ve sıklıkçı yönlerini açıklayın; önce 'oyunun' sadece bir kez oynandığını varsayın, sonra tekrar tekrar oynandığını varsayarak cevap verin.


Hiç yorum yok:

Yorum Gönder