11 Ocak 2021 Pazartesi

 Orijinal makale linki: https://qr.ae/pNxz1R

We humans are set up by our nature — and the cultures to which our nature gives rise — to deal with much of our lives and memories in stories and story-like forms. Proverbs are very short stories, and as such they are much more memorable than careful descriptive and expositional paragraphs.

A proverb at its best is actually a commercial for quite a bit more pondering. Many of them — including this one — can include themselves as subjects.

And — as with many commercials in the pop culture — and with proverbs throughout history — most are instead used directly as short stories, and most especially to rationalize an opinion or event.

For example, compare “Where there’s smoke there’s fire” with “You can’t tell a book by its cover”. Most proverbial cultures have a proverb and story for every side of every event because these are used not for “truth” but for *resonance*, to be dipped into for comfort and a kind of explanation that is the way people want to have something explained. This is how most religious tracts are used.

So they are a double-edged sword at best.

After not understanding Marshall McLuhan ca 1964, I was motivated to spend much of the summer of 1967 to take another deeper pass (a professor I wanted to talk to didn’t like to talk to grad students much, but he was a reader and was known to mention McLuhan … ). When the light finally dawned, I realized that McLuhan was one of a very few who had “made something that was invisible more visible”.

As with many of these momentous uncoverings, the “invisible” was slightly visible but deemed so unimportant that if was effectively not there. This was the idea — and fact — that most of what we take to be “plain reality” are actually just beliefs, and most of these are so taken for granted that we are almost never aware of them. We use them in our reasoning and decisions but think our logic is absolute rather than relative to the — “context”, “perspective”, “point of view”, “world-view”, “paradigm”, etc. — in which we are operating.

McLuhan used this as part of his assertion that the learning of a communications/representation system must require the brain/mind to change (this is what learning means), and that the most important changes are the ones that are absorbed as “context” and rendered effectively invisible. He was initially interested in the *qualitative* differences in thought brought by writing and then by the printing press. And then could see that television was likely to have an enormous impact on humanity (and without most people being aware of the changes that had to happen).

He was not a scientist, but once so prodded, any scientist and mathematician can see immediately that both maths and science were not just about *more* of something, but about vast changes in how things are looked at and thought about. *Methods* themselves could carry new points of view on their shoulders. This was already a topic of pondering — Kuhn etc — but without the pithy secret sauce of great aphorisms.

Arthur Koestler had recently written a terrific book about creativity — “The Act Of Creation” — and that used the explicit idea that most creativity was being able to see an idea, not just as a weak form in an initial context, but as a strong idea in a strong context. He used the imagery of “planes of thought” at different angles.

The ARPA research community in which I was luckily and happily embedded was coming up with new perspectives, POVs, contexts, etc. for computing. The McLuhan expositions made these much easier to see and think about as part of what we should be doing as researchers.

Part of the ARPA research context was drawn from “the implications behind Turing” as to “what computers actually *are*”. Another important part was drawn from the Cold War (and previous hot wars) as well as from other disasters in the making, such as planet-wide problems with food, water, the climate, etc.

If you try to make the invisible contexts visible, then it is easy to see that some of them are very positive with respect to advancing “civilization”, and others were terribly retrograde. What people “believe is ‘reality’ “ is the most important to put light on, especially if their “reality” doesn’t include the idea that “their reality is mostly just beliefs with no stronger foundations”.

These thoughts persisted in this form until Parc, when I found myself having to explain “stuff” to Xerox executives. One of the earliest ones popped out. I realized somewhat grudgingly that they weren’t “paragraph types”, and tried to find “punch lines” for the talks and pop papers I started to have to come up with.

It’s worth noting here that we need to use “change of context is worth 80 IQ points” on itself. For example: “IQ points” is a metaphor, and is not about what is officially considered “IQ”. And there is no sign: no “plus” or “minus”, even though a moment’s thought on contexts/POVs/etc will show that people can often have disastrously weak contexts for some of their thinking. (Witness history, the last few years, the last few weeks, yesterday, etc.)

Similarly, the earlier “The best way to predict the future is to invent it” doesn’t say anything about what kind of future. People in power often invent terrible futures and make them happen (again, just take a look at unnecessary disasters over history, especially recently).

F=GMm/d2 works in a context with a flat geometry and instant propagation (Newton was quite sure the latter was not the case in our universe). It definitely worked well, and was soon taken to be absolutely true and was *believed as such*.

This process is very similar psychologically to Joseph Campbell’s observation that religions were generally founded by social geniuses who tried to find ways — many of them metaphorical — to talk about ideas outside of the general commonsense. Many of their less sophisticated followers *reified* the abstractions into what they thought were *actualities*, and believed them rather than thinking about them.

But small parts of science are much more careful about beliefs than the general public — even within science. Eventually enough careful work revealed tiny discrepancies in Newton’s suggested relationship that required a very different context to give rise to another compact more accurate explanation.

A great metaphor is not just a commercial for more thinking, but also can be a door into stronger contexts for thinking. It can also be used as an even more effective blinder (especially if the proverb above is not really contemplated!).

23 Temmuz 2020 Perşembe

Orijinal makale için link

What are the most important statistics topics to learn for data science?

Colleen Farrelly Colleen Farrelly, Data Scientist/Poet/Social Scientist/Topologist (2009-present) Answered Nov 14, 2018

A few that I can think of off the top of my head:

  1. p-values and distributions/ p-değerleri ve dağılımları Link-1
  2. generalized linear models/ genelleştirilmiş doğrusal modeller Link
  3. Bayesian methods Link
  4. trial design/bias reduction Link-1 Link-2
  5. nonparametric test creation Link-1 Link-2
  6. time series methods Link
  7. survival analysis Link
  8. likelihood ratio tests
  9. least squares estimators
  10. Bayesian adaptive trial designs
  11. stochastic processes
  12. sampling techniques (random, stratified random...)

5 Temmuz 2020 Pazar

Sıklıkçı (Frequentist) ve Bayesçi Yaklaşımlar

İstatistikte Sıklıkçı (Frequentist) ve Bayesçi Yaklaşımlar

Çeviren: Ahmet Diril (e-posta)

Orjinal makale için tıklayın

Diğer bir makale: Olasılık nedir?

Diğer bir makale: Bayes Teorisi

İstatistik neyle uğraşır?

Belirli bir grup nesneden bazı veriler elde ettiğinizi düşünün. Bu bir insan grubu içindeki bireylerin boyları, bir kedi sürüsü içindeki kedilerin ağırlıkları, bir buket çiçekteki yaprakların sayısı vb olabilir.

Bu tür gruplara örneklem (sample) denir ve elde edilen veriler iki şekilde kullanılabilir. Yapabileceğiniz en basit şey, örneklemin ayrıntılı bir açıklamasını vermektir. Örneğin, bazı yararlı özelliklerini hesaplayabilirsiniz:

  • Örneklemin ortalaması
  • Örneklemin yayılımı (spread) (veri noktalarının birbirinden ne kadar farklı olduğu); varyansı olarak da bilinir
  • Belirli bir değerin üstünde veya altında yer alan kişilerin sayısı veya yüzdesi (ör. boyu 180 cm'nin üzerinde olan kişilerin sayısı)
  • Vb.

Bu nicelikleri (sayısal değerleri) yalnızca örneklemi özetlemek için kullanıyorsanız, bu tip hesaplamalarla ilgilenen disiplin tanımlayıcı istatistiktir (descriptive statistics).

Peki ama ya örneklemin özelliklerinden daha fazla (daha genel) bir şey öğrenmek isterseniz? Ya sadece bu örneklem için değil aynı zamanda örnekleri aldığınız popülasyon (ana grup) için de geçerli olan bir model (pattern) bulmak isterseniz? Bu tür genellemelerle ilgilenen istatistik dalı, çıkarımsal istatistiktir (inferential statistics) ve bu yazının ana odağıdır.

Çıkarımsal (çıkarsamalı, inferential) istatistikteki iki genel “felsefe” (düşünce akımı, yaklaşım) sıklıkçı (frequentist) çıkarım ve Bayesçi çıkarımdır. Aralarındaki temel farkları, formüle ettikleri soru tipleri ve bunları cevaplama yolları üzerinden ortaya koyacağız.

Ama önce, çıkarımsal istatistiğe kısa bir girişle başlayalım.

İçindekiler

  • Çıkarımsal istatistik
  • İnteroküler travmatik test
  • Çıkarımsal istatistiğin 3 hedefi
  • Sıklıkçı ve Bayesçi istatistik ve bunların karşılaştırılması
  • Sıklıkçı ve Bayesçi olasılık tanımlarına genel bakış
  • Parametre tahmini/kestirimi (estimation) ve veri tahmini (prediction)
  • Özet

Çıkarımsal istatistik

Dünyadaki tüm yetişkin erkekler ve kadınlar arasındaki ortalama boy farkını bulmak istediğinizi varsayalım. İlk fikriniz doğrudan ölçmek olacaktır. Mevcut dünya nüfusu yaklaşık 7,13 milyar, bunun 4,3 milyarı yetişkin. 4,3 milyar kişinin tek tek boylarını ölçer misiniz? Bence de olmaz. Bu en azından pratik değil.

Resim: Erkek ve kadın siluetleri ile çubuk grafik ön planda

Daha gerçekçi bir plan, gerçek farkın bir tahminiyle/tahminiyle yetinmek olacaktır. Yani, dünyadaki farklı alt popülasyonlardan yetişkin erkek ve kadınların örneklerini toplar ve onlardan tüm erkeklerin ve tüm kadınların ortalama boylarını çıkarmaya/çıkarsamaya çalışırsınız.

İşte çıkarımsal istatistik terimi de böyle ortaya çıktı. Elinizde tamamı çalışılamayacak kadar büyük bir popülasyon var, bu nedenle o popülasyondan alınan örneklerden popülasyon özelliklerini tahmin etmek için istatistiksel teknikler kullanırsınız.

Örnekler/örneklemler (sample) ve popülasyonlar arasındaki ayrım hakkında biraz daha fazla bilgi edinmek istiyorsanız, linkteki yazımın olasılık dağılımlarıyla ilgili bölümünü okuyabilirsiniz.

İnteroküler travmatik test (Göze çarpma testi, Aşikarlık testi)

Bazı özel durumlarda, sadece bir model (pattern) veya fark olup olmadığını bilmek isteyebilirsiniz. İki grup arasındaki farkın tam büyüklüğü gibi özellikler sizin için önemli değildir. Bu gibi durumlarda, kullanabileceğiniz en basit çıkarım tekniği bazen şaka yollu olarak interoküler travmatik test (IOTT) olarak adlandırılır. Bu testi, model/kalıp (pattern) iki gözünüzün tam ortasına çarpacak kadar açık olduğunda uygularsınız!

Örneğin, şirket CEO'ları ve şirket temizlik görevlileri arasındaki yıllık maaş farklarını karşılaştırıyorsanız, ikisi arasında büyük bir fark/uçurum olduğu sonucuna varmak için istatistikte uzman olmanıza gerek yoktur.

Tahmin edebileceğiniz gibi, IOTT'nin gerçek dünyadaki uygulama alanı çok sınırlıdır. Birçok farklılık, bu tür doğrudan yollarla tespit edilemeyecek kadar inceliklidir/göze çarpmaz. En ilginç kalıpların çoğunun basit “evet / hayır” soruları ile cevaplanamadığını da söylemek gerek. Bu karmaşık durumlarla başa çıkmak için birçok istatistiksel teknik geliştirilmiştir.

Çıkarımsal istatistiğin 3 hedefi

Çıkarımsal istatistikte, bir popülasyondan alınan bir örneklemden gelen verilerden popülasyon hakkında bir şey çıkarmaya çalışırız. Ama çıkarmaya çalıştığımız şey tam olarak nedir?

Çıkarımsal istatistikteki yöntemlerin tümü aşağıdaki 3 hedeften birine ulaşmayı amaçlar.

Parametre tahmini/kestirimi/hesaplaması (estimation)

Olasılık dağılımları bağlamında parametre, dağılımın özelliklerini belirleyen (genellikle de bilinmeyen) bir sabittir.

Örneğin, normal dağılımın parametreleri, ortalama ve standart sapmasıdır. Ortalama, “çan eğrisinin” tam ortasındaki değeri ve standart sapma bu eğrinin genişliğini belirler. Bu nedenle, verilerin normal dağılıma sahip olduğunu biliyorsanız, parametre tahmini, ortalama ve standart sapmasının gerçek değerlerini öğrenmeye çalışmak anlamına gelir.

Veri tahmini/öngörüsü (prediction)

Bu amaç için, genellikle belirli parametreleri önceden tahmin etmiş (hesaplamış) olmanız gerekir. Sonra bunları kullanarak gelecekteki verileri tahmin edersiniz.

Örneğin, bir örneklemdeki kadınların boylarını ölçtükten sonra, tüm yetişkin kadınlar için dağılımın ortalamasını ve standart sapmasını tahmin edebilirsiniz. Ardından, bu değerleri kullanarak rastgele seçilen bir kadının belirli bir değer aralığında bir boya sahip olma olasılığını tahmin edebilirsiniz.

Tahmin ettiğiniz (hesapladığınız) ortalamanın 160 cm civarında olduğunu varsayalım. Ayrıca standart sapmanın yaklaşık 8 cm olduğunu tahmin ettiğinizi varsayalım. Bu durumda, popülasyondan rastgele bir yetişkin kadın seçerseniz, onun 152 - 168 cm arasında bir boya sahip olmasını bekleyebilirsiniz (ortalamadan 3 standart sapma uzakta). Ortalamadan daha fazla sapan boylar (ör. 146 cm, 188 cm veya 193 cm) uzaklaştıkça daha az olasıdır.

Model karşılaştırması

Ayrıntılara girmeden bu hedeften kısaca bahsediyorum çünkü bu, diğer yazılarda ele alacağım biraz daha ileri seviye bir konu (başlangıç için, doğal olarak model karşılaştırmasına izin veren inanç yayılımı (belief propagation) için bir yöntem olan Bayesçi inanç/güven ağları (belief networks) hakkındaki yazımı okuyabilirsiniz).

Kısaca söylersek, model karşılaştırması, 2 veya daha fazla model arasından gözlemlenen verileri en iyi açıklayan istatistiksel modeli seçme işlemidir. Basitçe model, verileri oluşturan süreç/olaylar hakkında bir dizi önermedir. Örneğin, bir model bir yetişkinin boyunun aşağıdaki gibi faktörlerle belirlendiğini varsayabilir:

  • Biyolojik cinsiyet
  • Genler
  • Beslenme
  • Fiziksel egzersiz

İstatistiksel bir model, bu faktörler ile açıklanacak veriler arasında belirli bir ilişki önerir. Örneğin, “genetik bileşenler boyu fiziksel egzersizden daha fazla etkiler” gibi.

İki model, faktörlerin verileri etkileme gücünü farklı önerebilir veya faktörler arasındaki belirli bir etkileşim olduğunu önerebilir vb. Bu durumda, gözlemlenen verilere en iyi uyan model en doğru olarak kabul edilir.

Sıklıkçı ve Bayesçi istatistik - karşılaştırma

Bu iki ekol arasındaki farklar, olasılık kavramını yorumlamalarından kaynaklanmaktadır.

Sıklıkçı ve Bayesci olasılık tanımlarına genel bakış

Daha önceki bir yazıda, olasılığın 4 ana tanımından bahsettik:

  • Uzun vadeli sıklıklar (frekanslar/tekrarlanmalar)
  • Fiziksel eğilimler (tendency) / temayüller (propensity)
  • İnanç/güven dereceleri (degrees of belief)
  • Mantıksal destek dereceleri

Sıklıkçı çıkarsama ilk tanıma dayanır, oysa Bayesci çıkarsama ise tanım 3 ve 4'e dayanır.

Özetle sıklıkçı olasılık tanımına göre, sadece tekrarlanabilir rastgele olayların (havaya bir metal para atmanın sonucu gibi) olasılıkları olabilir. Bu olasılıklar, söz konusu olayların uzun dönem gerçekleşme sıklığına eşittir.

Sıklıkçılara göre, hipotezlerin veya genel olarak sabit ama bilinmeyen değerlerin olasılıkları olamaz. Bu, dikkatle incelenmesi gereken çok önemli bir noktadır. Bunu görmezden gelmek, sıklıkçı analizlerin yanlış yorumlanmasına yol açabilir.

Aksine, Bayesçiler olasılığı daha genel bir kavram olarak görürler. Bir Bayesci olarak, herhangi bir olay veya hipotezdeki belirsizliği temsil etmek için olasılıklar kullanılabilir. Bu yaklaşımda, tekrarlanamayan olaylara (2016'da ABD başkanlık yarışını Hillary Clinton’ın kazanması gibi) olasılıklar atamak tamamen kabul edilebilir bir durumdur. Gelenekçi sıklıkçılar, bu olay tekrarlanabilir olmadığı için bu olasılıkların anlamsız olduğunu iddia edecektir. Yani, seçim sürecini sonsuz sayıda tekrarlayamaz ve bunlardan Hillary Clinton'ın kazandıklarının oranını hesaplayamazsınız.

Farklı olasılık tanımları hakkında daha fazla bilgi için, yukarıda bağlantısını verdiğim yazıyı okumanızı tavsiye ederim.

Parametre tahmini/kestirimi/hesaplanması (estimation) ve veri tahmini/öngörüsü (prediction) Bu bölüm hakkında daha fazla bilgi için, olasılık dağılımları konusundaki giriş niteliğindeki yazıma göz atabilirsiniz.

Aşağıdaki örneği ele alalım. Yetişkin kadınların ortalama boylarını tahmin etmek/hesaplamak istiyoruz. İlk olarak, boyun normal dağılıma sahip olduğunu varsayıyoruz. İkinci olarak, standart sapmanın mevcut olduğunu ve onu tahmin etmemiz gerekmediğini varsayıyoruz. Bu durumda, tahmin etmemiz gereken tek şey dağılımın ortalamasıdır (mean).

Sıklıkçıların yaklaşımı

Bu probleme sıklıkçı bir yaklaşım nasıl olurdu? Şu şekilde bir akıl yürütme yapılırdı:

“Ortalama kadın boyunun ne olduğunu bilmiyorum. Ancak, bu değerin (rastgele değil) sabit bir değer olduğunu biliyorum. Bu nedenle, ortalamanın belirli bir değere eşit veya başka bir değerden daha küçük/ daha büyük olma olasılığından bahsedemem. Yapabileceğim şey popülasyondan alınan bir örneklemden alınan verileri toplamak ve bunun ortalamasını verilerle en tutarlı değer olarak tahmin etmektir.”

En sonda bahsedilen değere maksimum olabilirlik tahmini denir. Bu değer, verilerin dağılımına bağlıdır ve hesaplanmasıyla ilgili ayrıntılara girmeyeceğim. Bununla birlikte, normal dağılıma sahip veriler için durumu oldukça basittir: popülasyon ortalamasının maksimum olabilirlik tahmini, örneklemin ortalamasına eşittir.

Bayes yolu

Öte yandan bir Bayesci farklı bir mantık yürütür:

“Ortalamanın sabit ve bilinmeyen bir değer olduğunu kabul ediyorum, ancak belirsizliği olasılıkla temsil etmede hiçbir sorun görmüyorum. Bunu, ortalamanın olası değerleri üzerinde bir olasılık dağılımı tanımlayarak yaparım ve bu dağılımı güncellemek için örneklem verilerini kullanırım.”

Bayesçi bir ortamda, yeni toplanan veriler parametre üzerindeki olasılık dağılımını daraltır. Daha spesifik olursak, parametrenin gerçek (bilinmeyen) değeri etrafında daraltır. Güncelleme işlemini Bayes teoremini uygulayarak yaparsınız:

Bayes' theorem given as an equation with arrows showing the terms "prior", "posterior", "likelihood", and "evidence".

"öncül" (prior), "ardıl" (posterior), "olabilirlik" ve "kanıt" terimlerini gösteren oklarla denklem olarak Bayes teoremi yukarıda verilmiştir.

Olasılık dağılımının tamamını güncellemenin yolu, parametrenin olası her değerine Bayes teoremini uygulamaktır.

Bayes teoremine aşina değilseniz, giriş niteliğindeki yazıya ve bu yazıya bir göz atabilirsiniz. Teorem ve bunun türetilmesi hakkında bazı bilgileri bulacaksınız. Ve gerçekten Bayes teoreminin nasıl kullanıldığını görmek istiyorsanız, bu yazı tam size göre. Bu yazıda, her havaya para atılmasından sonra olasılık dağılımının tümünü güncelleyerek bir paranın bias’ının tahminini/hesaplanmasını gösterdim.

Sıklıkçılar Bayesçi yaklaşıma ana itirazı, öncül/önceki (prior) olasılıkların kullanılmasıdır. Onların itirazı, bu değerleri belirlemede her zaman öznel (sübjektif) bir unsur olduğudur. Paradoksal olarak, Bayesliler öncül olasılıkların kullanılmamasını sıklıkçı yaklaşımın en büyük zayıflıklarından biri olarak görürler.

Her ne kadar bu, kesin bir cevap vererek sonlandırabileceğiniz bir tartışma olmasa da, gerçek tam ortada bir yerde de değildir. Gelecekte, öncül olasılıkları kullanmanın veya kullanmamanın matematiksel ve uygulamadaki sonuçları üzerine bir yazı yazacağım.

Veri tahmini (data prediction)

Burada, sıklıkçı ve Bayesci yaklaşımlar arasındaki farklılık, parametre kestirimindeki farklılığa benzerdir. Yine, sıklıkçılar olası parametre değerlerine olasılık atfetmez/atamaz ve yeni veri noktalarını tahmin etmek için bilinmeyen parametrelerin (maksimum olabilirlik) nokta tahminlerini kullanırlar.

Bayesçiler ise olası parametre değerleri üzerinde tam bir ardıl (posterior) dağılıma sahiptir. Bu da onlara, tahmini en olası değere dayandırmak yerine, tam ardıl dağılım üzerinden integral alarak tahmindeki belirsizliği hesaba katma imkanı sağlar.

P değerleri ve güven aralıkları

Sıklıkçılar, gerçek parametre değerindeki belirsizliği olasılıksal olarak ele almaz/hesaplamaz. Ancak bu, belirsizliği sihirli bir şekilde ortadan kaldırmaz. Maksimum olabilirlik tahmini yanlış olabilir ve aslında çoğu zaman yanlıştır da! Belirli bir tahminin/kestirimin doğru olduğunu varsaydığınızda, ancak gerçekte böyle olmadığında, bir hata yapmış olursunuz. Sonuç olarak, bu uzun dönem hata oranlarını ölçmek ve sınırlamak için iki matematiksel tekniğin gelişmesine yol açmıştır:

  • sıfır/boş (null) hipotez anlamlılık testi (NHST) ve bununla ilgili p-değerleri kavramı
  • güvenilirlik aralığı

Genel fikir bir tahminde bulunmak, sonra tahmin hakkında sadece belirli koşullar altında geçerli olan bir varsayımda bulunmaktır. Bu koşullar, uzun dönem hata oranını bir değer ile (genellikle %5 veya daha düşük) sınırlayacak şekilde seçilir.

Bu konuyla ilgili daha önceki bir yazıda (p değerlerinin doğru yorumlanmasının yanı sıra) NHST’nin kontrol ettiği hata oranlarının türlerinden bahsettim. Ancak, p değerlerine aşina değilseniz bu yazıyı okumanızı önemle tavsiye ederim. Aslında, sık sık yanlış yorumlanmaları nedeniyle, bunları bilseniz bile yazıyı yine de okumanızı tavsiye ederim.

Güven aralıkları (confidence intervals)

Güven aralıkları, parametre tahmini/kestirimi yapmanın sıklıkçı yoludur ve bir nokta tahmininden daha fazlasıdır. Güven aralıkları oluşturmanın arkasındaki teknik ayrıntılar bu yazının kapsamı dışındadır, ancak genel düzeyde bilgi vereceğim.

Kendinizi bir ortalama değer (mean value) (bir popülasyondaki ortalama boy, iki grup arasındaki ortalama IQ farkı vb.) tahmin etmeye çalışan bir kişinin yerine koyun. Her zamanki gibi, popülasyondan örnek veriler alarak başlarsınız. Şimdi, bir sonraki adım size bahsetmediğim sihirli adımdır. Bu, bir değer aralığını hesaplamak için standart bir prosedürdür.

Herhangi bir veri almadan önce, örneklem boyutu da dahil olmak üzere tüm prosedürü belirlersiniz. Ve prosedürü aşağıdaki hedefi göz önünde bulundurarak seçersiniz:

Varsayımsal/farazi olarak, prosedürü çok sayıda tekrarlarsanız, güven aralığı belirli bir olasılıkla gerçek ortalamayı içermelidir.

İstatistiklerde, yaygın olarak kullanılanlar %95 ve %99 güven aralıklarıdır.

Sabit ortalamaya sahip bir popülasyon seçerseniz, örnek verileri alırsanız ve son olarak %95 güven aralığını hesaplarsanız, hesaplamaların %95’inde hesaplanan aralık gerçek ortalamayı kapsayacaktır.

Bir güven aralığı hesapladıktan sonra, bu aralığın %95 olasılıkla gerçek ortalamayı kapsadığını söylemek yanlıştır (bu yaygın bir yanlış yorumdur). Sadece, uzun dönemde, aynı prosedürü izleyerek elde ettiğiniz güven aralıklarının %95'inin gerçek ortalamayı kapsayacağını önceden/baştan söyleyebilirsiniz.

Güven aralıklarının hesaplanmasının grafiksel bir gösterimi

Yukarıda tarif edilen prosedürü gösteren kısa bir animasyonu başlatmak için aşağıdaki resme tıklayın:

Animasyonu başlatmak / yeniden başlatmak için resmin üzerine tıklayın.

Gerçek sayı çizgisinin üzerinde bir yerde, varsayımsal/farazi bir ortalamamız bulunuyor (ortalama, 'm' harfi ile kısaltılmıştır). Ardışık olarak 20 adet %95’lik güven aralığı oluşturuyoruz. Bunlardan ikisi ortalamayı kaçırıyor ve 18'i içeriyor. Bu 18/20 = %90 oranını verir.

Neden güven aralıklarının %95'i değil de sadece %90'ı ortalamayı kapsıyor? Cevap, elbette, sürecin doğal olarak olasılıksal olmasında ve herhangi bir sabit sayıdaki güven aralığının tam olarak %95'inin gerçek ortalamayı kapsayacağının garantisinin olmamasında yatıyor. Bununla birlikte, üretilen aralıkların sayısı arttıkça, ortalamayı kapsayan yüzde, %95'e daha da yaklaşır.

Bu arada, güven aralıklarının aynı genişliğe sahip olmadığına ve hepsinin farklı değerler etrafında merkezlendiğine dikkat edin.

Özet

Bu yazıda, tanımlayıcı ve çıkarımsal istatistikler arasındaki farktan bahsettim ve çıkarımsal istatistiğin 3 hedefini açıkladım:

  • Parametre tahmini/kestirimi
  • Veri tahmini/öngörüsü
  • Model karşılaştırması

Son hedeften fazla bahsetmedim ve çoğunlukla ilkine odaklandım.

Sıklıkçı ve Bayesci yaklaşımlar arasındaki farkın, bu ikisinin olasılık kavramını farklı şekillerde tanımlamasından kaynaklandığını gösterdim. Sıklıkçı istatistik sadece rastgele olayları olasılıkla ele alır ve sabit fakat bilinmeyen değerlerde belirsizliği (parametrelerin gerçek değerlerindeki belirsizlik gibi) nicelendirilebilir/hesaplanabilir bulmaz. Diğer yandan Bayesci istatistik, bir parametrenin olası değerleri üzerinde olasılık dağılımlarını tanımlar, bu dağılımlar da daha sonra başka amaçlar için kullanılabilir.

Son olarak, parametrelere olasılık-temelli yaklaşılmadığında, sıklıkçıların belirsizliği, tahmin edilen parametreyi boş (null) bir değerle (NHST) karşılaştırma veya güven aralıkları hesaplama seçeneklerinden biriyle uzun dönem hata oranlarını sınırlandırarak hallettiğini/ele aldığını gösterdim.

İlgili Dosyalar: BAYES TEOREMİ, İSTATİSTİK
Etiketler: GÜVEN ARALIĞI, NULL HİPOTEZİ, P-DEĞERİ, PARAMETRE TAHMİNİ/KESTİRİMİ

SORULAR:

ESHA DESHPANDE diyor

13 Aralık 2017, 9:14 pm

Yazının bu kısmını anlamama yardım eder misin? “Diğer taraftan Bayesçilere göre, olası parametre değerleri üzerinde tam bir ardıl (posterior) dağılım mevcuttur; bu da tahmini sadece en olası değere dayandırmak yerine, tam ardıl (posterior) dağılımın integralini alarak tahmindeki belirsizliği hesaba katma imkanı sağlar”

cevap CTHAEH diyor ki

14 Aralık 2017, 5:45 am

Selam Esha. Bu zor bir konu ve bu konuyla ilk karşılaştığımda benim de anlamam zaman aldı.

Bu temelde, bilinmeyen ancak sabit değerleri olan parametrelere olasılık atamayı (bu parametrelerin olasılığı olabileceğini) reddeden Sıklıkçılara dayanır (neden bahsettiğimi görmek için yukarıdaki Parametre tahmini ve veri tahmini bölümüne bakın). Oysa bu tür olasılıkları atamakta (felsefi) bir problem görmeyen Bayesçiler parametrenin olası değerleri üzerinden tüm olasılık dağılımını elde edebilirler.

Diyelim ki, hepsi "tura" yönünde rastgele bir biasa (eğilime/meyile) sahip bozuk paralarla dolu bir çantadan tek bir para çektiğiniz bir oyun oynuyorsunuz. Bias (eğilim/meyil), 0 ile 1 arasında bir sayıdır ve bu sayı, ilgili madeni para havaya atıldığında “tura” gelme olasılığını tanımlıyor (mesela bias değerinin 0,4 olması, parayı attığınızda “tura” gelme olasılığının 0,4 olduğu anlamına gelir).

Parayı 1000 kez atmanıza izin veriliyor, daha sonra sıradaki atış için "yazı" veya "tura" gelmesi üzerine bir bahis yapacaksınız ve parayı bir kez daha atacaksınız. 1001'inci atışın sonucunu doğru tahmin ederseniz, paranızı ikiye katlayacaksınız, aksi takdirde hepsini kaybedeceksiniz.

Muhtemelen yapacağınız şey ilk 1000 atışın sonuçlarını kaydetmek ve paranın bias’ını (meyil) tahmin etmeye çalışmak olur. Bias tahmininiz/hesabınız 0,5'ten fazlaysa, “tura” lehine (aksi takdirde “yazı” lehine) bahis oynarsınız.

Bias’ı tahmin ettiğiniz/hesapladığınız bölüme parametre tahmini/kestirimi denir. Parametre kestirimine Bayesçi ve Sıklıkçı yaklaşımlar sadece kullandıkları spesifik teknikler açısından değil, daha da önemlisi, kestirim sonucunda da farklılık gösterir. Bayesçiler, paranın bias’ının olası değerlerine bir olasılık atama konusunda sorun görmedikleri için, olası değerler üzerinden tüm olasılık dağılımını elde edebilirler. Bu nedenle “paranın bias’ının 0,5 olma olasılığı nedir?” gibi sorulara cevap verebilirler. Sıklıkçılar bunu yapmazlar. Bunun yerine, bias ile ilgili tahminleri tek bir sayı olur ve bu değer üzerindeki belirsizliği ölçemezler/belirleyemezler.

Örneğin, 10 atıştan 4’ü tura gelse de bir milyon atıştan 400.000’i tura gelse de, maksimum olabilirlik tahmini 0,4 olacaktır. Ancak, tabii ki ikinci durumda tahmininize çok daha fazla güvenirsiniz, bu da doğal olarak posterior (ardıl) olasılık dağılımına yansıtılır (ve onun ortalamayı merkez alan dar bir aralıkta yer almasına neden olur).

Sıklıkçılar bu sorunu kısmen çözmek için güven aralıkları (confidence interval) kullanırlar. Para atma sayısı daha yüksek olduğunda, aralığın kapsadığı değer aralığı çok daha dar olacaktır. Ancak, bu güven aralığı içinde, yine de farklı değerler için 'olabilirlik' ölçüsü/tahmini olmayacaktır. Başka bir deyişle, güven aralığınız [0,3 - 0,5] ise, bu aralıktaki her değer, bias’ın gerçek değeri olmak için eşit derecede iyi bir adaydır. Para atma sayısı düşük olduğunda, bu büyük bir fark yaratabilir.

Dediğim gibi, bu zor bir konudur ve sorunuzu tam olarak cevaplayamamış olabilirim. Lütfen daha fazla açıklama istemekten çekinmeyin!

Orjinal makale için tıklayın

Yapay Zeka (AI) nedir?

Yapay Zeka (AI) Nedir?

Çeviren ve Düzenleyen: Ahmet Diril (e-posta)

Akıllı bir evde oturduğunuzu hayal edin. Sabah uyandığınızda sanal asistanınız bunu fark ediyor. Pencerelerdeki perdeleri sizin için açıyor, dışarıdaki hava durumunu bildiriyor ve o gün yapacağınız şeyleri içeren bir program sunuyor.

Bir odaya girdiğinizde odanın ışıkları yanıyor ve kliması otomatik olarak çalışmaya başlıyor. Evdeki her küçük elektronik cihaz otomatik olarak çalışacak şekilde sisteme bağlanmış. İşte bu Yapay Zekanın (AI) bir marifeti!

AI, aslında yalnızca verileri analiz ederek ve bir cevap üreterek zekiymiş gibi “görünebilen” bir bilgisayardan (veya yazılımdan) ibaret. Yapay Zeka, Bilgisayar Bilimleri'nde, insanlar gibi çalışan ve tepki veren zeki makineler yaratmaya adanmış bir daldır.

Yapay Zeka, insanlar için kesinlikle hassas bir konudur. Bu terimi telaffuz etmek bile, akıllı süper-bilgisayarların insan ırkını köleleştirdiği veya kendilerinden aşağı gördükleri insan türünü tamamen ortadan kaldırdığı kıyamet senaryolarından görüntüleri akla getiriyor. Peki bu korkular gerçekçi mi? Yoksa olayı anlamamış kişilerin temelsiz korkularından mı ibaret? Yapay zeka konusundaki bir yanlış anlama, Terminatör, Ben-Robot, 2001: Bir Uzay Macerası gibi filmlerde etkileyici bir şekilde tasvir edilmiş olan yapay yaşam ile (veya yapay yaşam formları ile) aynı anlama geldiğidir.

“AI” terimini ilk kez Amerikalı bir bilgisayar bilimleri uzmanı olan John McCarthy, 1956'da Dartmouth Konferansı'nda kullandı. John McCarthy'ye göre AI, “Akıllı makineler, özellikle de akıllı bilgisayar programları yapma bilimi ve mühendisliğidir”. Bu kavram, insan zekasının "onu simüle edecek bir makine yapılabilecek kadar kesin bir şekilde tarif edilebileceği" inancına dayanmaktaydı.

Yapay Zekanın bazı önemli özellikleri şunlardır:

1. Konuşma tanıma

2. Nesne algılama

3. Verilen bir veri setini kullanarak öğrenme ve problemleri çözme

4. Gerçekleştirilecek gelecek görevler için bir yaklaşım planlama

Daha iyi anlamak için aşağıdaki resme bakabilirsiniz:

Resimden: AI, insan konuşmasını, nesneleri tanıyabilen, insanlar gibi öğrenebilen, planlayabilen ve problemleri çözebilen akıllı makineler oluşturmak için kullanılan bir bilgisayar bilimi disiplinidir.

  • Konuşma Algılama/Tanıma
  • Nesne Algılama
  • Verilen Verilerden Öğrenme ve Problem Çözme
  • Gelecekte yapılacak işler için bir yaklaşım belirleme

Dört farklı Yapay Zeka çeşidi vardır:

  • Tamamen Tepkisel - Çevresine dayanarak tepki verir ve önceki verilere ihtiyaç duymaz.
  • Sınırlı Bellek - Belirli bir görevi tamamlamak için mevcut ve önceki verileri kullanır.
  • Zihin Teorisi - İnsan duygularını anlama ve sosyalleşme yeteneğine sahiptir.
  • Bilinç Kazanmış - Gelecek nesil makinelerdir. Bu makineler süper zeki, hissedebilir ve bilinç kazanmış olacaklar.

Yapay zeka araştırmalarının ana amaçları arasında; akıl yürütme, bilgi, planlama, öğrenme, doğal dil işleme (iletişim), nesneleri algılama, hareket ettirme ve yönetme yeteneği sayılabilir. Genel zeka, hala bu alandaki uzun vadeli hedefler arasındadır. Arama ve matematiksel optimizasyon modelleri, mantık, olasılık ve ekonomiye dayalı yöntemler dahil olmak üzere AI çalışmalarında kullanılan çok sayıda araç vardır. AI alanı disiplinler arasıdır; bilgisayar bilimleri, matematik, psikoloji, dilbilim, felsefe ve sinirbilim yanı sıra yapay psikoloji gibi diğer uzmanlık alanlarını da kapsar.

AI'da Uzmanlaşma:

AI, aşağıdaki uzmanlık alanlarını içerir:

  • Oyun oynama: insanlara karşı oyun oynamaları için bilgisayarları eğitmek
  • Uzman sistemler: bilgisayarlara gerçek yaşam durumlarında karar vermeyi öğretmek
  • Doğal dil: bilgisayarları doğal dili (insan dilini) anlayacak şekilde eğitmek
  • Nöral ağlar: hayvan beyninde meydana gelen fiziksel bağlantı tiplerini tekrarlamaya çalışarak zekayı taklit eden bilgisayarlar
  • Robotik: işitmeleri, duymaları ve diğer duyusal uyarıları tepki vermeleri için sistemleri eğitmek

Yapay Zeka iki yolla elde edilebilir:

  • Makine Öğrenmesi
  • Derin Öğrenme

AI, Yapay Zeka anlamına gelir; burada zeka, bilgiyi edinme ve uygulama yeteneği olarak tanımlanmıştır.

ML, Makine Öğrenmesi anlamındadır; burada öğrenme, deneyim, çalışma veya öğretim yoluyla bilgi veya becerilerin kazanılması olarak tanımlanır.

Makine Öğrenmesi, bazı algoritmalara dayanarak kendi başına öğrenme, uyarlama ve problemleri çözme becerisi ile Yapay Zekaya olanak sağlar.

Derin Öğrenme ise, Yapay Zekanın bir insan gibi çalışmasını, hatta muhtemelen bir insandan daha yüksek bir zekayı mümkün kılar. Karar vermek ve bir görevi tamamlamak için insan beyninin işleyişini taklit eder.

Yapay Zeka ve Makine Öğrenmesi hakkında daha fazla bilgi edinmek için aşağıdaki videoları izleyebilirsiniz:

Referanslar:

1. What is artificial intelligence? by Anirudh Sharma

2. What is artificial intelligence? by Pranshu Pranjal

3. What is artificial intelligence? by Nazar Hembara

4. What is artificial intelligence? by Tanmay Bangale