Markov zinciri Monte Carlo yönteminin tam olarak anlaşılması

Çoğumuz için Bayes istatistiği ya vudu büyüsü ya da en kötü öznelciliktir. Klasik Bayesçi yöntemler arasında, Markov zinciri Monte Carlo (MCMC) yöntemi özellikle gizemlidir. Gerçekten de çok fazla matematiğe ve yüksek hesaplama maliyetine sahip programlardır, ancak bunların arkasındaki temel mantık, veri bilimindeki diğer birçok yöntem gibi görselleştirilebilir ve derinlemesine anlaşılabilir. Bu makalenin amacı budur.

Peki, Markov Zinciri Monte Carlo (MCMC) yöntemi nedir? Kısa cevap:

MCMC yöntemi, olasılık uzayında rastgele örnekleme yoluyla ilgilenilen parametrenin arka dağılımını yaklaşık olarak tahmin etmek için kullanılır.

Bu makalede kısa ve net bir açıklama yapacağım ve herhangi bir matematik bilgisine güvenmeyeceğim.

Önce önemli terimleri açıklayın. Meraklı nın-nin parametre Sadece ilgilendiğimiz olguyu özetleyen bazı rakamlar. Parametreleri tahmin etmek için genellikle istatistikleri kullanırız. Örneğin, bir yetişkinin boyunu bilmek istiyorsak, ilgi parametremiz inç olarak doğru ortalama yükseklik olabilir. dağıtılmış Parametrenin her bir olası değeri ve her bir parametrenin matematiksel temsilini gözlemleme olasılığımız nedir? En ünlü örnek çan eğrisidir:

içinde Bayes istatistik yöntemi Dağıtımda başka bir açıklama var. Bayesian sadece bir parametre değerini ve her bir parametrenin gerçek bir değer olma olasılığını karakterize etmekle kalmaz, aynı zamanda dağılımı parametreye olan inancımız olarak görür. Bu nedenle çan eğrisi, parametre değerinin sıfıra oldukça yakın olduğundan oldukça emin olduğumuzu gösterir, ancak bir dereceye kadar gerçek değerin bu değerden daha yüksek veya daha düşük olma olasılığının eşit olduğuna inanıyoruz.

Aslında, bir kişinin boyu normal bir eğriyi takip eder, bu nedenle, ortalama yüksekliğin gerçek değerinin aşağıda gösterildiği gibi çan şeklindeki bir eğriye uyduğunu varsayıyoruz:

Açıkçası, yukarıdaki resim devlerin yükseklik dağılımını temsil ediyor, çünkü resme göre, en olası ortalama yükseklik 6'2 "(ama çok emin değiller).

Diyelim ki içlerinden biri bazı verileri daha sonra toplar ve boyu 5 "ile 6" arasında olan bazı insanları gözlemler. Aşağıdaki verileri karakterize etmek için başka bir normal eğri kullanabiliriz, bu da hangi ortalama yükseklik değerlerinin bu verileri en iyi açıkladığını gösterir:

Bayesçi istatistiklerde, parametreler hakkındaki inançlarımızı ifade eden dağılıma, Önceki dağıtım Çünkü herhangi bir veriyi görmeden inançlarımızı yakalar. Olasılık dağılımı (Olasılık dağılımı) Bir dizi parametre değerini karakterize ederek ve verilerdeki bilgileri özetlemek için her bir parametre değerine eşlik ederek gözlemlenen verilerin olasılığını yorumlayın. Maksimum olasılık dağılımının parametre değerlerini değerlendirmek sadece şu soruyu yanıtlar: Hangi parametre değeri, gözlemlenen verileri gözlemleme olasılığımızı artıracak ? Önceden bir inanç yoksa, bunu değerlendiremeyebiliriz.

Bununla birlikte, Bayesçi analizin anahtarı, arka dağılımı belirlemek için önceki ve olasılık dağılımını birleştirmektir. Hangi parametre değerinin gözlemlenen belirli verileri gözlemleme olasılığını en üst düzeye çıkardığını ve önceki inançları hesaba kattığını bize söyleyebilir. Örneğimizde, arka dağılım aşağıdaki gibidir:

Yukarıda gösterildiği gibi, Kırmızı çizgi, arka dağılımı temsil eder. Bunu önceki ve olasılık dağılımının bir ortalaması olarak düşünebilirsiniz . Önceki dağılım daha küçük ve daha dağınık olduğundan, ortalama yüksekliğin gerçek değeri hakkında bir dizi "belirsiz" inancı temsil eder. Aynı zamanda, olasılık dağılımı verileri nispeten dar bir aralıkta özetler, böylece gerçek parametre değeri hakkında "daha kesin" bir tahminde bulunur.

Öncekiyle olasılık dağılımı birleştirildiğinde, veriler (olasılık dağılımı ile temsil edilir) bu devler arasında var olduğu varsayılan bireylerin a priori zayıf inançlarına hakim olur. Kişi hala ortalama yüksekliğin verinin kendisine anlattığından biraz daha yüksek olduğuna inanmasına rağmen, veriler tarafından ikna edilmesi çok muhtemeldir.

Çan şeklindeki iki eğri durumunda, arka dağılımı çözmek çok kolaydır. İkisini birleştiren basit bir denklem var. Peki ya önceliklerimiz ve olasılık dağılımlarımız kötü performans gösteriyorsa? Bazen basitleştirilmemiş şekil modelleme verilerini veya önceki inançları kullanırken en doğru olanıdır. Ya olasılık dağılımının en iyi karakterize edilmesi için iki tepe noktası olan bir dağılıma ihtiyacı varsa? Ve bazı nedenlerden dolayı, bazı çok garip önceki dağıtımları açıklamak istiyoruz? Önceden çirkin bir dağıtımı manuel olarak çizerek senaryoyu şu şekilde görselleştirdim:

Matplotlib'de görselleştirme, MS Paint ile geliştirilmiş

Daha önce bahsedildiği gibi, her bir parametre değerinin olasılık dağılımını veren bazı arka dağılımlar vardır. Ancak tam bir dağıtım elde etmek zordur ve analitik olarak çözülemez. Bu, MCMC yöntemini kullanma zamanıdır.

MCMC, doğrudan hesaplama yapmadan posterior dağılımın şeklini değerlendirmemize izin verir. Çalışma prensibini anlamak için önce Monte Carlo simülasyonunu (Monte Carlo simülasyonu) tanıtacağım, ardından Markov zincirini tartışacağım.

Monte Carlo simülasyonu, tekrar tekrar rastgele sayılar üreterek sabit parametreleri tahmin etme yöntemidir. Monte Carlo simülasyonu, üretilen rastgele sayıyı alarak ve üzerinde bazı hesaplamalar yaparak, bir parametrenin yaklaşık değerini sağlar; bu, doğrudan hesaplanması imkansız veya çok zaman alıcıdır.

Aşağıdaki şekilde dairenin alanını değerlendirmek istediğimizi varsayalım:

Daire, kenar uzunluğu 10 inç olan bir kare içinde olduğundan, basit bir hesaplama, onun alanının 78,5 inç kare olduğunu gösterir. Ancak karenin içine rastgele 20 nokta yerleştirirsek ve sonra daireye düşen noktaların oranını hesaplayıp karenin alanıyla çarparsak, sonuç dairenin alanına çok yakın olur.

15 nokta çemberin içine düştüğü için çemberin alanı yaklaşık 75 inç kare olabilir.Sadece 20 rastgele noktalı Monte Carlo simülasyonu için sonuç fena değildir.

Şimdi, aşağıdaki şekilde Batman Denkleminin çizdiği şeklin alanını hesaplamak istediğimizi varsayalım:

Böyle bir alanı bulmak için hiçbir denklem öğrenmedik. Her durumda, rastgele noktalar yerleştirerek, Monte Carlo simülasyonu alan için oldukça kolay bir şekilde yaklaşık bir değer sağlayabilir.

Monte Carlo simülasyonu yalnızca karmaşık şekillerin alanını tahmin etmek için kullanılmaz. Çok sayıda rastgele sayı üreterek, çok karmaşık süreçleri modellemek için de kullanılabilir. Aslında, Monte Carlo simülasyonu hava durumunu da tahmin edebilir veya seçim zaferinin olasılığını değerlendirebilir.

MCMC yöntemini anlamak için ikinci unsur Markov zincirleridir. Markov zinciri, olasılıksal korelasyona sahip bir dizi olaydan oluşur. Her olay bir dizi sonuçtan kaynaklanır Sabit bir olasılık kümesine göre, her sonuç bir sonraki sonucu belirler.

Markov zincirinin önemli bir özelliği Hafızasız : Bir dahaki seferi tahmin etmek için ihtiyaç duyulabilecek her şey halihazırda mevcut durumda bulunmaktadır ve olayın geçmişinden hiçbir yeni bilgi elde edilemez. Örneğin, Chutes and Ladders oyunu bu hafızasızlığı veya Markov'u gösterir, ancak gerçek dünyadaki çok az şey bu niteliktedir. Bununla birlikte, Markov zinciri aynı zamanda gerçek dünyayı anlamak için de güçlü bir araçtır.

On dokuzuncu yüzyılda insanlar çan eğrisinin doğada çok yaygın bir model olduğunu gözlemlediler. (Örneğin, insanların boyunun çan şeklinde bir eğri dağılımını izlediğini fark ettik.) Galton Board, bir keresinde, misketlerin son sayı dağılımında, mermeri bırakıp, dübellerle dolu bir tahtadan geçirerek tekrarlanan rastgele olayların ortalama değerini simüle etti. Çan eğrisi yeniden oluşturulur:

Rus matematikçi ve ilahiyatçı Pavel Nekrasov, çan eğrisinin veya daha genel olarak büyük sayılar yasasının, çocuk oyunlarında ve her olayın tamamen bağımsız olduğu sıradan bulmacalarda yanlış bir illüzyondan başka bir şey olmadığına inanıyor. . İnsan davranışı gibi gerçek dünyadaki birbirine bağlı olayların güzel matematiksel kalıpları veya dağılımları takip etmediğine inanıyor.

Andrey Markov (Markov zinciri onun adını almıştır) bağımlı olayların da belirli kalıpları takip edebileceğini kanıtlamaya çalışır. En ünlü örneklerinden biri, bir Rus şiirinden binlerce iki karakter çifti saymaktır. Her karakterin koşullu olasılığını hesaplamak için bu iki karakter çiftini kullandı. Yani, yukarıda belirtilen belirli bir harf veya boşluk verildiğinde, bir sonraki harfin A, T veya boş olması gibi belirli bir olasılık vardır. Bu olasılıklarla Markov, rastgele bir uzun karakter dizisini simüle edebilir. Bu Markov zinciri. İlk birkaç karakter büyük ölçüde başlangıç karakterlerinin seçimine bağlı olsa da Markov, uzun karakter dizilerinde karakter dağılımının belirli bir modele sahip olacağını gösterdi. Bu nedenle, karşılıklı olarak bağımlı olaylar için bile, sabit bir olasılık dağılımına uymaları halinde, ortalama seviyelerin bir modelini takip edeceklerdir.

Daha anlamlı bir örnek vermek gerekirse, bir yatak odası, banyo, oturma odası, mutfak ve yemek odası olan beş odalı bir evde yaşadığınızı varsayalım. Ardından, yalnızca içinde bulunduğunuz odanın ve buna karşılık gelen zamanın içinde bulunduğunuz bir sonraki odanın olasılığını tahmin edebileceğini varsayarak bazı veriler toplarız. Örneğin mutfakta iseniz mutfakta kalma olasılığınız% 30, yemek odasına gitme olasılığınız% 30, oturma odasına gitme olasılığınız% 20 ve banyoya gitme olasılığınız% 10. Yatak odasına gitme şansı% 10'dur. Her oda için olasılıklar kümesini kullanarak, bir sonraki odaya gireceğiniz oda hakkında bir tahminler zinciri oluşturabiliriz.

Bir kişinin mutfağın arkasındaki odada nerede olduğunu tahmin etmek istiyorsanız, birkaç duruma göre tahminlerde bulunmak etkili olabilir. Ancak tahminimiz yalnızca evdeki bir kişinin tek bir gözlemine dayandığından, tahmin sonucunun yeterince iyi olmadığını varsaymak mantıklıdır. Örneğin, bir kişi yatak odasından banyoya yürürse, mutfaktan banyoya gitmektense orijinal odaya dönme olasılığı daha yüksektir. Bu nedenle Markov zincirleri gerçek dünyaya gerçekten uygulanamaz.

Bununla birlikte, Markov zincirini yinelemeli olarak binlerce kez çalıştırmak, gerçekten de bir sonraki içinde olabileceğiniz oda hakkında uzun vadeli tahminler verebilir. Daha da önemlisi bu tahmin kişinin başladığı odadan etkilenmez. Bu, sezgisel olarak şu şekilde anlaşılabilir: Uzun vadeli süreci (veya genel durumu) simüle ederken ve açıklarken odadaki bir kişinin olasılığını, zaman faktörü önemli değildir. Bu nedenle, kontrol davranışının olasılığını anlarsak, değişimlerin uzun vadeli eğilimini hesaplamak için Markov zincirlerini kullanabiliriz.

Bazı Monte Carlo simülasyonlarını ve Markov zincirlerini tanıtarak, MCMC yönteminin sıfır matematik açıklamasını daha sezgisel bir şekilde anlayabileceğinizi umuyoruz.

Ortalama yüksekliğin arka dağılımını değerlendirmek için orijinal soruya geri dönelim:

Bu arka dağılım örneği, bir kişinin ortalama boyunu ciddi şekilde fazla tahmin ediyor

Posterior dağılımın önceki dağılım ve bir dereceye kadar olasılık dağılımı aralığında olduğunu biliyoruz, ancak yine de doğrudan hesaplanamaz. MCMC yöntemini kullanarak, arka dağıtımdan örnekleri etkili bir şekilde çıkarabilir ve ardından örneklerin ortalamasını çıkarmak gibi istatistiksel özellikleri hesaplayabiliriz. .

İlk olarak, MCMC yöntemi rastgele bir parametre değeri seçer . Simülasyon sırasında, rastgele değerler sürekli olarak oluşturulur (yani, Monte Carlo kısmı), ancak daha iyi parametre değerleri oluşturabilen belirli kurallara tabidir. Yani, bir çift parametre değeri için, her bir değerin geçerliliği, hangi değerin daha iyi olduğunu belirlemek için verileri açıklamak için önceden verilmiş bir güvenilirlik ile hesaplanabilir. Parametre değerleri zincirine (yani Markov zinciri kısmına) daha iyi bir parametre değeri ve bu değerin yorum verilerinin geçerliliği ile belirlenen belirli bir olasılık ekleyeceğiz.

Yukarıdaki süreci görsel olarak açıklamak için öncelikle bir dağılımın belirli bir değerinin yüksekliğinin o değeri gözlemleme olasılığını temsil ettiği vurgulanmaktadır. Bu nedenle, parametre değerine (x ekseni) karşılık gelen olasılık (y ekseni) daha yüksek veya daha düşük olabilir. Tek bir parametre için, MCMC yöntemi, x ekseninde rastgele örnekleme yaparak başlar.

Kırmızı noktalar rastgele parametrelerin örnekleridir

Rastgele örnekleme sabit bir olasılığa uyduğundan, bir süre sonra parametrenin yüksek olasılık alanına yakınsama eğilimindedirler:

Mavi noktalar, örnekleme yakınsadıktan sonra herhangi bir zamanda rastgele örneklemeyi gösterir. Not: Bu noktaların dikey olarak istiflenmesi yalnızca örnekleme amaçlıdır.

Yakınsama meydana geldikten sonra, MCMC örnekleme, arka dağılımın örnekleri olan bir dizi nokta elde edecektir. Bir histogram çizmek için bu noktaları kullanın ve ardından ilgilendiğiniz herhangi bir istatistiksel özelliği hesaplayabilirsiniz:

MCMC simülasyonu tarafından oluşturulan numune setinden hesaplanan herhangi bir istatistik, gerçek posterior dağıtım istatistikleri için en iyi tahminimizdir.

MCMC yöntemi, birden çok parametrenin (insan boyu ve kilosu gibi) posterior dağılımını tahmin etmek için de kullanılabilir. N parametre için, n boyutlu uzayda, bazı parametre değer setlerinin gözlem verilerini daha iyi açıkladığı yüksek bir olasılık alanı vardır. Bu nedenle, MCMC yönteminin posterior dağılıma yaklaştırmak için olasılık uzayında rastgele örneklediğini düşünüyorum.

AI Roket Kampı Çeviri Ekibi Çevirisi, kısmi değişiklik

Orijinal bağlantı: https://towardsdatascience.com/a-zero-math-introduction-to-markov-chain-monte-carlo-methods-dcba889e0c50

En sevecen babadır, ellerini engelli çocuklar için rüya gibi bir araba yapmak için kullanır, gücü kalbini ısıtır.
önceki
Siyah teknoloji ustası: Hiç bilmediğiniz gerçek CT6
Sonraki
En korkunç "koi" çılgınlığını keşfedin! Netizenler rapor etmek istiyor ...
38 kuşaktır Su Shi ailesinin soyundan gelen O, iki yıl içinde 7 eski evi ve güzel bir lotus göleti antik köyünü yeniledi.
Huawei P10 yakında satışa sunulacak, netizenler şu anda Huawei'yi satın alacak para olmadığı yorumunu yaptı
CES derinlemesine analizi (1): Otonom sürüş, iş modeli değişikliklerini doğurur
Tarihte vurulan en güçlü BMW, yeni M760Li xDrive şiddetli bir estetik sergiledi
O dünyanın en dindar münzevi ve 15 yıl boyunca herkesin gözü altında sımsıkı yürüdü.
Tian Feng, ZTE Akıllı Araç Başkan Yardımcısı: Sınır ötesi entegrasyon düşüncesine sahip bir araba inşa etmek LINC2016
Birden çok örnek ve birden çok açıyla Bayesci çıkarımı anlama
Güzel eski kitaplar onun tarafından yaratıldı, hikayesini anlatmalarına izin verdi
Bu Yunnan kızı 10 yıldır bir dağ tapınağında çömlek yapıyor ve çay içiyor, ancak izlemesi için 200.000'den fazla insanı cezbetti.
FIIL JD Film Festivaline Yardımcı Oluyor, Kaliteli Yaşam FIIL'den Başlıyor
"Modern Edison" olarak adlandırıldı ve yüz milyonlarca insanın kaderini değiştirmek için 400'den fazla icat kullandı.
To Top