Makine öğrenimi için on iki deneyim kılavuzu

Makine öğrenimi algoritmaları, önemli görevlerin nasıl gerçekleştirileceğini belirlemek için örnekleri genelleştirebilir. Manuel programlamanın bu tür hedeflere ulaşmak zordur, bu nedenle makine öğrenimi genellikle uygulanabilir ve uygun maliyetlidir. Daha fazla veri elde edildikçe, daha iddialı sorunlar çözülebilir. Bu nedenle makine öğrenimi, bilgisayar samimiyeti gibi alanlarda yaygın olarak kullanılmaktadır. Bununla birlikte, başarılı makine öğrenimi uygulamaları geliştirmek, ders kitaplarında bulunması zor olan çok sayıda "siyah sanat" gerektirir.

1. Öğrenme = sunum + değerlendirme + optimizasyon

Tüm makine öğrenimi algoritmaları genellikle üç bileşen içerir:

  • Anlamına geliyor: Bir sınıflandırıcı, bilgisayarın kullanabileceği resmi bir dilde ifade edilmelidir. Aksine, öğrenciler için bir temsil seçmek, öğrenilebilecek bir dizi sınıflandırıcı seçmeye eşdeğerdir. Bu kümeye öğrencinin hipotez alanı denir. Bir sınıflandırıcı hipotez uzayında değilse öğrenilemez. İlgili bir soru şudur: Hangi özelliklerin kullanılacağı gibi girdinin nasıl temsil edileceği.
  • Değerlendirme: İyi bir sınıflandırıcıyı kötü bir sınıflandırıcıdan ayırt etmek için bir değerlendirme fonksiyonu gereklidir. Algoritma içinde kullanılan değerlendirme işlevi, sınıflandırıcı dışında kullanılan değerlendirme işlevinden farklı olabilir, bu temelde optimizasyon kolaylığı ve bir sonraki bölümde tartışacağımız konular içindir.
  • optimizasyon: Son olarak, dil sınıflandırıcıda en yüksek puana sahip yöntemi bulmamız gerekiyor. Optimizasyon teknolojisi seçimi, öğrencilerin verimliliğini artırmanın anahtarıdır ve aynı zamanda sınıflandırıcının değerlendirme işlevinin birden fazla optimal değere sahip olup olmadığını belirlemeye yardımcı olur. Başlangıçta yeni başlayanlar için hazır optimize ediciler kullanmak yaygındır, ancak bu optimize ediciler özel olarak tasarlanmış optimize edicilerle değiştirilecektir.

2. "Genelleme yeteneği" çok önemli, "test verileri" doğrulaması çok önemli!

Makine öğreniminin temel amacı, örnekleri eğitim setinin dışında genelleştirmektir. Çünkü ne kadar veri olursa olsun, testte aynı örneği tekrar görmek pek olası değildir. Eğitim setinde iyi performans elde etmek kolaydır. Makine öğrenimine yeni başlayanlar tarafından yapılan en yaygın hata, başarı yanılsamasını yaratmak için modeli eğitim verileri üzerinde test etmektir. Seçilen sınıflandırıcı, normal koşullar altında yeni veriler üzerinde test edilirse, sonuçlar genellikle rastgele tahminlere benzer. Bu nedenle, bir sınıflandırıcı oluşturmak için birini işe alırsanız, size verdikleri sınıflandırıcıda test edebilmeniz için kendinize bazı veriler bıraktığınızdan emin olun. Aksine, birisi sizi bir sınıflandırıcı oluşturmanız için işe alırsa, lütfen verilerin bir kısmını sınıflandırıcınızın son testi için saklayın.

3. Veri tek başına yeterli değildir, bilginin kombinasyonu daha iyidir!

Genellemeyi hedef olarak almanın başka bir sonucu vardır: Ne kadar veriniz olursa olsun, yalnızca veri yeterli değildir. Bu sinir bozucu mu? Öyleyse, abartılı bir şekilde öğrenmesini nasıl bekleyebiliriz? Ancak, gerçek dünyada öğrenmek istediğimiz işlevlerin tümü matematiksel olarak mümkün olan işlevlerden çıkarılmamıştır! Aslında, pürüzsüzlük, benzer sınıflandırmalara sahip benzer örnekler, sınırlı bağımlılıklar veya sınırlı karmaşıklık gibi genel varsayımları kullanmak, genellikle yeterince iyi yapılabilir, bu da makine öğreniminin bu kadar başarılı olmasının nedenidir. Tümdengelim gibi, tümevarım (eğitim modelinin yaptığı şey) bir bilgi kaldıracıdır - az miktarda bilgi girdisini büyük miktarda bilgi çıktısına dönüştürür. Tümevarım, tümdengelimden daha güçlü bir kaldıraçtır ve yararlı sonuçlar elde etmek için daha az bilgi gerektirir. Ancak, çalışmak için yine de sıfırdan fazla bilgi girişi gerektirir. Her kaldıraçta olduğu gibi, ne kadar çok girerseniz, o kadar çok alırsınız.

Geçmişe bakıldığında, eğitim sırasında bilgi ihtiyacı konusunda şaşırtıcı bir şey yoktur. Makine öğrenimi sihir değildir, yoktan yapılamaz, yaptığı şey benzetmedir. Tüm mühendislik gibi, programlama da çok çalışma gerektirir: her şeyi sıfırdan inşa etmeliyiz. Eğitim süreci daha çok çiftçilik gibidir ve işin çoğu doğal olarak yapılır. Çiftçiler, mahsul yetiştirmek için tohumları besinlerle birleştirir. Eğitim modeli, program yazmak için bilgi ve verileri birleştirir.

4. "Aşırı uyum" makine öğrenimi etkisini bir illüzyon haline getirir!

Elimizdeki bilgi ve veriler doğru sınıflandırıcıyı tam olarak belirlemek için yeterli değilse, sınıflandırıcı (veya bir kısmı) bir "illüzyon" üretebilir. Elde edilen sınıflandırıcı gerçekliğe dayalı olmayıp sadece verilerin rasgeleliğini kodlamaktadır. Bu soruna aşırı uyum denir ve makine öğreniminde zor bir sorundur. Eğitim modelinizin eğitim verisi üzerindeki sınıflandırıcı çıktısının doğruluğu% 100 ise, ancak test verilerinin doğruluğu yalnızca% 50 ise, aslında, sınıflandırıcının iki set üzerindeki çıktısının genel doğruluğu yaklaşık olabilir % 75 ile fazla uyuyor.

Makine öğrenimi alanında, herkes aşırı uyumu bilir. Ancak aşırı uydurmanın birçok türü vardır ve insanlar bunu hemen fark etmezler. Aşırı uyumu anlamanın bir yolu, genelleme hatasını sapma ve varyansa ayırmaktır. Önyargı, modelin aynı hataları sürekli olarak öğrenme eğilimidir. Varyans, modelin gerçek sinyale bakılmaksızın rastgele sinyalleri öğrenme eğilimini ifade eder. Doğrusal model, yüksek bir sapmaya sahiptir, çünkü model, iki sınıf arasındaki sınır bir hiper düzlem olmadığında ayarlama yapamaz. Karar ağaçlarının bu sorunu yoktur çünkü herhangi bir Boole işlevini temsil edebilirler. Ancak diğer yandan, karar ağaçlarının büyük bir varyansı olabilir: farklı eğitim setlerinde eğitilirlerse, oluşturulan karar ağaçları genellikle çok farklıdır, ancak aslında aynı olmaları gerekir.

Çapraz doğrulama, örneğin eğitim için karar ağacının en iyi boyutunu seçmek için çapraz doğrulama kullanarak aşırı uyumla mücadeleye yardımcı olabilir. Ancak bu her derde deva değil, çünkü çok fazla parametre seçeneği oluşturmak için çapraz doğrulama kullanırsak, fazla uydurmaya başlayacaktır.

Çapraz doğrulamaya ek olarak, aşırı uyum sorununu çözmenin birçok yolu vardır. En popüler olanı, değerlendirme işlevine bir düzenlilik terimi eklemektir. Örneğin, bu şekilde, daha fazla maddeye sahip sınıflandırıcılar cezalandırılabilir, bu da daha basit parametre yapılarına sahip sınıflandırıcıların oluşturulmasına yardımcı olur ve fazla uydurma alanını azaltır. Diğer bir yöntem, yeni bir yapı eklemeden önce ki-kare testine benzer bir istatistiksel anlamlılık testi yapmak ve yeni yapıyı eklemeden önce ve sonra sınıfların dağılımının gerçekten farklı olup olmadığını belirlemektir. Bu teknikler, çok az veri olduğunda özellikle yararlıdır. Yine de, belirli bir yöntemin aşırı uyum sorununu mükemmel bir şekilde çözdüğü iddiasına şüpheyle yaklaşmalısınız. Aşırı uydurmanın (varyans) azaltılması, sınıflandırıcının göreceli yetersiz uyum hatasına (sapma) kolayca düşmesine neden olabilir. Bu iki durumdan aynı anda kaçınmak istiyorsanız, mükemmel bir sınıflandırıcı yetiştirmeniz gerekir. Önceden bilgi olmadan, en iyisini yapmanın tek bir yolu yoktur (bedava öğle yemeği yoktur).

5. Makine öğrenimindeki en büyük sorun "boyut felaketi" dir!

Aşırı uydurmaya ek olarak, makine öğrenimindeki en büyük sorun boyutsallığın laneti. Bu terim 1961'de Bellman tarafından icat edildi ve girdi boyutluluğu çok yüksek olduğunda, düşük boyutlarda düzgün çalışan birçok algoritmanın düzgün çalışmayacağı gerçeğini ifade eder. Ancak makine öğreniminde anlamı daha geniştir. Örnek boyut (özellik sayısı) arttıkça, doğru genelleme yapmak gittikçe zorlaşmaktadır çünkü sabit boyutlu eğitim setinin girdi alanını kapsaması giderek azalmaktadır.

Yüksek boyutlarla ilgili genel sorun, üç boyutlu dünyadan gelen insan sezgisinin genellikle yüksek boyutlu uzaylar için geçerli olmamasıdır. Yüksek boyutlu dağılımda, çok değişkenli Gauss dağılımının verilerinin çoğu ortalama değere yakın olmayıp etrafındaki "kabukta" bulunur.Ayrıca, yüksek boyutlu dağılımın hacminin çoğu vücutta değil yüzeyde dağılır. Sabit sayıda örnek yüksek boyutlu bir hiperküpte eşit olarak dağıtılırsa, belirli bir boyut aşıldığında çoğu örnek hiperküpün bir yüzüne en yakın komşularından daha yakın olacaktır. Ek olarak, bir hiper küp yerleştirerek bir hiperküre yaklaştırırsak, o zaman yüksek boyutlarda, hiper küpün neredeyse tüm hacmi hipersferin dışındadır. Bu, makine öğrenimi için kötü bir haber çünkü bir tür şekle genellikle başka bir şekil yaklaşabilir, ancak yüksek boyutlu uzayda başarısız olur.

İki boyutlu veya üç boyutlu bir sınıflandırıcı oluşturmak kolaydır; farklı kategorilerdeki örnekler arasında yalnızca görsel inceleme ile makul bir sınır bulabiliriz. Ancak yüksek boyutlarda, verilerin dağılım yapısını anlamak bizim için zor. Bu da iyi bir sınıflandırıcı tasarlamayı zorlaştırır. Kısacası, daha fazla özellik toplamanın olumsuz bir etkisi olmaması gerektiği düşünülebilir, çünkü en iyi ihtimalle sınıflandırma hakkında yeni bilgiler sağlamazlar. Ama aslında boyutsal felaketin etkisi, özellik eklemenin faydalarından daha büyük olabilir.

6. "Teorik garanti" ve "gerçek erişim" arasındaki ilişki

Makine öğrenimi belgeleri teorik garantilerle doludur. En yaygın garanti, modelin iyi bir genelleme yeteneğini sürdürmek için eğitim örneklerinin sayısı üzerindeki kısıtlamadır. Birincisi, sorun açıkça kanıtlanabilir. Tümevarım genellikle tümdengelimin tersidir: tümdengelim yoluyla sonucun doğru olduğundan emin olabilirsiniz; tümevarımda tüm varsayımlar göz ardı edilir. Belki de bu, aktarılan eski bilgeliktir. Geçtiğimiz on yıldaki ana atılım, özellikle olasılık garantileri vermeye istekli olduğumuzda, tümevarımın sonucunun kanıtlanabilir olduğu gerçeğini kabul etmektir.

Bu kısıtlamaların ne anlama geldiğini düşünmelisiniz. Bu, ağınız belirli bir eğitim setiyle tutarlı bir hipotez döndürürse, bu hipotezin iyi genelleme yeteneklerine sahip olabileceği anlamına gelmez. Bunun yerine, yeterince büyük bir eğitim seti verildiğinde, ağınız büyük olasılıkla iyi genelleme becerisine sahip bir hipotez döndürür veya tutarlı bir hipotez elde edemez. Bu tür kısıtlamalar bize iyi bir hipotez uzayını nasıl seçeceğimizi de öğretmez. Bize sadece hipotez uzayının iyi bir sınıflandırıcı içermesi halinde eğitim seti arttıkça zayıf bir sınıflandırıcı ağ eğitimi olasılığının azalacağını söyler. Hipotez alanı azaltılırsa, kısıtların etkisi artacak, ancak güçlü bir sınıflandırıcı yetiştirme olasılığı da azalacaktır.

Diğer bir yaygın teorik garanti, aşamalılıktır: Eğer girdi veri boyutu sonsuz ise, o zaman ağ kesinlikle güçlü bir sınıflandırıcı çıkaracaktır. Kulağa güvenilir geliyor, ancak asimptotikliği sağlama ihtiyacı nedeniyle, bir ağı diğerine tercih etmek çok hafif. Pratikte, nadiren asimptotik bir durumdayız. Yukarıda tartışılan önyargı-varyans değiş tokuşundan, eğer A ağı, büyük veriye sahip olduğunda B ağından daha iyiyse, sınırlı veri durumunda B'nin genellikle A'dan daha iyi olduğu görülebilir.

Makine öğreniminde teorik garantinin önemi, yalnızca gerçek karar vermeyi değerlendirmek için bir kriter olarak değil, aynı zamanda bir anlama yöntemi ve algoritmaları tasarlamak için bir itici güç olarak da önemlidir. Bu sebeple çok kullanışlıdır. Aslında, yıllardır, makine öğreniminin ileri sıçrama sürecini teşvik eden şey, teorinin pratikle bütünleştirilmesidir. Not: Öğrenme karmaşık bir olgudur, teoride anlamlıdır ve gerçek çalışmada uygulanabilirdir. Bu, ilkinin ikincisinin nedeni olduğu anlamına gelmez.

7. "Özellik Mühendisliği", makine öğreniminin anahtarıdır

Sonunda, bazı makine öğrenimi projeleri başarılı oldu, bazıları başarısız oldu. Buna ne sebep oldu? En önemli faktör kullanılan özelliklerdir. Çok sayıda bağımsız ve ilgili özellik elde ederseniz, öğrenme süreci kolaydır. Aksine, belirli bir sınıf, özelliklerin son derece karmaşık bir işleviyse, modeliniz bu işlevi öğrenemeyebilir. Genel olarak, orijinal veri formatı öğrenmeye uygun değildir, ancak buna dayalı özellikler oluşturabilirsiniz. Bu, bir makine öğrenimi projesinin en önemli kısmı ve genellikle en ilginç kısmıdır. Sezgi, yaratıcılık, "sihir" ve teknoloji aynı derecede önemlidir.

Yeni başlayanlar genellikle makine öğrenimi projelerinin makine öğrenimine çok az zaman ayırmasına şaşırırlar. Ancak, verileri toplamak, entegre etmek, temizlemek ve önceden işlemek ve verileri yeniden yapılandırma sürecinde hataları ve diğer önemsiz şeyleri çözmek için gereken zamanı hesaba katarsanız, bu şaşırtıcı değildir. Dahası, makine öğrenimi sadece bir veri seti oluşturmak ve bir modeli bir kez çalıştırmakla ilgili değildir, genellikle modeli çalıştırma, sonuçları analiz etme ve veri setini / modelini değiştirme gibi yinelemeli bir süreçtir. Öğrenmek onun en hızlı kısmıdır, ancak onu ne kadar iyi kullanabileceğimize bağlıdır! Özellik mühendisliğinin yapılması zordur çünkü belirli bir alana yöneliktir ve model mimarisinin uygulama kapsamı daha geniştir. Bununla birlikte, ikisi arasında net bir sınır yoktur, bu genellikle alan bilgisini entegre eden modellerin daha iyi performansını açıklayabilir.

8. Unutmayın: veri miktarı algoritmadan daha önemlidir!

Bilgisayar biliminin çoğu alanında, zaman ve bellek iki kıt kaynaktır. Ancak makine öğreniminde veri kümeleri üçüncü kıt kaynaktır. Zamanla, darboğazlar için verilen savaş sürekli değişiyor. 1980'lerde veriler genellikle darboğazdı. Şimdi zaman daha değerli. Bugün elimizde çok büyük miktarda veri var, ancak bunları işlemek için yeterli zamanımız yok ve bu nedenle bu veriler rafa kaldırıldı. Bu bir paradoks yaratır: Prensipte bile büyük miktarda veri, daha karmaşık sınıflandırıcıların öğrenilebileceği anlamına gelir, ancak pratikte genellikle daha basit sınıflandırıcılar kullanırız çünkü karmaşık sınıflandırıcılar daha fazla anlama gelir Uzun eğitim süresi. Çözümün bir parçası, karmaşık sınıflandırıcıları hızlı bir şekilde öğrenebilen bir yöntem önermektir ve bugün bu yönde gerçekten önemli bir ilerleme olmuştur.

Daha akıllı algoritmalar kullanmanın faydalarının beklendiği kadar iyi olmamasının bir nedeni de, ilk yaklaşım alındığında diğer algoritmalardan farklı olmamasıdır. Temsiller arasındaki farkın kurallar ve sinir ağları arasındaki farka benzer olduğunu düşündüğünüzde bu sizi şaşırtacak. Ancak gerçek şu ki, önermeye ilişkin kurallar kolaylıkla sinir ağlarına kodlanabilir ve diğer temsil yöntemleri arasında benzer ilişkiler vardır. Model, esas olarak, komşu örneklerin aynı kategori altında sınıflandırılmasıyla gerçekleştirilir. Temel fark, "yakın komşu" anlamında yatmaktadır. Düzgün dağıtılmamış veriler için model, önemli bölgelerde (çok sayıda eğitim örneğine sahip bölgeler ve dolayısıyla çoğu metin örneğinin görünmesi muhtemel alanlar) aynı tahminleri üretirken çok farklı sınırlar oluşturabilir. Bu aynı zamanda güçlü bir modelin neden kararsız olduğunu ancak yine de çok doğru olabileceğini açıklayabilir.

Genel olarak, ilk önce en basit modeli göz önünde bulundurmalıyız (örneğin, lojistik regresyon yerine saf Bayes'i ve destek vektör makineleri yerine K-en yakın komşuları dikkate almalıyız). Model ne kadar karmaşıksa o kadar çekici olur, ancak iyi sonuçlar elde etmek için çok sayıda düğümü ayarlamanız gerektiğinden ve aynı zamanda iç yapıları son derece opak olduğundan genellikle kullanımı zordur.

Modeller iki ana türe ayrılabilir: biri doğrusal sınıflandırıcı gibi sabit ölçekli bir model, diğeri ise karar ağacı gibi veri setiyle temsil yeteneği geliştirilmiş bir modeldir. Sabit ölçekli bir model yalnızca sınırlı verileri kullanabilir. Değişken ölçekli bir model, yeterince büyük bir veri kümesi olduğu sürece teorik olarak herhangi bir işleve uyabilir, ancak gerçek çok zayıftır ve her zaman algoritma sınırlamaları veya hesaplama maliyetleri vardır. Ayrıca boyutsallık felaketi nedeniyle mevcut veri seti yeterli olmayabilir. Bu nedenlerden dolayı, daha akıllı algoritmalar - verileri ve bilgi işlem kaynaklarını tam olarak kullananlar - hata ayıklamak için çok çalışmaya istekli iseniz, sonunda iyi sonuçlar alacaksınız. Bir model tasarlamak ile bir sınıflandırıcıyı öğrenmek arasında net bir çizgi yoktur; ancak, herhangi bir bilgi noktası modele kodlanabilir veya verilerden öğrenilebilir. Bu nedenle, model tasarımı genellikle makine öğrenimi projelerinin önemli bir parçasıdır ve tasarımcıların ilgili bir profesyonel geçmişe sahip olması en iyisidir.

9. "Tek model" i en iyi şekilde elde etmek zordur, "çok modelli entegrasyon" çıkış yoludur!

Makine öğreniminin erken gelişiminde, herkesin kendi favori modeli vardır ve bazı önsel nedenler onun üstünlüğünü açıklar. Araştırmacılar, modelin çok sayıda çeşidini geliştirir ve bunlardan en iyi modeli seçer. Daha sonra sistemin deneyim karşılaştırması, uygulamanın değişmesiyle en iyi modelin değiştiğini ve birçok farklı modeli içeren bir sistemin ortaya çıkmaya başladığını gösterdi. Mevcut araştırma, birden fazla modelin farklı varyantlarında hata ayıklamaya ve ardından en iyi performans gösteren modeli seçmeye başlıyor. Ancak araştırmacılar, bulunan en iyi varyantı seçmek yerine, birden fazla varyantı birleştirmenin daha iyi sonuçlar verdiğini (genellikle çok daha iyi) ve bunun iş yükünü artırmadığını fark etmeye başladılar.

Şimdi, model entegrasyonu standart yöntemdir. En basit teknik torbalama algoritmasıdır. Yeniden örneklemeyi yalnızca eğitim veri setinin rastgele varyantlarını oluşturmak için kullanırız ve ardından bu varyantlara dayalı sınıflandırıcıları öğrenir ve bu sınıflandırıcıların sonuçlarını oylama yoluyla entegre ederiz. Bu yöntemin fizibilitesi, varyansı büyük ölçüde azaltması ve sapmayı çok az arttırmasıdır. Güçlendirme algoritmasında, eğitim örneklerinin ağırlıkları vardır ve bu ağırlıklar farklıdır, bu nedenle her yeni sınıflandırıcı, önceki modelin başarısız olacağı örneklere odaklanır. Yığınlama algoritmasında, her bir sınıflandırıcının çıktısı, bu modelleri en iyi şekilde birleştiren "üst düzey" bir modelin girdisi olarak kullanılır.

Bunları tek tek listelememek için pek çok başka yöntem var, ancak genel eğilim giderek daha büyük ölçekli entegre öğrenmedir. Netflix bonuslarından ilham alan dünyanın dört bir yanındaki ekipler, en iyi video öneri sistemini oluşturmaya kararlıdır. Yarışma ilerledikçe, yarışma ekibi en iyi sonuçların diğer takımların modellerini birleştirerek elde edilebileceğini keşfeder ve bu da takımların birleşmesini teşvik eder. Hem şampiyon hem de ikinci model 100'den fazla küçük modelden oluşan entegre modellerdir.İki entegre modelin kombinasyonu sonuçları daha da iyileştirebilir. Gelecekte daha büyük entegrasyon modelleri olacağına şüphe yok.

10. "Basit", "doğru" anlamına gelmez!

Occam'ın ustura prensibi, gerekli değilse, varlık eklemeyin. Makine öğreniminde bu genellikle, aynı eğitim hatasına sahip iki sınıflandırıcı verildiğinde, ikisinden basit olanın en düşük değerlendirme hatasına sahip olabileceği anlamına gelir. Bu ifadenin kanıtı literatürde her yerde görülebilir, ancak aslında onu çürütmek için kullanılan pek çok karşı örnek vardır ve "bedava öğle yemeği yok" teoremi onun gerçekliğini sorgulamaktadır.

Ayrıca önceki makalede bir karşı örnek gördük: entegre model. Eğitim hatası sıfıra ulaşmış olsa bile, sınıflandırıcılar ekleyerek, geliştirilmiş topluluk modelinin genelleme hatası yine de azalmaya devam edebilir. Bu nedenle, sezginin aksine, model parametrelerinin sayısının aşırı uyum eğilimi ile ilintili olması gerekmez.

Akıllıca bir nokta, model karmaşıklığını hipotez uzayının boyutuyla eşitlemektir, çünkü daha küçük bir alan, daha kısa kodların hipotezleri temsil etmesine izin verir. Benzer teorinin garanti kısmındaki sınırlar, daha iyi genelleme kabiliyetine sahip daha kısa hipotez kodları olarak anlaşılabilir. Bunu, daha kısa hipotezleri bir uzayda öncelikli bir tercihle kodlayarak daha da iyileştirebiliriz. Ancak bunu doğruluk ve basitlik arasındaki değiş tokuşun bir kanıtı olarak görmek döngüsel bir argümandır: tercih ettiğimiz hipotezlerimizi daha basit hale getirmek için tasarlıyoruz. Eğer doğruysa, hipotezin doğru olmasını tercih etmemizin nedeni hipotezin doğru olması değil Temsil altındaki "basit" hipotez.

11. "Karakterize edilebilir", "öğrenilebilir" anlamına gelmez!

Sabit olmayan ölçeklere uygulanan tüm model gösterimleri aslında "herhangi bir fonksiyon bu gösterimle veya sonsuz yaklaşımla temsil edilebilir" gibi ilgili teoremlere sahiptir. Bu, bir temsil yöntemini tercih edenlerin genellikle diğer unsurları görmezden gelmesine neden olur. Ancak, sadece temsil edilebilir olmak, modelin öğrenebileceği anlamına gelmez. Örneğin, eğitim örneklerinden daha fazla yaprak düğümü olan bir karar ağacı modeli öğrenmeyecektir. Sürekli bir uzayda, bir dizi sabit ilkel, genellikle sonsuz bileşen gerektiren çok basit işlevleri temsil etmek için kullanılır.

Ayrıca, değerlendirme fonksiyonunun hipotez uzayında birçok yerel optimal noktası varsa (bu çok yaygındır), model karakterize edilebilir olsa bile optimal fonksiyonu bulamayabilir. Sınırlı veri, zaman ve depolama alanı göz önüne alındığında, standart model, tüm olası işlev kümelerinin yalnızca küçük bir alt kümesini öğrenebilir ve bu alt küme, seçilen temsil yöntemine göre değişir. Bu nedenle, kilit soru "modelin temsil edilip edilemeyeceği" değil, "modelin öğrenilip öğrenilemeyeceğidir" ve farklı modelleri denemek (hatta entegre modeller) çok önemlidir.

12. "Alaka düzeyi" sadece "nedensellik" değildir!

Alaka düzeyi, nedenselliğin eleştiriye değmeyecek kadar sık anıldığı anlamına gelmez. Bununla birlikte, tartıştığımız modellerden bazıları yalnızca korelasyonları öğrenebilir, ancak sonuçlarının genellikle nedenselliği temsil ettiği düşünülmektedir. Bir problem mi var? Öyleyse, neden hala bunu yapıyorsun?

Genellikle yanlıştır Tahmine dayalı model öğrenmenin amacı, onları eylem için bir rehber olarak kullanmaktır. İnsanların bira alırken kağıt çocuk bezi aldıklarını fark ettiğinizde, çocuk bezlerinin yanına bira koymak satışları artırabilir. Ancak gerçek deneyler olmadan doğrulamak zordur. Makine öğrenimi, genellikle öngörücü değişkenlerin model tarafından kontrol edilmediği ve deneysel verilere aykırı olduğu (kontrol edilebilir) gözlemsel verileri işlemek için kullanılır. Bazı öğrenme algoritmaları, gözlemsel veriler yoluyla potansiyel nedensel ilişkileri araştırabilir, ancak pratiklikleri zayıftır. Öte yandan, korelasyon yalnızca potansiyel neden ve sonuçların bir göstergesidir ve onu daha fazla araştırmaya rehberlik etmek için kullanabiliriz.

Orijinal: https://medium.com/cracking-the-data-science-interview/12-useful-things-to-know-about-machine-learning-c599be92c98d

Tsinghua Xueba, kedi bilimi erkeği, müzik şairi, Çinli erkek tanrısı gibi birden fazla etiketi var.
önceki
Shandong'daki üç sağır dilsiz insan, birbirleriyle işbirliği yapmak için işaret diline güvenerek alışveriş merkezlerini çaldı
Sonraki
Bir Taylandlı, Londra'nın Çin Mahallesi'nde bir Sichuan güveç restoranı açtı
Volvo Pilot Assist II'yi Deneyimleyin XC90 "program yükseltmesine" ne gibi yeni beceriler katacak?
Lianjia başkanının kısıtlı tüketim listesine dahil edilmesinden itibaren, Çinli emlak komisyoncularının konut bilgi sistemi ve O2O katma değerli hizmetleri rekabetin anahtarı haline geldi.
Toyota Hybrid hakkındaki bu şeyler hakkında konuşun
"İç tasarımın kurucusu" ve dünyanın ilk iç tasarım şirketini kurdu.
Bu telefon kılıfının fiyatı birden fazla telefon almaya yetecek kadar yüksek olacak
Pasta şefinden yönetmene, Çin'deki tek ekstrem spor fotoğrafçılık ekibini kurdu.
Xiaomi 5 kullanıcıları önce telefonlarını parçalamak için acele etmiyor, MIUI 8.2'nin itilmesine bir göz atın
Spor Yetiştirme FIBA, Shougang, Tencent, Double-edged Sword dahil 9 şirkette 22 pozisyon
Jin Yong kadar ünlüdür, "Hong Kong'daki Yemek Tanrısı" yemek yemesi, içmesi ve eğlenmesiyle ünlüdür.
Boğuk hareketi güçlendirin! Apple İç Moğolistan'da yeni projeler kuracak netizenler: Cook büyük para kazanmak mı istiyor?
3 yılda 300 milyon yuan'ın üzerinde! Samsung, Jiangsu Suning'in en büyük sponsoru oldu ve iki taraf, spor pazarlamasını desteklemek için güçlerini birleştirdi
To Top