Makineler öğrenmez: doğrusal sınıflandırıcılardan derin sinir ağlarına kadar derin öğrenme notları

Makine www.jqbxx.com'u öğrenmiyor: Derin toplu makine öğrenimi, derin öğrenme algoritmaları ve teknik mücadele

Doğrusal Modelin Sınırı

  • Ayarlanması gereken birçok parametre var

N Sınıfı ve K Etiketi varsa ayarlanması gereken (N + 1) K parametresi vardır.

  • Doğrusal Model doğrusal olmayan problemlerle baş edemez

  • Doğrusal Modelin Faydaları
  • GPU'lar büyük matrisleri çarpmak için tasarlanmıştır, bu nedenle Doğrusal Modeli hesaplamak için çok etkilidirler
  • Kararlı: Girişteki küçük değişiklikler çıktıyı büyük ölçüde etkilemeyecektir

  • Uygun türetme: doğrusal türetme sabittir

  • Parametre fonksiyonunun doğrusal olmasını istiyoruz, ancak modelin tamamı doğrusal değil
  • Bu nedenle, her doğrusal modelin doğrusal olmayan bir kombinasyonunu yapmalıyız
  • En basit doğrusal olmayan kombinasyon: parçalı doğrusal fonksiyon (RELU)

Sinir ağı

  • Bir RELU'yu aracı olarak, bir Doğrusal Modelin çıktısını girdi olarak ve çıktısını başka bir Doğrusal Modelin girdisi olarak kullanın, böylece doğrusal olmayan problemleri çözebilir.

  • Sinir ağlarının tıpkı nöronlar gibi çalışması gerekmez
  • Zincir Kuralı: Bileşik fonksiyon türev yasası

  • Çok sayıda veri yeniden kullanımı ve uygulaması kolay (basit bir veri hattı)
  • Geri yayılma

  • Tren_kaybı hesaplanırken, veri ileri yönde akar ve eğim hesaplanırken geriye doğru hesaplama
  • Gradyanı hesaplamak için gereken hafıza ve hesaplama süresi, tren_kaybı hesaplamanın iki katıdır

Derin Sinir Ağı

Mevcut iki katmanlı sinir ağı:

optimizasyon:

  • RELU'yu (gizli katman) daha geniş optimize edin
  • Doğrusal katmanı artırın, katman daha derin

  • Performans: daha derine göre birkaç parametre
  • Seviye yükseldikçe, elde edilen bilgi ne kadar kapsamlı olursa, hedefle o kadar uyumludur.

T-modeli hakkında

  • t-modeli yalnızca büyük miktarda veri olduğunda etkilidir
  • Bugün verimli bir büyük veri eğitim yöntemine sahibiz: Daha İyi Düzenleme
  • Soruna uyum sağlamak için sinir ağının ölçeğine karar vermek zordur, bu nedenle genellikle daha büyük bir ölçek seçin ve aşırı uyumu önleyin

Fazla Takmaktan Kaçının

Erken sonlandırma

  • Eğitim sonucu ve doğrulama seti uygun olduğunda, eğitimi durdurun

Yönetmelik

  • Sinir ağına bazı sabitler ekleyin, bazı kısıtlamalar yapın ve serbest parametreleri azaltın
  • L2 normalleştirme

Tren kaybını hesaplarken, yeni bir kayıp olarak bir l2 normu ekleyin, burada bu yeni terimin değerini ayarlamak için (Hiper parametresi) ile çarpmanız gerekir.

Hiper parametre: baş parametresini patlatın _

  • L2 modülünün türevinin hesaplanması kolaydır, yani W'nun kendisi
  • Bırakmak
  • Sadece son zamanlarda ortaya çıktı, etkisi son derece iyi
  • Bir katmandan diğerine olan değere aktivasyon denir
  • Bir katmanı başka bir katmanın değerine aktarın, verilerin yarısını rastgele 0'a alın, bu da aslında verilerin yarısını doğrudan atıyor
  • Veri eksikliğinden dolayı, sinir ağı, kayıplara ek olarak gereksiz bilgiyi öğrenmek zorunda kalır.
  • Sinir ağında kayıp kısmına ek olarak her zaman başka kısımlar olduğu için, nihai sonuç hala iyidir.
  • Daha sağlam ve fazla takmayı önler
  • Bu yöntem işe yaramazsa, daha büyük bir sinir ağı kullanılabilir.
  • Sinir ağlarını değerlendirirken, DropOut gerekli değildir çünkü kesin sonuçlar gereklidir.
  • Tüm Aktivasyonların ortalaması, değerlendirme temeli olarak alınabilir
  • Eğitim sırasında rastgele verilerin yarısını çıkardığımız için, doğru Aktivasyon seviyesinin ortalama değerini almak istiyorsak, silinmeyen verileri ikiye katlamamız gerekir.

Transfer: https://www.cnblogs.com/hellocwh/p/5497786.html

Nükleeri açmayı unuttun mu? Açık nükleer platformu tekrar ziyaret etmeye hazır, önce anakartı ortaya çıkarın
önceki
Güzel görünümün kullanımı her zaman kolay değildir Güzelliği ve pratikliği dengelemek için duvar kağıdıyla nasıl başa çıkılır?
Sonraki
İtibar harika ama gerçek çok kötü! Toshiba Q300120G SSD kutudan çıkarma
Makine öğrenmiyor: derin öğrenmeye dayalı nesne algılama
Gökten düşen işler, Apple: Böyle iyi bir şey var mı? Teşekkürler Microsoft!
Makine öğrenmiyor: DQN'den DDPG'ye pekiştirmeli öğrenme (4)
Makine öğrenmiyor: Pekiştirmeli öğrenme (3) Derin Q-Öğrenme algoritması
Mavi ekran "League of Legends" oynadığınız sürece! Aslında soruna neden olan taklit güç kaynağı.
Makine öğrenmiyor: VGGNet derin öğrenme klasik evrişimli sinir ağı
Yeni ve eski Seagate sabit disklerinin görünümünü karşılaştırdığımda, önceki sabit disklerin daha güvenilir olduğunu düşünüyorum
Makineler öğrenmez: Bir makale her türden derin öğrenme ağını anlar ve derin öğrenme de aynen bunun gibidir ...
En ucuz dört ısı borulu CPU soğutucusundan biri! Coyote Green Arrow GH400 ekranı
Makine öğrenmiyor: Evrişimli sinir ağı CNN girişi pratik
Asgari bütünlük ne olacak? 10G "çıplak" kapıların hiç 10G kapasitesi yoktur
To Top