"Bengio liderliğindeki" DeepMind, Google Beyin Çekirdeği Araştırmacısı 2017 Derin Öğrenme Son Raporu (PPT)

Xinzhiyuan Derlemesi

Montreal Üniversitesi'nin derin öğrenme yaz okulu uzun süredir bir üne sahiptir.Derin öğrenmede lider olan Yoshua Bengio'nun çağrısı altında, her yıl ders vermek için en iyi derin öğrenme ve yapay zeka akademisyenlerini bir araya getirir. Bu yılki yaz okulu, yoğun öğrenim kurslarının ilk eklendiği zamandır.

Derin Öğrenme Yaz Okulu

Derin sinir ağları veya verileri birden çok soyutlama katmanında temsil etmeyi öğrenen sinir ağları, konuşma tanıma, nesne tanıma, nesne algılama, ilaç molekülü aktivitesini tahmin etme ve diğer birçok teknolojiyi büyük ölçüde iyileştirmiştir. Derin öğrenme, dağıtılmış temsiller (denetimli öğrenme, denetimsiz öğrenme, pekiştirmeli öğrenme) oluşturarak büyük veri kümelerindeki karmaşık yapıları keşfeder.

Derin Öğrenme Yaz Okulu (DLSS), lisansüstü öğrenciler, mühendisler ve araştırmacılar içindir. Makine öğrenimiyle ilgili bazı temel bilgilere (derin öğrenme dahil, ancak gerekli değildir) hakim olmanızı gerektirir ve bu hızla gelişen araştırma alanını daha iyi anlamayı umar.

Bu yılki DLSS, Graham Taylor, Aaron Courville ve Yoshua Bengio tarafından düzenlendi.

Yoğun öğrenim yaz okulu

Bu, DLSS'yi tamamlayan Montreal Üniversitesi'nin ilk Yoğun Öğrenme Yaz Okulu'dur (RLSS). RLSS, pekiştirmeli öğrenmenin temel bilgilerini kapsayacak ve en son araştırma eğilimlerini ve sonuçlarını sergileyecek ve bu alandaki lisansüstü öğrenciler ve kıdemli araştırmacılar için etkileşim fırsatları sunacaktır.

Yoğun öğrenmeye yönelik bu yaz okulu, makine öğrenimi ve ilgili alanlarda lisansüstü öğrenciler içindir. Katılımcıların bilgisayar bilimi ve matematik konusunda ileri düzeyde eğitime sahip olmaları gerekir ve CIFAR Makine ve Beyin Öğrenimi Proje Araştırma Laboratuvarında öğrencilere öncelik verilir.

Bu yılki RLSS, Joelle Pineau ve Doina Precup tarafından düzenlendi.

Şu anda, kursun derin öğrenme kısmı sona erdi, tüm ders notlarının resmi yayını olan PPT, kurs içeriğinin bu yılki derin öğrenme kısmı şunları içeriyor:

  • Montreal Üniversitesi'nden Yoshua Bengio "Dolaşan Sinir Ağları" üzerine konferans verdi.

  • Google'ın Phil Blunsom dersleri, "Doğal Dil İşleme, Dil Modelleme ve Makine Çevirisi" ve "Doğal Dil Yapısı ve Temel" olmak üzere iki bölüme ayrılmış, doğal dil işlemeyle ilgili içerik üzerine dersler.

  • Montreal Üniversitesi'nden Aaron Courville "Üretken Modeller" üzerine konferans verdi.

  • Google Brain'den Hugo Larocelle "Neural Network" ü sunacak.

  • McGill Üniversitesi'nden Doina Precup, "Makine Öğrenmesine Giriş" konulu bir konferans verecek.

  • Oxford Üniversitesi'nden Mike Osborne, "Derin Öğrenmede Olasılık Sayıları" üzerine bir konferans verecek.

  • Toronto Üniversitesi'nden Blake Aaron Richards "Beyinde Derin Öğrenme" konulu bir konferans verecek.

Yoshua Bengio "Zaman Tekrarlayan Sinir Ağı" dersini veriyor: RNN için 7 İpucu

Bengio'nun bu yılki konusu "Zaman Tekrarlayan Sinir Ağı". Sinir ağında, zaman özyinelemeli sinir ağı modeli, bir giriş dizisini sabit boyutlu bir durumdaki bir vektörden seçici olarak rafine etmek için özyinelemeli bir güncelleme kullanır. Zaman tekrarlayan sinir ağı, zamanın her noktasında bir çıktı üretebilir.

Bir RNN, tamamen bağlantılı bir yönlü üretken modeli temsil edebilir, yani her değişken ön sipariş değişkeninden tahmin edilebilir.

Konuşmasında birçok RNN türü tanıttı: iki yönlü RNN, özyinelemeli ağ, çok boyutlu RNN, vb. PPT konuşmasına göre, uzun bağımlılıkları öğrenmek için gradyan inişini kullanmak çok zordur. 1991 yılında, Bengio MIT'deyken, araştırmadaki örnek deney yalnızca iki tür sekans yapabiliyordu.

Gradyan tabanlı öğrenme neden zordur? Bengio, kısa vadeli bağımlılıklar ile karşılaştırıldığında, uzun vadeli bağımlılıkların çok az ağırlık aldığına ve katlanarak küçüldüğüne inanıyor. Bu nedenle, RNN örneğinden, gradyanın derin ağda kaybolmasının çok zor olduğu görülebilir. Bu nedenle, bilginin istikrarlı bir şekilde saklanması için dinamiklerin sözleşmeli olması gerekir.

RNN hakkında 7 ipucu:

  • Gradyanı uyarlayın (gradyan aşırı yüklenmesini önlemek için)

  • Güvenlik açığı entegrasyonu (uzun vadeli bağımlılığı teşvik etme)

  • Kinetik enerji (ucuz ikinci seviye)

  • Başlatma (aşırı yüklenmeyi / kaybolmayı önlemek için doğru aralıkta başlayın)

  • Seyrek gradyan (kırık simetri)

  • Gradyan yayılmasının düzenlenmesi (kaybolan gradyandan kaçının)

  • Kapı kendi kendine döngü (LSTMGRU, gradyan kaybolmasını azaltır)

  • Konuşmasında dikkat mekanizmasına odaklandı: 20 yıllık hızlı ilerleme: hafıza izinleri için dikkat mekanizması

    Sinir Ağı Turing Makinesi

    Bellek ağı

    Belleğin okuma ve yazma izinlerini kontrol etmek için içeriğe dayalı dikkat mekanizması kullanın

    Dikkat mekanizması, bellek konumunun ötesinde bir Softmax çıkaracaktır

    Derin öğrenmede dikkat mekanizmasının şematik diyagramı

    Dikkat mekanizması artık uçtan uca makine çevirisinde kullanılıyor ve büyük bir başarı elde etti.

    Tasarım RNN mimarisi

    Bengio kurslarının tüm PPT adresleri:

    https://drive.google.com/file/d/0ByUKRdiCDK7-LXZkM3hVSzFGTkE/view

    Google Phil Blunsom doğal dil işleme üzerine dersler

    Doğal dil, Montreal Üniversitesi'ndeki bu derin öğrenme yaz okulunun odak noktası haline geldi.

    Google'dan Phil Blunsom, iki raporda "Doğal Dil İşleme, Dil Modelleme ve Makine Çevirisi" ile "Doğal Dilin Yapısı ve Temeli" ni tanıttı.

    Bu raporda konuşmacı tanıtıldı Dil modelleme Üç kanal:

    • N-gram tabanlı modeli hesaplayarak, önceki n kelimeyle kelimelerin geçmişini yaklaşık olarak hesaplıyoruz.

    • Sürekli bir uzayda, sinir ağının n-gram modeli, farklı geçmişler arasındaki ilişkiyi daha iyi yakalamak için aynı sabit n-gram geçmişine gömülüdür.

    • Zaman tekrarlayan sinir ağını kullanarak, sabit n-gram geçmişini sonlandırıyoruz ve tüm geçmişi sabit uzunlukta bir vektöre sıkıştırıyoruz, böylece uzun mesafeli ilişkiler yakalanabilir.

    Aaron Courville, Montreal Üniversitesi: Üretken Model

    Montreal Üniversitesi'nden CIFAR Üyesi ve Aaron Courville, bu derste üretken modellerin bazı önemli noktalarını öğretti. Aaron Courville başka biri değil, Yapay zeka alanında başka bir "İncil düzeyinde ders kitabı" "Derin Öğrenme" nin üçüncü yazarı - geri kalan ikisi Ian Goodfellow ve Yoshua Bengio.

    Model perspektifinden, denetimsiz öğrenmenin olasılık modelleri ve olasılık dışı modellere ayrıldığını biliyoruz. Seyrek kodlama, otomatik kodlayıcılar ve K-ortalamalarının tümü olasılıklı olmayan modellerdir ve iki dal olasılık modelinden türetilmiştir: yüzleşmeyi oluşturmak için Açıkça Yoğunluk Modeli ve Örtük Yoğunluk Modeli Ağ (GAN) ikincisine aittir.

    Açık yoğunluk modelleri ayrıca İzlenebilir Modeller ve İzlenemez Modeller olarak ikiye ayrılır. NADE ve PixelRNN çözülebilir modellerdir, Boltzmann makinesi (BMV) ve değişken otomatik kodlayıcı (VAE) ise zor modellerdir.

    Courvill'in kursunun içeriği, otoregresif modeller hakkında konuşmak için örnek olarak PixelCNN ve gizli değişken modellerde VAE ve GAN (WGAN dahil) alınarak iki bölüme ayrılmıştır.

    Google Brain'den Hugo Larocelle, sinir ağları üzerine bir konferans verecek

    "Sinir Ağı" kursu, yapay sinir ağlarının ilgili bilgilerini ayrıntılı olarak açıklayacak çevrimiçi video dersler şeklindedir. İçerik şunları kapsar: Nöral ağ, x girişinden f (x) tahminini nasıl alır ve ileri yayılımı, nöronu anlamanız gerekir. Veriye dayalı bir sinir ağı (sınıflandırıcı) nasıl eğitilir, kayıp işlevini, geri yayılımı, gradyan iniş algoritmasını, bazı eğitim becerilerini vb. Anlamanız gerekir; Derin öğrenme: denetimsiz ön eğitim, bırakma, toplu standardizasyon vb.

    McGill Üniversitesi'nden Doina Precup Makine Öğrenmesine Giriş dersleri veriyor

    Bu ders, bazı makine öğrenimi problemleri türlerinin yanı sıra doğrusal yaklaşımlayıcılar, hata fonksiyonu / amaç fonksiyonu makine optimizasyon yöntemleri, sapma sapması ödünleşmeleri, aşırı uydurma ve yetersiz uydurma, doğrusal tahmin edicilerin L2 ve L1 düzenlenmesi ve düzenlileştirmeyi tanıtmaktadır. Bayesçi yorumlama ve lojistik regresyon. Makine öğrenimi problemlerinin türleri denetimli öğrenmeyi, pekiştirmeli öğrenmeyi ve denetimsiz öğrenmeyi içerir.Bu kurs, örnek olarak yüz algılama ve tanıma, TD-Gammon, tümör algılama vb. Kullanır ve bu tür sorunları çözmek için gerekli adımları ve mevcut yöntemleri sunar.

    Oxford Üniversitesi'nden Mike Osborne, derin öğrenmede olasılık sayıları üzerine ders veriyor

    Toronto Üniversitesi'nden Blake Aaron Richards beyinde derin öğrenme üzerine bir ders verecek

    Algılarımız, eylemlerimiz ve anılarımız nereden geliyor? Sinir sistemimizdeki nöronların aktivitesinden. İnsan beyninde milyarlarca beyin nöronu vardır.Bu nöronlar arasındaki sinaptik bağlantılar ve bu bağlantıların gücünün hassas bir şekilde ayarlanması, dünyadaki en karmaşık ve gizemli fizyolojik fonksiyonları mümkün kılar.

    Ancak bu bağlantılar insan genomu tarafından belirlenmez. İster böcek ister insan olsun, nöronların bağlantıları edinilir.Hayvanlar, nöronlar arasındaki sinaptik bağlantıları şekillendirmek için duyusal ve motor deneyimlerinden gelen bilgileri kullanır.

    CIFAR Associate Fellow, Blake Richards'ın araştırma alanları nörofizyoloji, sistem sinirbilimi ve hesaplamalı sinirbilimdir. Hesaplamalı sinirbilim, sinir sistemini modelleme ve analiz etme sürecinde hesaplama yöntemlerini ve kavramlarını uygulayarak sinir sistemini simüle etmek için çeşitli girişimleri bütünleştirir. Bunların arasında makine öğrenimi yöntemleri ve uygulamalı matematik sinirbilim problemlerini çözmek için kullanılacak.

    Richards'ın Derin Öğrenme Yaz Okulu'ndaki konusu çok ilginç - "Beyinde Derin Öğrenme". Yapay sinir ağları, insan sinir ağlarının birçok kavramını taklit eder.Derin öğrenmenin kendisi, hesaplamalı nöroloji yapan insanlar tarafından icat edilmiştir. Bu yüzden beyinde de derin öğrenmenin kullanılması şaşırtıcı değil. Richards, gerçek beyindeki mevcut derin öğrenme araştırmalarının potansiyel uygulamalarını tanıttı. Spesifik olarak, esas olarak Geri Yayımlamadır.

    Algoritma ve matematiksel formül türetmede beyindeki derin öğrenmeyi deneyimleyin.

    Tüm bildirileri indirin

    Phil Blunsom-Doğal Dil İşleme, Dil Modelleme ve Makine Çevirisi (indir:

    Doğal Dilde Blunsom Yapısı ve Topraklama (indir:

    Gaz pedalı aniden takılırsa ve frene basmanın faydası olmazsa ne yapmalıyım? Bu 3 eylem çok önemli!
    önceki
    "Aç Baba" Chen Xiaoqing'in Weibo'sunu karıştırdıktan sonra, hala iki kase daha pirinç yiyebilirim.
    Sonraki
    Neden eğlence dükkanı Luo Min Kongre'ye yanıt veren Facebook Xiaozha yerine her şeye yanıt veriyor?
    Reformun ve açılmanın 40. yıldönümünde, porselenin başkentindeki polis böyle geldi ...
    Wu Minghui: Veriyi bir maliyet değil, bir kuruluşun temel varlığı haline getirme
    Yoksullar da "otonom" sürüşe sahip olabilir! 70.000'den başlayan bu SUV'ler standart olarak hız sabitleyici ile birlikte gelir!
    Avustralya ekonomisi kritik bir anda orijinal şekline geri dönüyor veya aniden RMB'yi düşünün
    Jiangxi Eyaleti Kamu Güvenliği Departmanı reform öncüsü Yoldaş Qiu Eguo hakkında bir rapor toplantısı düzenledi
    Pamukkale, Tanrı'nın yeryüzüne döktüğü mavi gözyaşları siz misiniz?
    Shenhua Bai Jiajun, dirsek yüzünden 300.000 ağır para cezasına çarptırıldı! Netizenler yorumu: Bu para çiseliyor! Evergrande Çalışıyor!
    Çin'in altın rezervleri 27 ayda ilk kez arttı, ABD borcu dertte ve ABD dolarının görmek istemediği şeyler oluyor
    Zhihu: Patlayıcı internette, değerli bilgiler mutlak bir kıtlıktır
    Çocukluğunuzun geçtiği Norveç'e gidin!
    Feng Xiaoting, Ronaldo tarzı bir kutlama rüyasında hedefi patlattı! Netizenler yorumu: Ronaldo'ya hakaret etmeyin!
    To Top