Kuru ürünler Shen Yanyao, UT Austin'de doktora öğrencisi: Derin Aktif Öğrenmeye Dayalı Adlandırılmış Varlık Tanıma

AI Technology Review Press: Hepimizin bildiği gibi, derin öğrenme birçok pratik uygulamada çığır açmıştır ve bunun arkasındaki ana itici güç büyük veri, büyük modeller ve algoritmalardan gelmektedir. Pek çok problemde, büyük miktarda doğru etiketlenmiş veri elde etmek yüksek bir maliyet gerektirir ve bu da genellikle derin öğrenmenin uygulanmasını sınırlar. Aktif öğrenme, etiketlenmemiş verileri filtreleyerek daha yüksek öğrenme doğruluğu elde etmek için az miktarda etiketli veri kullanabilir. Bu nedenle, derin öğrenmedeki aktif öğrenme yöntemi aynı zamanda bir araştırma noktası haline gelmiştir.

Yakın zamanda, GAIR konferans salonunda, Austin'deki Texas Üniversitesi'nden doktora öğrencisi Shen Yanyao, Amazon staj projesine dayalı derin öğrenmede aktif öğrenme uygulaması ve düşüncesini tartıştı ve derin aktif öğrenme üzerine birçok ICLR ve ICML makalesini paylaştı.

Yanyao Shen, üçüncü yılda Austin'deki Texas Üniversitesi'nde doktora öğrencisi; Tsinghua Üniversitesi Elektronik Mühendisliği Bölümü'nden mezun oldu, ana araştırma yönü makine öğrenimi teorisi ve uygulamasıdır ve Amazon ve Microsoft Asya Araştırma Enstitüsü'nde stajyerdir.

Konuyu paylaş: Derin öğrenmede aktif öğrenmenin uygulanması ve düşünülmesi

Anahat paylaş

  • Aktif öğrenmenin arka plan tanıtımı ve araştırma önemi

  • Aktif öğrenmeyle ilgili teoriler

  • Derin öğrenmede en son araştırma ve aktif öğrenme yöntemleri

  • Derin öğrenmede aktif öğrenmenin zorlukları

İçerik paylaşma:

Bu paylaşım, geçen yıl Amazon'da gerçekleştirilen "Derin Aktif Öğrenmeye Dayalı Adlandırılmış Varlık Tanıma için Derin Aktif Öğrenme" staj projeme dayanmaktadır. "İsimli Varlık Tanıma için Derin Aktif Öğrenme. ICLR, 2018.Shen et al. ", derin öğrenme alanındaki en büyük konferans olan ICLR 2018 tarafından kabul edildi. Bu makale, bu projeye dayanmaktadır ve çeşitli yapay zeka veya makine öğrenimi problemlerinde derin aktif öğrenmenin rolüne ilişkin tartışmayı genişletmektedir.

Aktif öğrenmenin arka plan tanıtımı ve araştırma önemi

Aktif öğrenme, pekiştirmeli öğrenmeye, yarı denetimli öğrenmeye ve çevrimiçi öğrenmeye benzer. Bunların tümü denetimli öğrenme ile denetimsiz öğrenme arasındadır, ancak aktif öğrenme üç kavramdan farklıdır. Aktif öğrenmeyi ayrıntılı olarak anlamak için aşağıdaki çizimleri kullanabilirsiniz.

Denetimli öğrenme, yarı denetimli öğrenme ve aktif öğrenmenin konsept çizimleri karşılaştırıldığında, aktif öğrenmede modelin (öğrenen) çalışana değil, etiketlemek istediği verileri aktif olarak sağlayacağı görülebilir. Aşağıdaki şeklin son sütunundaki modelden (öğrenen) işçiye mavi çizgi aktif öğrenmenin aktif kısmıdır.Bu aşamada, model etiketlenmesi gereken verileri aktif olarak tarayacak ve hangi örneklerin öğrenmeye değer ve hangilerinin öğrenmeye değer olmadığını belirleyecektir.

Aktif öğrenmenin üç senaryosu (yöntemi) vardır: üyelik sorgu sentezi, akış tabanlı seçici örnekleme ve havuz tabanlı örnekleme.

Havuz tabanlı örnekleme, adından da anlaşılacağı gibi, tüm verilerin bir havuzda bulunduğu anlamına gelir. İşimiz, havuzda işaretleme için bazı numuneler seçmektir. Bu ayar altında, tüm örnekler modele sağlanır ve model etiketleme için örneklerin bir bölümünü seçer. Uygulamada, havuz temelli örnekleme üç yöntemden en çok kullanılanıdır.

Havuz temelli örnekleme ile karşılaştırıldığında, diğer iki ayar, insanların bir şeyleri öğrenme biçimine daha benzer.

  • Üyelik sorgu sentezi, modelin yeni örnekler oluşturabileceği, yani modelin örneklerin oluşturulmasını değiştirebileceği anlamına gelir. Bu, insanların öğrenme sürecinde benzetme yoluyla nasıl öğrendiklerine, kendi başlarına bazı yeni sorular üretmelerine ve ardından yeni sorular üzerinde daha derinlemesine araştırmalar yaparak bilişlerini geliştirmelerine benzer.

  • Akış temelli seçici örnekleme, örneklerin havuzda olmadığı, ancak model tarafından belirli bir sırada görüldüğü ve modelin yeni görülen her örneği işaretleyip işaretlemeyeceğine karar vermesi gerektiği anlamına gelir. Bu süreç, insanların her gün yeni kavramları ve tanımları kabul etmelerine ve özellikle öğrenmeleri gerekenleri seçmelerine ve gerekmediklerini atmalarına veya unutmalarına benzer.

Özetle, son on veya yirmi yıllık araştırmada, aktif öğrenme alanındaki makalelerin ve yöntemlerin çoğu temelde havuz temelli örneklemeye dayanmaktadır, ancak gerçekte aktif öğrenmeyi gerçekten yürütmek için, üyelik sorgusuna uyum sağlayabilmek için modele ihtiyacımız var. Sentez ve akış tabanlı seçici örnekleme, insan öğrenme modellerine daha çok benzeyen iki senaryodur.

Not: Terimlerin ve formüllerin ayrıntılı yorumu için, kayıttan yürütme videosunun Aktif Öğrenme Çerçevesi bölümünü izleyebilirsiniz Aktif öğrenme çerçevesinde, modelin bir sorgu stratejisi vardır (yani, hangi örneklerin işaretlenmesi gerektiğini belirleyen bir yöntem). Aktif öğrenme sürecinde, model yukarıdaki şekilde döngü işlemini gerçekleştirmeye devam edecek ve modelin doğruluğu artmaya devam edecektir. Sorgu stratejisi tarafından belirlenen modelin doğruluğu, etiketleme için verilerin rastgele seçiminden daha iyi olabilir. Belirli bir seviyeye ulaştıktan sonra işaretlemeyi bırakabilirsiniz.

Daha sonra, aktif öğrenme için yaygın olarak kullanılan bir sorgu stratejisini, yani Belirsiz Olarak Örnekleme Yöntemlerini açıklayacağım. Bir sınıflandırıcı veya model olduğunda, etiketleme için en belirsiz olasılığa sahip örneklerin seçilmesi basit bir konsepte dayanmaktadır. "Olasılıkta en belirsizliği" tanımlamanın birçok yolu vardır ve en sık kullanılanlar aşağıdaki şekilde listelenmiştir.

Not: Her yöntemin özel olarak yorumlanması için, oynatma videosunun bu bölümünü kontrol edebilirsiniz.

Yaygın olarak kullanılan birkaç tanımlama yöntemi arasında En Az güven, Marj (esas olarak çoklu sınıflandırma problemlerinde), Jeton entropisi, Sıra entropisi ve N-en iyi SE bulunur.

Yukarıda bahsedilen Belirsiz Şekilde Örnekleme Yöntemlerinin birçok aktif öğrenme deneyimi yönteminden sadece biri olduğu unutulmamalıdır. Bir sonraki içerik bir diğerinden (Komite Sorgu) bahsedecek ve ayrıca tüm noktalar arasındaki mesafe ilişkisine dayanan bir örnekleme yöntemi de var (sadece her biri için değil, en etkileyici noktayı seçin) Belirsizliğinin ne kadar yüksek olduğuna karar vermek için bir nokta). Genel olarak, birçok benzer deneysel yöntem önerebilirsiniz. Öte yandan, birçok kişi de aktif öğrenme üzerine teorik araştırmalar yapıyor. Bu ilgili teorilerin temel ilkelerini kısaca anlayalım.

Aktif öğrenmeyle ilgili teoriler

İşte ilgili aktif öğrenme teorilerine kısa bir giriş.

Komite tarafından sorgulama, 1992'de önerilen çok önemli bir algoritmadır (daha önce bahsedilen Belirsiz Örnekleme Yöntemleri de aynı zamanda önerilmiştir).

Komiteye Göre Sorgulamanın orijinal fikri ve temel teorisiyle ilgili olarak, aşağıdaki şekli açıklamak için kullanacağız.

Doğrusal sınıflandırma probleminde, yeşil ve kırmızı noktalar işaretlenmiş noktalardır ve listelenen çizgiler olası sınıflandırma yöntemlerini temsil eder (bu çizgiler varsayımsal uzayın örnekleridir ve varsayımsal uzay, sürekli eğimli bir dizi çizgiyle temsil edilebilir. , Çizgilerin her biri yeşil noktayı kırmızı noktadan doğru şekilde ayırır). QBC algoritmasına göre, yeni bir örnek geldiğinde (şekilde işaretlenmiştir), rastgele iki satır seçeriz ve noktanın hangi kategoriye (kırmızı veya yeşil) ait olduğunu belirlemek için bu iki hipotezi kullanırız. Sınıflandırma performansı tutarlı olduğunda (her ikisi de kırmızı nokta olarak sınıflandırıldığında), nokta işaretlenmek üzere seçilmez. Ardından bir sonraki örneği seçin ve ardından rastgele iki satırı tekrar seçin. Bir çizginin kırmızı nokta olacağı tahmin ediliyorsa ve diğer çizginin yeşil nokta olacağı tahmin ediliyorsa (yani sonuçlar tutarsızsa), model bu noktayı işaretlemeye çalışacaktır ( Kırmızı olarak) ve yanlış hipotezi silerek hipotez alanını azaltın (yeşil noktaların öngörüldüğü çizgileri kaldırın).

Hipotez uzayı, bu noktaya göre birçok doğrusal sınıflandırıcıyı ortadan kaldıracak ve süreç döngüye devam edecek, yani örnek bölgeye düştüğünde etiketleme için seçilecektir. Alanın boyutunun giderek küçüleceğini ve sonunda çok doğru bir model oluşturacağını varsayarsak.

Burada, aktif öğrenme teorisinde yaygın olarak kullanılan birkaç varsayımı özetleyelim: İlk olarak, sınıflandırıcının doğrusal olarak ayrılabilir olduğunu, yani tüm örnekleri mükemmel bir şekilde sınıflandırabilen doğrusal bir sınıflandırıcı olduğunu varsayalım. İkinci olarak, iki sınıflandırma görevinin çoklu sınıflandırma görevleri olmadığını ve üçüncüsü, numunede gürültü olmadığını varsayalım. Dördüncüsü, varsayımsal bir alanı sürdürmek mümkündür.

Literatürden bazıları gevşeyecek ve bu dört noktadan birini inceleyecektir, ancak pratikte karşılaştığımız sorunlar yukarıdaki dört varsayımdan hiçbirinin karşılanmadığı duruma aittir, bu da herkesi pratikte belirsizliği kullanmaya daha meyilli hale getirir. Örnekleme yöntemleri gibi deneysel yöntemler. Bu nedenle, aktif öğrenme teorisinin pratik uygulamalarda algoritma tasarımı için rehberlik etmemesinin nedeni, aşağıdaki üç neden olarak özetlenebilir:

  • Varsayımsal bir alanı korumak çok dayanılmaz

  • Yaygın olarak varsayımsal teoride kullanılan akış tabanlı seçici örnekleme ile karşılaştırıldığında, havuz tabanlı örnekleme pratikte daha çok tercih edilir

  • Gerçek görev sınıflandırmasının karmaşıklığı, ikili sınıflandırma görevlerinden çok daha fazladır

  • Derin öğrenmede en son araştırma ve aktif öğrenme yöntemleri

    Yukarıda bahsedilen bu konular, derin öğrenmenin ortaya çıkmasıyla daha kritik hale geldi. Önemli sonuçlar elde eden birçok derin öğrenme uygulamasının karmaşık modellere ve büyük miktarda veriye sahip olduğunu görebiliyoruz.Aynı zamanda, modelin doğrusal olmaması nedeniyle bir hipotez uzayını sürdürmek çok çekilmezdir. Bu uygulamalar, en çok aşina olduğumuz ve aşağıdaki şekilde derin öğrenme modellerini yaygın olarak kullandığımız iki uygulama türünü içerir: CV ve NLP.

    Yukarıdaki iki modele dayanarak, son iki makale yukarıdaki iki derin öğrenme modelinde aktif öğrenmeyi incelemiştir. Esas olarak, örnekleri daha iyi seçmek için Convolution'da öğrenilen ara katmanın nasıl kullanılacağını tartışırlar (örneğin, ara katmanın örneğin örneğe benzer olup olmadığını belirlemek için daha zengin gömme bilgisi sağlayıp sağlamayacağı vb.).

    Derin aktif öğrenme, yalnızca yukarıdaki iki görevi çözmeyi içermez, görüntüler ve dillerdeki problemleri modellemesi en kolay olanlardan sadece ikisidir: hepsi basit sınıflandırma problemleri olarak modellenmiştir.

    Pratik uygulamalarda karşılaştığımız derin öğrenme uygulama görevleri, sıralı problemler gibi daha karmaşıktır. Karmaşık görevlerde özellikle iki konu öne çıkmaktadır:

  • Derin model eğitim hızı çok yavaştır (tahmin hızı eşit derecede yavaş veya daha yavaştır)

  • Önceki deneysel yöntemler karmaşık problemlerde rol oynamaya devam edebilir mi?

  • Bu, geçen yıl Amazon'da "İsimlendirilmiş Enity Tanıma (NER) için Derin Aktif Öğrenmeyi Kullanma" staj projesine yol açtı. Bu projede, sıralı etiketleme görevinde derin aktif öğrenmenin faydalarını doğrulamamız gerekiyor. NER probleminin bir uygulama senaryosu, bir Amazon kullanıcısından bir yorum vermek ve kişi, organizasyon, konum ve zaman gibi varlık isim anlamlarına sahip birden çok kelime türünü otomatik olarak tanımlamak için bir derin öğrenme modeli kullanmaktır. Bu problemin incelenmesi, makinelerin web sitesindeki kullanıcı mesajlarının anlamını anlamalarına yardımcı olur ve bu aynı zamanda NLP'nin birçok üst düzey görevinin temelini oluşturur. Etiketli veri setlerini toplarken çok sayıda manuel etiketlemeye güvenmemiz gerektiğini hayal edebiliyoruz. Doğru adlandırılmış varlık kategorisini doğru şekilde etiketlemek çok zaman alıcı ve yoğun emek gerektirir. Bu aynı zamanda derin aktif öğrenmenin etiketlemeyi azaltabileceğini umuyoruz. Miktarın ana nedeni ve motivasyonu.

    Öncelikle, sıradan NER görevleri altında en iyi tahmini sonuçları elde edebilecek modelin nasıl tasarlanacağını anlayalım. Aşağıdaki resim, NER modelini eğitmek için çok popüler bir derin modeli göstermektedir. Model Bi-LSTM'ye dayalıdır ve son olarak CRF, en yüksek olasılığa sahip tahmin dizisini oluşturmak için kullanılır.

    Bu tipik modele ek olarak, son yıllarda Karakter Seviyesinde Kodlayıcı (harf seviyesinde kelime vektörü), Kelime Seviyesinde Kodlayıcı (kelime vektörü) kullanımı ve ardından son halini almak için RNN veya CRF kullanımı dahil olmak üzere çeşitli farklı modeller ortaya çıkmıştır. tahmin. Çeşitli modeller aşağıdaki şekildeki tabloda listelenmiştir.

    Özellikle bu görev için, denetimli öğrenmeye ek olarak, modelimizin örneklemin belirsizliğini hızla tahmin edebilmesi ve değerlendirebilmesi gerekir. Aktif öğrenmedeki belirsizliği belirlemek için modeli kullanma sürecini daha da hızlandırmak için, derin modeli daha da hızlandırıyoruz ve CNN-CNN-LSTM yapısına dayalı bir model öneriyoruz: Karakter Seviyesinde Kodlayıcı ve Kelime Seviyesinde Kodlayıcı. Öğrenme için CNN kullanın ve son olarak tahmin için CRF katmanı yerine LSTM kullanın.

    Yukarıdaki şekilde gösterildiği gibi, solda bir Karakter Düzeyinde Gömme modeli; ortada dünya düzeyinde bir gömme modeli; sağda bir LSTM sıra oluşturma modeli.

    Deneyler yoluyla, kodlayıcı olarak CNN kullanarak modelin etkisini ve kod çözücü olarak LSTM'nin etkisini karşılaştırabiliriz. CNN-CNN-LSTM yapımızın kullanımının eğitim ve tahmin hızını önemli ölçüde artırdığı görülebilir. Derin aktif öğrenme algoritmalarını kullanmamız ve doğrulamamız bizim için çok önemlidir.

    Yukarıdaki şeklin sol tarafı, daha küçük bir veri setindeki test sonucudur (cümle sayısı küçüktür ve tahmin edilen etiketler yalnızca 4 türdür); sağ taraf, daha büyük bir veri setindeki test sonucudur (yüz binlerce cümle, 18 çeşit etiketi tahmin edin). İki veri setinde kodlayıcının LSTM'den daha iyi bir hız artışı elde etmek için CNN kullandığı görülebilir. Sağdaki kaldırma hızı daha belirgindir ve hassasiyet ve doğruluk kaybı olmadan kaldırma hızının neredeyse on katına ulaşır. Burada, kod çözücü olarak LSTM'yi kullanma hızı CRF'den daha iyidir, çünkü CRF algoritmasının hesaplama karmaşıklığı etiket sayısının karesiyle orantılı iken LSTM yalnızca etiket sayısı x süre uzunluğu ile orantılıdır.Etiket sayısı büyük olduğunda, LSTM kullanmak CRF'den daha iyidir. Makine çevirisi için CRF kullanmamamızın nedeni budur.Çok fazla çıktı olasılığı vardır (sözcükler için on binlerce seçenek vardır).

    Yapı tasarlandıktan sonra derin aktif öğrenme yöntemlerini denemeye başlayabiliriz. Esas olarak aşağıdaki dört algoritmayı dikkate aldık ve deneylerle performanslarını doğruladık:

  • İlki, tahmindeki en büyük olasılık dizisinin karşılık gelen olasılık değerini hesaplayan En Az Güven'dir (kısaca LC).

  • İkinci tür olan Maksimum Normalleştirilmiş Günlük Olasılığı (MNLP), LC'ye dayanır ve nesildeki sıra uzunluğunun belirsizlik üzerindeki etkisini hesaba katar.Bir normalleştirme yaparız (yani, her cümlenin uzunluğuna böleriz) ve olasılık her Nokta olasılık çıktısının günlük değeri bunun yerine toplanır.

  • Üçüncüsü, derin öğrenmede temel olarak terkin başka bir rolünü kullanan Anlaşmazlığa dayalı aktif bir öğrenme yöntemidir (terkin asıl rolü, eğitim sırasında modeli daha iyi genellemektir). Gal ve arkadaşlarının geçen yıl yazdığı bir makale, çıkarım yaparken aynı zamanda bırakmayı da kullanırsanız, bunun aslında modelin belirsizliğini hesaplamaya eşdeğer olduğunu söyledi. Burada ayrıca çıkarım yaparken bırakma yapmalıyız ve elde edilen M sonuçlarından kaç tanesi tutarsızdır.

  • Dördüncü yöntem, her noktanın temsili olup olmadığına dayanan bir örnekleme yöntemidir.Her noktanın belirsizliğini göz önünde bulundurmanın yanı sıra, hangi örneklerin daha temsili olduğunu belirlemek için örnekler arasındaki benzerlik hesaplanarak örnek hesaplanır. . Böyle bir yöntem, büyük miktarda veri olması durumunda daha etkili bir hesaplama yöntemi gerektirir. Bunu bir alt modüler maksimizasyon problemi olarak yeniden işledik ve yaklaşık optimal çözümü elde etmek için akış algoritmasını kullandık.

  • Beşinci yöntem, numuneleri rastgele oluşturmak ve bunları temel olarak işaretlemektir.

  • Az önce bahsedilen beş algoritmanın etkinliğini test etmek için, önce daha basit bir test yapıyoruz.

    Üç renk, farklı verilerle eğitilen modeli temsil eder ve ardından tüm etiketlenmemiş ve eğitimsiz örneklerde, Belirsiz Şekilde Örnekleme Yöntemleri, en belirsiz 1000 örneği ve bunların dağılımını hesaplamak için kullanılır. . Örneğin, nw haberleri temsil eder Önceki eğitim modelimiz eğitim bilgisi olarak herhangi bir nw örneklemi kullanmadıysa (turuncu model), o zaman belirsizlik örnekleme yöntemiyle ilk 1000 belirsiz örnek arasında nw'nin en yüksek orana sahip olduğunu bulabiliriz. Bu aynı zamanda dolaylı olarak algoritmanın en etkili olduğunu kanıtlıyor.

    Nihai sonuç aşağıdaki şekle başvurabilir.

    Not: PPT içeriği yanlış, LC MNLP olmalıdır

    İlk olarak, temel yöntem diğer sınıflandırma yöntemlerinden çok daha düşüktür. Çeşitli yöntemlerde, NER'de sonuçların doğruluğunu kanıtlamak için birçok deney yaptık. Her yöntem 10 grup çalıştırdı. Standart sapma aynı zamanda şekilde çizildi. Gördüğünüz gibi: LC biraz daha kötü, MNLP ve BALD en iyisidir. BALD ve MNLP eşit derecede iyi olmasına rağmen, BALD hesaplamasında her bir örneğin çıkarımının 100 kat olması gerektiğinden, hesaplama maliyeti basit belirsizlik örnekleme yöntemine göre daha yüksektir, dolayısıyla MNLP daha değerli bir yöntemdir. Ek olarak, derin aktif öğrenme probleminde temsili seçim yönteminin LC'ye kıyasla herhangi bir gelişme sağlamadığını bulduk. Asıl sebebin sıralı problem görevlerinde çok iyi bir tane öğrenmenin zor olduğuna inanıyoruz. Gösterim vektörü, yani gömmenin gerçek örnekler arasındaki benzerliği temsil etmediği anlamına gelir. Bu nedenle, sadece her bir numunenin olasılığının belirsizliğini tahmin etmek gerekir ve iyi sonuçlar elde edilebilir.

    Derin aktif öğrenmeyle ilgili diğer birkaç çalışmayı kısaca tanıtalım. Yukarıdaki tartışmada, modelin belirsizliğini tahmin etmek için Çıkarım aşamasında bırakmanın kullanılması, esas olarak derin modelin özelliklerine odaklanan bir ICML 2017 maddesidir. Başka bir NIPS 2017 makalesi aktif öğrenmeye odaklanmaktadır.Hipotez uzayından örnekleme sürecini taklit etmek için iki derin ağ kullanarak, iki derin ağ sürekli olarak güncellenir ve güncellenmiş derin ağlar iki olarak tanımlanır. Örneklerin sırayla işaretlenmesi gerekip gerekmediğini belirlemek için örnekleme hipotezi. Bu, QBC algoritmasının bir varyantına eşdeğerdir ve derin modelin güçlü imzasından yararlanır. Bu ilgili makalelerin belirli başlık ve yazar bilgileri, ppt ve videoya başvurabilir.

    Aşağıda, aktif öğrenmenin temel çerçevesini kısaca gözden geçiriyoruz. Üçüncü tip havuz temelli örneklemeye odaklandığımız görülebiliyor, peki diğer ikisi hakkında herhangi bir araştırma var mı?

    Son zamanlarda, bazı araştırmacılar, örnekleri seçmek için aktif öğrenme sürecini simüle etmek için pekiştirmeli öğrenmeyi kullanmayı ve etiketleme için örnek seçmeyi pekiştirme öğrenmedeki davranış olarak kabul etmeyi önerdiler: etiketleme veya etiketleme. ICML2017'nin bu makalesi, örnekleri seçmek için aktif öğrenme sürecini simüle etmek için bir takviye öğrenme aracı kullanır. ICLR2018'in bu makalesinde, yazar, daha karmaşık bir görevde daha değerli problemler oluşturmak için pekiştirmeli öğrenmeyi kullanma yöntemini değerlendiriyor. Bu iki makale, aktif öğrenmenin temel çerçevesindeki diğer iki senaryoya aittir.

    Derin öğrenmede aktif öğrenmenin zorlukları

    Son bölüm, derin öğrenmede aktif öğrenmenin zorluklarını tanıtır. Bazı geleneksel, iyi tanımlanmış görevlerde, daha hızlı bir eğitim sürecine ve daha hızlı çıkarıma ihtiyacımız var ve çıkarım hızı daha önemlidir. Çünkü gerçek sıralı görevlerde, eğitim aslında nispeten hızlıdır. İşaretsiz cümlelerde hangi cümlelerin daha önemli olduğuna karar vermek bizim için daha zor. Örneğin, makine çevirisinde, çevrilen her cümle bir cümle eğitiminden çok daha düşüktür, çünkü çıkarım süreci paralel değildir, bu da üzerinde çalışılması gereken derin aktif öğrenmenin bir yönüdür.

    İkincisi, aktif öğrenme ve üretken modellerin birleşimidir, yani az önce görülen üç model çerçevesi. Birincisi, modelin aktif olarak örnekler üretebilmesi. Şu anda, bu alanda çok az araştırma var ve zorluklar çok büyük.

    Üçüncü tür optimizasyondur. Optimizasyon, herhangi bir görevin çok önemli bir parçasıdır, ancak derin modelin görevleri daha etkili bir şekilde öğrenmesini sağlamak için ağ ve optimizasyon tasarlamak henüz net değildir. Derin aktif öğrenme aslında Optimizasyonun üstündedir, bu nedenle Optimizasyon aynı zamanda aktif öğrenme için bir endişe kaynağıdır.

    Derin aktif öğrenmeyi inceleme sürecinde, insanlarla karşılaştırarak derin aktif öğrenme süreci hakkında düşünebiliriz. Bilinen zor makine çevirisi görevini bir örnek olarak alın. Şu anda, makine öğrenimi makine çevirisi görevlerini yaparken, modeli eğitmek için milyonlarca cümle çiftinden oluşan bir veri kümesine ihtiyaç duyar, ancak bu süreç insan çevirisinden farklıdır: aktif öğrenme insanlar tarafından çevrilir. Süreçte çok önemli bir rol oynadı. Çeviri sürecindeki makinelerin ve insanların öğrenme yöntemlerini düşündüğümüzde, aktif öğrenmenin (aktif derin öğrenme dahil) iyileştirme için hala çok yer olduğunu görebiliriz. Başka bir örnek vermek gerekirse, önceki NER görevinde, model, oluşturulan olasılık değerini hesaplayarak belirsizliği ifade etti, ancak insanların olasılığın kesin değerini hesaplamasına gerek yok.İnsanlar bir cümle gördüklerinde, belirlemek için basit bir bulanık yorum kullanırlar Numunenin öğrenilmesi gerekip gerekmediği, yani kod çözücü katmanına girmeden, yargılama önceki kodlayıcı aşamasında yapılabilir. Ve bu, mevcut derin aktif öğrenme ile çözülemeyen büyük bir zorluktur.

    Yukarıdakiler bu sayıdaki misafirlerin paylaşım içeriği, Orijinal metni okumak için makalenin sonuna tıklayın Bu GAIR konferans salonunun tam tekrar videosunu izleyin.

    Bu arada, insanları işe alıyoruz, öğrenelim mi?

    BAT kıdemli algoritma mühendisleri için özel araştırma ve geliştirme kursları

    Hayata ve işe en yakın eğlenceli pratik projeler

    Profesyonel öğretim asistanları ile sınıf yönetimi yardımı

    Bir teklif almak için öğrendiklerinizi uygulayın, öğrenmeyi bitirir bitirmez işe alınmanız tavsiye edilir.

    ( 0 ) Paylaşmaya hoş geldiniz, yarın görüşürüz!

    Neden cennete bu kadar güçlü gitmiyorsun? Huami Technology, Douyu: Üzgünüz, zaten ayaktayız
    önceki
    Modaya liderlik etmek için doğdu: Vivo LOGO PHONE resmi takdiri
    Sonraki
    "Dedektif Chinatown 2" ile Wang Baoqiang en çok satan 5. oyuncu oldu, bak bakalım ilk 5'te kim var!
    Yeni bir "Hengdian" inşa etmek ve "Çin Seddi" ni ve diğerlerini sübvanse etmek için 50 milyar Baba Jianlin bu kadar utanıyor mu?
    "X-Men" in genç versiyonu mu? "Stranger Things" sizin için iyi görünecek!
    İnsanlar kavga eder ve sinirlenir, ancak AI ile AI tartışmaları güvenliği sağlayabilir
    2017 Frankfurt Otomobil Fuarı: Renault Symbioz Konsepti
    Vivo NEX çift ekranlı versiyon geliyor: 10GB depolama alanı sağlayan arka + üçlü arka kameralar
    Eski prenses için filmde konuk yıldızı oynadı ve "Kızıldeniz Operasyonu" nda sadece 3 saniye yüzünü gösterdikten sonra seyirciler tarafından keşfedildi
    Stormzy'nin ayaklarındaki sahte YEEZY, adidas yönetmenini endişelendirdi mi? Twitter'da kimsin?
    Akademisyen Zhang Bo: Açıklanabilir ve anlaşılır, yapay zeka araştırmalarının ana yönleridir CCF-GAIR 2018
    18250 kahvaltısını seninle yemek istiyorum
    Happy Workshop, Aofei Entertainment ve Oriental Fortune'dan on milyonlarca yatırım aldı ve komik bir reform planı başlattı
    2017 Frankfurt Otomobil Fuarı: yeni 911 GT3 yeni modeller
    To Top