Kendi kendini denetleyen öğrenme, derin öğrenmeyi veri ikileminden nasıl kurtarabilirim?

Büyük ölçekli açıklamalı veri setlerinin ortaya çıkışı, bilgisayarla görme alanında derin öğrenmenin büyük başarısı için anahtar faktörlerden biridir. Ancak, denetimli öğrenme, büyük ölçekli etiketli veri setlerine çok fazla dayanır ve veri setlerinin toplanması ve manuel olarak etiketlenmesi, çok fazla işçilik maliyeti gerektirir. Kendi kendini denetleyen model, herhangi bir manuel etiketleme verisi kullanmadan büyük ölçekli etiketlenmemiş verilerden görüntü özelliklerini öğrenerek bu sorunu çözer.

Her derin öğrenme uygulayıcısının aynı fikirde olduğu bir şey, derin öğrenme modeli verilerinin verimsizliğidir.

Veri verimsiz derin öğrenme modeli

Öncelikle bilgisayarla görmedeki ana sınıflandırma görevlerini ele alalım. Örnek olarak ImageNet veritabanını ele alalım: Farklı kategorilerden 1.0001.3 milyon resim içerir ve her resmin manuel olarak etiketlenmiş bir etiketi vardır.

ImageNet şüphesiz derin öğrenme rönesansının temel taşlarından biridir. ImageNet, Krizhevsky ve diğerleri tarafından yazılan 2012 tarihli "Derin Evrişimli Sinir Ağları ile Imagenet Sınıflandırması" makalesinden kaynaklanmıştır.

  • Kağıt adresi: https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

Bu makalede, evrişimli ağ modeli ilk defa o zamanki en gelişmiş modeli büyük ölçüde aştı. Tüm kontrast modelleri arasında evrişimli sinir ağlarına dayanan tek çözümdür. O zamandan beri, evrişimli sinir ağları her yerde yaygın hale geldi.

Derin öğrenmeden önce, araştırmacılar her zaman ImageNet zorluğunun çok zor olduğuna inanmışlardır. Asıl sebep, ImageNet veri setinin olağanüstü değişkenliğidir. ImageNet'te çeşitli köpek dişlerini kapsayan manuel özellikler bile bulmak kolay değildir.

Bununla birlikte, derin öğrenme yoluyla, büyük miktarda verinin ImageNet'i bu kadar zorlaştırdığını ve aslında derin öğrenmeyi bu kadar etkili kılmanın sırrı olduğunu hemen fark ettik.

Bununla birlikte, yıllarca süren derin öğrenme araştırmaları sayesinde, doğru modellerin eğitimi için büyük veri tabanlarının gerekliliğinin çok önemli bir konu haline geldiğini biliyoruz. Verimsiz manüel açıklama ihtiyacı daha büyük bir sorun haline gelir.

Ve mevcut derin öğrenme uygulamalarında, veri sorunları her yerde. DeepMind'ın AlphaStar modelini örnek olarak alın.

Şekil 1 Resim kaynağı: "AlphaStar: Gerçek Zamanlı Strateji Oyunu StarCraft II'de Ustalaşma"

  • Kağıt adresi: https://deepmind.com/blog/article/alphastar-mastering-real-time-strategy-game-starcraft-ii

AlphaStar derin öğrenme sistemi, "StarCraft 2" yi çalıştırmak için denetimli öğrenme ve pekiştirmeli öğrenmeyi kullanır. Eğitim sırasında AlphaStar yalnızca oyun ekranını oyun terminalinden izler. DeepMind araştırmacıları, çok sayıda aracıyı paralel olarak eğitebilen dağıtılmış bir strateji eğitim modeli kullanır. Her temsilci en az 200 yıllık gerçek zamanlı "StarCraft" videosu (kesintisiz) izlemiştir. Profesyonel oyuncular gibi eğitimler sayesinde AlphaStar, resmi oyun sunucusunda% 99,8'in üzerinde bir sıralama ile aktif oyuncular için bu büyük başarıyı elde etti.

Sistemi eğitmek için çeşitli genel amaçlı teknikler kullanılsa da, AlphaStar'ı (veya başka herhangi bir RL aracısını) başarılı bir şekilde oluşturmanın gerçek anahtarı, büyük miktarda verinin kullanılmasıdır. Aslında, en iyi pekiştirmeli öğrenme algoritması, insan düzeyine ulaşmak için çok fazla deneme gerektirir, bu da bizim insan öğrenme yöntemimizin tam tersidir.

Sonuç olarak, pekiştirmeli öğrenme, büyük miktarda mevcut veriyle sınırlı ve iyi tanımlanmış senaryolarda büyük başarı elde etti. İlgili okuma için lütfen DeepMind "Rainbow: Derin Güçlendirmeli Öğrenmede İyileştirmeleri Birleştirme" belgesine bakın:

  • Kağıt adresi: https://arxiv.org/pdf/1710.02298.pdf

Bir Atari oyunu oynamak için en iyi RL yöntemi kullanılırsa, profesyonel insan oyuncularla aynı seviyede performansa ulaşmak için oynamak toplamda yaklaşık 100 saat (10,8 milyon kare) sürecektir. Son zamanlarda süre iyileşmiş olsa da, 100 saat hala çok fazla görünüyor.

Şekil 2 Resim kaynağı: "Rainbow: Derin Pekiştirmeli Öğrenmedeki İyileştirmeleri Birleştirme"

  • Kağıt adresi: https://arxiv.org/pdf/1710.02298.pdf

AlphaStar hakkında daha fazla bilgi için bu makaleye göz atabilirsiniz:

  • Makale adresi: https://blog.deeplearning.ai/blog/the-batch-google-achieves-quantum-supremacy-amazon-aims-to-sway-lawmakers-ai-predicts-basketball-plays-face-detector-preserves -gizlilik-1-0-0-0-0

Size birkaç örnek daha verebilsem de, bu iki cümlenin ne demek istediğimi açıklamak için yeterli olduğunu düşünüyorum:

Şu anda derin öğrenme büyük ölçekli verilere dayanmaktadır.Gerekli ortam ve kısıtlamalar karşılandığında, bu sistemler şaşırtıcı sonuçlar verecektir. Ancak bazı özel durumlarda tamamen başarısız olurlar.

ImageNet sınıflandırma problemine dönelim: ImageNet veritabanının insan tanıma hata oranı yaklaşık% 5,1 iken, mevcut son teknoloji derin öğrenme ilk 5 doğruluğu yaklaşık% 1.8'dir.

  • Kağıt adresi: https://paperswithcode.com/sota/image-classification-on-imagenet

Bu nedenle, ImageNet'in bu görevinde derin öğrenmenin insanlardan daha iyi olduğunu mükemmel bir şekilde kanıtlayabiliriz. Ama gerçekten durum bu mu?

Durum buysa, bu sorunları nasıl açıklarız?

Şekil 3 Resim kaynağı: "Tartışmalı Örneklerle Makine Öğrenmesine Saldırmak"

  • Kağıt adresi: https://openai.com/blog/adversarial-example-research/

İnternette çok popüler olan bu rakip örnekleri makine öğrenimi modellerini yanıltmak için tasarlanmış optimizasyon görevleri olarak düşünebiliriz. İlgili okumalar için lütfen aşağıdaki makaleye bakın:

Makale adresi: https://openai.com/blog/adversarial-example-research/

Fikir basit:

Sınıflandırıcının daha önce "panda" olarak "gibon" olarak sınıflandırılmış resimleri nasıl sınıflandırmasını sağlayabiliriz?

Basitçe iyi tasarlanmış girdi örneklerinin ML modeli sınıflandırma hatasına neden olduğunu düşünebiliriz.

Şekil 4: Görüntü kaynağı: "Derin Sinir Ağlarını Kandırmak İçin Bir Piksel Saldırısı"

  • Kağıt adresi: https://arxiv.org/pdf/1710.08864.pdf

Gördüğümüz gibi, optimizasyon etkisi o kadar iyidir ki (çıplak gözle) gerçek görüntü (solda) ile yüzleşme görüntüsü (sağda) arasındaki farkı algılayamıyoruz. Aslında, sınıflandırma hatasına neden olan gürültü, bilinen herhangi bir sinyal türü değildir. Bunun yerine, modeldeki gizli hataları bulmak için dikkatlice tasarlanmıştır. Ve son araştırmalar gösteriyor ki: Bazı durumlarda, en iyi derin öğrenme sınıflandırıcısını başarılı bir şekilde yanıltmak için yalnızca 1 pikseli değiştirmemiz gerekiyor. Ayrıntılı tartışma için lütfen şu makaleye bakın:

  • Kağıt adresi: https://arxiv.org/pdf/1710.08864.pdf

Bu noktada sorunların birbiriyle örtüşmeye başladığını görebiliriz. Yeni görevleri öğrenmek için yalnızca çok sayıda örneğe ihtiyacımız olmakla kalmaz, aynı zamanda modelimizin doğru temsili öğrenmesini de sağlamamız gerekir.

YouTube videosu: https://www.youtube.com/watch?v=piYnd_wYlT8

Derin öğrenme sistemlerinin başarısızlığını gördüğümüzde ilginç bir tartışma ortaya çıkıyor: Biz insanlar neden rakip örneklerle kolayca yanıltılmıyoruz?

Önceki bilgileri oluşturun ve kullanın

Bazıları, yeni bir görevde ustalaşmamız gerektiğinde, onu aslında sıfırdan öğrenmediğimizi söylüyor. Bunun yerine, yaşamımız boyunca biriktirdiğimiz birçok ön bilgiyi kullanırız.

Şekil 6 Newton evrensel çekim yasasını keşfetti

Yerçekimini ve anlamını anlıyoruz, gülleler ve tüyler aynı başlangıç noktasından düşerse, iki cismin farklı hava dirençlerinden dolayı ilk önce top mermilerinin yere varacağını biliyoruz; cisimlerin havada yüzemeyeceğini biliyoruz, dünyanın nasıl işlediğine dair sağduyu anlıyoruz. Biliyoruz ki, eğer babamızın çocukları varsa, kendi kardeşimiz olacak; 1900'lerde birinin doğduğuna dair bir makale okursak, artık hayatta olmayabileceğini biliyoruz çünkü biz (gözlem yoluyla) Dünya) insanların genellikle 120 yıldan uzun yaşamadıklarını bilir.

Olaylar arasındaki nedensel ilişkiyi anlıyoruz. En şaşırtıcı şey, aslında birçok gelişmiş kavramı çok erken öğrenmiş olmamız. Aslında, yerçekimi ve atalet kavramlarını sadece 6 ila 7 ayda öğrendik ve bu dönemde dünya ile etkileşimimiz neredeyse sıfırdı!

Şekil 7 Resim kaynağı: "Bebeklerde Erken Kavramsal Edinim", Yann LeCun ders notları

  • Kağıt adresi: https://drive.google.com/file/d/12pDCno02FJPDEBk4iGuuaj8b2rr48Hh0/view

Bu anlamda, algoritma performansını insan yetenekleriyle karşılaştırmanın `` haksız '' olduğu söylenebilir -.

Yann LeCun, kendi kendini denetleyen öğrenme üzerine yaptığı araştırmada, bilgi edinmenin en az üç yolu olduğuna inanıyor.

(1) Gözlem yoluyla

(2) Gözetim yoluyla (çoğunlukla ebeveynlerden ve öğretmenlerden)

(3) Gelişmiş geri bildirim yoluyla

  • Kağıt adresi: https://www.facebook.com/epflcampus/videos/1960325127394608

Şekil 8: İnsanlar yaşam boyunca farklı bilgi kaynakları elde ederler. Gözlem / etkileşim, denetim ve geri bildirim yoluyla öğrenin

Ama örnek olarak bebekleri alırsanız, bu yaş ile dış dünya arasında neredeyse hiç etkileşim yok. Buna rağmen bebek, fiziksel dünyanın sezgisel bir modelini oluşturmayı başardı. Yerçekimi gibi ileri düzey bilgiler ancak saf gözlem yoluyla öğrenilebilir - en azından hiçbir ebeveynin 6 aylık bir bebeğe fizik öğrettiğini görmedim.

Biz büyüyüp okula başlayana kadar denetim ve etkileşim (geri bildirimle) daha önemli hale gelir. Ama daha da önemlisi, hayatın bu aşamalarında olduğumuzda, sağlam bir model dünya kurduk. Bu, insanların verileri mevcut makinelerden daha verimli işlemesinin ana nedenlerinden biri olabilir.

LeCun'un dediği gibi, pekiştirmeli öğrenme pastadaki kiraz gibidir. Denetimli öğrenme, pastanın üzerine krema, kendi kendine denetim altında öğrenme ise pastadır!

Şekil 9 Resim kaynağı: Yann LeCun (https://drive.google.com/drive/folders/0BxKBnD5y2M8NUXhZaXBCNXE4QlE)

Kendi kendini denetleyen öğrenme

Kendi kendini denetleyen öğrenme sistemi, girdinin diğer bölümlerinden gelen girdinin bir kısmını tahmin etmeyi öğrenir.

LeCun

Kendi kendini denetleyen öğrenme, etiketlenmemiş verilerden anlamsal özellikleri öğrenme sorununu çözen denetimsiz öğrenmeden gelir. Bu makalede en çok ilgilendiğimiz şey, bilgisayarla görme alanında kendi kendini denetlemektir.

Genel yöntem, "nominal görev" tasarlayarak denetimsiz sorunları denetlenen görevlere dönüştürmektir. Normalde, nominal görev herhangi bir yeni çıktı üretmez.Amaç, ağın verilerden yararlı özellikleri nasıl yakalayacağını öğrenmesini sağlamaktır.

Nominal görevlerin ortak denetim problemleriyle benzerlikleri vardır.

Denetimli eğitimin etiketlenmesi gerektiğini biliyoruz. Bunun yerine, genellikle insan açıklamacılarının sürekli çabalarını gerektirir. Ancak çoğu durumda etiketleme çok pahalıdır veya mevcut değildir. Ayrıca öğrenme modellerinin doğası gereği veriye ihtiyaç duyduğunu da biliyoruz, bu da öğrenme modellerinin daha da geliştirilmesinin önündeki ana engellerden biri haline gelen büyük ölçekli etiketli veri setlerine yol açtı.

Benzer şekilde, kendi kendini denetleyen öğrenme de nominal görevleri eğitmek için ek açıklamalar gerektirir. Bununla birlikte, nominal görevden temel fark, nominal görev için kullanılan etiketin (sözde etiket) özelliklerinin farklı olmasıdır.

Aslında, kendi kendini denetleyen eğitim için sözde etiketler yalnızca veri özelliklerinin kendisinden gelir.

Diğer bir deyişle, sahte verilerin manuel olarak etiketlenmesine gerek yoktur. Aslında, kendi kendine öğrenme ile denetimli öğrenme arasındaki temel fark, etiketlemenin kaynağıdır.

(1) Ek açıklama açıklayıcıdan geliyorsa (çoğu veri kümesi gibi), o zaman bu bir denetim görevidir.

(2) Ek açıklamalar verilerden elde ediliyorsa, bu durumda bunları otomatik olarak oluşturabiliriz, o zaman bu kendi kendini denetleyen bir öğrenmedir.

Son araştırmalar birçok nominal görev önermiştir. En yaygın olanları:

(1) Resim döndürme (Döndürme)

(2) Görüntü birleştirme (Yapboz)

(3) Görüntü Renklendirme

(4) Resim boyama

(5) Görüntü / video oluşturmak için GAN'ları kullanma (GAN'ları kullanarak Görüntü / Video Oluşturma)

Her bahane görevinin tanıtımı hakkında daha fazla bilgi edinmek istiyorsanız, "Derin Sinir Ağları ile Kendi Kendini Denetleyen Görsel Özellik Öğrenimi: Bir Araştırma" başlıklı makaleye göz atabilirsiniz:

  • Kağıt adresi: https://arxiv.org/abs/1902.06162

Şekil 10: Görüntü kaynağı: "Derin Sinir Ağları ile Kendi Kendini Denetleyen Görsel Özellik Öğrenimi: Bir Araştırma"

Kendi kendini denetleyen eğitim sırasında, ağa adındaki görevleri öğrenmesi için meydan okuruz. Benzer şekilde, sahte etiketler, eğitim hedefleri için verinin kendisine göre otomatik olarak oluşturulur. Eğitimden sonra, genellikle öğrenilen görsel özellikleri bilgi olarak aşağı akış görevlerine çeviririz.

Genel olarak, aşağı akış görevi herhangi bir denetim sorunu olabilir. Amaç, aşağı akış görevlerinin performansını iyileştirmek için kendi kendini denetleyen özellikleri kullanmaktır.

Genellikle aşağı akış görevleriyle ilgili en büyük sorun, sınırlı veri ve aşırı uyumdur. Burada, büyük ölçekli açıklama veritabanlarına (ImageNet gibi) önceden eğitilmiş evrişimli sinir ağlarına dayanan sıradan transfer öğrenmenin benzerliğini görebiliriz. Ancak önemli bir avantaj var: Kendi kendini denetleyen eğitim yoluyla, modeli yapay etiketler konusunda endişelenmeden inanılmaz derecede büyük bir veritabanı üzerinde önceden eğitebiliriz.

Ek olarak, nominal görevler ile sıradan sınıflandırma görevleri arasında küçük bir fark vardır. Saf sınıflandırma görevlerinde ağ, özellik uzayındaki sınıfları ayırmak için temsilleri öğrenir. Kendi kendine denetlenen öğrenmede, nominal görevler genellikle ağı daha genel kavramları öğrenmeye yönlendirir.

Örnek olarak görüntü renklendirme görevini ele alalım: ağ, görüntü renklendirmede iyi olmak için veri setindeki nesnelerin özelliklerini açıklayan genel amaçlı özellikleri öğrenmelidir; nesnenin şekli, genel doku, ışık direnci, gölge, kapanma vb.

Kısacası, nominal görevleri çözerek, ağ, öğrenmeyi kolayca yeni problemleri öğrenmenin anlamsal özelliklerine çevirir. Başka bir deyişle: Amacımız, gözetimden önce etiketlenmemiş verilerden faydalı temsiller öğrenmektir.

sonuç olarak

Kendi kendini denetleyen öğrenme, büyük ölçekli etiketli veriler olmadan yüksek kaliteli temsiller elde etmemizi sağlar.Bunun yerine, büyük miktarda etiketlenmemiş veri kullanabilir ve önceden tanımlanmış bahane görevlerini optimize edebiliriz. Sonra bu özellikleri veri eksikliği olan yeni görevleri öğrenmek için kullanabiliriz.

İlgili literatür, orijinal metne başvurabilir: https://towardsdatascience.com/self-supervised-learning-and-the-quest-for-reducing-labeled-data-in-deep-learning-db59a563e25b?gi=60c8260b84fc Lei Feng.com Lei Feng. ağ

Sinir ağı neden bir aktivasyon işlevi değil?
önceki
En eksiksiz! 2019'da NLP alanında hangi önemli olaylar meydana geldi?
Sonraki
Stanford Üniversitesi Ma Tengyu: Mevcut derin öğrenme algoritmalarını anlayamıyor musunuz? Sonra anlaşılır bir
Shandong, Huimin İlçesindeki doksan yaşındaki adam Meçhul Askerin Mezarı'nı 28 yıldır koruyor.
Xianlie 16 Liu Xiaopu Liu Yimeng: Zengin ve Zenginleri Fuyun Amca ve yeğen olarak gör
Fransız gazeteci Çin yasını yayınlarken uygunsuz sözler, bir hafta ara verdi
Shandong Eyaleti, Paiyishui İlçesinin Kırsal Yeniden Canlandırma Hizmeti Ekibi, kırsalın yeniden canlandırılmasına yardımcı olmak için eğitim çalışmalarına başladı
Weifang Şehri "Uçurtma Uçurtma ve Kaçırma" Etkinliği Düzenliyor
Mingde Group'un salgın önleme yönergeleri Brezilya'ya yardım etmek için acele ediyor, bu hamle yabancı medya dergilerinde yer aldı
Bilerek Sormak | Neden giderek daha fazla KOBİ profesyonel yönetim danışmanlığı arıyor?
İleriye dönük Power Battery Industry Küresel Haftalık Rapor No. 22: 300'den fazla patent! BYD "bıçak bataryası", seyir mesafesinin 500 kilometreyi aşmasına izin verir
2019 Wan Biheng'de emlak sektöründeki en aktif 10 marka en iyi satışlar için düşük anahtar rekabeti Sunac yüksek profil satın almaya devam ediyor
Tekrar aç! Onur yöneticileri Xiaomi'yi 100 milyon pikselle bombaladı: kamera iyi veya kötüyse, yalnızca pikseller yüksek veya düşükse çok kolay
350 milyon dolarlık satın alma başarısız mı oldu? Intel, NNP-T geliştirmeyi durduracak ve Habana Laboratuvarlarına odaklanacak
To Top