Libra R-CNN: Tam dengeli bir hedef dedektörü

Bu, Zhejiang Üniversitesi ve Hong Kong Çin Üniversitesi tarafından CVPR 2019'da yayınlanan bir makale. Bu makale çok ilginç. Netizenler şaka yaptı: "Ağrısız yükseliş, basit farkındalık, vicdan belgesi". Bana göre durum bu. Büyük rekonstrüksiyon yapısı, hesaplama maliyetini artırmadan haritayı aslında iki puan artırabilir.

Yoruma ek olarak Terazi R-CNN (Libra RCNN), Chen Kai ve Hong Kong Çin laboratuvarlarının bu yıl bir CVPR 2019 kazandığını hatırlıyorum. Kılavuzlu Bağlantı ile Bölge Önerisi , Bu makale de güzel, konuya bakıldığında, çapanın şekline rehberlik ederek puanları arttırmak olduğunu biliyorsunuz.

Her iki geliştirilmiş kaynak kodu da Github'da yayınlanacak. Yazar, bunların hala iyileştirilmekte olduğunu söyledi. Adres:

https://github.com/open-mmlab/mmdetection

Üç dengesizlik

Mevcut ana akım hedef tespit algoritmalarına bakıldığında, SSD, Daha Hızlı R-CNN ve Retinanet gibi dedektörlerin tasarımı aslında Üç adım:

  • Aday alanı seçin
  • Özellikleri ayıkla
  • Muti-görev kaybı altında yakınsayın

Genellikle var Üç dengesizlik seviyesi:

  • örnek seviyesi
  • özellik seviyesi
  • hedef seviyesi

Bu, üç soruya karşılık gelir:

  • Örneklenen aday bölge temsilcisi mi?
  • Farklı seviyelerden çıkarılan özellikler tam olarak nasıl kullanılabilir?
  • Halihazırda tasarlanmış kayıp işlevi, hedef dedektörü daha iyi yakınsama konusunda yönlendirebilir mi?

Aslında, dedektörün yapısı üzerinde çok çalışmazsanız, bu dengesizliklerdeki iyileştirme, aslında dedektörün gerçek gücünü göstermektir ki bu, bir hedef dedektör iyi eğitilmişse bir problemdir.

İlgili üç iyileştirme

IoU dengeli Örnekleme

Yazar, örneklem seviyesindeki dengesizliğin rastgele örneklemeden kaynaklandığına inanıyor.Ross Girshick daha sonra OHEM'i (çevrimiçi sert örnek madenciliği) bir zor negatif madencilik İyi bir yöntem, ancak bu yöntem gürültü verilerine karşı daha duyarlı olacaktır. Rasgele örneklemenin neden olduğu dengesizlik aşağıdaki şekilde görülebilir:

Yazar, rastgele örnekleme ise, rastgele örneklenen örneklerin% 70'inden fazlasının IoU'da 0 ile 0.05 arasında olduğunu buldu Bazı insanlar bunun rastgele olup olmadığını soracaklar mı? Örneklerin çoğu neden ES'nin daha küçük kısmına düşüyor?

Örneklerin dağılımı IoU'da eşit olarak dağıtılmadığından, aday çerçeveler oluştururken rastgele örnekleme, arka plan çerçevesinin çerçevedeki GT çerçevesinden çok daha büyük olmasına neden olur Bir resim o kadar büyüktür ki, hedef nesnenin alanı arka planda yalnızca küçük bir bölümü kaplar. Konumların çoğunu kaplar, bu nedenle numunelerin çoğu, 0 ile 0,05 arasındaki IoU aralığında sıkıştırılır.

Yazar bunun bilim dışı olduğunu düşünüyor, istatistiklerle elde edilen gerçekler% 60 zor olumsuz Hepsi IoU'nun 0,05'ten büyük olduğu yerlerde düşer, ancak rastgele örnekleme yalnızca% 30 sağlar. Böylece yazar önerdi IoU dengeli Örnekleme .

Rastgele örnekleme, N sabit negatif seçmek istiyorsanız ve M aday kutusu varsa, seçim olasılığının şu olduğu anlamına gelir:

Toplamda örneklenecek hala N örnek varsa, IoU değeri K aralıklarına bölünür ve her aralıktaki aday örnek sayısı

,sonra IoU dengeli örnekleme Örnekleme formülü:

Yazar, IoU üzerinde tekdüze bir örnekleme yaptı ve zorlu negatifleri IoU'ya eşit olarak dağıttı. COCO veri seti üzerinde elde edilen etki OHEM'inkinden daha iyi ve çok daha basit.

Dengeli Özellik Piramidi

Özellik seviyesinin dengesizliği, düşük / yüksek seviyeli özelliklerin kullanımında, farklı çözünürlükteki özelliklerin nasıl kullanılacağında kendini gösterir. Dört adıma bölünmüştür:

  • yeniden ölçeklendirme
  • entegre
  • rafine etme
  • güçlendirme

1. yeniden ölçeklendirme ve bütünleştirme

Hipotez

L katmanının özelliklerini temsil eder, katman ne kadar yüksekse çözünürlük o kadar düşükse,

C2 en yüksek çözünürlüğe sahiptir. Yüksek çözünürlüklü düşük seviyeli özel teşhisin genellikle ayrıntılı özellikleri öğrendiğini ve düşük çözünürlüklü yüksek seviyeli özellikleri anlamsal özellikleri öğrendiğini biliyoruz. Orta seviyede dört seviyeli özellikleri C4 boyutuna yeniden boyutlandırın ve ardından Daha sonra basit bir ekleme ve ortalama işlem yapın:

Herhangi bir hesaplama yapılmadan elde edilebilecek kadar basit bir işlemdir ve nihayet AP üzerinde etkili olduğu doğrulanmıştır.

2. arıtma ve güçlendirme

Yeniden ölçeklendirmeden sonra, ortalama çıkarılan özellikler daha ayırt edici hale getirilebilir. Yazar burada yerel olmayan modülü kullanır ve makale Gauss yerel olmayan ilgi Entegrasyondan sonra özellikleri geliştirin.

Tıpkı Şekil 4'teki resim gibi, bu şekilde çıkarılan özellikler aslında FPN ile birlikte, özellik piramidine ek olarak ve bir geliştirme yöntemi olarak kullanılabilir.

Dengeli L1 Kaybı

Hızlı R-CNN Sınıflandırma ve Yerelleştirme sorunu, aşağıdaki gibi tanımlanan çoklu görev kaybı ile çözülür:

ile

Sınıflandırma ve konumlandırmanın kayıp fonksiyonuna karşılık gelen p ve u sırasıyla

Tahminler ve hedefler,

Karşılık gelen u sınıfının regresyon sonucudur. v dönüş hedefidir. , çok görevli öğrenmede kayıp ağırlığını ayarlamak için kullanılır.

Dengeli L1 kaybının önerilmesinin nedeni, bu kayıp fonksiyonunun iki kaybın eklenmesi olmasıdır.Sınıflandırma iyi yapılırsa, çok yüksek bir puan alacak, bu da doğal bir fikir olan regresyonun önemini göz ardı etmesine yol açacaktır. Sadece 'nın değerini ayarlayın.

Örnek kaybı 1.0'dan büyük veya eşit olan aykırı değerleri ve 1.0'dan küçük örnek kaybı olan giriş değerleri çağırıyoruz. Regresyon hedefinin sınır kısıtlaması olmadığı için, regresyon kaybının ağırlığının doğrudan arttırılması, modeli aykırı değerlere karşı daha duyarlı hale getirecektir.

Aykırı değerler zor örnekler olarak kabul edilecek, bu zor örnekler eğitim sürecine elverişli olmayan devasa gradyanlar üretecek ve iç değerler basit örnekler olarak kabul edilecek (kolay örnekler) aykırı değerlerin yalnızca yaklaşık 0,3 katı üretecektir. gradyan.

İlk önce Smooth L1 Loss'a bakıyoruz:

Dolayısıyla yazar, Dengeli Kayıp Kayıpını ortak Düzgün Kayıp 1'den türetmiştir:

Gradyan hesaplaması aşağıdaki yönergeleri izler:

Talepten başlayarak, yazar örnek | x | konumunda olduğunda bir gradyan elde etmek ister. < 1'in yakınında biraz daha büyük bir gradyan oluşturulur. Yazar aşağıdaki işlevi tasarlamıştır: Şekil 5'ten, ln (b | x | +1) x'den büyük olduğu görülebilir.

Gradyan tersine göre Lb (x) ifadesini bulun:

Bir diğer önemli nokta ise, fonksiyonun sürekliliği için, Lb (1) = 'nin x = 1 olduğunda sağlanması gerektiğidir:

Aslında anlamı

.

Bu fonksiyonun çok harika olduğunu söylemeliyim, eğimi başarılı bir şekilde büktü.Bunu nasıl bulduğunu bilmiyorum.

Deneysel sonuçlar

COCO test-dev veri setindeki mevcut son teknoloji hedef tespit yöntemi ile karşılaştırıldığında, Faster R-CNN, RetinaNet ve Mask R-CNN'den 2+ AP daha yüksek olabilir.

Üç çözümün çeşitli kombinasyonlarının karşılaştırmalı deneyi:

Yazarın IoU dengeli örneklemeyle deney yaparken K'nin değeri üzerine deneyler yaptığını ve yöntemin K değerine duyarlı olmadığını, yani IoU aralıklarının sayısına duyarlı olmadığını kanıtladığını belirtmek gerekir.

Bu, IoU dengeli örneklemenin aday çerçevesinin görselleştirilmesidir:

sonuç olarak

Makalenin, iyileştirme yapmak için üç seviyeye odaklanan net bir mantığı var. Üç sorun üç çözüme karşılık geliyor, yapı bir bakışta anlaşılıyor ve deney yeterli. İki tek aşamalı ve iki aşamalı dedektörle karşılaştırıldığında, iki temsilci Daha Hızlı R-CNN AP ve RetinaNet sırasıyla 2+ daha yüksek ve resimler de iyi.Bence iyi bir makale ve yazarın bu makaleyi yazmak için yarışmada gerçekten kullanması gerekiyor. Gelecekteki hedef tespit yarışmalarında kullanılabileceğini düşünüyorum. İyileştirmeler yapmak için bu makaleye bakın.

Referanslar

Pang J, Chen K, Shi J ve diğerleri. Libra R-CNN: Nesne Algılama için Dengeli Öğrenmeye Doğru. ArXiv ön baskı arXiv: 1904.02701, 2019.

Wang J, Chen K, Yang S, ve diğerleri. Yönlendirmeli sabitleme ile bölge önerisi. ArXiv preprint arXiv: 1901.03278, 2019.

Shrivastava A, Gupta A, Girshick R. Çevrimiçi sert örnek madenciliği ile bölge tabanlı nesne dedektörlerinin eğitimi // Bilgisayarla Görü ve Örüntü Tanıma IEEE Konferansı Bildirileri. 2016: 761-769.

Wang X, Girshick R, Gupta A, ve diğerleri.Yerel olmayan sinir ağları // IEEE Bilgisayarlı Görü ve Örüntü Tanıma Konferansı Bildirileri.2018: 7794-7803.

Ross Girshick. Hızlı R-CNN. Bilgisayarla Görme ve Örüntü Tanıma üzerine IEEE Konferansı'nda, 2015.

Transfer: https://www.jiqizhixin.com/articles/2019-04-26-12

Bilgi grafiği nedir
önceki
Önerilen sistem, çok yönlü FM modelinin dört modelini hatırlatır
Sonraki
2018 yıllık raporundan borsa şirketlerinin ihraççılarının potansiyel risklerine bakmak
Para piyasası faiz oranlarının çoğu yükseliyor, faiz tahvilleri kısa ve orta vadede hala ayarlama baskısıyla karşı karşıya
2017 Yıllık Fon Bireysel Yatırımcı Yatırım Anketi Analiz Raporu (10): Emeklilik Sorunları
Gizli Markov modeli basit ve anlaşılması kolay örneklerle nasıl açıklanır?
Karar Ağacının Çok Faktörlü Modelde Uygulanması
Çinli öğrenciler American Airlines School Classmate'te intihar etti: Öğretmenler sanki hapisteymiş gibi fiziksel cezayı cezalandırıyor ve kötüye kullanıyor
36 ÖzelNetEase Koala'nın "küresel fabrika mağazası" çevrimdışı oluyor ve onu açmak için ülkeye katılmaya bağlı
A-hisseleri genellikle düşer, gizli tehlikeler kalır
HBase en iyi uygulama-yazma performansı optimizasyon stratejisi
Çin, 2020'de uzay istasyonu görev aşamasının ilk uçuşunu bekliyor
Guangdong'daki 22 İnternet hastanesinin ilk partisi piyasaya sürüldü!
"Tek Kuşak Bir Yol" inşaatı, uluslararası üretim kapasitesi işbirliği için "yeni fırsatlar" getiriyor
To Top