CVPR 2020 | Social-STGCNN: Yaya yörünge tahmini için sosyal uzay-zamansal grafik evrişimli sinir ağı
CVPR 2020 | Önyargılı eğitime dayalı tarafsız sahne grafiği oluşturma
CVPR 2020 | Derin Yüz Tanıma için Genel Temsil Öğrenimi
CVPR 2020 | Birden fazla kamera kullanan gerçek zamanlı çok oyunculu hareket yakalama 4D korelasyon grafiği
CVPR 2020 | U-Net'e Dayalı Üretken Bir Çekişmeli Ağ Ayrımcısı
Kağıt adı: Social-STGCNN: İnsan Yörüngesi Tahmini için Sosyal Uzay-Zamansal Grafik Evrişimli Sinir Ağı
Yazar: Mohamed Abduallah / Qian Kun / Elhoseiny Mohamed / Claudel Christian
Gönderme süresi: 2020/2/27
Kağıt bağlantısı: https://arxiv.org/abs/2002.11927?from=leiphonecolumn_paperreview0323
Önerilen neden
Bu makale CVPR 2020 tarafından kabul edildi ve yaya yörünge tahmini sorunu olarak kabul edildi.
Yaya yörüngesi sadece yayadan etkilenmez, aynı zamanda çevredeki nesnelerin etkileşimiyle de ilgilidir. Bu makale, yayalar ve çevredeki nesneler arasındaki etkileşimi bir grafik modeli olarak modelleyen ve yayaları birbirine bağlamak için bir çekirdek işlevi kullanan bir sosyal mekansal-zamansal grafik evrişimli sinir ağı (Social-Zamporal Graph Convolutional Neural Network, Social-STGCNN) önermektedir. Sosyal etkileşimi bitişik matrisin içine yerleştirilmiştir. Deneysel sonuçlar, önceki yönteme kıyasla, Social-STGCNN'nin son yer değiştirme hatasının önceki tekniğe göre% 20 arttığını, parametrelerin 8,5 kat azaldığını ve çıkarım hızının 48 kat arttığını göstermektedir.
Kağıt adı: Önyargılı Eğitimden Tarafsız Sahne Grafiği Üretimi
Yazar: Tang Kaihua / Niu Yulei / Huang Jianqiang / Shi Jiaxin / Zhang Hanwang
Gönderme süresi: 2020/2/27
Makaleye bağlantı: https://arxiv.org/abs/2002.11949?from=leiphonecolumn_paperreview0323
Önerilen neden
Bu makale CVPR 2020 tarafından kabul edildi ve sahne grafiği oluşturma sorununu çözmekti.
Mevcut sahne grafiği oluşturma, eğitim önyargısı ile ilgili sorunlara eğilimlidir.Örneğin, insanların sahilde yürüyüş, oturma ve uzanma gibi çeşitli davranış türleri genellikle kumsaldaki insanlar olarak sınıflandırılır. Bu makale, nedensel muhakemeye dayalı sahne grafiği üretimi için yeni bir çerçeve önermektedir. Önce nedensel bir diyagram oluşturun ve ardından geleneksel önyargılı eğitim için diyagramı kullanın ve ardından kötü önyargıdan etkiyi çıkarmak ve ortadan kaldırmak için eğitim diyagramından karşı olgusal nedensellik çizin. Sahne oluşturma kıyaslama seti Görsel Genom üzerindeki deneyler, bu makalede önerilen yöntemin önceki en iyi yöntemlere göre önemli bir gelişmeye sahip olduğunu göstermektedir.
Bildiri Başlığı: Derin Yüz Tanıma için Evrensel Temsili Öğrenmeye Doğru
Yazar: Shi Yichun / Yu Xiang / Sohn Kihyuk / Chandraker Manmohan / Jain Anil K.
Gönderme süresi: 2020/2/26
Makaleye bağlantı: https://arxiv.org/abs/2002.11841?from=leiphonecolumn_paperreview0323
Önerilen neden
Bu makale CVPR 2020 tarafından alındı ve hedef alan bilgisini kullanmadan verilen eğitim verilerinde bulunmayan büyük değişiklikleri idare edebilen derin yüz tanıma için genel bir temsil öğrenme çerçevesi önerdi. Yeni çerçeve ilk olarak eğitim verilerini bazı anlamlı anlamsal değişikliklerle (düşük çözünürlük, oklüzyon ve baş duruşu gibi) sentezler. Eğitim sürecinde, özellik yerleştirme birden çok alt yerleştirmeye bölünür ve eğitim sürecini basitleştirmek için her bir alt yerleştirmeyle farklı bir güven değeri ilişkilendirilir. Değişen sınıflandırma kaybını ve karşıt kayıpları düzenleyerek, alt yerleştirme daha da ilişkisiz hale getirilebilir. Deneyler, yeni çerçevenin LFW ve MegaFace gibi geleneksel yüz tanıma veri setlerinde en iyi performansı elde ettiğini, ancak TinyFace ve IJB-S gibi uç ölçüt setlerindeki karşılaştırma algoritmalarından önemli ölçüde daha iyi olduğunu gösteriyor.
Bildiri Başlığı: Birden Çok Video Kamera Kullanarak Gerçek Zamanlı Çok Kişili Hareket Yakalama için 4D İlişkilendirme Grafiği
Yazar: Zhang Yuxiang / An Liang / Yu Tao / Li Xiu / Li Kun / Liu Yebin
Gönderme süresi: 2020/2/28
Kağıt bağlantısı: https://arxiv.org/abs/2002.12625?from=leiphonecolumn_paperreview0323
Önerilen neden
Bu makale CVPR 2020 tarafından alındı ve çok görüntülü video girişi kullanan yeni bir gerçek zamanlı çok kişili hareket yakalama algoritması önerdi.İlk defa, görünüm analizi, çapraz görünüm eşleştirme ve zaman izleme, bir 4D ilişkilendirmesi elde etmek için bir optimizasyon çerçevesine entegre edildi Her boyutu (görüntü alanı, bakış açısı ve zaman) aynı anda eşit olarak ele alabilen şekil. 4D ilişki grafiğini etkili bir şekilde çözmek için, bu makale ayrıca sezgisel aramaya dayalı 4D uzuv analizi fikrini önermektedir ve ardından Kruskal algoritmasını önererek uzuvları birleştirmektedir. Bu yeni algoritma, 5 kişilik bir sahnede 5 kamera kullanabilir ve 30 fps'de gerçek zamanlı çevrimiçi bir hareket yakalama sistemi çalıştırabilir. Yeni algoritma sadece gürültü tespitine karşı sağlam değil, aynı zamanda yüksek kaliteli çevrimiçi poz rekonstrüksiyon sonuçları da elde ediyor. Gelişmiş görünüm bilgisi kullanılmadan, yeni algoritma mevcut en iyi yöntemden daha iyidir.
Bildiri Başlığı: Generative Adversarial Networks için U-Net Tabanlı Bir Ayrımcı
Yazar: Schönfeld Edgar / Schiele Bernt / Khoreva Anna
Gönderme süresi: 2020/2/28
Kağıt bağlantısı: https://arxiv.org/abs/2002.12655?from=leiphonecolumn_paperreview0323
Önerilen neden
Bu makale CVPR 2020 tarafından alındı ve sentezlenen görüntünün global tutarlılığını korurken jeneratöre piksel başına ayrıntılı geri bildirim sağlayan U-Net tabanlı bir ayırıcı mimarisi önerdi. Ayrıştırıcının piksel başına tepkisi ile desteklenen bu makale ayrıca CutMix veri geliştirmeye dayalı bir piksel-piksel tutarlılık düzenleme tekniği önerir ve U-Net ayırıcıyı gerçek görüntü ile sahte görüntü arasındaki anlam ve yapıya daha fazla dikkat etmeye teşvik eder. Değişiklikler sadece U-Net ayırıcının eğitimini iyileştirmekle kalmaz, aynı zamanda üretilen örneklerin kalitesini de iyileştirir. Yeni ayırıcı, standart dağıtım ve görüntü kalitesi göstergeleri açısından mevcut teknolojiyi geliştirerek, jeneratörün küresel ve yerel gerçekçiliği korurken farklı yapı, görünüm ve ayrıntı düzeyine sahip görüntüleri sentezlemesini sağlar. BigGAN temel modeli ile karşılaştırıldığında, önerilen yöntemin FFHQ, CelebA ve COCO-Animals veri kümelerinde ortalama 2,7 FID puanı artışı vardır.
Lei Feng Ağı Lei Feng Ağı Lei Feng Ağı