Gerçek Kayıt | Megvii Araştırma Enstitüsü COCO2017 Nesne Algılama Kazanan Makalesinin Yorumu (PPT ile)

Konuşmacı: Peng Chao | Araştırmacı, Megvii Araştırma Enstitüsü

Qu Xin düzenlemeyi bitiriyor

Qubit · Guo Club Üretildi | Kamu Hesabı AI7gua

6 Aralık akşamı, qubit · chiguashe ortak Face ++ kağıt yorumlama serisinin ilk sayısı başladı. Bu sayıda, Megvii Araştırma Enstitüsü yakın zamanda yayınlanan nesne tespit makalelerini yorumladı: "MegDet: Büyük Mini Toplu Nesne Dedektörü" , Bu makalede önerilen MegDet modeline göre Face ++, COCO 2017 Detection şampiyonunu kazandı.

Bu sayının sunucusu, Megvii Araştırma Enstitüsü'nde araştırmacı olan ve MegDet makalesinin ilk yazarı ve COCO 2017 Tespit yarışmasının ana ekip üyesi Peng Chao'dur.O, esas olarak yarışma sırasında nesne algılama modelinin yazılması, eğitimi ve ayarlanmasından sorumludur. Tuning deneyimi.

Bu sefer herkes coşkuyla cevap verdi ve tüm süreç kuru mallarla doluydu. Kübitin ana içeriği şu şekilde düzenlenmiştir:

Tez yorumunun tam oynatma videosu

Bugün esas olarak hakkında konuşuyoruz Tespit etme ile Örnek Segmentasyonu Yukarıda, COCO Keypoint yarışmasıyla ilgili belgeler, yarışma takımının sahibi Wang Zhicheng tarafından 13 Aralık saat 19: 30'da tam olarak açıklanacaktır.

MegDet

COCO Tespit yarışmasında önceliğimiz çözmek Parti boyutu Sorun; ImageNet Sınıflandırması çalışmalarına dönüp baktığımızda, Batchsize eğitim sürecinde çok büyüktür.Başından beri 128 olmuştur.En son çalışmalardan bazıları 8000 veya 32K düzeyine bile ulaşmış, bu da insanların bir saat hatta bir buçuk saat geçirmesine olanak sağlamaktadır. ImageNet eğitimini saatler içinde tamamlayın.

Ancak COCO Algılama görevinde, kullanılan BatchSize personelinin çok küçük olduğunu gördük. İlki sadece 2, iki kart, bir kart ve bir resme eşdeğer; sonraki bazı versiyonlarda BatchSize sadece 8'dir, bu da eğitim için 8 kart, bir resim ve bir kart anlamına gelir; en son araştırmanın sonuçları 16'ya ulaştığında, bu sonuç sınıflandırma görevinin bir parçası bile değildir.

Şu anda bir sorumuz var: Nesne algılamada Batchsize neden bu kadar küçük? Bu soruyu cevaplamak için, nesne algılama ve görüntü tanıma arasındaki farkı anlamamız gerekiyor. Görüntü tanıma için, algoritmanın yalnızca bir resimdeki ana nesneyi belirlemesi gerekir ve ana nesne genellikle daha büyük bir piksel oranını kaplar, bu nedenle 224x224 boyutundaki küçük bir resim talebi karşılayabilir. Ancak nesne algılamada, insanların genellikle bazı ince ve küçük nesneleri algılaması gerekir ve bu nesneler için piksel oranı çok küçüktür, genellikle% 1'den azdır. Mevcut sinir ağı teknolojisi genellikle özellik haritasının boyutunu kademeli olarak küçültür.Küçük nesnelerin nihai özellik haritasının belirli bir oranını işgal etmesini sağlamak için, algoritma daha büyük bir girdi görüntüsü gerektirir ve genel yaklaşım 800x800'dür.

Giriş görüntüsünün boyutundaki artış nedeniyle, görüntü algılama için gereken video belleği miktarı aynı oranda artacak ve bu da mevcut derin öğrenme çerçevelerini büyük toplu boyutta görüntü algılama modellerini eğitemeyecek hale getiriyor. Küçük parti boyutlu nesne algılama algoritması genellikle aşağıdaki dört sorunu ortaya çıkarır:

  • Kararsız gradyan. Küçük Parti Boyutu nedeniyle, her yinelemenin ürettiği gradyan çok büyük değişecek ve bu da SGD algoritmasının bir bölgede ileri geri salınmasına neden olacak ve yerel bir optimal değere yakınsamak kolay olmayacaktır.

  • BN katman istatistikleri doğru değil. Parti Boyutu küçük olduğundan, BN katmanının istatistiksel gereksinimlerini karşılamak zordur.İnsanlar genellikle eğitim sürecinde BN katmanının parametrelerini sabitler.Bu, BN katmanının ImageNet veri kümesindeki ayarları hala koruduğu anlamına gelir, ancak kalan parametreler COCO verileridir. Setin uydurma sonucu. Bu modeldeki parametre uyuşmazlığı, nihai tespit sonucunu etkileyecektir.

  • Pozitif ve negatif numuneler orantısız. Küçük Parti Boyutu nedeniyle, bir mini partideki resim değişiklikleri çok büyük olabilir ve pozitif örnek çerçevesinin bazı aşamalarda yalnızca tek basamaklı olması muhtemeldir. Toplu Boyut arttığında, bir mini serideki resim sayısındaki artış nedeniyle, pozitif ve negatif örneklerin oranı, küçük Toplu Boyut durumundan daha iyi olacaktır.

  • Uzun eğitim süresi. Bu nedenin anlaşılması çok kolaydır: Toplu Boyut küçük olduğunda, algoritmanın yakınsaması için daha fazla yineleme yapmalıyız; Toplu Boyut arttıkça, algoritmanın her yinelemesinde görülen görüntü sayısı da artar ve ilgili yineleme Sıklık azaltılabilir ve insanlar daha hızlı sonuç alabilir.

  • Yukarıdaki dört analiz noktasına dayanarak, Batch-Size sorunu hakkında sezgisel bir anlayışa sahip olmalıyız. Yarışmada, bu sorunu çözmek için, özel olarak bir dizi çoklu makine eğitim sistemi geliştirdik. Büyük Toplu Boyutta nesne algılama algoritması: MegDet. İyi dahili destek sayesinde, MegDet algoritmamız hesaplamayı neredeyse hiçbir ek yük olmadan tamamlayabilir, bu da neredeyse doğrusal bir hızlanma oranı ve daha iyi algılama sonuçları sağlar. Aşağıda, MegDet'in uygulanmasında dört kilit noktadan bahsedeceğim.

    MegDet'i uygulamak için, Önce birçok temel desteğe ihtiyacınız var , Kabaca üç kategoriye ayrılabilir: İlki, dahili olarak Brain ++ platformu olarak adlandırılan ve donanım kaynaklarının kullanımının genel olarak planlanmasından sorumlu olan bir dizi GPU bilgi işlem bulut platformudur; ikincisi, Brain ++ platformunu temel alan MegBrain yazılım çerçevesidir. Derin öğrenme için birçok gerekli araç kutusu. Üçüncüsü, önceki ikisine dayanan bir nesne algılama algoritmasıdır Burada, FPN çerçevesine dayalı bir dizi algılama algoritması tasarlıyoruz.

    Burada, FPN algılama çerçevesine kısa bir göz atalım. Geleneksel Faster-RCNN çerçevesinden farklı olarak, FPN, bölme ve yönetme etkisini elde etmek için farklı boyutlardaki özellik haritalarından ROI'yi çıkarır; yani, küçük özellik haritalarında büyük nesneler algılanır ve büyük özellik haritalarında küçük nesneler algılanır. Bu tasarım, yalnızca mevcut evrişimli sinir ağının koni yapısını tam olarak kullanmakla kalmaz, aynı zamanda COCO veri setinde ortak olan küçük nesneler sorununu da etkili bir şekilde çözebilir.

    Hatalı BN istatistikleri sorununu çözün. Basitçe söylemek gerekirse, mevcut BN istatistiksel yöntemleri tek bir karttaki istatistiklerle sınırlıdır ve birden fazla kart üzerinde ortak istatistikler gerçekleştiremez. Nesne algılama özelliklerinden dolayı, tek bir karttaki resim sayısı BN istatistiklerinin gerekliliklerini karşılayamadığından sonuçlar ancak çok kartlı ortak istatistik eğitimi ile elde edilebilir. Bu amaçla, Multi-Card BN'yi uygulamak için NCCL (NVIDIA Collective Communications Library) kod kitaplığını kullandık. Spesifik algoritma akışı yukarıdaki şekle başvurabilir İlk olarak, BN'nin parametreleri bağımsız olarak tek bir kartla sayılır ve ardından parametreler birleştirme için tek bir karta gönderilir ve son olarak BN'nin sonuçları bir sonraki eğitim için diğer kartlarla senkronize edilir.

    Alt Doğrusal Bellek teknolojisi. Bu teknolojinin amacı, derin evrişimli sinir ağlarının bellek tüketimini azaltmak ve oyunda mümkün olduğunca büyük modelleri kullanabilmemizi sağlamaktır. Yukarıdaki resimden bu teknolojinin rolünü basitçe anlayabiliriz. Mevcut eğitim yönteminde, Dönüşüm2'deki parametrelerin (W2, b2) gradyanını hesaplamak için, insanların genellikle Dönüşüm2'nin çıktı sonucunu kaydetmesi gerekir; ancak aslında, Dönüşüm2'nin çıktı sonucu, Dönüşüm1'in sonucuna göre dinamik olarak hesaplanabilir, böylece Dönüşüm2'nin çıktısı Sonuç olarak, kaydetmeye gerek yoktur ve bellek tüketimi daha da azaltılabilir; özellikle 152 katmanlı modeller gibi bazı çok derin sinir ağları için Alt Doğrusal Bellek, bellek kullanımını önemli ölçüde azaltabilir ve daha fazla teknik denememize yardımcı olabilir.

    Büyük Toplu Boyut altında bazı öğrenme hızı ayarlama tekniklerini tanıtın. 16 partinin FPN standart öğrenme oranı 0,02 iken MegDet'imizin Parti Boyutu 256'dır. Bu durumda öğrenme oranını doğrudan 0,32 = 0,02 x 16 olarak belirlersek, modelin erken aşamada hızla sapmasına ve eğitimi tamamlamamasına neden olacaktır. Bu nedenle, modelin kademeli olarak daha büyük bir öğrenme oranına uyum sağlamasına izin vermek için "aşamalı ısınma" sürecine ihtiyacımız var. Eğitim belirli bir aşamaya geldiğinde, üç iniş aşaması belirleriz: İlk iki aşamada, öğrenme oranını doğrudan 10'a böleriz ve sonunda öğrenme oranını yarıya indiririz. Bu öğrenme oranının tasarımı, esas olarak oyunda en yüksek performansı elde etmektir ve aynı zamanda bizim deneyimimizdir.

    Şimdiye kadar, farklı yıllarda nesne algılamanın parti boyutu ölçeğini karşılaştırabiliriz. Başlangıçta, 2015 yılında insanlar nesne algılama algoritmalarını eğitmek için 2 grup kullandı; bir yıl sonra bu sayı 8 katına veya 16 partiye çıktı; bu yıl Megvii Araştırma Enstitümüzün yönlendirmesiyle 256- Toplu iş, orijinal Hızlı RCNN'nin 128 katı ve FPN'nin 16 katıdır. Bu sayı aynı zamanda ImageNet'in ortak Toplu Boyutudur.

    MegDet'in yardımıyla 2017 COCO Algılama Mücadelesini kazandık ve ayrıca daha önce bahsedilen küçük toplu eğitim sorununu kısmen çözdük.

    Her şeyden önce, istatistiklerimize göre, eğitim sürecinde pozitif ve negatif örneklerin oranı küçük Parti Boyutundan daha iyidir, bu da gradyan hesaplamasının veri dağılımına daha iyi uyabileceği anlamına gelir. Aşağıdaki şekil, iki pozitif numunenin oranındaki büyük bir farkın sonucunu göstermektedir: Büyük Parti Boyutu, bu iki aşırı durumun gradyanını aynı anda hesaplayabildiğinden, model parametresi güncellemesi daha kararlıdır.

    İkinci olarak, çok makineli BN'nin gerçekleştirilmesiyle, büyük Parti Boyutu altında nesne algılama algoritmasının performans iyileştirmesini gerçekleştirdik. Mevcut ImageNet Sınıflandırma görevlerinde, büyük Parti Boyutunu incelemenin amacı düşme noktalarını önlemektir; ancak, nesne algılama görevinde, büyük Parti Boyutunun performansı doğrudan iyileştirebileceğini bulduğumuzda şaşırıyoruz. Mevcut deneyim eşleşmiyor. Öte yandan, yukarıdaki şekildeki Epoch-by-Epoch doğruluk eğrisi aracılığıyla, aynı Epoch altındaki 256-parti ve 16-partinin doğruluğunun çakışmadığını ve hatta ImageNet Sınıflandırmasının mevcut araştırmalarıyla uyumlu olan daha büyük bir boşluk olduğunu da bulduk. Sonuç tam tersidir. Potansiyel bir faktör, nesne tespitinin çoklu kayıp hesaplamasının ara sonuçların tespit doğruluğunu bozmasıdır, ancak bu fenomenin ayrıntılı bir çalışması, bu makalenin kapsamı dışında kalan daha fazla deney gerektirir.

    Üçüncü nokta, MegDet algoritmamızın asıl amacı, eğitim hızını artırmaktır. Şekilde gösterildiği gibi, ResNet-50 ağına bağlı olarak, 16 grup ayarında bir modeli eğitmek 33 saat sürer; Toplu Boyut'u 64'e yükselttiğimizde, eğitimi tamamlamak için 11 saat yeterlidir; son olarak, 256'da -Batch ayarı altında, eğitimi sorunsuz bir şekilde tamamlamak sadece 4 saat sürer. Bu, aynı bilgi işlem gücüyle paralel olarak model parametrelerini önce genişlikten ziyade derinlemesine aramamıza olanak tanıyarak deneme yanılma süresini büyük ölçüde azaltır.

    COCO'nun oyun süreci

    Bazı nesne algılama yarışmalarının sonuçlarını özetleyin.

    Kağıdın aksine, daha iyi bir temel ağ kullandık, bu da başlangıçtan itibaren taban çizgimizin 43.0 mmAP'ye ulaşmasını sağladı. Daha sonra MegDet'te belirtilen tüm teknikleri kullandık ve modelin sonucu 45.0 mmAP oldu. Hemen ardından aşağıda belirtilen Anlamsal Anlamlandırma ve Bağlam Modülünün denetim kaybını ekledik ve tespit sonucu 47.0 mmAP'ye yükseldi. Şu anda 50,5 mmAP'ye ulaşan Çok Ölçekli eğitim ve test tekniklerini ekledik. Bu sonuç, en iyi tek model sonucumuzdur. Son olarak, farklı temel ağ eğitimine dayalı dört modeli bir araya getiriyoruz. Diğer üç modelin sonuçları 50.5'ten daha kötü olsa da, birden çok modelin füzyonu farklı modeller arasındaki eksiklikleri etkili bir şekilde tamamlayabilir. Son olarak, nokta numaramız 52,8 mmAP'dir. .

    Bu 47.0 mmAP modelini kullandığımız testin sonucudur. Final yarışmasında sunduğumuz 52.8 modelinden daha zayıf olsa da, bu orta derecede zor sahnede kalabalık nesneleri ve küçük nesneleri uzaktan etkili bir şekilde tespit edebildi. Bu aynı zamanda, hesaplama miktarını dikkate almadan, mevcut algoritmaların ortak nesneleri iyi bir şekilde tespit edebildiği ve pratik gereksinimleri karşıladığı anlamına gelir.

    Örnek Segmentasyonu

    Örnek Segmentasyon deneyimini tanıtın.

    Örnek Segmentasyonunun mevcut uygulama süreci kabaca aşağıdaki gibidir: Öncelikle, seçilecek bir kutu vermek için önceki MegDet'imiz gibi bir Algılama modeli kullanın; özellik haritasındaki bir alanı çıkarmak için bu kutuyu kullanın ve biraz Bağlam işleme yapın; son olarak, sonunu hesaplamak için dikkatlice tasarlanmış bir Maske kullanın. kayıp. Instance Segmentation'ın en önemli kısmı, aynı zamanda bu yarışmada keşfetmeye odaklandığımız kısım olan, şekilde gösterildiği gibi üç modüldür.

    İlk bölüm Havuzlama , Hangi özellik haritalarını çıkarma işlemidir. En ilkel RoIPooling daha şiddetlidir. Soldaki resimde gösterildiği gibi, ortadaki küçük kırmızı kesikli kutu MegDet tarafından verilen ROI'dir.Kayan nokta sayılarının etkisinden dolayı, bu kutu yeşil özellik haritası ızgara noktalarına tamamen hizalanamaz. Mevcut hesaplama mantığı, kırmızı kesikli kutuyu dıştaki kırmızı kesikli kutuya uzatmak ve ardından kutudaki bazı özellik ızgara noktalarını hesaplamaktır. Son zamanlarda, Maske-RCNN'nin önerisi, bu "sert" süreci bir enterpolasyon sürecine, yani ızgara noktası yakınındaki dört noktanın ortalama sonucunu hesaplayarak yumuşattı. Önerdiğimiz Hassas Yatırım Getirisi Havuzlaması, bu süreci daha da iyileştirdi, yani, enterpolasyon sürecini bir entegrasyon süreciyle değiştirerek, ROI'ye karşılık gelen özellik haritasını daha iyi çıkarabiliriz.

    İkinci bölüm bağlam çıkarma bölümüdür Bu tekniği COCO yarışmasında tespit sonuçlarını iyileştirmek için de kullandık. Şekilde gösterildiği gibi, x'inci katmanda 14x14 ROI'yi çıkardık ve aynı boyuttaki ROI'yi daha küçük özellik haritası x + 1'de de çıkardık ve ikisinin toplamını başlangıç ROI olarak kullandık . Daha büyük özellik haritası x-1'de, bölümlemeye yardımcı olmak için ek bir bağlam olarak 28x28'lik daha büyük bir alanı çıkardık. Her özellik haritasına sağ üst köşede gösterilen büyük çekirdek modülünü eklediğimizi belirtmekte fayda var.Bu modülün Semantik Segmentasyonda çok iyi sonuçları olduğu kanıtlanmış ve Instance Segmentation'da da etkilidir.

    Üçüncü ve son bölümde ise maske neslini özenle tasarladık. İkinci bölümdeki Bağlamı çıkardıktan ve entegre ettikten sonra, gerçek ROI'ye karşılık gelen GroundTruth, şekilde kırmızı üçgenle gösterildiği gibi belirli bir koordinat ofsetinden geçmiştir. Bu ofset altında, kaybı (yani, mavi ızgara noktası) hesaplamak için yeşil ızgara noktasına karşılık gelen GroundTruth'u doğrudan kullanamayız. Bu noktada yaklaşımımız, Örnek Segmentasyon Kaybını doğru bir şekilde hesaplamak için ROI Özelliğini mavi ızgara noktasına yeniden enterpolasyon yapmaktır.

    Yukarıdaki üç tekniği ve ayrıca COCO Algılamada kullanılan bazı teknikleri uygulayarak, COCO Bulut Sunucusu Segmentasyonunda ikinci, PLACES Bulut Sunucusu Segmnetasyonunda birinciliği elde ettik.

    Şekildeki histogram, aynı temelde farklı modüllerin eklenmesinden kaynaklanan model doğruluğundaki artışı göstermektedir. Large Batch, MultiScale, Context ve Ensemble gibi tekniklerin yaygın olduğu, diğer iki yöntemin ise Instance Segmnetation'a özel olduğu görülebilir. COCO Örneği Segmentasyonumuz ile birincilik arasındaki farkın sadece 0,3 olduğunu belirtmekte fayda var. Zaman ve kaynak kısıtlamaları nedeniyle sadece iki topluluk modeli yaptık. Dört modeli bir araya getirebilirsek, daha iyi sonuçlar elde edeceğimizi umuyoruz.

    Bu resim, yarışmamızdaki tek bir modelin sonuçlarını göstermektedir. Temelde pratik ihtiyaçları karşılayan, segmentasyondaki daha zor ince çubuk benzeri nesneler için daha iyi bir iş yapabildiğimiz görülebilir. Ancak Tespit göreviyle karşılaştırıldığında, Bulut Sunucusu Segmentasyonu geliştirme için daha fazla alana sahiptir.

    Son olarak, bu yarışmanın getirdiği deneyimi özetliyoruz.

    İlk olarak, dünyanın ilk büyük toplu detektörünü gerçekleştirdik: MegDet. Bir dizi görevde, MegDet'in etkili bir eğitim tekniği olduğunu gördük. İkincisi, segmentasyon görevlerini gerçekleştirirken, ister ROI Özelliğini düşürmek ister kaybı hesaplamak olsun, piksel hizalama işlemi büyük bir zorluktur. Son olarak, eğitim hızı çok önemlidir, bu yüzden MegDet yöntemini herkese açık hale getirdik. MegDet uygulandığında, nesne algılamanın ve ilgili alanların gelişimi çok hızlı hale gelecek ve daha iyi algoritmalar önerilip doğrulanabilecektir.

    Sert ve geniş çaplı askere alan biri:

    CV'nin zirvesine ulaşmak için Megvii Teknolojisine katılmak isteyen öğrenciler, algoritma stajyerlerinin uzun süreli işe alımı için özgeçmişlerini yugang@megvii.com adresine gönderebilirler. Mükemmel stajyerlik yapanlar mülakat aşamasını geçip Megvii Enstitüsüne katılma şansına sahipler.

    QA

    Yanlış tespitlerle başa çıkmanın iyi bir yolu var mı?

    İki tür fiziksel inceleme problemiyle uğraşıyorsanız, yanlış algılama kutusunu kaldırmak için arka uca daha küçük bir sınıflandırıcı bağlayabilirsiniz. Ancak deneyimlerimize göre, çok sınıflı bir nesne algılama algoritması, özellikle de COCO rekabeti gibi bir nesne dedektörü oluşturuyorsanız, daha iyi bir küçük sınıflandırıcıya sahip olmak sizin için zordur. En iyi yol modelin doğasını iyileştirmektir.Örneğin, Rol havuzlaması ortaya çıktıktan sonra, modelin yanlış algılama sorununu dinamik olarak ele almasına izin vermek için daha fazla hesaplama ve eğitim becerisi ekleyeceğiz. Kurtulmak.

    Büyük bir parti boyutu ve çok sayıda GPU ile, zaman kısaltılmalıdır.Bu, algoritmanın faydasını nasıl gösterebilir?

    Aslında bunun algoritmanın faydası olduğunu söylemedik, sadece deneyi azaltmakla kalmayıp aynı zamanda performansı da artıran büyük parti boyutundan bahsediyoruz. Bu, algoritmanın kendisinin getirdiği bir avantajdır ve bu algoritmaya eşdeğerdir.Belki daha iyi çalışması için daha büyük bir Parti boyutuna ihtiyacı vardır.

    Küçük nesneler için iyi bir çözüm nedir?

    Pratikte, küçük nesneler için pek çok iyi çözüm yoktur ve küçük sorunlara çok fazla çözüm bulunmamasının nedenleri şunlardır: 1) Küçük nesnelerin resimleri zaten bulanıktır ve insanların onları ayırt etmesi zordur. İkincisi, küçük nesnelerin, özellikle havuzlama yaparken genellikle bir piksel kayması olmasıdır. Büyük nesneler, temelde hiçbir etkisi olmayan iki piksel sapma gösterir, ancak iki piksel sapma gösteren küçük nesneler çerçeveden çoktan çıkmış olabilir. Mevcut çözüm mantığı, FPN gibi küçük nesneleri tespit etmek için nispeten sığ bir özellik haritası kullanmaktır. Diğer bir yöntem, mümkün olduğunca çok sayıda küçük nesne yapmak için resmin boyutunu zorla artırmaktır. Yarışmada, her iki yöntemimiz de faydalıdır ve ikisi de yükselişi doğrular.

    Yüz tanımada hangi strateji anlamlı bir araştırma rotasıdır?

    Kişisel olarak, kısıtlayıcı koşullar altında noktayı artırabilecek strateji anlamlı bir araştırma rotası olduğu sürece, kısıtlayıcı koşullar altında artırılabilecek noktaya nasıl ulaşılacağının, özellikle bu modelin bir modelini yapmanıza bağlı olduğunu düşünüyorum. talep. Çünkü bir oyun oynuyorsanız tabii ki artış noktası nedir ve neyin yararlı olduğu; ancak bir cep telefonu modeli yaparken bazı pahalı yöntemler uygulanamayabilir. Özel olarak nasıl çalışılacağı ve nasıl karar alınacağı da iş senaryolarıyla birleştirilmelidir.

    SGD dışında başka yöntemler denediniz mi?

    Başka yöntemler denedik, ancak hepsinin SGD'ye benzediğini gördük. Çok makineli eğitim senaryolarında, SGD'nin uygulanması daha uygun olacaktır.

    Kaynaklar

    PPT'nin tam sürümünü ve video oynatma bağlantısını almak için QbitAI hesap arayüzünde (QbitAI) "171212" ye yanıt verin.

    - Bitiş -

    Samimi işe alım

    Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! İlgili ayrıntılar için lütfen QbitAI diyalog arayüzünde "işe alım" kelimesini yanıtlayın.

    Qubit QbitAI · Toutiao İmzalama Yazarı

    ' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin

    Geely ve Daimler, üst düzey özel araba seyahat hizmetlerinin bir araba kadar güçlü olup olamayacağına işaret etmek için bir ittifak kuruyor
    önceki
    DOTA2: Yeni sezon için yeni kadro, Newbee resmi olarak ilk takımın üyelerinin listesini açıkladı, taraftarlar: kolay değil
    Sonraki
    Qin Sheng, Dorado'yu ziyaret etmek için hastaneye gitti, ancak hala isteksiz hayranlar var mı? Süper Lig'deki "kötü adam" iyi karşılandı
    Sürpriz! Arrizo EX'in aslında bir kız kardeşi ile bir günlüğü var
    Eski Manchester United kaptanı, uzun yıllar Luye'nin yardımcı koçu olmaya isteklidir.
    RNG, 1'in 3'ü LPL yaz finallerinde kovalamasına izin verdi, S8'i kilitleyin! Yorum bile iç geçirdi: UZI delidir!
    Hamsik nasıl bir performans sergiledi? Top savunmasını konumlandırmak büyük bir sorun haline geliyor! Cui Kangxi çok düşünceli
    Hidrojen yakıtlı yeni enerji balıkları için uzun vadeli balıkçılık, Çin Seddi gerçekten üstün
    Büyük Kahveden Mektuplar | Kai-Fu Lee: Kuzey Amerika AI Haritası Mevcut Durum
    Haberin doğru ya da yanlış olmasına bakılmaksızın, Ford'un varlıklarını artırma arzusu pek iyi gitmeyecektir.
    Tarihin en iyi oyuncusu! PlayerUnknown's Battlegrounds oynamak 5 milyar won kazandı ve Blue Hole ona baskısı olmayan ürünler verdi!
    Güç OR şanslı yapar mı? Bir vücut 1 puan alır, Carrasco kurtarıcı olur, 1 kişi en düşük puana sahiptir
    Karışık pirinç ustası! Adebayor yarım yıldır işsiz, Afrika Kupası'nda uyurgezerlik hala Türkiye'de iş buluyor
    Savaşan ulusu fethedin, bu yerli SUV Avrupa'ya ilerleyecek
    To Top