SIFT özelliklerini ve sinir ağı havuzunu birleştiren nesne sınıflandırma yöntemi

Bai Yanyu 1, Shen Chaoqun 2, Yang Xinfeng 3

(1. Bilgi Teknolojisi Bölümü, Bilgi ve İşletme Okulu, Zhongyuan Teknoloji Enstitüsü, Zhengzhou 451191, Henan;

2. Henan Mekatronik Meslek Koleji, Zhengzhou 451191, Henan; 3. Bilgisayar ve Bilgi Mühendisliği Okulu, Nanyang Teknoloji Enstitüsü, Nanyang, Henan 473004)

Nesne sınıflandırmasının performansını iyileştirmek için, bir sinir ağı havuzu özellik sınıflandırma yöntemi önerilmiş ve güvenilir nesne sınıflandırması elde etmek için SIFT özellikleriyle birleştirilmiştir. Bu yöntem önce numunenin SIFT özellik vektörünü çıkarır ve özellik vektör kümesinden rastgele bir örnek alt kümesi seçer; daha sonra her örnek alt kümesi için bir ilkel sınıflandırıcı oluşturmak için bir radyal temel işlevli sinir ağı kullanır; daha sonra tekrarlanan yinelemelerle birçok ilkel elde eder Sınıflandırıcı seti, bir sinir ağı havuzu oluşturmak için geliştirme teknolojisi ile birleştirilir; son olarak, saf Bayes modeli, özelliklerin nihai sınıflandırma sonuçlarını tahmin etmek için sinir ağı havuzundaki her bir temel sınıflandırıcı kümesinin sınıflandırma sonuçlarını birleştirmek için kullanılır. Deneysel sonuçlar, yeni yöntemin yüksek hesaplama verimliliğine sahip olduğunu ve VOC-2007 veri setinin sınıflandırma doğruluk oranının yüksek olduğunu göstermektedir.

Çin Kütüphanesi Sınıflandırma Numarası: TP391

Belge tanımlama kodu: Bir

DOI: 10.16157 / j.issn.0258-7998.2017.07.033

Çince alıntı biçimi: Bai Yanyu, Shen Chaoqun, Yang Xinfeng. SIFT özelliklerini ve sinir ağı havuzunu birleştiren nesne sınıflandırma yöntemi.Elektronik Teknoloji Uygulaması, 2017, 43 (7): 130-134, 139.

İngilizce alıntı biçimi: Bai Yanyu, Shen Chaoqun, Yang Xinfeng.SIFT özellikleri ve sinir ağı havuzuyla birleştiren bir nesne sınıflandırma yöntemi.Elektronik Tekniğin Uygulanması, 2017, 43 (7): 130-134, 139.

0 Önsöz

Görüntü tabanlı nesne sınıflandırması, bilgisayar görüşü alanında temel bir araştırma konusudur ve yapay zeka, otomatikleştirilmiş üretim ve diğer alanlarda yaygın olarak kullanılmaktadır. Nesne sınıflandırmanın anahtarı, görüntü özelliklerini çıkarmak ve bir sınıflandırıcı tasarlamaktır. Bu iki açıdan pek çok başarı vardır: Örneğin, özellik çıkarımında mevcut uygulamalar Haar özellikleri, Yönlendirilmiş Gradyanların Histogramları (HOG) özellikleri ve Yerel İkili Model (LBP). Unsurlar, Ölçekle Değişmeyen Unsur Dönüşümü (SIFT) özellikleri, vb. Sınıflandırıcı tasarımı açısından, şu anda yaygın olarak kullanılan Adaboost sınıflandırıcılar, Destek Vektör Makinesi (SVM) sınıflandırıcılar, karar ağaçları, rastgele ormanlar, sinir ağları vb. Farklı görüntü içeriği için, özellikleri ifade etme yeteneği aynı değildir. Literatür, nesneleri bulanık kümeler oluşturarak sınıflandıran Kolmogorov-Sinai entropisine dayalı bir sınıflandırma yöntemi önermektedir. Literatür, özelliği tanımlamak için görüntü yerel alanının gradyan özelliğini kullanır ve nesnenin sınıflandırma etkisini etkili bir şekilde iyileştirebilen görüntü tanımlayıcısını oluşturmak için seyrek dağılımı kullanır. Literatür, nesnelerin etkili bir şekilde sınıflandırılmasını sağlamak için yaklaşık Fisher çekirdek özelliklerini ve kelime çantası modelini birleştirir.

Nesne sınıflandırmasının performansını daha da iyileştirmek için, bu makale SIFT özelliklerini ve sinir ağı havuzunu birleştiren bir nesne sınıflandırma yöntemi önermektedir.Ana yenilik, bir sinir ağı havuzu özellik sınıflandırma yöntemi önermektir. Bu yöntem, ilkel bir sınıflandırıcı oluşturmak için radyal temelli bir sinir ağı kullanır, tekrarlanan yinelemeler yoluyla bir dizi ilkel sınıflandırıcı oluşturur, bir sinir ağı havuzu oluşturmak için geliştirme tekniklerini birleştirir ve özellik sınıflandırma sonuçlarını tahmin etmek için saf bir Bayes sınıflandırıcı kullanarak nesne sınıflandırmasını etkili bir şekilde iyileştirir. verim.

1 Bu yazının yöntemi

Bu makale, SIFT özelliklerini ve sinir ağı havuzunu birleştiren bir nesne sınıflandırma yöntemi önermektedir. Farklı nesnelerin görüntü koleksiyonları için, önce görüntünün SIFT özelliklerini çıkarın ve ardından nesne sınıflandırması elde etmek için bir sinir ağı havuzu sınıflandırıcısı oluşturun. Bunların arasında, SIFT özelliği şu anda çok olgun bir öznitelik çıkarma yöntemidir.Bu makale, nesne sınıflandırması alanındaki SIFT yönteminin avantajlarını doğrulamak için deneysel kısımdaki farklı öznitelik çıkarma yöntemlerini karşılaştıracaktır. Temel çerçeve Şekil 1'de gösterilmektedir.

Sinir ağı havuzunun yapım sürecinin esas olarak üç aşamaya ayrıldığı Şekil 1'den görülebilmektedir: (1) Temel sınıflandırıcının yapımı Bu makalede, temel sınıflandırıcıyı oluşturmak için Radyal Temel Fonksiyonu (RBF) sinir ağı kullanılmıştır; 2) Sinir ağı havuzunun inşası, bu makale sinir ağı havuzunu oluşturmak için tekrarlanan yineleme ve geliştirme teknolojisini kullanır; (3) Son sınıflandırıcının yapımı, bu makale son sınıflandırıcı olarak saf Bayes sınıflandırıcısını kullanır ve sinir ağı havuzundaki her bir tabanı karşılaştırır. Meta sınıflandırıcı setinin tahmin sonuçları, nihai tahmin sonucunu elde etmek için birleştirilir.

1.1 İlkel sınıflandırıcı

Şu anda, Adaboost, SVM, karar ağacı, sinir ağı vb. Gibi birçok ilkel sınıflandırıcı türü vardır. Bu yazıda, ilkel bir sınıflandırıcı oluşturmak için radyal temel işlevli bir sinir ağı kullanılmıştır. RBF sinir ağı, bir giriş katmanı, bir gizli katman ve bir çıktı katmanından oluşan üç katmanlı bir ileri ağdır. Özellik sınıflandırması için, girdi katmanı özellik vektörü ve çıktı katmanı da sınıflandırma sonucudur. Ortadaki gizli katmanın dönüştürme işlevi, radyal temel işlevini benimser. Bu işlev, negatif olmayan doğrusal olmayan bir işlevdir, radyal olarak simetriktir ve merkez noktasına kadar zayıflatılmıştır. Ağırlık vektörü, girdi katmanı ile gizli katman arasında kullanılır; bu, doğrusal olmayan bir eşlemeye eşdeğerdir. Benzer şekilde, gizli katman ve çıktı katmanı da farklı ağırlıklarla bağlantılı doğrusal olmayan bir eşlemedir. Radyal temel işlevli sinir ağında, aktivasyon işlevi radyal temel işlevi benimser ve giriş vektörü ile ağırlık vektörü arasındaki mesafe, nöronun duyarlılığını ayarlamak için bağımsız değişken olarak kullanılır. Ağırlık ve giriş vektörü arasındaki mesafe azaldıkça ağ çıktısı artar.

1.2 Sinir Ağı Havuzu

Bu makalede, çok sayıda ilkel sınıflandırıcı, ilkel bir sınıflandırıcı kümesinde yapılandırılmıştır ve sinir ağı havuzu, her kategorinin ilkel sınıflandırıcı kümelerinden oluşturulmuştur. Spesifik yöntem şudur: ilkel sınıflandırıcının yapım aşamasında, K ikili sinir ağlarını {BNNi | i = 1, 2, ..., K} veri kümesine D uygulayarak K ilkel sınıflandırıcıları elde etmek için {Ci | i = 1, 2,, K}. Bu işlemi T kez tekrarlayarak, her ci kategorisi için {ECi | i = 1, 2, ..., T} olarak gösterilen bir dizi T ilkel sınıflandırıcı üretilebilir.

Sinir ağı havuzundaki her bir temel sınıflandırıcı kümesini oluştururken, bu makale bire çok sınıflandırma stratejisi benimser. İkili stratejide, bilinmeyen x örneğinin sınıflandırıcı tarafından öngörülmesi ikilidir, yani x örneğinin yalnızca iki tahmin sonucu vardır, yani belirli bir kategoriye aittir veya belirli bir kategoriye ait değildir. Bilinmeyen örnek x için, temel sınıflandırıcı C'deki K tahmin sonuçları, bir dizi temel sınıflandırıcı oluşturmak için birleştirilebilir. Bilinmeyen örnek x için her bir temel sınıflandırıcı kümesinin tahmin sonucu, kategori ortaya çıkma olasılığı olarak ifade edilebilir:

Bunlar arasında, S (x), ilkel sınıflandırıcı kümesinin tahmin sonucunu temsil eder ve değeri, ayarlanmış olasılık eşiği 1 tarafından belirlenen, 0 veya 1'dir. Bu nedenle, ikili strateji, her bağımsız ilkel sınıflandırıcı kümesinin belirli bir kategorinin görünümünü kabul etmesine veya reddetmesine izin verir. Bu strateji, karmaşık çok değişkenli bir sınıflandırma problemini çoklu basit ikili sınıflandırma alt problemlerine dönüştürür. P (x), şu şekilde ifade edilen {Ci | i = 1, 2, ..., K} ilkel sınıflandırıcı tarafından tahmin edilen ci kategorisinin olasılığını temsil eder:

Bunlar arasında hi, x'in ci kategorisine ait olduğuna ve değerin 0 veya 1 olduğuna karar veren i'ninci temel sınıflandırıcının sınıflandırma sonucunu temsil eder. 0, x'in ci kategorisine ait olmadığını ve 1, x'in ci kategorisine ait olduğunu gösterir.

Bilinmeyen bir x örneğini sınıflandırmak için, bir dizi N temel sınıflandırıcı, örnek x için N tahmin sonuçları verir. Bu makale, bu N tahmin sonuçlarını sentezlemek için nihai tahminci olarak Naive Bayes modelini kullanır. İçeriğin bu kısmı bir sonraki bölümde tanıtılmış ve ilk olarak sinir ağı havuzunun eğitim süreci tanıtılmıştır.

Bir sınıflandırıcı olarak, temel sınıflandırıcılar kümesi, belirli bir kategorinin var olup olmadığını tahmin etmek için kullanılan olasılığı hesaplamak için radyal temel işlevli sinir ağının çıktısına dayanır. Belirli bir kategorinin var olup olmadığı olasılığı, her bir temel sınıflandırıcı seti sınıflandırıcısının eğitim aşamasında da hesaplanır ve daha sonra, saf Bayes sınıflandırıcısının önceki olasılığını hesaplamak için kullanılır. Önceki olasılık dağılımı, bilinmeyen örneğin öznitelik vektörüne karşılık gelen kategorinin gerçekleşme olasılığını tahmin etmek için kullanılır. Bu nedenle, numunenin özellik vektörü, sinir ağı havuzundaki çok sayıda temel sınıflandırıcı kümesine girildikten sonra, örnek sınıflandırmanın temeli olarak nihayet bir olasılık değeri elde edilir. Bu makale, sinir ağı havuzunu eğitmek için geliştirme tekniklerini kullanır ve son olarak, son öngörücüyü oluşturmak için saf Bayes sınıflandırıcısını kullanır.

Bu makale, tekrarlanan eğitim için ikili sinir ağı için rastgele eğitim örnekleri seçerek aşırı uyum sorununu çözmektedir. İlkel sınıflandırıcıları eğitirken, kelime torbası fikri, genel eğitim verilerinden belirli sayıda alt örneklem kümesini rastgele seçmek için kullanılır ve her örnek alt kümesi, ilkel bir sınıflandırıcıyı eğitmek için kullanılır.

İlkel sınıflandırıcılar, çok sayıda ikili sinir ağı öğrenilerek elde edilir. Bu nedenle, her bir temel sınıflandırıcı seti için optimum sayıda ikili sinir ağını belirlemek zordur. Bu makale, en iyi sınıflandırma performansını elde etmek için birçok yedek ikili sinir ağını eğitmektedir. Birçok ilkel sınıflandırıcıdan oluşan bir koleksiyon elde edildikten sonra, bir sinir ağı havuzu oluşturulur.

Bu yazıda, geliştirme teknolojisi, sinir ağı havuzunun eğitim sürecine tanıtıldı ve çoklu ilkel sınıflandırıcı setleri, geliştirme teknolojisi ile birleştirildi. Bu ilkel sınıflandırıcı kümeleri, birden çok yineleme yoluyla oluşturulur ve her yeni ilkel sınıflandırıcı kümesi, önceki ilkel sınıflandırıcı kümesinin tahmin hatasından etkilenir. İyileştirme teknolojisi, önceki seviyede yanlış sınıflandırılan örnekleri olabildiğince doğru bir şekilde sınıflandırmak için yeni bir ilkel sınıflandırıcı grubunu teşvik eder Yöntem, ağırlıkları sınıflandırma performansına göre ayarlamaktır. Başlangıçta, tüm eğitim örneklerine (örnek sayısı N'dir) aynı ağırlık atanır ve şu şekilde ifade edilir:

Ardından, bir dizi ilkel sınıflandırıcı oluşturmak üzere ikili bir sinir ağını eğitmek için eğitim örneklerinin bir alt kümesi rastgele seçilir. Ve her numunenin ağırlığını değiştirmek için ilkel sınıflandırıcı setinin performansına göre, doğru sınıflandırılmış numunenin ağırlığı azaltılır ve yanlış sınıflandırılan numunenin ağırlığı arttırılır.

Bu makale eğitim verilerini iki gruba ayırır: düşük ağırlıklı yeniden düzenleme ve yüksek ağırlıklı yeniden düzenleme. Daha sonra, ilkel sınıflandırıcı setinin performansına göre eğitim numunelerinin ağırlığı artırılır veya azaltılır. Sonuç, bazı numunelerin yüksek ağırlıklara sahip olması ve bazı numunelerin çok düşük ağırlıklara sahip olmasıdır. Ağırlık değeri, eğitim numunelerinin yanlış sınıflandırılma sıklığını yansıtır. Bu makaledeki yöntem, ağırlıkların değişim oranını koruyarak bir dizi ilkel sınıflandırıcı oluşturmak için etkili bir strateji oluşturur. Bunlar arasında, ağırlık değişim oranı esas olarak mevcut ilkel sınıflandırıcı setinin sınıflandırma hata oranına bağlıdır. Gerçekleştirme süreci:

İlk olarak, Se eğitim örneklerinin bir alt kümesi, ikili sinir ağını eğitmek ve bir dizi ilkel sınıflandırıcı oluşturmak için tüm eğitim veri kümesinden rastgele seçilir. Her bir temel sınıflandırıcı kümesinin çıktısı, denklem (1) 'de gösterildiği gibi, kategori ortaya çıkma olasılığı ile ifade edilebilen girdi özellik vektörü ile çıktı kategorisi arasındaki ilişkiyi ölçmek için kullanılır. Bunlar arasında, her bir temel sınıflandırıcı kümesinin ağırlığının hesaplama yöntemi şöyledir:

Bunlar arasında t, ilkel sınıflandırıcı kümesinin sınıflandırma hata oranını temsil etmektedir. Özellik sınıflandırması için, eğitim numuneleri üzerindeki sınıflandırma doğruluğunun beklenen değeri sıfırdan büyük olmalıdır. Değer sıfırdan büyük değilse, karşılık gelen ilkel sınıflandırıcı seti atılır. Her bir ilkel sınıflandırıcı kümesinin hata oranı şu şekilde ifade edilebilir:

Eğitim örneklerinin ağırlıkları güncellendikten sonra, ağırlıklar N olarak normalize edilir. Her görüntü türü için ağırlık güncelleme işlemi, bir sinir ağı havuzu oluşturmak üzere bir dizi T gelişmiş ilkel sınıflandırıcı oluşturmak için T kez yürütülür.

Özetle, sinir ağı havuzunun eğitim süreci için sözde kod aşağıdaki gibidir:

Girdi: eğitim örnek kümesi {x1, y1, w1}, {x2, y2, w2}, ..., {xN, yN, wN}, E kategorilerinin sayısı, ilkel sınıflandırıcı kümelerinin sayısı T, ilkel sınıflandırıcıların sayısı K, Rastgele seçilen bir örnek alt kümesindeki 1, 2 eşikleri ve örnek sayısı M.

Çıktı: Sinir Ağı Havuzu {SBNNi}.

süreç:

1.3 Naive Bayes sınıflandırıcı

Şu anda, oylama genellikle birden fazla sınıflandırıcının tahmin sonuçlarını birleştirmek için kullanılır, ancak bu makale, sinir ağı havuzundaki her bir temel sınıflandırıcı kümesinin tahmin sonuçlarını birleştirmek için olasılık dağılımını kullanarak, bireysel temel sınıflandırmayı azaltan yeni bir füzyon fikri önermektedir. Tuhaf bir sorun. Spesifik olarak, bu makale, birden çok ilkel sınıflandırıcıyı birleştirmek için saf bir Bayes modeli kullanır ve son tahminci ile ilkel sınıflandırıcı arasında bir köprü sağlar. Nihai öngörücü olarak, naif Bayes sınıflandırıcısı, minimum tahmin hatası kriterine göre sinir ağı havuzunda öğrenme ve tahmin için kullanılır.

Temel sınıflandırıcılar kümesinin bir ikili sınıflandırıcı olduğu düşünüldüğünde, çıktı karar değeri ikili bir formdadır. Bu nedenle, bu makale, bu ikili verileri, özellikle çok boyutlu Bernoulli (Bernoulli) dağılımı biçiminde sınıflandırmak için geleneksel naif Bayes sınıflandırıcısını kullanır. D boyutlu bir girdi özelliği vektörü d için, karşılık gelen kategori c şu şekilde ifade edilebilir:

2 Simülasyon deneyi ve analizi

2.1 Deneysel açıklama

Bu makalede, nesne sınıflandırma deneyleri için bir sinir ağı havuzu kullanılmıştır ve algoritmanın performansını değerlendirmek için uluslararası kamuya açık VOC-2007 veri seti seçilmiştir. Veri seti toplam 20 nesne kategorisi içerir. Bunların arasında eğitim setinde 5.011 görüntü örneği ve test setinde 4.952 görüntü örneği bulunmaktadır.

2.2 Sinir ağı havuzu eğitim sürecinin parametre açıklaması

İlkel sınıflandırıcıyı eğitirken, eğitim sonucu üzerinde daha büyük etkisi olan bazı parametreler dahil edilir. Bunlardan biri, ilkel sınıflandırıcı kümesinin hata oranının üst sınırı 2'dir. Eğitim sürecinde, sınıflandırma hata oranı endeksi, her bir temel sınıflandırıcının sınıflandırma kategorisi tahmin edilerek hesaplanabilir.Eğer temel sınıflandırıcının sınıflandırma hata oranı, belirlenen hata oranı üst sınırı 2'den büyükse, temel sınıflandırıcı atılacaktır. Yeni bir ilkel sınıflandırıcıyı yeniden oluşturun. Hata oranının üst sınırı ne kadar büyükse, o kadar az ilkel sınıflandırıcı atılır ve eğitim hızı o kadar hızlı olur, ancak nihai hata oranı artabilir Bu çalışmada, 20,01 olarak alınmıştır.

Ek olarak, öğrenme oranının eğitim hızı ve sınıflandırma hata oranı üzerinde daha büyük bir etkisi vardır. Çok küçük bir öğrenme oranı, aşırı uyuma neden olacak ve eğitim verimliliğini azaltacaktır. Ancak öğrenme oranının çok büyük olması eğitim hızını artıracağı gibi, sınıflandırma hata oranında da artışa neden olabilir. Bu makalede belirlenen öğrenme hızı parametresi 0,4'tür.

Maksimum yineleme sayısı eşiği, temel sınıflandırıcının eğitimi için bir sonlandırma koşulu olarak kullanılır Yineleme sayısı eşikten büyük olduğunda, temel sınıflandırıcının eğitim süreci durdurulur. Bu makalede, maksimum yineleme sayısı 1.000 olarak ayarlanmıştır.

Belirli sayıda gizli nöronun rastgele seçilmesi, aşırı uydurma veya yetersiz uyum sorunlarına yol açabilir. Burada, çeşitli ilkel sınıflandırıcıları eğitmek için farklı sayıda gizli katman nöronu kullanılır. Deneyde, tanıma sonucu en iyi gizli katman sayısı 9'a ulaştığında elde edilir. Bu nedenle, bu yazıda radyal temel işlevli sinir ağının gizli katmanlarının sayısı 9 olarak ayarlanmıştır.

Sinir ağı havuzunun eğitiminde yer alan parametre değerleri şunlardır: E = 20, T = 100, N = 5011, M = 2000, K = 20, 1 = 0.5.

2.3 Özellik çıkarma yöntemlerinin karşılaştırılması ve seçimi

Yaygın olarak kullanılan görüntü özellikleri Haar, HOG, LBP ve SIFT'dir. Aşağıdaki dört görüntü özelliği, nesne sınıflandırma deneyleri için bu makaledeki sinir ağı havuzu ile birlikte sırasıyla kullanılır. Sınıflandırma doğruluk oranı, optimum görüntü özelliklerini seçmek için değerlendirme indeksi olarak kullanılır. Sınıflandırma doğruluk oranı, doğru sınıflandırılmış görüntülerin sayısının toplam görüntü sayısına oranı olarak tanımlanır.

Şekil 2, farklı özelliklerin sınıflandırma doğruluğunu göstermektedir. Açıktır ki, SIFT özelliklerinin sınıflandırma doğruluğu diğer üç özelliğe göre önemli ölçüde daha yüksektir. Bu nedenle, bu makale nesneleri sınıflandırmak için SIFT özelliklerini ve sinir ağı havuzu sınıflandırıcısını birleştirme yöntemini seçmektedir.

2.4 Farklı nesne sınıflandırma yöntemlerinin deneysel sonuçları ve analizi

Bu makale literatürü ve karşılaştırma deneyinde açıklanan nesne sınıflandırma yöntemini seçmektedir Deneyde kullanılan eğitim veri seti ve test veri seti aynıdır ve bilgisayar işleme platformu da aynıdır, özellikle: CPU dört çekirdekli 3.6 GHz, bellek 16 GB. Deneysel sonuçlar Şekil 3'te gösterilmektedir.

Bu yazıda açıklanan SIFT özelliği ile sinir ağı havuzu sınıflandırıcısının kombinasyonunun, ikinci sıradaki literatür yönteminden% 2.3 daha yüksek olan en yüksek sınıflandırma doğruluğu indeksine ulaştığı Şekil 3'ten görülebilir.

Tablo 1, dört yöntemin nesne sınıflandırma zaman göstergelerini göstermektedir Bu süre, eğitim sürecinde harcanan süre hariç, bir görüntünün girilmesinden sınıflandırma sonucunun çıkarılmasına kadar gereken ortalama süreyi ifade etmektedir. Bu yazıda yöntemin sınıflandırma süresinin en kısa olduğu Tablo 1'den görülebilmektedir, bu da bu yazıda yer alan yöntemin hesaplama etkinliğinin en yüksek olduğunu göstermektedir. Kapsamlı değerlendirme, bu yöntemin sınıflandırma performansı karşılaştırılan üç yöntemden daha iyidir.

3 Sonuç

Bu makale, SIFT özelliklerini ve sinir ağı havuzunu birleştiren bir nesne sınıflandırma yöntemi önermektedir. Bu yöntem, klasik SIFT özellik açıklama özelliklerini seçer ve bir sinir ağı havuzu sınıflandırıcısı oluşturarak özellik sınıflandırmasını gerçekleştirir. Anahtar, bir sinir ağı sınıflandırıcısı oluşturmaktır. Tasarım fikri, örnek alt kümeleri seçmek için rastgele örnekleme kullanmak, her örnek alt kümesi için ilkel bir sınıflandırıcı oluşturmak için radyal tabanlı bir sinir ağı kullanmak ve tekrarlanan yinelemeler yoluyla birçok ilkel sınıflandırıcı kümesi elde etmektir. , Ve sonra bir sinir ağı havuzu oluşturmak için geliştirme teknolojisini birleştirin ve son olarak füzyon tahmini için saf Bayes sınıflandırıcısını kullanın. Deneyler, bu yöntemin yüksek sınıflandırma doğruluğuna ve daha az zaman alan sınıflandırmaya sahip olduğunu göstermektedir.

Referanslar

Huang Kaiqi, Ren Weiqiang, Tan Tieniu. Görüntü nesnesi sınıflandırması ve algılama algoritmalarına genel bakış. Chinese Journal of Computers, 2014, 37 (6): 1225-1240.

CHANG Z, BAN X, Wang Y. Haar özelliği ve aşırı öğrenme makinesine dayalı yorgunluk sürüş tespiti.Çin Üniversiteleri Postalar ve Telekomünikasyon Dergisi, 2016, 23 (4): 91-100.

Lu Xingjia. HOG ve Haar özelliklerine dayalı yaya izleme algoritması araştırması Bilgisayar Bilimi, 2013, 40 (s1): 199-203.

SATPATHY A, JIANG X, ENG H L. Nesne tanıma için LBP tabanlı edgetexture özellikleri Görüntü İşleme IEEE İşlemleri, 2014, 23 (5): 1953-1964.

WANG Y, BAN X, CHEN J, ve diğerleri.SIFT özelliğine dayalı plaka tanıma Optik-International Journal for Light and Electron Optics, 2015, 126 (21): 2895-2901.

Xu Jian, Zhang Hongwei. Adaboost Algoritma Sınıflandırıcısının Tasarımı ve Uygulaması. Journal of Sichuan University of Science and Technology: Natural Science Edition, 2014, 27 (1): 28-31.

WANG Y, YANG M, WEI G, ve diğerleri.Yakın kızılötesi yansıma spektroskopisi ile kömür özelliklerinin hızlı analizi için SVM sınıflandırmasına dayalı geliştirilmiş PLS regresyonu.Sensörler ve Aktüatörler B Kimyasal, 2014, 193 (3): 723-729.

PHAM T D. Görüntü dokusu analizi ve sınıflandırması için bulanık kümelerin ayarında Kolmogorov-Sinai entropisi Örüntü Tanıma, 2016, 38 (53): 229-237.

SUDHAKARAN S, JAMES A P. Nesnelerin seyrek dağıtılmış yerelleştirilmiş gradyan kaynaşmış özellikleri Pattern Recognition, 2014, 46 (4): 1538-1546.

CINBIS R G, VERBEEK J, SCHMID C. Görüntü kategorizasyonu için iid olmayan görüntü modellerinin Yaklaşık Fisher Kernelleri Örüntü Analizi ve Makine Zekası üzerine IEEE İşlemleri, 2015, 38 (6): 1084-1098.

Noon Star News Huabiao Ödülleri canlı yayının yıldızlarla dolu yıldızı Wu Jing ve Chen Jin, En İyi Erkek Oyuncu ve Kadın Oyuncu Ödülü'nü kazandı; Messi'nin 15 milyon ABD doları karşılığında özel bi
önceki
Shenguang senkronizasyonunun etkisi nedir? Bir "ışık kirliliği" ana bilgisayarı oluşturun | Titanium Geek
Sonraki
Derin öğrenme optimize edici optimize edicinin seçimiyle ilgili olarak, bunları bilmeniz gerekir
China Resources Micro / Jiangsu Electronics Technology ile kalabalığın arasından sıyrılan Wuxi, entegre devre bomundaki konumunu koruyamıyor.
Hint tanrıları, gelin ve birer birer hizmet edin
"Final Fantasy 15" yeni güncelleme duyuruldu, resmi mod araçları yakında geliyor
Ev aletleri bu hafta dolanıyor: Xiaomi IoT'ye bağlı IKEA aydınlatması, Hammer, nemlendiricilerin teslimatının geciktiği için özür diledi
"Mükemmel blog yayını" DDR okuryazarlığı-DDR3 temelleri
Filmdeki "iş" de, karanlık atları ve kötü filmleri saklayacak hiçbir yer yok
Mart ayında şanslı paranızı boşaltmak için çok fazla gişe rekoru kıran film var
Yeni Mercedes-Benz uzun aks açıklığına sahip A sınıfı sedan Chongqing'de piyasaya sürüldü
Blower Arıza Modunun Tanınmasında DFT Enterpolasyon Algoritmasının Uygulanması
Shuangfeng: 9. Tecavüz Çiçeği Kültür Turizmi Festivali düzenlendi
"God Eater 3" pek çok yeni ekran görüntüsü, kadın kahramanı HD olarak sunuluyor
To Top