Google Brain Papers: Makine öğrenimi aldatılacak ve kötü muhalif örnekler insanları kandırabilir mi?

Yapay zekanın "çoğaldığı" günümüzde, insanlık için bu en umut verici teknolojiye tehdit oluşturan çeşitli sorunlar hâlâ var. Son zamanlarda, Google Brain araştırmacısı Ian Goodfellow ve diğerlerinin en son makalesi olan "Adversarial Example that Fool that Fool" İnsan ve Bilgisayar Görüşü'nde, temsilciler-muhalif örneklerden birini gösterdiler.

Kağıt adresi: https://arxiv.org/abs/1802.08195

Tartışmalı örnekler, makine öğrenimi modelinin yanlış kararlar vermesini sağlamak için saldırgan tarafından kasıtlı olarak tasarlanan girdilere atıfta bulunur. Makine öğrenimi, rakip örneklere karşı savunmasızdır Örneğin, küçük bir rahatsızlık bile bilgisayar görme sisteminin bir okul otobüsünü devekuşu sanmasına neden olabilir. Ancak insan görsel sisteminin bundan rahatsız olup olmayacağı hala açık bir sorudur.

Şekil Kedinin resmini bir köpek gibi göstererek resme biraz rahatsızlık ekleyin

Makine öğrenimi ve beyin bilimi araştırması her zaman tamamlayıcı olmuştur. Örneğin, bilim adamları nesne tanıma algoritmalarını tasarlamadan önce, bunun yapılabileceğine inanıyorlar çünkü insan beyni nesneleri tanıyabiliyor. Bu nedenle, insan beyninin belirli rakip örnek türlerinin müdahalesine direnebileceğini kanıtlayabilirsek, bu, makine öğreniminde benzer mekanizmaların olduğunu kanıtlayacaktır. Ve eğer insan beyni gerçekten rakip örneklerle kandırılırsa, o zaman makine öğrenimindeki rakip örneklere direnme çabalarını bırakmalı ve bunun yerine sağlam olmayan makine öğrenimi bileşenleri içermelerine rağmen hala güvenli sistemler tasarlamalıyız.

Bilgisayarla görme alanında, karşıt örnekler genellikle veri setindeki örnek resimleri bozarak elde edilen yeni resimlerdir. Bu rahatsızlık gürültüden farklıdır ancak modele göre dikkatlice tasarlanmıştır. Karşıt örnekler oluşturmaya yönelik birçok popüler algoritma, girdinin gradyan tabanlı optimizasyonunu tamamlamak için modelin yapısına ve parametrelerine dayanır. İnsan görsel sisteminin yapısı ve parametreleri bilinmediğinden, bu yöntemler insan görsel tanıma için kullanılabilecek rakip numuneler üretemeyebilir.

Şekil Düşman örneklerin etkisi altında dev pandalar gibbonlar olarak tanımlanır

Tartışmalı örnekler genellikle bir modelden diğerine dönüştürülür ve bu da bilinmeyen yapılara sahip modellere saldırmayı mümkün kılar. İnsanların böylesi muhalif örneklerden etkilenip etkilenmeyeceği bir soru haline geliyor. Açıktır ki, insan görsel bilişsel sistemi birçok önyargıya sahiptir ve optik illüzyonlar üretecektir. Ancak bu rahatsız edici doğal resimlerden çok farklı. Bu nedenle, rakip örneklerin insan görsel sistemi üzerinde gözle görülür bir etkiye sahip olacağına dair üç ana fikri test ediyoruz.

1. Kara kutu muhalif numune oluşturma teknolojisini kullanarak, parametreleri ve yapıyı bilmeden hedef model için rakip numuneler oluşturur.

2. İnsan görüşünün orijinal sürecini taklit etmek için makine öğrenimi modelini değiştirerek, rakip örneklerin insan gözlemciler için uygun olanlara dönüştürülmesi daha olasıdır.

3. Belirli bir zamanda insan gözlemciler tarafından verilen sınıflandırma kararlarını değerlendirin, böylece insan algısının ince etkileri tespit edilebilir. İnsanların sınıflandırma görevlerindeki doğruluğu mükemmele yakın olduğundan, küçük değişiklikler doğrulukta yansıtılmayabilir. Ancak, net resimlerle bile yalnızca kısa bir resim gösterimi, insanlar artık mükemmel doğruluk elde edemez, bu nedenle küçük değişikliklerin etkisi doğrulukta yansıtılabilir.

Çekişmeli soruların amacı yanlış bir karara yol açmaktır. Ancak, karışıklıktan sonra, birçok resim bozulur ve artık gerçek, gerçek bir sahne değildir.Şu anda, gerçek nesneler olmayan resimlerin sınıflandırmasını tanımlamak zordur. Bu nedenle, bu deneyde sadece küçük rahatsızlıklar gerçekleştirilmekte ve bozulan resimler önceki kategorilere göre sınıflandırılmaktadır. Bununla birlikte, rahatsız edilmiş resimlerin sınıflandırılması hala daha fazla tartışmaya değer.

Deneyde, ImageNet'ten alınan görüntüler kullanıldı ve altı tür görüntü üç gruba ayrıldı: evcil hayvanlar, tehlikeli ve sebzeler. Son çalışmalar, derin evrişimli sinir ağları ve primat görsel sistemleri arasındaki benzerlikleri bulmuştur, bu nedenle bu görüntüler, insan görsel süreçlerini simüle etmek için farklı CNN modellerini eğitmek için kullanılır.

Şekil Deneysel süreç: Denek karanlık bir odada yüksek yenileme hızıyla bilgisayar ekranından 61 cm uzakta oturur. Denekten, ekranda görünen resimleri bir düğmeye basarak verilen iki kategoriden birine ayırması istenir. Resim ilk olarak ekranda 500-1000ms boyunca görünür ve ardından ekranın ortasında 63ms boyunca 15.24 cm × 15.24 cm'lik bir resim belirir ve ardından resim, her biri 20ms olmak üzere on rastgele QR koduyla kaplanır, sondan sonra 2200 × 2500ms vardır. Sınıflandırma seçimleri yapma zamanı.

Her deney yalnızca bir grup içerir. Her grupta resimler aşağıdaki dört formdan birinde görüntülenir:

1. görüntü: ImageNet'ten bir resim.

2. adv: rahatsızlık eklenmiş görüntü.

3. Çevir: Bozuk görüntüyü dikey dönüşümden sonra ekleyin.

4. yanlış: Konuyu hata yapmaya zorlayan bir durum. Görünen görüntünün seçilebilecek herhangi bir kategoriye ait olmaması için daha büyük bir rahatsızlık kullanın. Rahatsızlığın gözlemci üzerindeki etkisinden dolayı, bunun nedeni sadece resmin netliğini azaltması olabilir. Bu 0 doğruluk koşulunun eklenmesi, bozukluğun gözlemci tarafından yapılan yanlış seçimi etkileyip etkilemeyeceğini test edebilir.

Şekil Resimleri işlemek için farklı bozucu yöntemler

Şekil (a) Farklı rahatsız edici hedef kategorileri seçme olasılığı (b) Doğru sınıflandırmanın doğruluğu

Bozukluğa sahip adv kategorisinin sınıflandırma doğruluğunun görüntününkinden çok daha düşük olduğu tablodan görülebilir. Aynı zamanda, adv kategorisinin doğruluğu flip'ten çok daha düşüktür. Bu, rahatsızlık ve belirli resimlerin kombinasyonunun sınıflandırma üzerindeki etkisinin, insanların nesneleri ayırt ederken algıladıkları belirli özelliklerle ilişkili olduğunu göstermektedir.

Deneysel sonuçlar, bilgisayarla görme modeli tarafından dönüştürülen rakip örneklerin gerçekten de insan gözlemcilerin doğruluğunu etkileyeceğini buldu. Bu araştırma aynı zamanda daha temel soruları da gündeme getiriyor. CNNs ağının karşıt örnekler oluşturma sürecindeki rolü, insan beyninin görsel mekanizması ile benzerliği ile ilişkili mi? Karşıt örneklerin hangi özellikleri insan bilişi üzerinde bir etkiye sahiptir? Bu özelliklerin gerçek dünya ile ne ilgisi var? Bu konularla ilgili araştırmalar son derece değerlidir ve insan beyninin ve derin sinir ağlarının gizemlerini daha iyi anlamamızı sağlayacaktır.

Qianjifeng'in kurucusu Tan Yichuang IMIO, üçüncü taraf akıllı donanımı "birleştirmek", çekirdek olarak AI uşağı ile akıllı bir ev ekosistemi oluşturur
önceki
Çin Bilimler Akademisi'nin yeni araştırması fare tümörlerini başarıyla "aç bıraktı"! Tamamen otonom bir DNA nanorobot oluşturun
Sonraki
Bahar Şenliği seyahati için tren biletleri açık! Her istasyonun bilet çıkış saatleri farklı, bu yüzden hemen yapamadım Günaydın Wuhan
Merkezi hükümet, gelecek yıl çabaları hızlandırmak için özel girişimlerin gelişimini destekliyor ve Wuhan'daki özel girişimciler başka bir "güvence" alacaklar.
Tencent Müzik, 12 Aralık'ta ABD'de listelenecek, Momo satılan verilere yanıt veriyor
Karidesli krakerlerde karides olduğu ortaya çıktı.İtalya Sağlık Bakanlığı, bu ıstakoz krakerlerini alerji nedeniyle geri çağırdı.
Harvard ekibi yeni bir CRISPR uygulaması getiriyor: hücre aktivitelerinin fotoğraflarını çekmek!
Sözlü Tarih · Shu di Quyi Uyumlu drama ikinci jenerasyon başkanı Shen Pu Kutsal Yazıları ve Sanatları Opera ve Dans Dramaları'nı çalmak
16 yıl sürdü ve insanları ağlatmak için ailesinin on binlerce fotoğrafını çekti
Eşcinsel karşıtı konferans protestolara yol açtı ve tanıdıklar yeniden görüldü!
İki Çinli ve Amerikalı AI ustası "zirve diyalogu": NLP alanında bir "tek boynuzlu at" ın görünmesi neden zordur?
Çinli turistler selfie çekip uçuruma düştü, çığlık attı ve 1000 fitlik bir uçuruma düştü
40 yıla saygı "Üstün Özel Girişimci" Nian Guangjiu: O zamanki cesaret "Ulusal politikalara inanıyorum" dan geldi
Tianfu Bulvarı'nın kuzey uzantısının Ekspres Deyang bölümünün 2022'nin sonunda tamamlanması bekleniyor
To Top