Lin Lin, authomaton.blogspot'tan derlendi
Qubit Üretildi | Genel Hesap QbitAI
Bu makale, evrişimli sinir ağlarının (CNN) temel ilkelerini en kısa ve anlaşılır şekilde açıklar ve içindeki matematiksel teoriyi atlar.
Aynı zamanda, sıfırdan bir CNN ağı kurmak gibi konularla ilgilenmek istiyorsanız, yazar "İnsanlar için Yapay Zeka Cilt 3: Derin Öğrenme ve Sinir Ağları" nın 10. Bölümünü okumanızı tavsiye ediyor.
Söyleyecek çok şey yok, CNN yolculuğuna başlayın
CNN modeli genellikle ileri beslemeli sinir ağı modeli üzerine kuruludur ve yapısı size aşina olmalıdır. Aradaki fark, "gizli katman" ın aşağıdaki katmanlarla değiştirilmesidir:
Evrişimli Katmanlar
Havuz Katmanları
Tamamen bağlı katman (Yoğun Katmanlar)
Yapı aşağıdaki şekle benzer:
Bu aşamada, giriş görüntüsü bir ızgara tarafından taranır ve giriş olarak ağa iletilir. Bundan sonra, ağ giriş görüntüsüne evrişimli bir katman uygular ve onu 3 görüntü içeren üç boyutlu bir küp yapısına böler. Üç görüntünün üç karesi sırasıyla orijinal görüntünün kırmızı, yeşil ve mavi bilgilerini sunar.
Ardından, PhotoShop'ta filtrelerle belirli özellikleri vurgulamaya benzer şekilde görüntüye evrişim filtreleri (nöronlar da denir) uygular. Örneğin, "Doc And Mharti" animasyonunda, Roberts çapraz kenar geliştirme filtresi tarafından işlenen efekt aşağıdaki şekilde gösterilmektedir:
Gerçek görüntü
Tedaviden sonra
100'den fazla farklı filtreye sahip güçlü bir sinir ağının karmaşık özellikleri filtreleyebileceği ve bu da gerçek dünyadaki şeyleri tanımasına büyük ölçüde yardımcı olacağı düşünülebilir. Sinir ağı görüntüye evrişim filtresini uyguladığında, özellik / aktivasyon haritasını alabiliriz.
Özellik haritası, belirtilen alandaki belirli nöronlar tarafından etkinleştirilecektir.Örneğin, aşağıdaki sol görüntüye kenar algılama filtresini eklersek, etkinleştirme haritası sağda gösterilir:
Bu noktalar, 0'ın sıralarını temsil eder (bu alanların kenarlar olabileceğini belirtir). İki boyutlu bir dizide "30" değeri, görüntü alanında yüksek bir kenar olasılığı olduğunu gösterir.
Aktivasyon haritasına sahip olduğumuzda, göstermek için aktivasyon fonksiyonunu kullanabiliriz.Örnek olarak araştırmacının tercih ettiği ReLU aktivasyon fonksiyonunu (değiştirilmiş lineer birim) kullanalım. Bununla birlikte, bazı araştırmacılar hala Sigmoid işlevini veya hiperbolik tanjantı kullanmanın en iyi eğitim sonuçlarını sağlayabileceğini düşünüyor, ancak ben öyle düşünmüyorum.
Aktivasyon katmanını kullanmak, giriş ve çıkışın genelliğini geliştirebilen sisteme doğrusal olmama durumunu tanıtmaktır. ReLU (x) işlevi yalnızca maks (0, x) döndürür veya aktivasyon haritasındaki negatif ağırlıkları döndürür.
Daha sonra en iyi uygulama, genellikle özellik haritasında maksimum havuzlama (veya başka bir havuzlama türü) uygulamaktır. Maksimum havuz katmanını uygulama ilkesi, görüntüyü küçük bir ızgarada taramak ve her ızgarayı belirli bir ızgaradaki en yüksek değeri içeren tek bir birimle değiştirmektir:
Bunun önemli nedenlerinden biri, belirli bir özelliğin belirli bir giriş alanında olduğunu bildiğimizde, verileri genelleştirmek ve aşırı uyumu azaltmak için özelliğin tam konumunu göz ardı edebiliriz. Örneğin, eğitim doğruluğu% 99'a ulaşsa bile, daha önce görülmemiş yeni veriler üzerinde test edildiğinde doğruluğu yalnızca% 50'dir.
Maksimum havuz katmanından sonra, tamamen bağlı ağa aktarılan bilgilerin bir parçası olan kalan aktivasyon haritasından bahsedeceğiz. Önceki katmandaki her bir nöronun çıktısını tamamen bağlı katmandaki bir nörona basitçe eşleyen ve softmax işlevini çıktıya uygulayan tamamen bağlı bir katman içerir; Aktivasyon işlevi.
Görüntüleri sınıflandırmak için bir sinir ağı kullanacağımız için burada softmax işlevi kullanılmaktadır. Softmax çıktı dönüş listesinin olasılıklarının toplamı 1'dir ve her olasılık, belirli bir görüntünün belirli bir çıktı sınıfına ait olma olasılığını temsil eder. Ancak daha sonra, görüntü tahmini ve restorasyon görevleri söz konusu olduğunda, doğrusal aktivasyon işlevinin etkisi daha iyidir.
Sadece tek bir evrişimli katman ve tek bir havuz katmanının basit durumunu dikkate aldığımızı belirtmekte fayda var En iyi doğruluğu elde etmek istiyorsanız, genellikle bunları birden çok katman halinde istiflemeniz gerekir. Her bir tam yinelemeden sonra ağırlık, ağ tersi üzerinden hesaplanan kayba göre güncellenir.
Orijinal adres: https://authomaton.blogspot.co.uk/2017/10/machine-learning-but-funner-02.html
- Bitiş -
Samimi işe alım
Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! Ayrıntılar için, lütfen QbitAI diyalog arayüzünde "işe alım" kelimesiyle yanıt verin.
Qubit QbitAI
' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin