Matematik + istatistik + beyin bilimi = yapay zeka "kara kutusunu" kırmanın anahtarı mı?

Leifeng.com AI teknolojisi inceleme basını: Pekin Bilgelik Yapay Zeka Araştırma Enstitüsü'nün ev sahipliğinde 9 Mayıs 2019'da Zhongguancun Ulusal Bağımsız İnovasyon Gösteri Bölgesi Konferans Merkezi'nde "Bilgelik Forumu" düzenlendi. "Zhiyuan Forum", bir dizi yüksek düzey yapay zeka teknolojisi paylaşım faaliyetidir. Sektördeki en iyi akademisyenler, en son teknolojileri tartışmak ve deneyimlerini paylaşmak için düzenli olarak davet edilecektir. Organizatör, yapay zekanın karşılaştığı hesaplanabilirlik, yorumlanabilirlik, genelleme ve kararlılık gibi temel konulara odaklanarak, matematik, istatistik ve hesaplamalar perspektiflerinden yapay zekanın matematiksel temeli üzerine büyük araştırma yönleri oluşturdu. Tema, üç gün boyunca 15 akademisyen tarafından paylaşılan "Yapay Zekanın Matematiksel ve Fiziksel Temeli" idi. Leifeng.com AI Technology Review, sahnenin önemli noktalarını aşağıdaki şekilde kaydetmeye davet edildiği için şanslıydı.

İlk forum için toplam 5 paylaşım oturumu düzenlenmiş olup, ilk konuşmacıyı Pekin Üniversitesi'nden Doç. Dr. Dong Bin'in yaptığı raporun konusu "Görüntü Analizi ve Ötesi için Derin Sinir Ağları ve Diferansiyel Denklemler" idi.

Şu anda, akademik çevre derin öğrenmenin sorunlarına dikkat ediyor.Örneğin, Ali Rahimi 2017 NIPS konferansında derin öğrenmenin "simya" (simya) olduğunu belirtti. Ali Rahimi aynı zamanda simya olmanın kesinlikle utanç verici olmadığını ve kimyaya ilerlemek için çalışmak istememenin utanç verici olduğunu söyledi, bu da sadece sistematik teorik rehberlik sağlayarak alanın tamamen deneysel bir konudan utanç verici hale geleceği anlamına geliyor. Teorik sistemin disiplini. Ekibim ve ben, ağ mimarisi tasarımı ve ilgili araştırmalar için bazı yeni rehber fikirler sunmayı umarak, uygulamalı / hesaplamalı matematik perspektifinden derin öğrenmeyi anlamaya çalıştık.

Genel olarak, matematikçiler varsayımlarını titiz teorik analizlerle kanıtlayacaklar, ancak başka bir düşünce çizgisini benimsedik, önce derin öğrenme ve matematiksel kavramlar arasındaki uygunluğu aradık ve sonra bunları buna göre analiz ettik. Örneğin, derin ağı bir diferansiyel denklem veya diferansiyel denklemin ayrı bir formu olarak anlayabiliriz. Bu bağlantıyı kurduktan sonra derin öğrenmeyi anlamak için matematiğin hangi alanından başlamamız gerektiğini bileceğiz.

DNN ile sayısal ODE arasındaki ilişki nedir? Matematik şeklinde yazılsaydı, dinamik bir sistem olarak kabul edilirdi, ancak bunun analizi zordur. İyi bilinen artık ağın matematiksel biçiminden anlaşılması daha kolaydır. Aslında, sürekli bir ODE'dir. Zaman, önceki Euler teriminin dağılımıdır, ancak ağı tasarlarken t 1'e ayarlanır.

Bu çok ilginç bir gözlem, ancak insanlar ayrıca kalan ağ çekirdeği ile güç sistemi arasındaki bağlantının sadece özel bir durum olup olmadığını merak ediyorlar. Daha da önemlisi, sayısal ODE ile ağ mimarisi arasında bir bağlantı varsa, sayısal ODE'nin nispeten olgun araştırma alanından yararlı bir mimari çıkarabilir miyiz?

Daha sonra, kalan ağa ek olarak, Net'i çekmek gibi diğer ağların aslında çözülmüş bir ters Euler'e karşılık geldiğini ve ters Euler'ın, çok büyük bir doğrusal olmayan denklem sisteminin tersini çözmemizi gerektirdiğini keşfettik. Polinom yaklaşımı kullanmalısınız. Bu yüzden, temel olarak kalıntı bloklar için bazı yeni ağ mimarileri tasarlamaya çalışmak için sayısal ODE kullanıyoruz Spesifik bloğa gelince, çok fazla değişiklik yapmıyoruz.

Belirleyici içeriğe ek olarak, derin öğrenme eğitimi, mantıksal olarak stokastik diferansiyel denklemlere karşılık gelen çeşitli rastgele rahatsızlıklar ile karşı karşıya kalacaktır. İster rastgele bir strateji ister ağın rastgele doğası olsun, bir ağı eğitmenin aslında rastgele kontrolü çözme sorunu olduğunu gördük, bu nedenle rastgele eğitim stratejileri ile derin öğrenme eğitimi rastgele kontrol perspektifinden görülebilir. Basit bir karşılaştırma yaptık ve doğruluğu düşürmeden derinliğin% 90 azaltılabileceğini ve 100 katmanın 1200 katman etkisine ulaşabileceğini gördük.

Ek olarak, veri toplama yöntemleri gittikçe daha gelişmiş hale geldikçe, artık büyük miktarda 3B ve hatta 4B veri var.Kuralları çıkarmak için etkili bir araç oluşturmak için PDE'yi derin öğrenme ile birleştirebilir miyiz? Bunun için de bir ön girişimde bulunduk: Temel fikir, denklemi öğrenmenin yanı sıra modelin öngörülebilirliğini de sağlayabilmesini sağlamak için evrişime bazı kısıtlamalar getirmektir.

Geçmişte görüntü denoising için evrimsel ısınma denklemi kullanılıyordu.Evrim süresi çok uzun olduğunda görüntünün detayları da kaybolacak.Başka bir deyişle, durma zamanlaması bir hiperparametredir ve gürültü seviyesi ile ilgilidir. Farklı görüntüler, farklı gürültü seviyeleri ve hiperparametrelerin optimum durma süreleri farklıdır.Ağ parametrelerini optimize etmenin yanı sıra dinamik sistemin durma süresini de optimizasyon kategorisine dahil ediyoruz, yani ağ derinliği akıma bağlı olabilir. Veriler otomatik olarak ayarlanır ve nihai sonuç öncekinden çok daha iyidir.

Bir sonraki adımda, derin öğrenme ağ mimarileri gibi ters problemlerde sayısal diferansiyel denklemleri veya diğer yöntemleri göz önünde bulundurmak gibi daha teorik analiz yapmak için Zhiyuan desteğini kullanacağız ve ardından bu ağ mimarilerinin genelleme seviyesini, sıkıştırılmış algılama vb. Ve son olarak daha kompakt bir ağ tasarlayın.

İkinci konuşmacı, Pekin Üniversitesi'nden araştırmacı Lin Wei'dir.Raporunun konusu "Makine Öğreniminde Boyut Felaketini Kırmak: Tanınabilirlikten Başlamak".

Sözde yüksek boyutlu istatistik, sözde yüksek boyutlu verileri veya yüksek boyutlu model istatistiklerini incelemektir. Örnek olarak veriyi alın Boyutsallık değişken sayısını ifade eder Örneğin, aynı anda birkaç bin veya daha fazla veri analiz edilirse, boyutluluk çok yüksek olacaktır. Model boyutluluğu bağlamında, yüksek boyutluluk genellikle "aşırı parametreleştirme" olarak bilinir.

Yapay zeka teknolojisi için yorumlanabilirliği istatistiksel açıdan iyileştirebilecek teorik bir öğrenme çerçevesi nasıl kurulur? Bence şu anda iki takım araç var, biri rastgele matris teorisine dayanıyor, N'nin klasik istatistiklerden sonsuz derecede farklı olma eğiliminde olduğu bu ilerici çerçeveden birçok ilerici sonuç çıkarabiliriz; diğeri ise yaptığım konsantrasyon eşitsizliği Basit bir ifadeyle, birçok sonuç aşamalı değildir.Bundan çıkarım yapabiliriz, P'nin N ile belirli bir ilişkisi olmasına izin verebilir ve P'nin n'den çok daha büyük olmasına izin veren bazı ilerici sonuçlar elde edebiliriz.

Tanımlanabilirlik nedir? Veri dağılımının iki parametresi (1 ve 2) aynı veri dağılımına karşılık gelirse, bunu aynı parametreyi çıkarmak için kullanabiliriz. Bu çok önemlidir.Gerçek parametrelerin ne olduğunu belirlemek imkansızsa, algoritma parametreleri optimize etmek için kullanıldığında, sonuç son derece istikrarsız olacaktır. Tanınmayan modellerin dezavantajları nelerdir? Biri zayıf yorumlanabilirlik, diğeri zayıf genelleme yeteneği. Seyreklik ve düşük rütbe ile tanımlanabilirliği sağlayabiliriz. Nedensel çıkarım teorisinin birçok durumda ayırt edilemez olduğu vurgulanmalıdır, ancak bunun için bir sınırlandırma yapabiliriz.Üst ve alt sınırlar yeterince küçükse, o zaman yine de yararlıdır.

Tanımlanabilirlik garanti edilemiyorsa, tanımlanabilirlik hedefine ulaşmalı mıyız? Okunaksızlıktan kaynaklanan hata sonuçlarımıza yansır mı? Çalışmamız cevabı veriyor: İlki hayır, ikincisi evet. Biyolojik öğrenme içinse, o zaman 1. sorunun cevabına sahip olmak en iyisidir, ancak gerekli değildir, çünkü gerçekten daha iyi performansa sahip, ancak mutlak olmayan seyrek ağ örnekleri vardır; ikinci soruya gelince, henüz bir sonuç yok.

Bir sinir ağı, yüksek boyutlu veya aşırı parametreleştirilmiş bir modeldir, istatistiksel açıdan, onu nasıl değiştirebiliriz? Birincisi, hedef fonksiyona uyun; ikincisi, hedefin gerçek fonksiyonunu hangi kategoride analiz edin. Bu şey ile iki çeşit seyreklik gibi bazı çözümler elde edebileceğiz.

Üçüncü konuşmacı, Pekin Üniversitesi'nden Doçent Doktor Shao Siheng, raporunun konusu "Zeka için Matematik".

Şimdi birçok makine yapıyoruz, her zaman insanların nereden geldiğini ve sözde nihai soruyu cevaplayacaklarını anlamaya çalışıyoruz. Öyleyse soru şu, biz olduğumuzu nasıl anlarız? Bu, insan beyninin bilinci nasıl oluşturduğu sorusunu içerir.

Sözde yapay zeka, temelde zekayı taklit etmek veya zeka mekanizmasını insanların anlayabileceği bir şekilde keşfetmek içindir. İnsan beyni, 100 milyar meridyenden oluşan bir beyin sinir ağıdır.İyi veya kötü fikirler buradan gelir.Bu, iki temel gerçeği ifade eder: 1. Ağın maddi temeli, doğadaki atomlardan farklı değildir. Öyleyse, onu tanımlamak için kuantum mekaniğini kullanmalıyız; ikincisi, kuantum mekaniğine dayanan nöron sinapslarının davranışını tanımlamak için, ki bu bilinç oluşumunu anlamak için çok önemlidir.

Bu kadar önemli bir konuda neden pek ilerleme kaydedilmedi? Birincisi, geçen yıla kadar meyve sineklerinin tüm beyninin ürettiği yüksek çözünürlüklü görüntüleri kavrayamadık, o zamandan itibaren tüm nöronların uzaysal konumlarını görebiliyorduk ama bu canlı vücut canlılığını kaybetti. İkincisi, kuantum mekaniksel davranışın ölçülmesi aslında fiziksel ilkeler açısından özellikle zordur. Spesifik zorluk nedir? Heisenberg'in belirsizlik ilişkisi bize mikrokozmostaki parçacıklara ek olarak ışıkla da karşı karşıya olduklarını söylüyor.

Bu amaçla, Wigner fonksiyonunu kullanarak klasik kuantum mekaniği denklemleriyle çözmek için bir bilgisayar kullanıyoruz. Wigner işlevi şu anda katı matematiksel teori bilgisine sahip olan ve kuantum dünyasından klasik dünyaya geçiş yapabilen tek matematiksel ifade biçimidir.Simülasyon için Wigner işlevini kullanmak, deneysel bilim insanlarına gözlemsel ve karşılaştırmalı veri sonuçları sağlayabilir. Gerçek beyin sinir ağında dinamik çalıştırmak istediğinizde, kesinlikle hesaplama ölçeği sorunuyla karşılaşacaksınız.Bu nedenle, rastgele algoritma modelini benimsiyoruz ve matematiksel eşdeğer akıl yürütme yoluyla, bunun bir güncelleme denklemine ve denklemin kendisine eşdeğer olduğunu buluyoruz. İçeride dallı rastgele yürüyüş denen rastgele bir açıklama var Bu sürece dayanarak daha fazla simülasyon mümkün olacak.

Drosophila beyin veri deneyine bir göz atalım: Beyin nöronları, 100.000 sinir sinapsından oluşan bir kafatası sinir ağı iken, insan beyni 100 milyar. Veri simülasyonu perspektifinden, ölçek boşluğu çok büyüktür ve bu, hem algoritma tasarımı hem de matematiksel teori için büyük bir zorluktur. Bu nedenle, doğruluktan ödün vermeden optimizasyon algoritmasını, ağın izin verilen hata aralığında nasıl ayrıştırılacağını incelemeliyiz.

Bu alanı uzun zamandır araştırıyoruz, grafikteki matematiği keşfetmeye çalışıyoruz ve birçok sorunun hayal ettiğimiz gibi olmadığını gördük. Örneğin, grafikte belirli bir problem türünü tartışırken, birçok özellik fonksiyonu veya özellik vektörü olduğunu ve bunların yerelleştirilebileceğini göreceksiniz. Başka bir deyişle, size bir ağ verirseniz ve sonra size kesmeniz için bir makas verirseniz, çoğu kenarı veya en küçük kenarı kesebiliriz, ancak nihayetinde kesilen iki parçanın daha simetrik olmasını umuyoruz. Gerçekçi matematiksel teori size hayatınız boyunca en iyi çözümü bulmanın imkansız olduğunu söyleyecektir.

Bu durumda, optimumun altındaki çözümü en hızlı maliyetle nasıl elde ederiz? Bizim fikrimiz, büyük resmi küçük bir resim halinde kesmek ve ardından küçük resmi kullanarak zaman arasında bir kuantum korelasyonu olup olmadığını anlamak için Wigner kuantum fiziğini çalıştırmak ve ardından deneyler için verileri açmak. Sürekli optimizasyon problemine karşılık gelmenin bir yolunu bulmaya çalışıyoruz. Matematiksel analiz seviyesine dönmek aslında çok basittir. Bir dizinin sınırı benzersizdir. Bununla birlikte, aynı sınırı kaç tür dizinin ürettiği ve hangi dizi olduğu, ek kısıtlama.

Ortaya çıkan optimizasyon problemlerinin analitik ifadelere sahip olabilmesi için bu teorinin hayata geçirilebileceğini umuyoruz. Bu nedenle, Lovasz uzantısını yaptık ve bir kombinasyonel optimizasyon problemi verildiğinde, ilgili bağlantıyı bulabiliriz. Buna dayanarak, ifade iterasyonu adı verilen basit bir algoritma tasarladık.Bu problemler optimal değeri bilemese de, bu algoritmaların göreceli hatasını bulmak için bir çözüm olarak literatürde görülen en iyi değeri kullanacağız ve sonra Basitçe çalıştırın, böylece nihai sonuç ile optimum değer arasındaki hata, orijinal olandan sadece biraz daha hızlı olmayan% 1 içinde kontrol edilebilir.

Bu yönde, kombinasyon problemleri, iki ilişkinin nasıl çözüleceği vb. Dahil iyi bir birikim yaptık. Bu yönde ilerlemek istiyorsanız, birkaç alanı geçmeniz gerekir.Hangi matematiksel araçların veya matematiksel teorilerin kullanılacağı belli değil.Şu anda sadece çeşitli girişimlerde bulunabiliyoruz.

Sonuç olarak, bu şeyler bizi başlangıç noktasına geri götürdü: Kökten veya matematiksel teoriden gerçekten anlamamız ve tartışma için sürekli veya ayrı şeyleri birleşik bir çerçeveye koymamız gerekebilir. Geçmişte yaptığımız pek çok şey çok sınırlıydı ama artık bundan kaçınamazsınız Bu açıdan bakıldığında bu şey daha yeni başladı.

Dördüncü konuşmacı, Pekin Uygulamalı Fizik ve Hesaplamalı Matematik Enstitüsü'nden Wang Han'dır. Raporunun konusu "Çok Ölçekli Moleküler Model için Derin Öğrenme içinde g ".

Bu dünyanın atomlardan oluştuğunu ve her atomun bir kütle noktası olarak kabul edildiğini ve bu konumun Ra olduğunu varsayalım. Newton'un ortaokulda öğrenilen ikinci hareket yasasına göre, bu denklem ilk değer verildiği sürece çözülebilir, böylece tüm atomların koordinatlarını her an bilebiliriz.Bu moleküler simülasyonun yaptığı şeydir. Üç cisim sistemini gördüyseniz, denklemi doğru bir şekilde çözmek için sadece iki atomlu sistemi çözebileceğinizi hemen anlayacaksınız, ancak herhangi bir çok atomlu sistem için sonsuz zamanda doğru bir şekilde çözemezsiniz. Sonuç olarak, başlangıçtaki değer hatası çok büyük hale gelecek ve çözümünüzün güvenilmez hale gelmesine neden olacaktır.

Bununla birlikte, moleküler simülasyonun elde etmek istediği sonuç, atomik hareketin yörüngesi değil, atomik hareket yörüngesinin sonsuz bir zamanda faz uzayı üzerindeki bir dağılımıdır.Bu, sayısal hatanın bu dağılım üzerindeki etkisinin gerçekten kontrol edilebileceği anlamına gelir. . Diğer bir deyişle, ayrıklaştırma yeterince iyi yapılırsa, elde ettiğimiz platform dağılımı, fizikte istenen dağılımla tutarlı olabilir. Moleküler modelleme, enerji fonksiyonunun E'sini yazmaya çalışırken, çok ölçekli moleküler modelleme, belirli bir kaba taneli atomik koordinat yapmak ve ardından eşdeğer formu yazmaktır.

Geleneksel matematikte çok boyutlu fonksiyonlarla uğraşmak hala zordur ve derin öğrenme bize sadece çok avantajlı araçlar sağlar. Amacımız, birinci prensip hesaplamalarının doğruluğunu sağlarken hesaplama ek yükü elde etmek ve mümkün olduğunca klasik kuvvet alanlarıyla birleşmektir.

Sonra simetri sorun olmaya başladı. Örneğin, cep telefonu bir atom demetiyse ve ardından cep telefonu uzayda çevrilmişse, tüm atomların koordinatları bir vektörle birlikte eklenerek cep telefonunun enerji göstergesinin değişmeden kalmasını sağlayabilir.Elektrik telefonu döndürülse bile enerji aynıdır sabit. Biyolojik bir model veya sinir ağı için simetri garanti edilemez Herhangi bir koordinat çevirisi veya değişimi, ağın çıktısının farklı olmasına neden olabilir.

Modelin simetrisini korumanın iki yolu vardır: Birincisi, bir uydu nesnesini moleküler sistemde sabitlemektir, böylelikle değişimin simetrisi sıralama ile stabilize edilebilir Bu yaklaşımın avantajı, güçlü bir ifade yeteneğine sahip olmasıdır, ancak dezavantajları vardır. Enerji fonksiyonunda belirli bir süreksizliğe neden olacaktır. Diğeri iki gözleme dayanmaktadır.İlk gözlem, iç temel olarak iki vektöre dayanmaktadır.İç temel tamamlandıktan sonra, dönme değişmez, ikinci gözlem, i atomunun koordinatlarının komşularının toplamıdır. Gelecekle değişim değişmeyecek. Bu iki noktadan yola çıkarak, sözde tanımlayıcıyı tasarladık ve ardından tanımlayıcıyı sinir ağının önüne koyduk ve ardından tüm modelin simetrisini korumak için çıktıyı sinir ağına bağladık.

Derin öğrenme modelimiz yayınlandıktan sonra, diğerleri bazı pratik problemleri çözmek için onu aldı. Örneğin, Kraliyet Bilimler Akademisi'nden bir akademisyen silikon üzerine çalışıyordu.Önceden oluşturulan kuvvet alanının sert fazlı silikonun katı fazını tanımlamanın zor olduğunu, ancak derin öğrenme modelimizin silikon eritme yapmak için kullanılabileceğini söyledi. , Ve iyi sonuçlar elde etti. Diğeri, Pekin Normal Üniversitesi'nde, heyecanlı durumun tepki kinetiğini yapmak için kullanan bir profesör. Geçmişte geleneksel modellemede, uyarılmış durum dinamiklerinin iki potansiyel enerji yüzey bağlantı konilerinin doğruluğu her zaman zayıftır ki bu bu alanda zor bir problemdir.Derin öğrenme modelimiz bu sorunu çok iyi çözmüştür.

Bahsettiğim şey, derin öğrenmede atomlar arasındaki etkileşimin temsilidir, ancak aslında çok ciddi bir problem var - veriler nereden geliyor? Bu nedenle, aktif bir öğrenme stratejisi öneriyoruz. Önce moleküler dinamik gerçekleştirebilen bir model eğitin ve ardından daha fazla molekülü yapılandırmak için moleküler dinamik kullanın. Basitçe ifade etmek gerekirse, model her geliştirildiğinde, yeni bir tane hemen üretilecektir. Yapılandırma, yeni yapılandırma test edildi, büyük hataları belirledik ve veritabanını zenginleştirmek için yeniden etiketledik.

Son olarak, yüksek boyutlu uzamsal işlev derin öğrenmeyi ifade etme teknolojisinde aktif öğrenmenin kullanımında, anahtar hata tahminidir: Hatanın ilk prensip hesaplamalarıyla nasıl tahmin edileceği tasarımın özü olacaktır.

Beşinci konuşmacı, Pekin Üniversitesi'nden Profesör Zhang Zhihua'dır.Raporunun konusu "Matematik Mühendisliği - Makine Öğrenimini Anlamak İçin Bir Perspektif".

Makine öğrenimi ve yapay zeka, doğası gereği hala çok farklıdır.İnsan düşüncesini ve davranışını simüle etmez, ancak deneyim ve etkileşim yoluyla performansı artırır. Aslında, algoritmaları incelemenin konusudur.Bu algoritma, veri tabanlı algoritmalara dayanır ve daha sonra verilere geri beslenir. Makine öğrenimini şu şekilde anlayabilirsiniz: Bir veri parçam var, onu bir temsil olarak nasıl kullanacağım veya bir özellik elde edeceğim ve ardından bu temsile dayalı olarak tahmin ve karar verme amacına ulaşıyorum.

Bunları en iyi temsil eden şüphesiz kural temelli öğrenmedir. Bu yöntemin odak noktası özellik mühendisliğidir. Bu aynı zamanda bunu mümkün kılmak için alanı iyi anlamanız gerektiği anlamına gelir. Aslında bu konuda bazı problemler var, mesela derin bir muhakeme yapıldığında boyutsallık felaketine yol açacaktır. Bu problemi çözmek için basit bir fikir, orijinal kurala dayalı yaklaşımı şehir etrafında doğrusal olmayan bir modele götürmek ve daha sonra verilerin temsil sürecini zayıflatmaktır.Bu sayı teorisine dayanarak, istatistiksel makine öğrenimi geliştirilmiştir.

İstatistiksel yöntemler belli bir seviyeye kadar geliştiğinde, herkes verinin önlenemeyeceğini düşünür ve yöntemin güçlü olduğunu, verilerin yeterli olmaması halinde yine de bir çok soruna yol açacaktır. Dolayısıyla, temsil problemini öğrenme yoluyla, yani temsil problemini makine öğrenimi yoluyla çözmek için basit bir fikir var.

Aslında, bu dönemdeki derin öğrenmenin amacı yalnızca temsil için değil, anahtar doğrusal olmayan uydurmadır. Sonuç olarak ağı etkin bir şekilde temsil eden doğal dil işleme alanı şimdiye kadar bulunamamıştır ve görüntü işleme alanı kadar hızlı gelişmemiştir. Derin öğrenmenin geliştirilmesinde, karşılaşılan sorunlardan biri, denetimsiz sorunların denetlenen sorunlardan çok daha karmaşık olmasıdır. Daha sonra, denetlenmeyen sorunu denetlenenlere benzer bir öğrenme sürecine dönüştürmek için bir fikir geldi.

Diğer bir deyişle, makine öğrenme yöntemleriyle çözülmesi gereken bir optimizasyon süreci varsa, istatistikler bu X'in onu üreteceğini varsayacaktır. Yani X sürekli ise, X'in Gaussian olduğunu varsayabilirim; X'in Gauss varsayımı kuvvetliyse, X'in bir Gauss karışımı olduğunu söyleyebiliriz. Şu anda, herkes X'in soyut bir matematiksel bilinç olduğunu ve belirli bir fiziksel anlamı olmadığını keşfetti, bu nedenle doğal sinir ağı teknolojisi, matematiksel anlamda X üretmek yerine görüntüler gibi dil üretebilir. Şu anda, böyle bir sorunu çözmek için bir yüzleşme ağı oluşturmaya benzer bir yöntem geliştirildi, çerçevesi aslında bir optimizasyon sorununun nasıl oluşturulacağıdır.

Pekiştirmeli öğrenme son zamanlarda popülerdir ve bir öğrenme optimizasyon problemi oluşturmak için çevre ile etkileşim kurmak için kuralları kullanır. Pekiştirmeli öğrenmenin denetimli öğrenmeden bazı öncülleri vardır ve daha sonra bu ön bilgileri bir optimizasyon hedefi oluşturmak için kullanır. Bu, pekiştirmeli öğrenmenin mevcut gelişimidir. Derin öğrenme 2006'da önerildi ve 2012'ye kadar inmedi. Aslında, beş veya altı yılın ortasındaki ana makine öğrenicileri bunun içinde geziniyordu ve pek çok insan bunu gerçekten takip etmedi. Başka bir deyişle, bu bir Fırsat dönemi ama büyük bir fırsat dönemi değil, demek kolay değil.

Makine öğrenimiyle ilgili üç sorun olduğunu biliyoruz: denetimli, denetimsiz ve pekiştirmeli öğrenme. Peki makine öğrenimi ile istatistik arasındaki ilişki nedir? Başlangıçta, makine öğreniminin bir istatistik dalı olduğunu düşünüyorduk. Şimdi makine öğreniminin modern istatistik olduğunu düşünüyoruz, ancak istatistiklerle ince bir ilişkisi var.Makine öğrenimi bir sınıflandırma problemidir ve istatistik bir regresyon problemidir, ancak regresyon açısından çok fazla değildir. Temel fark.

Ek olarak, makine öğrenimi genellikle optimizasyon sorunlarına yol açar. Model ne kadar iyi olursa olsun, ancak yeni veriler iyi değildir, makine öğrenimi işe yaramaz. Bu açıdan anlamak için, öğrendikten sonra genellemeye dikkat etmeliyiz. Modern makine öğreniminin başarısı, derin öğrenmenin sadece doğrusal olmayan bir model değil, doğrusal olmayan bir temsil olduğunun temsilinde yatmaktadır. Tahmin yapmak için makine öğrenimini kullanmak istiyoruz ve tahminler hesaplamalar yoluyla elde edilir, bu nedenle iyi bir temsil, nihai tahmin için uygun olmalı ve bu temsil de benim hesaplarım için uygun olmalıdır.

Derin öğrenme de birçok zorlukla karşılaştı: Birincisi, genellikle parametre problemlerini beraberinde getiren büyük veri gereksinimi. Ek olarak, yaptığım ifade çok katmanlı bir ifadeye dayanıyor, bu nedenle sorun, temel sorunu olan yüksek derecede dışbükey olmama sorunu. Makine öğreniminin dikkat etmesi gereken dört temel konu vardır: genelleştirilebilirlik, hesaplanabilirlik, kararlılık ve yorumlanabilirlik. Artık herkes yorumlanabilirliği vurguluyor, ancak odak kararlılık ve genelleme olmalıdır. Çok seviyeli teknoloji, düzenleme ve standardizasyon teknolojisi, entegrasyon + ortalama teknolojisi ve uyarlanabilir yöntemler, bu sorunları objektif bir şekilde çözmemize yardımcı olabilir.

Son olarak, matematik mühendisliği kavramını neden önerdiğimi özetleyeyim. Yapay zekanın matematiksel mekanizmasını incelemek için olasılık teorisi ve matematikte rastgele analiz kullanılabilir. Bir modelimiz olsa bile sonunda sonucu hesaplamamız gerekiyor. Bu hesaplama üç kısma ayrılabilir: Birincisi veri analizi, sürekli problemleri çözmek için algoritma ve diğeri ise ayrık algoritmadır.Bu, ayrık yapıların yanı sıra büyük ölçekli dağınık mimari problemlerini çözmek için bir algoritma olarak görülebilir. Bunları projeler olarak düşünebiliriz ve bunlar hesaplamalı mühendislik fikirleriyle gerçekleştirilebilir.

Uygulamalı matematiğin en önemli cazibesi, sadece teoremleri kanıtlamak için değil, sorulara yaklaşma ve düşünme biçimindedir.Mühendislik bir teknoloji ve sanattır ve algoritmalar için gerekli bir tamamlayıcıdır. Hesaplamalı grafikler ve otomatik farklılaştırma gibi mühendislik araçları olmadan, derin öğrenme hiçbir şekilde desteklenemez. Derin öğrenmedeki birçok teknik mühendisliktir, ancak matematiksel şeylere de dahil edilir. Pekiştirmeli öğrenme büyük bir başarı sağlayabilirse, o zaman matematik ve mühendisliğin gelişiminin de bir zirve oluşturacağına inanıyorum.

"Zhiyuan Forumu-Yapay Zekanın Matematiksel Temelleri" nin ilk raporu başarılı bir sonuca ulaştı. Sonraki iki rapor 5 13 ve 16 Mayıs tarihlerinde yapılacak. Daha fazla ayrıntı için lütfen Pekin Zhiyuan Yapay Zeka Araştırma Enstitüsüne dikkat edin Resmi web sitesi https://www.baai.ac.cn.

Leifeng.com AI Teknolojisi İncelemesi

İngiliz kadın fiziksel ve zihinsel olarak istismara uğradı ve boşanmak istedi ve birikimlerini transfer etti, kocası onu 59 kez bıçaklayarak öldürdü ve onu sevdiğini iddia etti!
önceki
Sahne | Birinci yıldönümünde Panmunjom toplantısı ve "Yarımada'da Barış" ı yeniden ziyaret ediyor
Sonraki
İnsanların ışığı! Çin askeri sanayisini zarara uğratan motor sorunu bu işçi tarafından aşıldı.
4 yaşındaki karışık ırklı sevimli bebek 4 dili anlıyor ve ebeveynlerinin eğitim konsepti kesinlikle harika!
2019 Global Smart Expo'nun büyük etkinliği: BAT ve diğer teknoloji devleri ve 200'den fazla katılımcı "aynı aşamada yarışıyor"
Avrupa'daki ilk Çin prensesi olan Prens ile okurken ve çalışırken tanıştı ve 25 yaşında kraliyet ailesiyle evlendi.
Şu aileye bir bak! Baba hala cezasını çekiyor ve kızı ve damadı da "burada"
Snooker Dünya Şampiyonası yarı finallerinin tümü üretildi
Üç köpek sahiplerinin etrafında evcil hayvanlar için yarışıyor, tek tek dokunulmayı bekliyor, bana yeterince dokundun
Dünyayı tanı
Çin Mühendislik Akademisi Akademisyeni Li Deyi: Otonom sürüş için 4 senaryoya öncelik verilebilir ve 2060 yılında seri üretim gerçekleştirilecek
Son olarak, NVIDIA'yı yenmeyen ancak Google ile rekabet eden bir AI bulut çipi başlangıç şirketi var.
Canlı inceleme | Finansal hizmetlerde AI uygulaması
Oracle Çin'de yaklaşık 1.000 kişiyi işten çıkarıyor; Bezos "Blue Moon" uzay aracını piyasaya sürüyor; JD.com Avustralya pazarından çekildi; Alipay "Fabei"nin lansmanına yanıt veriyorLei Feng Morning
To Top