2018 yılında makine öğrenimi ve yapay zeka alanındaki en önemli atılım nedir?

Kaynak: Xinzhiyuan

Bu makale hakkında 3300 kelime 8 dakika okumanız tavsiye edilir.

Bu makale, 2018'de makine öğrenimi ve yapay zeka alanındaki en önemli atılımları size tanıtıyor ve 2019'da yapay zekanın gelişimini öngörüyor.

2018 yılında yapay zeka hangi aşamada gelişti? Quora'nın tanınmış büyük V'si, AI yutturmaca ve AI tehdit teorisinin bu yıl soğuyacağına ve AI kışının olmayacağına ve çeşitli açık kaynak çerçevelerinin ısınacağına inanıyor. 2019'da AI'nın ne olacağını düşünüyorsunuz?

2018 yılında makine öğrenimi ve yapay zeka alanındaki en önemli atılım nedir?

(Bu size tamamen düşünmeniz için zaman verir.)

Diğer bakış açılarına bakın.

Daha önce KDnuggets, 2018'de yapay zekanın ilerlemesini gözden geçirmek için endüstri, akademi ve teknolojiden 11 ön cephe personelini davet etti. Bunlar arasında, AI akademik zirvelerinin ticarileşmeye düşmesini engelleme çağrısında bulunan CMU yardımcı doçenti Zachary C. Lipton, 2018'deki en büyük ilerlemenin (derin öğrenme) ilerleme olmadığına inanıyor.

Son zamanlarda Forbes, 2018'deki AI teknolojisi ve endüstrisinin mevcut durumuna dayanarak AI endüstrisinin 120 kurucusu ve yöneticisi ile röportaj yaptı ve 2019 için 120 tahmin ortaya koydu.

Önceki yıllarda olduğu gibi Quora, tanınmış bir büyük V, makine öğrenimi araştırmacısı ve Quora mühendisliğinin eski başkanıdır. Xavier Amatriain Ayrıca 2018'de makine öğrenimi ve yapay zeka alanında en büyük ilerleme olduğunu düşündüğü şeyi yazdı:

  • Hem AI aldatmacası hem de AI tehdit teorisi soğudu;
  • Giderek daha fazla insan adalet, yorumlanabilirlik veya nedensellik gibi konulara dikkat etmeye başlıyor;
  • Derin öğrenme artık soğuk bir kış yaşamayacak ve görüntü sınıflandırması dışındaki alanlarda (özellikle doğal dil işleme) pratik ve faydalı olacaktır;
  • AI çerçevelerindeki rekabet kızışıyor. Bir şey yapmak istiyorsanız, kendi çerçevelerinizden birkaçını yayınlamak en iyisidir.

Bir göz at.

Derin öğrenme kışı gelmeyecek ve 2018 beklentileri ve yapay zeka korkuları düştü

Xavier Amatriain'in dediği gibi, derin öğrenme kışı gelmeyecek - bu teknoloji sektörde kullanıldı ve faydalar getirdi.Gerçek, insanların yapay zeka ile ilgili bazı beklenti ve korkularını ortadan kaldırmasına neden oldu ve sektör, verilerin adilliğini düşünmeye başladı. Modelin ve modelin yorumlanabilirliği gibi daha önemli konular.

2017, yapay zeka yutturmaca ve tehdit teorisinin zirvesiyse, 2018 sakinleşmeye başladığımız yıl gibi görünüyor.

Musk ve diğerleri yapay zeka korkularını vurgulamaya devam etseler de, bu konuyla ilgilenemeyecek kadar başka konularla meşgul olabilirler.

Aynı zamanda, hem medya hem de halk, otonom araçlar ve benzer teknolojiler gelişmesine rağmen, yakında gelmeyeceklerini fark ediyor gibi görünüyor. Ancak yine de yapay zekanın kendisinin düzenlenmesini destekleyen sesler var Xavier Amatriain bu görüşün yanlış olduğuna ve gerçekten düzenlenmesi gereken şeyin YZ'nin sonucu olduğuna inanıyor.

Derin öğrenme: Yorumlanabilirlik daha fazla dikkat çekiyor, NLP, ImageNet anını başlattı

AI yutturmaca ve AI tehdit teorisinin soğumasıyla ilgili olarak, aslında daha önce söylemiştik Xavier Amatriain, bu yılın odak noktasının daha spesifik problemleri çözmeye kaymış gibi göründüğünü görmekten mutlu olduğunu söyledi.

Örneğin, sektörde adalet konusunda pek çok tartışma olmuştur, yalnızca ilgili konularda (FATML, ACM FAT gibi) ve hatta bazı çevrimiçi kurslar hakkında birden fazla konferans düzenlemekle kalmaz.

Ocak 2019 sonunda Amerika Birleşik Devletleri'nde düzenlenen ACM FAT toplantısı

açık Yorumlanabilirlik , Algoritmalar veya modeller için Anlama ile Nedensellik . İkincisi, esas olarak Judea Pearl yayınladığı için yeniden ilgi odağı haline geldi. "Neden Kitabı" Bu kitap. Tavsiye sistemleri üzerine ACM Recsys konferansıyla ilgili olarak, En İyi Bildiri Ödülü, nedenselliğin gömme işlemine nasıl dahil edileceğini tartışan bir bildiriye (Öneriler için Nedensel Gömüler) de verildi.

Bunu söyledikten sonra, diğer birçok yazar nedenselliğin bir dereceye kadar derin öğrenme teorisine bir müdahale olduğuna inanıyor ve yine yorumlanabilirlik veya açıklama gibi daha spesifik konulara odaklanmalıyız. Açıklamadan bahsetmişken, bu alandaki en önemli noktalardan biri, Marco Tulio Ribeiro ve diğerleri tarafından Washington Üniversitesi'nde yayınlanan, ünlü modeli LIME'nin bir iyileştirmesi olan Anchor kağıt ve kod olabilir.

En yaygın AI paradigması olarak derin öğrenme hakkında hala birçok soru olmasına rağmen (soru soran beni bir olarak kabul ediyor); Yann LeCun ve Gary Marcus zaten bu konuyu ninci kez tartışıyor olsalar da, derin öğrenmenin sadece Burada kal.

Bu yıl derin öğrenme yöntemleri, dil, tıp ve eğitim dahil görme dışındaki alanlarda benzeri görülmemiş bir başarıya ulaştı. Özellikle eğitimde, yurtiçinde ve yurtdışında uyarlanabilir öğrenme (Uyarlanabilir Öğrenme) giderek daha popüler hale geliyor. Çin'in Squirrel AI (Yi Xue Education) tarafından temsil edilen kişiselleştirilmiş uyarlanabilir öğretim platformu, "makine öğreniminin vaftiz babası" Tom Mitchell'i bile davet etti. Baş bilim adamı olun.

Aslında NLP alanında bu yıl en dikkat çekici ilerlemeyi gördük. Bu yıl en etkileyici AI uygulamasını seçmem gerekirse, seçimlerimin tümü NLP alanından (ve tümü Google'dan). İlki Google tarafından çok kullanışlıdır Akıllı Yazma Akıllı e-posta oluşturma aracı, ikincisi Dubleks Diyalog sistemi.

Dil modellerini kullanma fikri, NLP'nin ilerlemesini hızlandırdı. Bu fikir, bu yıl Fast.ai'nin UMLFit'i tarafından tanıtıldı. Daha sonra Allen Enstitüsü'nün gibi diğer (iyileştirilmiş) yöntemleri gördük. ELMO , Açık AI transformatörler Ve son Google sürümü BERT Önceki SOTA sonuçlarını birçok görevde yendi. Bu modeller şu şekilde tanımlanmaktadır: "NLP'nin ImageNet Momenti" , Çünkü kullanıma hazır, önceden eğitilmiş genel modeller sağlarlar ve ayrıca belirli görevler için ince ayar yapılabilir.

Dil modeline ek olarak, Facebook'un çok dilli yerleştirmesi gibi birçok başka ilginç geliştirme de var. Bunların ve diğer yöntemlerin AllenNLP veya Zalando'nun FLAIR'ı gibi daha genel NLP çerçevelerine nasıl hızla entegre edildiğini de gördük.

Ekoloji: AI çerçeve savaşları kızışıyor, sonuçlara ulaşmak için kendi çerçevelerinizden birkaçını yayınlasanız iyi olur

Çerçevelerden bahsetmişken, bu yılki "AI Çerçeve Savaşı" Daha da kötüye gidiyor olarak tanımlanabilir. Şaşırtıcı bir şekilde, Pytorch 1.0'ın piyasaya sürülmesiyle Pytorch, TensorFlow'u yakalıyor gibi görünüyor.

Pytorch'un üretimde kullanımı hala ideal olmasa da, Pytorch'un bu alandaki ilerlemesi TensorFlow'un kullanılabilirlik, dokümantasyon ve eğitimdeki ilerlemesinden daha hızlı görünüyor. İlginç bir şekilde, Fast.ai kitaplığını uygulamak için çerçeve olarak Pytorch'un seçimi muhtemelen önemli bir rol oynadı.

Bunu söyledikten sonra, Google tüm bunların farkında ve Keras'ı çerçeveye dahil etmek gibi doğru yönde ilerliyor. Sonunda, tüm bu harika kaynaklardan hepimiz faydalanabiliriz, bu yüzden lütfen onları karşılamaya devam edin!

pytorch ve tensorflow arama trendleri

Çerçeve alanında, bir başka hızlı ilerleme de Takviye öğrenme .

RL'nin araştırma ilerlemesinin önceki yıllarda olduğu kadar etkileyici olmadığını düşünsem de (aklıma sadece DeepMind'ın Impala'nın son çalışması geliyor), şaşırtıcı bir şekilde bir yıl içinde hepsini görmemiz Büyük AI oyuncularının tümü RL çerçevesini yayınladı.

Google, Dopamin çerçevesi Deepmind, Dopamine ile bir dereceye kadar bir yarışma yayınladı TRFL çerçevesi . Altta kalmamak, Facebook yayınlandı Ufuk Ve Microsoft yayınlandı TextWorld , İkincisi daha spesifik olarak metin tabanlı aracıları eğitmek için kullanılır. Umarım 2019'daki açık kaynağın tüm avantajları, RL alanının daha fazla ilerleme kaydetmesine yardımcı olabilir.

Son olarak, Google'ın kısa süre önce TensorFlow'un üstüne çıktığını görmekten çok mutluyum. TFRank . Sıralama çok önemli bir ML uygulamasıdır.

Veri: Bir DL modelini eğitmek için sentetik verileri kullanın

Derin öğrenme, nihayetinde veriler üzerinde istihbarat ihtiyacını ortadan kaldırıyor gibi görünüyor, ancak gerçek olmaktan uzak.

Verileri iyileştirme fikri etrafında bu alanda hala çok ilginç gelişmeler var. Örneğin, veri geliştirme bir süredir piyasada olmasına ve birçok DL uygulamasının anahtarı olmasına rağmen, Google bu yıl yayınladı Otomatik Büyütme , Bu, eğitim verilerini otomatik olarak geliştirebilen derin bir pekiştirmeli öğrenme yöntemidir.

Daha uç bir fikir, bir DL modelini sentetik verilerle eğitmektir. Bu bir süredir pratikte denendi ve birçok kişi tarafından yapay zekanın geleceğinin anahtarı olarak görülüyor. NVidia içinde Sentetik Verilerle Derin Ağların Eğitimi Bu yazıda ilginç yeni fikirler sunulmaktadır. içinde "Uzmanlardan öğrenmek" Bu yazıda ayrıca, sentetik veriler oluşturmak için uzman bir sistemin nasıl kullanılacağını, ardından sentetik verileri gerçek verilerle birleştirmeyi ve bu verileri DL sistemini eğitmek için nasıl kullanacağımızı gösterdik.

Son olarak, büyük miktarlarda manuel olarak etiketlenmiş veri ihtiyacını azaltmak için "zayıf denetimi" kullanan ilginç bir fikir var. Şnorkel, ortak bir çerçeve sağlayarak bu yaklaşımı teşvik etmeyi amaçlayan çok ilginç bir projedir.

Temel teori: Yapay zekanın pek çok temel atılımı yok mu?

AI'da çok daha fazla temel atılım görmedim. Hintonun bakış açısına tam olarak katılmıyorum. Bilimde çığır açan araştırmanın genellikle daha ileri olduğu yönünde bir eğilim olmasına rağmen, bu yenilik eksikliğinin bu alandaki "çok az yaşlı insan ve çok fazla genç insandan" kaynaklandığını söyledi. Yaşlılıkta bitirdi.

Kanımca, mevcut buluş eksikliğinin ana nedeni, mevcut yöntemlerin ve varyantların hala birçok etkili pratik uygulamaya sahip olmasıdır, bu nedenle pratik olmayabilecek yöntemleri benimseme riskini almak zordur. Bu alandaki araştırmaların çoğu büyük şirketler tarafından desteklendiğinde bu daha da önemlidir.

Bu bağlamda, bu yıl, "Dizi Modelleme için Genel Evrişimli ve Tekrarlayan Ağların Ampirik Değerlendirmesi" başlıklı bazı varsayımlara meydan okuyan ilginç bir makale var ( Dizi Modellemesi için Genel Evrişimli ve Tekrarlayan Ağların Ampirik Bir Değerlendirmesi ). Oldukça deneysel olmakla birlikte ve bilinen yöntemleri kullanırken, bu makale yeni yöntemler keşfetmenin kapısını açmaktadır çünkü genellikle optimal olarak kabul edilen şeyin aslında optimal olmadığını kanıtlamaktadır.

Açık olmak gerekirse, Bored Yann LeCun'un bakış açısına katılmıyorum, Evrişimli ağların nihai "ana algoritma" olduğuna inanıyor ve RNN'lerin de öyle olduğunu düşünmüyorum.

Sıralı modelleme için bile çok fazla araştırma alanı var! Son derece keşif niteliğindeki bir diğer makale, en yeni NeurIPS en iyi makalesi "Sinir Sıradan Diferansiyel Denklemler" , Katman kavramı da dahil olmak üzere DL'deki bazı temel içeriğe meydan okur.

2018 yılında, makine öğrenimi ve yapay zekanın gelişimi veri setine takıldı

Xavier Amatriain'in bakış açısının ardından şunu da ekliyoruz:

2018 yılında, makine öğrenimi ve yapay zekanın ilerlemesi veri setinde takılıp kaldı.

Neden öyle diyorsun?

Dün, Startup Graphext, Reddit'te bir gönderi yayınladı ve 2018'de Reddit web sitesinin Makine Öğrenimi içerik sınıflandırmasındaki 2509 gönderinin küme analizinin sonuçlarını duyurdu (daha büyük resmi görmek için "orijinal metni okuyun" seçeneğine tıklayın):

(Reddit'te) İnsanların en çok önemsediği konu (% 20) veri seti, Eğitim verileri, büyük ölçekli veri kümeleri, açık kaynak, yeni veriler, modeller, örnekler vb. Dahil; ardından yinelenen sonuçlar, Kaggle yarışmaları ve Google ile FB'nin çalışmaları dahil olmak üzere araştırma kağıtları (% 18'i oluşturan); ve eğitim ( % 16'sı oluşturuldu).

Graphext'in 2018 Reddit makine öğrenimi sonrası kümeleme sonuçları: en endişe verici olan verilerdir

Bir aile ifadesi olmasına rağmen, bu kümelenme sonucu aynı zamanda bir dereceye kadar makine öğreniminin ve yapay zeka uygulayıcılarının-verilerinin mevcut odağını da yansıtıyor! Büyük veri! Açık kaynak büyük veri!

Bir bilim insanı olarak Zachary Lipton'un 2018'de derin öğrenmedeki en büyük ilerlemenin ilerleme olmaması olduğunu söylemesine şaşmamalı. Hala büyük verilere güveniyoruz. Büyük veri ve büyük bilgi işlem gücüne sahip Google ve FB gibi devler, sonuç üretmek için en kolay ve acil olanlardır Algoritmalarını ve modellerini yeniden üreten diğer makine öğrenimi mühendisleri eğitimle ilgilenir.

Cevabın ne Yorumlarda mesaj bırakmaya hoş geldiniz!

- Bitiş -

Tsinghua-Qingdao Veri Bilimi Enstitüsü'nün resmi WeChat kamu platformunu takip edin " THU Veri Pastası "Ve kız kardeş numarası" Veri Pastası THU "Daha fazla ders avantajı ve kaliteli içerik elde edin.

Tianfu Green Road yeni bir fitness sahnesi oldu, Chengdu'nun 5. Ulusal Fitness Oyunları sona erdi
önceki
Yüz milyarlarca pazarı "süpürmek" için yarım yıllık araştırma ve geliştirme çalışmaları, Facebook'un telekom hayalinin ayrıntılı bir açıklaması
Sonraki
UCI Machine Learning Veritabanının Python API'sini tanıtın
ABD süper yüksek hızlı tren ikilisi HTT, kabin fotoğrafları patladı
Alman ekonomik durgunluğu, Çin'den bile daha kötü olan ciddi hava kirliliğinden mi kaynaklanıyor? !
Rizhao'daki insanlar Çin Yeni Yılını tapınak fuarını ziyaret ederek geçirmek ve otantik Shandong Yeni Yılı lezzetini hissetmek için buraya gelirler.
Dünya elemeleri - Özil, Almanya'yı sekiz maçta 6-0 galip çıkardı Rashford, İngiltere'yi 2-1 geri aldı
GIF-Üç tarak Evergrande'nin kapısını kırmayı başaramadı, Zahavi ayağa kalkmak istemeyen çimlerde yatıyordu!
Yeni Yıl hediyesi: 365 makine öğrenimi kavramı, "yırtılmaya dayanıklı" AI takvimi sınırlı ön satış
Madden! Fransız çevik kuvvet polisi sarı yelekli videoyu bastırdı
Haberler | 5. Chengdu Yaratıcı Tasarım Haftası, 1.191 milyar yuan'ı aşan toplam işlem tutarı ile başarıyla sona erdi
Wu Shichun: "Kitaplar" doğru yolu seçti ve özü kavradı. HER ŞEY bana dokundu
Wenchuan depreminden Jinsha Nehri bariyer gölüne kadar, değişiklikleri yaşadılar ve aynı
Çiftçilik ve hasatta annenin tadını tatmak için Wuhan'da yüzden fazla kadın girişimciye yönelik platform kuruldu.
To Top