LeCun, Zhou Zhihua, Li Kaifu ve diğerleri 2020'de yapay zeka için ne bekliyor?

Lei Feng.com AI teknolojisi yorum notu: Derin öğrenmenin popülaritesiyle, araştırmacılar, öğrenciler, makale sayısı, ticari uygulamalar ve yatırım miktarları dahil olmak üzere 2010'larda makine öğreniminin tüm alanının patlayıcı bir büyümeye yol açtığı söylenebilir. Bununla birlikte, tüm makine öğrenimi ekosistemi hala veri toplama, sistem sağlamlığı, enerji tüketimi ve net olmayan derin öğrenme teorisi gibi sorunlarla karşı karşıyadır.

2020 yılı geldi Bu yıl makine öğrenimi alanında tanınmış akademisyenlerin beklentileri neler? Wu Enda'nın DeepLearning.ai ve "The Batch" dergisi, Yann LeCun, Li Kaifu, David Patterson, Zhou Zhihua ve Leifeng.com AI Technology Review dahil olmak üzere bir dizi akademisyene sordu. AI Technology Review, aşağıdakileri derlemek için ana içerik olarak bunu kullanıyor.

Stanford Üniversitesi'nde Bilgisayar Bilimi ve Elektronik Mühendisliği Yardımcı Doçenti Chelsea Finn: Daha iyi genelleme yeteneklerine sahip robotları dört gözle bekliyoruz

Yapay zeka alanındaki pek çok kişi, Go oynayabilen bir yapay zeka veya bilgisayar oyunları gibi, lanse edilmeye değer sonuçlar elde etmeyi önemsiyor. Bu sonucun karmaşıklığı gerçekten takdire şayan, ancak zekanın çok önemli başka bir boyutunu da gözden kaçırmak kolaydır: genelleme yeteneği, birçok farklı görevi yerine getirme ve birçok farklı ortamla başa çıkma becerisidir. 2020 için, daha iyi genelleme yeteneklerine sahip modeller oluşturmamıza yardımcı olacak bazı yeni yöntemlerin ortaya çıkacağını umuyorum.

Kendi araştırmamda, davranışlarının çevrelerini nasıl etkilediğini anlayabilmeleri için pekiştirmeli öğrenme yoluyla robotları eğiteceğim. Örneğin, robotları birçok farklı nesneyle etkileşime girecek şekilde eğiteceğim.Amaç, birçok farklı görevi tamamlamak.Bazen kutulara bir şeyler koyuyorum, bazen de çöpleri faraşlara süpürüyorum. Ancak bu hedeflere pekiştirmeli öğrenme eğitimi ile ulaşmak aslında oldukça zordur.

Denetimli öğrenmede, bir görüntü tanıyıcıyı ImageNet veri setinin 14 milyon görüntüsü üzerinde eğitmek her zaman belirli bir derecede genelleme yapacaktır. Takviyeli öğrenmede, bir model çevre ile etkileşime girerek öğrenir ve daha sonra süreç içinde giderek daha fazla veri toplar. ImageNet üzerinde eğitilen modelin iyi genelleme düzeyine alışkınız, ancak mevcut teknoloji ile pekiştirmeli öğrenme modelinin böyle bir genelleme düzeyine ulaşmasını istiyorsak, her yeni modeli toplamamız gerekiyor. ImageNet boyutunda bir veri kümesi. Bu temelde imkansızdır.

Takviye öğrenme ile eğitilen sistemin iyi genelleme yeteneklerine sahip olmasını istiyorsak, ortamı keşfederken veri toplamak yerine çevrimdışı veri kümelerinden öğrenebilen bir aracı tasarlamamız gerekir. Ayrıca, ImageNet'in bugün 1 milyon görüntüden 14 milyon görüntüye değişmesi gibi, önceden toplanan veri setinin de ortamdaki veya dünyadaki değişiklikleri yansıtacak şekilde kademeli olarak güncellenebileceğini umuyoruz.

Bazı değişiklikler çoktan başladı. Örneğin, bazı çalışmalarda robotlar yeni nesneleri kendi çevresel etkileşimlerinden + insan güdümlü robot kol hareket gösterilerinden araç olarak nasıl kullanacaklarını öğrenebilirler; ayrıca koleksiyonumuz gibi diğer kaynaklardan gelen verileri de kullanmaya çalışıyoruz. Büyük bir robot etkileşim veri seti, dört farklı araştırma kurumundan ve yedi farklı robot platformundan gelen verileri içerir.

Pek çok araştırmacının pekiştirmeli öğrenmenin genellemesini geliştirmeye çalıştığını görüyorum. Bu zorlukları çözebilirsek, robotlarımız şu an olduğu gibi laboratuvarda "akıllıca" bir şeyler yapmak yerine, "gerçek dünyada akıllıca hareket etme" hedefine bir adım daha yaklaşacak.

New York Üniversitesi Profesörü, FB Baş Yapay Zeka Bilimcisi ve 2018 Turing Ödülü Sahibi Yann LeCun: Kendi kendine denetimli öğrenimi dört gözle beklemeye devam edin

İnsanlar temelde sadece 20 saat içinde bir arabayı güvenli bir şekilde kullanmayı öğrenebilirken, mevcut taklit öğrenme algoritması sürmeyi öğrenmek için yüz binlerce saat gerektiriyor ve takviye öğrenme algoritması sürmeyi öğrenmek için milyonlarca saat bile gerektiriyor. Neler oluyor? Belli ki önemli bir şeyi gözden kaçırdık.

İnsanlar verimli bir şekilde öğrenebilirler çünkü zihnimizde bir dünya modeli var. Yeni doğan bebekler dünyayla nasıl etkileşim kuracaklarını bilmiyorlar, ancak gözlem yoluyla çok sayıda arka plan bilgisini anlamaları yalnızca birkaç ay alıyor. Açıktır ki, beynimizin büyük bir kısmı dünyanın yapısını anlamak ve doğrudan gözlemleyemediğimiz şeyleri tahmin etmek için kullanılır (gelecekte gelecekte olabilir ve uzayda bloke olabilir).

Bence bu, yapay zekanın gelecekteki gelişiminin "kendi kendini denetleyen öğrenme" olması gerektiği anlamına geliyor. Denetimli öğrenmeye çok benzer, ancak yapması gereken, sistemin örnek ile etiket arasındaki sınıflandırma ilişkisini öğrenmesine izin vermek değil, modelin onu gözlemleyememesi için örneğin bir kısmını kaplamak ve ardından gözlemlenemeyen kısmı tahmin etmesine izin vermektir. Örneğin, bir videonun belirli bir bölümünü çıkarıyoruz ve ardından makineyi önceki ve sonraki içeriğe göre bu bölümü yeniden doldurması için eğitiyoruz.

Bu yöntem son zamanlarda doğal dili anlama alanında özellikle etkili olmuştur.BERT, RoBERTa, XLNet, XLM, vb. Gibi modellerin tümü, bir metin bölümündeki eksik kelimeleri tahmin etmek için kendi kendini denetleyen öğrenme fikri kullanılarak eğitilmiştir. Bu modeller, tüm önemli dil görevlerinde mükemmel puanlar elde etti. 2020 için, kendi kendini denetleyen yöntemlerin videolardan ve görüntülerden özellikleri öğrenebileceğini umuyorum. Video gibi yüksek boyutlu sürekli verilerde benzer bir devrimin gerçekleşmesi mümkün mü?

Belirsizlikle başa çıkmak en önemli zorluktur. BERT gibi modeller cümledeki eksik nesnenin "kedi" mi yoksa "köpek" mi olduğunu belirleyemez, ancak bir olasılık dağılımı oluşturabilirler. Ancak resimlerdeki ve videolardaki kareler için şu anda bir olasılık dağılımı oluşturabilecek iyi bir modelimiz yok. Ancak, son araştırmalar bu hedefe gittikçe yaklaşıyor ve muhtemelen yakında bulabileceğiz. O zaman, modelin videodaki eylemleri tahmin etmesini sağlamak için sadece birkaç eğitim örneğine ihtiyacımız var.Bu, AI alanında çok heyecan verici bir yıl olacak.

İnovasyon Çalışmaları Başkanı ve CEO'su Kaifu Lee: Her yerde yapay zekayı dört gözle bekliyorum

Yapay zeka, keşif ve keşif çağından itibaren iniş uygulamaları çağına girmiştir. Çoğu Çin'de olan birçok yapay zeka projesine yatırım yaptık. Artık bankacılık, finans, ulaşım, lojistik, süpermarketler, restoranlar, ambarlar, fabrikalar, okullar ve ilaç geliştirme gibi birçok alanda büyük ölçekli yapay zeka ve otomasyonu görebiliyoruz. uygulama. Ancak ekonomiye bir bütün olarak bakarsanız, şirketlerin yalnızca küçük bir yüzdesi yapay zekayı kullanmaya başlar. Hala büyümek için çok yer var.

İnsanın teknolojik gelişimi ve ilerlemesi tarihinde yapay zekanın icadı elektriğin icadı kadar önemli olacağına inanıyorum. Önümüzdeki on ila yirmi yıl içinde, AI kişisel yaşamlarımıza ve işimize giderek daha fazla girecek ve daha yüksek verimlilik ve daha akıllı deneyimler getirecek. Şirketler, kurumlar ve hükümetler, sosyal ilerlemeyi teşvik etmek için yapay zekayı benimsemelidir.

Beni en çok heyecanlandıran şey, yapay zekanın sağlık hizmetleri ve eğitim üzerindeki etkisi. Bu alanların her ikisi de herhangi bir zamanda AI'nın girmesini bekliyor ve AI birçok iyi şey yapmak için kullanılabilir.

Yatırım yaptığımız şirketlerden biri, tedarik zincirini optimize etmek için yapay zeka ve büyük veri kullanıyor. Bunun etkisi, kırsal alanlarda yaşayan 1,5 milyondan fazla Çinli için uyuşturucu kıtlığını hafifletmek. İlaç araştırması ve geliştirmesi için derin öğrenme ve üretimsel kimyanın gücünü birleştiren şirketlere de yatırım yaptık Bu yaklaşım, yeni ilaç keşfi süresini orijinalin üçte birine veya hatta dörtte birine kadar kısaltabilir.

Eğitim alanında, öğrencilerin İngilizce telaffuzlarını geliştirmelerine, test kağıtlarını ve ev ödevlerini düzeltmelerine ve matematik öğrenme sürecini oyunlaştırmalarına ve kişiselleştirmelerine yardımcı olmak için yapay zeka tabanlı yöntemler geliştiren şirketler de gördük. Bu, öğretmenleri günlük görevlerinden kurtarabilir, yeni çağda öğrencilere daha fazla zaman ve enerji harcamalarına ve ilham verici ve teşvik edici bir öğretmen-öğrenci ilişkisi kurmalarına olanak tanır.

Daha fazla girişimci ve girişimcinin 2020'de ve önümüzdeki birkaç yıl içinde yararlı şeyler yapmak için yapay zekayı kullanmaya başladığını görmeyi umuyorum.

Google TPU ekibi, 2017 Turing Ödülü sahibi, Stanford Üniversitesi'nden emekli profesör David Patterson: şiddetli rekabet daha hızlı AI çipleri getiriyor

Yeni AI donanımının geliştirilmesine yatırılan milyarlarca dolar, 2020'de erken sonuçlar görecek. Google tarafından 2017'de geliştirilen TPU, çok fazla bilgi işlem maliyetinden tasarruf etti ve önümüzdeki iki ila üç yıl içinde Alibaba, Cerebras, Graphcore, Habana, Intel ve diğer birçok şirketin kendi AI çiplerini geliştirmeye başladığını gördük. Bu çipler, yavaş yavaş araştırma laboratuvarlarına ve kurumsal veri merkezlerine girecek. Yapay zeka ailesinin bu yongaların yeteneklerinden en iyi şekilde yararlanabileceğini umuyorum, böylece AI alanı daha iyi modeller kullanabilir ve daha değerli pratik uygulamalar getirebilir.

Peki, makine öğrenimini geliştiren mühendisler, bu yeni, birleşik alternatif platformların geleneksel CPU + GPU çözümlerinden daha iyi performans gösterip gösteremeyeceğini nereden biliyor?

Bilgisayar mimarisinin değerlendirme yöntemi, mutlak ölçeği doğrudan karşılaştırmak değil, biraz dolambaçlıdır. Farklı boyutlardaki cihazları karşılaştırmak için performansı fiyata bölüyoruz veya performansı güç tüketimine bölüyoruz veya performansı çip sayısına böleriz. Her yarışmacı, başkalarıyla rekabet ederken çalışan bir test olarak kendi çipinde temsili bir program seti seçecektir. Bu tür test prosedürlerinin birçok grubunu seçin ve ardından elde edilen tüm puanların ortalamasını alın; bu, çipin gerçek performansını belirli bir grup üzerinde test etmekten daha iyi yansıtabilir.

MLPerf, 50 şirket ve 9 üniversite tarafından seçilen temsili programlara dayalı olarak tasarlanmış daha yeni bir AI çip çalıştırma puanı testidir. MLPerf, programları ve veri setlerinin yanı sıra test eğitimi ve çıkarım için sabit spesifikasyonlar içerir ve doğruluk ve hiperparametre seçimi gibi önemli parametreler için net gereksinimler sağlar. Makine öğrenimi alanının hızlı gelişimine ayak uydurmak için MLPerf, her üç ayda bir yeni bir sürümü de güncelleyecektir.

Bazı ürünler adil bir testi kazanamaz, bu nedenle propaganda departmanı MLPerf'in çalışan yorumlarından kaçacak ve hatta "kullanıcılarımız MLPerf'teki test prosedürlerini umursamıyor" diyecek. Böyle sözlere aldanmayın. Her şeyden önce, MLPerf yeni programlar eklemeye isteklidir, bu nedenle MLPerf'e şu anda belirli bir yük dahil edilmemişse, eklenebilir. İkinci olarak, rakipler, karşılaştırma yönteminin aynı olmadığından emin olmak için diğer çiplerin MLPerf puanlarını da önemseyeceklerdir.

Yanlış ürünü satın aldıktan sonra iade edilmeyeceğinden korkuyorsanız, önce MLPerf puanını kontrol etmeyi unutmayın!

Nanjing Üniversitesi Bilgisayar Bilimleri Bölümü Profesörü ve Yapay Zeka Okulu Dekanı Zhou Zhihua: Yeni yöntemler, açık özellikler

2020 için şu üç beklentim var:

  • Derin sinir ağlarının ötesinde daha yeni ve daha gelişmiş makine öğrenimi yöntemlerinin ortaya çıkacağı umulmaktadır. Akademik araştırmacılar, mühendisler ve geliştiriciler uzun süredir sinir ağı modellerini inceliyor ve uyguluyorlar. Diğer makine öğrenimi yöntemlerinin teknolojik yenilik alanı nispeten daha büyüktür.

  • Umarım yapay zeka daha fazla alanda uygulanabilir ve insanların günlük yaşamlarına daha olumlu etkiler getirebilir.

  • Umarım, yapay zeka akademik araştırmacıları, mühendisleri ve geliştiricileri daha fazla düşünme ve tartışma yapabilir ve yapay zeka teknolojisinin yanlış yoldan gitmesinin nasıl önleneceğini ve yapay zeka teknolojisinin kötüye kullanılması veya kötüye kullanılmasının nasıl önleneceğini düşünebilirler.

Sebastian Ruder, Ph.D. Insight Data Analysis Center, DeepMind Research Scientist, NLP Net Red Brother: Ölçekten fazlası var

2020'de NLP araştırmasının geliştirilmesi için birkaç dileğim var:

  • Daha büyük veri kümelerinden değil, daha az örnekten öğrenin

  • Daha büyük modeller yerine daha kompakt ve verimli modeller geliştirin

  • Modeli en az iki dilde değerlendirin (tercihen farklı dil ailelerinin dilleri)

  • Yeni NLP veri kümesi ayrıca en az iki dil içermelidir

  • Bilimsel araştırmaya yardımcı olmak ve daha fazla bilimsel bilgiyi keşfetmek için NLP'yi kullanın ("Denetimsiz kelime yerleştirmeleri, malzeme bilimi literatüründeki gizli bilgileri yakalar" Doğa makalesi gibi)

İçeriğin bir kısmı için lütfen Leifeng.com AI Technology Review tarafından derlenen blog.deeplearning.ai/blog/ adresine bakın.

Today's Paper | Streamline BERT; yüz değişimi; 3D nokta bulutu; DeepFakes ve 5G vb.
önceki
Xiaojiao'nun kurucusu Xiaoyan Wang, Xiaomi'ye Çin başkan yardımcısı olarak katıldı
Sonraki
AAAI 2020 | Çözülme modeli aracılığıyla anlamsal ve gramer beyin temsil mekanizmasını keşfetmek
AAAI 2020 | Multimodal kıyaslamalar tarafından yönlendirilen üretken çok modlu otomatik özetler
Tushen genellikle diferansiyel denklemler, GNN'nin becerilerini sürekli derinlik alanında göstermesi nasıl sağlanır?
En üst düzey konferans raporu teklif için nasıl gerekli bir koşul haline geldi?
AlphaGo'dan insan zekasına sahip yapay zekaya ne kadar uzaklıkta? François Chollet'in bazı yeni fikirleri var
İleriye dönük Nesnelerin İnterneti Endüstrisi Küresel Haftalık Raporu No. 23: Lei Jun, beş yılda en az 50 milyar yatırım yapmak üzere 2020 Yeni Yıl mektubu "5G + AIoT" yayınladı
İleriye dönük Robot Endüstrisi Küresel Haftalık Raporu No. 52: AI yazma alanındaki ilk vaka düşüyor! Davayı Tencent Robot Dreamwriter kazandı
Bir gün sonra yıkıldı mı? LeCun, Google'ın "Nature" göğüs kanseri yapay zekâ araştırma sonuçlarını alenen sorguladı
Çin'in teknoloji endüstrisi devleri 2019'da istifa etti
Ku Wei: Alibaba Bulut Endüstriyel İnternet'in üç temel unsuru
Sagitar Juchuang 125 hatlı katı hal lidar 1,898 ABD Doları olarak fiyatlandırılır Katı hal lidar devri mi geliyor? | CES 2020
2019 Apple yöneticileri toplu olarak maaşlarını kesti, Tim Cook hala karşılığında 125 milyon dolar tutuyor
To Top