Caffe yazarı Jia Yangqing ile son röportaj: Doktora öğrencilerini okuduktan sonra, hala fikrin en önemli olduğunu düşünüyorum.

Leifeng.com AI Technology Review Press Bu makale "Robin.ly" genel hesabından yeniden oluşturulmuştur. Bu, Robin.ly'nin kurucuları Alex Ren ve Jia Yangqing arasındaki bir diyalog ve izleyici sorularıyla yapılan röportajların bir kaydıdır. Orijinal metni okumak için buraya tıklayın.

Robin.ly Silicon Valley Exchange'in bu sayısında Caffe'nin yazarı Dr. Jia Yangqing, Caffe'den PyTorch'a yapay zeka altyapısının evrimini ve yapay zeka çağındaki yazılım geliştirme eğilimlerini ve zorluklarını sizinle paylaşmaya davet edildi. Robin.ly'nin kurucusu Alex Ren ile Caffe ve PyTorch'un geliştirilmesi ve yazılım ve donanımın ortak tasarımı üzerine harika bir röportaj ve diyalog yaptı ve izleyicilerden gelen soruları yanıtladı.

Aşağıda bir görüşme kaydı ve soruların bir özeti bulunmaktadır:

"Caffe'den PyTorch'a"

Alex: En erken, Caffe'nin makalenizin ana içeriği değil, sizin bir yan projeniz olduğunu duydum. O zamanlar Caffe'yi geliştirmenin asıl amacı neydi? Bana geçirdiğiniz süreçten bahseder misiniz?

Yangqing: Bunun ana nedeni de yapay zeka araştırmalarından kaynaklanıyor: Geçmişte araştırmacılar, Matlab gibi yeniden üretilmesi zor olan kodlar yazdılar. 2011 ve 2012'de, herkesin yeniden üretilebilir araştırma konusunda bu kadar güçlü bir fikri yoktu, bu yüzden AlexNet makalesi çıktıktan sonra, sonuçlarına ulaşmak için herkes daha güvenilir bir platforma sahip olamazdı. O zamanlar Berkeley'de bağımsız araştırmayı teşvik etmek için Caffe'yi kullanmak istiyorduk, bu yüzden sonuçlarını dahili olarak sunmaya başladık ki bu oldukça yan bir sonuçtu. Tüm süreç yaklaşık iki ay sürdü.

Alex: Facebook'a gidip Caffe yapmaya devam ettiğinizde yeni sorunlarla karşılaştınız mı?

Yangqing: Caffe altı yaşından büyük olduğu için o zamanlar pek çok tarihi sorun vardı. Caffe'yi ilk kurduğumuzda, herkes bilgisayarla görme modelini takip etti, pek çok tasarım CV açısından daha anlamlıydı ve NLP gibi diğer yerlerde nispeten zordu. O zaman, modüler tasarımın tamamı henüz belli değildi. Facebook aslında 15 yıl içinde birçok üründe dağıtım için Caffe'nin çalışma zamanını kullandı, ancak daha sonra tüm esnekliğin bazı sorunları olacaktı, bu yüzden daha sonra Caffe2 ve PyTorch'u yazdık.

Alex: Bir süre önce PyTorch 1.0'ın piyasaya sürüldüğünü duyurmuştunuz. Caffe'nin esas olarak üretim için olduğunu ve PyTorch'un temelde araştırma için olduğunu hatırlıyorum.Onları bir araya getirdiğinizde hangi sorunları çözmeyi umuyorsunuz?

Yangqing: Şu anda daha keşif yönündeyiz, sektördeki herkesin bu yönde ilerlediğini düşünüyorum. Örneğin TensorFlow, TF2.0 duyurusunda istekli moddan veya zorunlu moddan bahsetti. En büyük zorluklardan biri temelde iki farklı öncelik olan araştırma ve üretimdir. Araştırma esneklik gerektirir ve her şey ayarlanabilir olmalıdır; ve Prodüksiyon performansa ihtiyaç duyduğunda, sonunda her zaman nispeten esnek yerler olacaktır. Pek çok kez, belirli pratik uygulamalara bakarım ve sonra bilinçli olarak bazı tavizler veririm . Örneğin, öneri sistemleri dahil olmak üzere bilgisayar görüşü çok büyük ölçeklidir, hatta% 1 veya% 2 doğruluk önemlidir. Bu durumda, performansa daha fazla dikkat etmek için biraz esneklikten ödün vermemiz gerekecek. Doğal dil işleme, makine çevirisi vb. Gibi bazı yeni uygulamaların kaynaklar için bu kadar yüksek gereksinimleri olmayabilir. Örneğin,% 10'luk bir performans elde edebiliriz ve model yineleme gereksinimi nispeten yüksektir, bu nedenle bu, araştırmaya karşı daha önyargılıdır.

"Yazılım ve donanım ortak tasarımı"

Alex: Seninle en son konuştuğumda, donanımın geliştirilmesine daha çok önem verdiğini söylemiştin. Bakış açınızın ne olduğunu bilmek istiyorum, yazılım donanım ortak tasarımı mı?

Yangqing: Yazılım donanım ortak tasarımına daha yatkın olun. CPU ve GPU'nun faydaları sadece donanımda değil, yazılımda da. En korkunç şey nedir? Çok iyi olduğunu biliyoruz, ancak sonunda herkes üzerine hiç kimsenin program yazamayacağını anladı, çünkü çok opak. NVIDIA'nın başarısının nedeni CUDA kodu yazmak isteyen birini yarım günde bulabilmem, C ++ 'yı anladığı sürece CUDA kodunu yazmasına izin verebilirim. NVIDIA, CUDA 2004'te piyasaya çıktığından bu yana NVIDIA, tüm yazılım katmanını o kadar iyi yaptı ki, giriş engelini çok düşük hale getirdi. Aniden bir FPGA'ya gelirsem, hiç kimse bir aydan kısa bir süre içinde üzerine program yazamayacak, bu yüzden yeni donanımın en büyük zorluğu sadece donanımda değil, yazılımda da. Bu yüzden yazılım ve donanım ortak tasarımıyla çok ilgileniyorum.

Alex: Başka bir deyişle, geliştiricilere onu kullanmaları için daha uygun bir yol sağlayan bir eko-sistem kuruyor, değil mi?

Yangqing: Doğru!

"Bilgisayar Alanında Kültür"

Alex: Facebook aynı zamanda birinci sınıf yapay zeka araştırması yapan birkaç şirketten biri, içinde yapay zeka altyapısı üzerine biraz araştırma yürütüyorsunuz. Facebook ve Google gibi şirketlerin bir özelliği olduğunu, yani birlikte çalışan birçok büyük ineği olduğunu biliyorum. Diğer birçok şirket genellikle bir dağın iki kaplanı barındıramayacağı gerçeğine sahiptir. Bu alandaki deneyiminizin ne olduğunu bilmiyorum, hangi deneyimi paylaşabilirsiniz? Ne tür bir kültür, Facebook'un araştırmada en son araştırma sonucuna sahip olmasını sağlar?

Yangqing: Sanırım daha çok bilgisayar kültürü var, örneğin, finans gibi son zamanlarda sık sık duyabileceğiniz haberler, en iyi yetenekleri cezbetmek için giderek daha zor hale geliyor. Bunun kesin bir nedeni, tüm alanın çok kapalı olması ve kimsenin başkalarının ne yaptığını bilmemesidir. O zaman şu anda çok basit bir şey var, yani tek bir ağacı desteklemenin zor olduğunu söyleyen eski bir sözümüz var Bir tarladaki herkes kendi işini yapıyorsa, çok fazla kolektif bilgeliği harekete geçirmek zordur. Bilgisayar alanında herkesin bir çok fikri vardır: Birincisi açık kaynak, ikincisi açık araştırma ve üçüncüsü çok sık değiş tokuşlar. Kullandığımız Reddit gibi birçok platform var, Hacker haberleri iyi bir platform, Robin.ly vb. Dahil, bu yüzden tüm bu kültür herkesin bu pastayı daha hızlı büyütmesine olanak tanıdığını düşünüyorum. Pasta büyüdükten sonra herkes bundan faydalanabilir.

Alex: Bizden bahsettiğiniz için teşekkürler! Reddit'ten bahsettiniz Reddit'inizde bir yorum gördüm. İçinde çerçevesizlik denen bir kelime vardı, çünkü Caffe 2.0'da bahsetmiştiniz Bize bunun ne anlama geldiğini açıklayabilir misiniz?

Yangqing: Çerçeve dışı temelde, herkes daha önce AI yazılımı yaparken, bir çerçevenin her şeye sahip olduğu anlamına gelir. O zamanlar, altı yıl önce, herkes Caffe, Torch ve Theano'nun sadece bir çerçeve olduğunu söyledi, içeride veya dışarıda istediğinizi yapmak zordu. Şimdi, örneğin, TPU, görselleştirme gibi farklı bir donanımımız varsa, kademeli olarak bir birimin işletim sistemine benziyor.Bir işletim sistemini bitirdiğimde, üzerine her şeyin kurulabileceğini kastetmiyorum. uygulama ve uzantı. Günümüzde çerçeve çok küçük bir bölümdür ve dışarıda donanım, görselleştirme vb. Gibi birçok başka bileşen vardır. Örneğin, PyTorch şu anda Google ile birlikte yapay zeka için çok güzel bir görselleştirme aracı olan bir Tensorboard yapmak için çalışıyor. Bu sadece bir çerçeve ile sınırlı değil, aynı zamanda farklı bileşenler oluşturmak, bileşen kliplerini almak ve çeşitli şekillerde takmak için de çalışıyor. ayağa kalk.

"Yönetim ekipleri için yumuşak beceriler"

Alex: Başlangıçta tipik bir mühendislik araştırması yaptınız ve şu anda lider organizasyonda birçok mühendis var. Bu süreçte sosyal becerilerden ne kazandığınızı düşünüyorsunuz ve ne gibi tavsiyeleriniz var?

Yangqing: Bu bağlamda, bir şeyler yapan bir kişi ile bir şeyler yapan bir grup insan arasında bazı farklılıklar olabilir. İlki dediğimiz şey yenilikçinin ikilemi : İlk başta herkes bu takımın çok yavaş olduğunu düşünürdü, bunu iki saat içinde tek başıma halledebilirim. Bu takım neden bir günde çözülmedi? Bazen, kendi bant genişliğiniz sınırlı olduğu için beklentileri nasıl doğru bir şekilde belirlemeye başlarsınız, bu şeyi ilerletmek için tüm ekibin işbirliği yapmasına nasıl yardımcı olabilirsiniz? Verimlilik tek bir şey için iyi olmayabilir, ancak büyük proje grubunun tamamında daha fazla hızlandırılabilir; İkincisi, insanların nasıl yetiştirileceğidir, yani insanların hata yapmaları için alan yaratmak, herkesin kademeli olarak sahiplenmesine nasıl izin verileceğidir. . Üçüncüsü, odak noktası olan yönetim tarafından bahsedilen Legolarınızı vermek. Kendinize ait en iyi yer yerine başkalarının size ihtiyaç duyduğu yer . Teknik yönetim veya teknik liderlik yapmanın aslında oldukça ilginç olduğunu düşünüyorum.

Alex: Ardından, öğrenciler soru sormaya davetlidir!

"Veriden karar vermeye kadar yeni trendler"

S1: Geçtiğimiz iki yılda bir eğilim gördük: Sınıflandırma gerilemesinden muhakemeye, sonra pekiştirmeli öğrenmeye, karar vermeye, bu eğilim hakkında ne düşünüyorsunuz? Çünkü sezgilerimize göre bu geçmişin tersi bir eğilim ama aslında bunu yapmazsak doğrudan olasılık yöntemiyle pek çok sorunla karşılaşacağımızı görüyoruz, bu yüzden sizlere bu eğilim hakkında ne düşündüğünüzü sormak istiyorum, bu büyük bir mesele. Akım? Gelecekteki gelişimi şimdi Derin Öğrenme topluluğuna nasıl yardımcı olacak?

Yangqing: Bunun pek çok alana yansıyan büyük bir trend olması gerektiğini düşünüyorum. Örneğin, altı veya yedi yıl önce doktora yaparken, olasılıklı grafik model yaptık. İlki, veriler geldikten sonra, bunu büyük bir ortak olasılık olarak modelleyebiliriz, ancak grafiksel model nasıl yorumlanacağına odaklanır. Farklı veriler veya farklı boyutlar arasındaki ilişki, nedensellik vb. Yani bir yandan hesaplama ya da tümevarım, öte yandan da istatistikten bazı mantık ya da bazı kuralları nasıl çıkaracağımızdır, çünkü az önce de belirttiğiniz gibi, sadece istatistiksel ya da şu anki derin öğrenme yöntemini kullandığımız için, ondan öğrenmemiz zor. Biraz bilgi edinmek için, yeni modeller tasarlamamız için bize rehberlik eden ilke nedir? Alex'in önerdiği son birkaç yılda, herkes CNN'i tasarlamanın böyle bir ilkesi olduğunu hissetti ve neredeyse bu yönde ilerledik ve sonra daha iyi modeller tasarlamamız için yeni ilke nedir? Belki AutoML'dir, ya da bir tür yeni ilkelerdir. Dolayısıyla, mevcut verilerden mantığı çıkarmak ve bilgiyi çıkarmak çok önemli bir şeydir.

"Bilgisayar dili seçimi"

Soru 2: Bir süre önce, Julia adında hiçbir yerden doğmuş bir dil vardı, yüz ailenin lideri olarak biliniyor, bu yüzden size bu dil hakkında ne düşündüğünüzü ve Julia'ya dayalı bir çerçeve oluşturmayı planlayıp planlamadığınızı sormak istiyorum.

Yangqing: Aslında birçok farklı dili denedik, bu yüzden yorum yapmakta pek iyi değilim. Julia'nın avantajı, düşük seviyeli dil geçişi için çok iyi olmasıdır.Örneğin, Python kullanıyorsanız, Python'da döngü için yazabilirsiniz ve performans çok düşüktür. Julia'nın bu düşük seviyeli dil bağlama performansı her zaman oldukça iyi olmuştur. Daha önce Torch'a sahip olan kendi Facebook'umuz da dahil olmak üzere birçok dili düşündük. Torch, Lua'ya dayanıyor. Sonunda bir noktayı bulduk: bu dilin kendisiyle ilgili değil, eko sistemle ilgili . Pek çok kişi Python'un berbat bir dil olduğunu söylüyor, ancak bir topluluğu var ve tüm eko sistemi çok iyi.Python kurmak istersem Anaconda'm var; Python görselleştirmeyi kullanmak istersem Matplotlib'im var; Sayısal hesaplamaya sahip olmak için NumPy ve SciPy var, görüntü işleme yapmak istersem Scikit-image var. Sonuçta bu eko-sistemin çok önemli olduğunu bulduk Luatorch'un karşılaştığı en büyük darboğazlardan biri, hiç kimsenin Lua'yı nasıl yazacağını bilmemesiydi. Herkes tembel ve ben de tembelim. Benim için işe yarayan yeni bir dil öğrenmek için yeni bir dil öğrenmek istemiyorum. Bu yüzden şu anda Python, çok iyi bir uzlaşma olarak, tüm sektördeki herkes için ortak bir seçim gibi görünüyor.

"Veri Toplama ve İşleme"

S3: Derin öğrenmenin veriye aç olduğunu biliyoruz Yapay zeka altyapısını tasarlarken, belirli bir düzeyde daha genel bir yönün de veri toplamayı entegre edebileceğini düşünmüş müydüm?

Yangqing: Büyük şirketlerde bu bir sorun olmayabilir, veriler doğal olarak gelir, ancak birçok uygulamada, veri hattının bilgi işlem sistemine yakından entegre edilmesi gerektiğini görüyoruz. İki ana parçadan ilki, verilerin gerçekte nasıl işleneceğidir; geleneksel MapReduce veya mevcut çevrimiçi yaklaşımın, özellikle yüksek performanslı ortamda, verileri eğitim algoritmalarına beslemek için nasıl kullanılacağıdır, sadece hesaplamanın bir darboğaz değil, aynı zamanda veri olduğunu gördük. darboğaz. GPU üzerinde hesaplamalar yaparsak, GPU çok hızlı hesaplama yapabilir ve bu da çoğu zaman herkesin veri girişinin yetişememesine neden olur. Diğer parça, veri versiyonlama ve veri yönetiminin nasıl yapılacağıdır. Model eğitildikten sonra, uzatmadaki verilerin ve doğrulamadaki veri performansının çok iyi olduğunu gördük.Çevrimiçi olduktan sonra çalışmadığını gördük.Son olarak, doğrulama verilerinin yanlış olduğunu ve eğitim verileriyle örtüştüğünü gördük. Peki, bu tür sorunları nasıl kolayca tespit edebiliriz, daha iyi veri yönetimi yapabiliriz, aslında altyapı tarafında tasarruflar büyük olacaktır.

S4: Yapay zeka altyapısı tasarlarken verileri dikkate almak istiyorsanız ne yapılması gerektiğini düşünüyorsunuz?

Yangqing: Geleneksel veri altyapısı, Hadoop ve Google'ın Big Table gibi çok olgun çözümlerle birçok şirkette her zaman çok büyük bir organizasyon olmuştur. Temel olarak, herkesin veri infra konusunda düşündüğü iki konu vardır: Birincisi web sunumu gibi hizmet vermek, ikincisi ise MapReduce gibi toplu işlemedir. Örneğin, Berkeley'in son birkaç yıldır üzerinde çalıştığı Spark projesi, Spark ML'nin her zaman MapReduce toplu işlemeye yönelik önyargılı olduğu bir yöndür. Ve şimdi aniden bu SGD (Stokastik gradyan iniş) eğitim yöntemi geldi ve herkes önceki toplu işleme fikrinin artık işe yaramadığını gördü. Bu nedenle, Berkeley'in son Ray ve Clipper gibi projeleri, daha modern SGD hesaplama modellerinin bazılarına daha meyilli olacaktır. Bu konuda iyi bir çözüm yok.

S5: Veri sorunundan az önce bahsettiniz Aslında, büyük sorun, sizin de söylediğiniz gibi verilerin değişiyor olması Bu izleme aslında büyük veri yığınından çok farklı. Büyük veri değişmezliği vurgular ve birçok şeyi ancak değişmeden kalırsa yapabiliriz. Artık verileriniz sürekli değişiyor, etiket değişiyor ve yeni veriler geliyor. Bu sürüm oluşturma artık büyük bir karmaşa. Pek çok çözüm gördük ve iyi bir çözüm bulamadık, herhangi bir fikriniz varsa duymak isterim?

Yangqing: Evet, sadece veri versiyonu değil, aynı zamanda model versiyonlama. Aynı veri olsa bile, eğitimi en üstte iki kez yaptık ve sonuçlar farklıydı. Facebook üzerinde test yaptığımızda bazen iki matris uygulaması da olsa, threading'i değiştirebilirsiniz, sonuç 4 kelimeden 8 kelimeye kadar farklı olacaktır. Çok derin sinir ağı. Baştan son çıktıya kadar bu küçük değişikliklere sahipsiniz. Temel olarak, ikili bilge uyumluluğu garanti edemeyeceğiniz birçok kez vardır. CPU ve GPU arasında neredeyse imkansızdır. Muhtemelen ResNet gibi bir modelde, son çıktıda% 1 ila% 2 dalgalanma olabilir ki bu normaldir. Dolayısıyla, bu tür bir test ortamı veya "Doğruluğun" nasıl yorumlanacağı için hala herkes için açık değil. En büyük yatırım, Facebook'ta daha iyi deney yönetiminin nasıl yapılacağıdır.Bu sorunları çözemeyebilir, ancak çözebiliriz. Herhangi bir deney için mümkün olduğunca çok bilgi kaydedebiliriz , Hangi kayıt üzerinde çalıştırılır ve hangi veri sürümü üzerinde çalıştırılır, böylece manuel olarak inceleme yaparken daha fazla bilgiye sahip olabiliriz.

"Araçların Kullanımı"

S6: Önceki girişte, araştırmadan üretime bir yönün araçlardaki farktan ve diğer yönden aslında araştırma sürecinden bahsettiğinden bahsetti.Örneğin, Jupyter Not Defterini kullanırsanız, çok sayıda küçük kod parçacığı yapacaksınız, ama gerçekten yapıyor. Üretim Sisteme girmek için birim testini geçmiş eksiksiz bir yazılım mühendisliğine ihtiyacınız var. Aslında bunların arasında araç farkı var, Facebook'un ne tür çözümleri olduğunu duymak istiyorum.

Yangqing: Öncelikle araç probleminden bahsedeyim, araçlar açısından da Jupyter Notebook ile ilgili en büyük problemin, yani bunları sadece deneyleri çalıştırırken çalıştırabileceğimizi bulduk.Son olarak, onları tekrar çalıştıramayacağımızı gördük. Yani artık Notebook'a benzer bir ortamımız var ama bu daha çok saf araştırma için ve daha sık olarak buradaki araçlar beklenti olarak belirlenmiş, yani fikirlerinizi en üst düzeye çıkardığınız yer burası ama değil ürünlere gönderilmesi garantilidir. Sonuç olarak, ürün yaparken yine de kalite testi ile ilgili bazı şeyleri uygulamanız gerekecektir. Deneyim açısından daha fazla, araştırma için Matlab ve ürün için C ++ gibi herkesi birbirine daha çok benzetiyor Bu nasıl yazılır? Araştırma Python kullanıyorsa, ancak ben Notebook kullanıyorsam ve ürün sadece bir .py dosyası olan Python kullanıyorsa, geçiş nispeten daha kolaydır. Bu yüzden PyTorch ve Caffe2 olarak bizler deneyimlerin nasıl birleştirileceğine büyük önem veriyoruz, örneğin Twython ve Scripton ve benzer görünüyorlar.Gerçekten geri transfer etmek istiyorsanız, Twython'u Scripton olarak değiştirebilirsiniz. Matlab'dan C ++ 'ya birçok değişiklik var.

"PyTorch ve TensorFlow"

S7: PyTorch, çok sayıda kullanıcısı olan bir sistem ve daha fazla kullanıcısı olan bazı sistemler TensorFlow'dur. Arkasında büyük bir şirket tarafından desteklenen büyük bir topluluk var, ama aslında, TensorFlow'un da mevcut olduğundan az önce bahsetmiştiniz. Bu istekli modda, herkesin ihtiyaçları aynıdır, hepsinin araştırma geliştirilebilirliği veya etkileşim gereksinimleri vardır ve dağıtımların ölçeklenebilirlik veya performans gereksinimleri vardır. Sonuçta bu iki sistemin veya piyasadaki tüm sistemlerin bir araya gelmesi mümkün müdür? İş açısından bakıldığında bu birleşmeye hangi koşullar neden olacaktır.

Yangqing: Sana çok küçük bir soru soruyorum. Uber, gmail veya takvim kullandığımızda, bunun Android veya iOS'ta olup olmadığı konusunda endişeleniyor muyuz? Diğer bir deyişle, temelde son ürüne göre, modelleri çalıştırmamız için bir platformumuz olduğu sürece, muhtemelen farklı olmayacak. Uber için, iOS veya Android için endişelenmeyebilir, eğer birleşebilirlerse, O zaman bu en kolay şey, o zaman gelecekte iki takım uygulama yazmak zorunda kalmayacaklar. Ancak bu bir anlaşma kırıcı değil. Çerçeve açısından bakıldığında, bir yandan herkesin şaka yaptığını düşünüyorum Çerçevelerde bir savaş var, değil mi? Nispeten akademik Caffe ve Torch ve Theano'dan o zamanlar, şimdiye kadar Google'ın TensorFlow'u, Amazon'un MXnet'i, Facebook'un PyTorch'u, Microsoft'un CNTK'si vb. Sonuna kadar herkes bu fikirlerin kademeli olarak birleşeceğini keşfeder. . Bu yüzden kişisel olarak, hangi çerçevenin çerçevede kazandığı veya hangi çerçevenin hangi çerçeveyi taşıdığı konusunda çok fazla endişelenmiyorum.Son fikir benzer.

"Yazılım ve Donanımı Birleştirmenin Zorluğu"

S9: Yazılım ve donanımın geliştirme için birleştirilmesi gerektiğini söylediniz. Şimdi, üretim eko sistemindeki yazılım ve donanım kombinasyonunun çok iyi olmadığını düşünüyorsunuz?

Yangqing: Şu anda, üretim uygulamalarında, yalnızca CPU ve GPU, donanım ve yazılımla birleştiriliyor ve herkes hala keşif aşamasında. CPU ve GPU neredeyse yeterince biliniyor. En büyük zorluk, heterojen hesaplamanın nasıl yönetileceği olabilir, çünkü tahmin hizmeti yapılırken, tüm mimari geleneksel CPU açısından çok homojendir. Üretim mantığı iş parçacığı üzerinde sorunsuz hesaplama yapabiliyorum. Ardından GPU veya hızlandırıcıya geçtiğinizde, daha fazla ayrıştırılmış hizmete ihtiyacınız olacak. Örneğin, tahmin / hesaplama yığını bir havuzdur ve ardından üretim mantığı başka bir havuz olacaktır. Öyleyse böyle bir ortamda, tüm bağlantı nasıl ortada birleştirilir? Ağ bant genişliği yeni bir darboğaz haline gelecek mi? Tüm gecikme süresi veya hesaplama havuzunun nasıl yönetileceği ve ardından nihayet dengeleme kapasitesi. Bu geleneksel sorunlar yeniden ortaya çıkacaktır. Bu yönün hala bazı erken analizlere ihtiyacı var.

"10 yıllık doktora araştırmasından sonra nasıl oynanır?"

S8: Şimdi bu çerçeveler ve araçlar çok olgun ve mükemmel, ki bu iyi bir şey olmalı. Ancak başka bir açıdan bakıldığında, bilgisayarla görme araştırmacısı ve yüksek lisans öğrencisi üzerindeki etkisi çok farklı. Örneğin, beş yıl önce veya sekiz yıl önce, kendi özelliğinizi tasarlayabilir ve grafiksel model ne olursa olsun bir minimizasyon varyasyonu yapabilirsiniz.Bir kağıt gönderebilirsiniz.Bu oyun kesinlikle şu andan farklıdır.Şimdi model eğitmek istiyorsunuz, yenilerini yapmanın bir yolunu bulmalısınız. Mimari veya daha fazla hile içeren diğer şeyler yalnızca makale yayınlayabilir. Örneğin, on yıl sonra bir bilgisayar vizyonu doktora programını sıfırdan okumak için Berkeley'e giderseniz, oyun nedir?

Yangqing: Herkesin ilgili başka bir yorumu vardır, bu da derin öğrenme eğitimi için gittikçe daha fazla kaynağa ihtiyaç duyulduğudur. Okul neyi doğru yapmalı? Hiç kimse AutoML modelini eğitmek için 10.000 GPU'ya sahip değil. Bu AutoML araştırması ne olacak? Yap? Örneğin, 12 yılda herkes Google'ın sonsuz kaynağını düşündü, derin öğrenmeyi nasıl yapacaksınız? Sonunda Alex iki GPU yaptı. O sırada Google'da staj yapıyordum. Bu bizim için oldukça şaşırtıcıydı. Aslında hesaplama kaynağı kazanan faktör değildir . Akademinin bir avantajı, verimli olmanız gerektiğidir. Ben şahsen endüstriyel dünyadayım, endüstriyel dünyada bazen insanlar bu kaynaklarla şımartılır, aslında akademik dünya her zaman yeni bilgilerin ve yeni fikirlerin kaynağı olmuştur. Çoğu durumda, modelin çok büyük olması gerekmeyebilir, ancak zor performans veya sert kapsayıcı kaynağı için bunu yüksek lisans öğrencisinde yapmayın. O zaman yapılabilecek yön, aslında mevcut modellere nasıl baktığımız ve sonra yeni fikirler yaptığımızdır. Berkeley, geçtiğimiz yıl CycleGAN adında, üretimsel danışma ağıyla ilgili bazı yeni çalışmaların nasıl yapılacağıyla ilgili ilginç bir makale yaptı. Bu yönler çok fazla kaynak gerektirmeyebilir, bir veya iki CPU dahil olmak üzere neredeyse yeterlidir. Yani belki tekrar doktora okursanız, aynı şeyi yapabilirsiniz, sadece yeni fikrin yönüne bakın ve sonra sistemleri yinelemek yerine fikirler üzerinde yineleyin.

Alex: Sorumuz ve cevabımız bugün sona erecek Dr. Jia'yı Facebook'taki çalışmalarını, yapay zeka konusundaki görüşlerini ve geleceğin sektörüne ilişkin düşüncelerini bizimle paylaşmaya davet etmek büyük bir onur. Bugün paylaştığınız için teşekkürler Dr. Jia!

Robin.ly, dünyanın dört bir yanındaki mühendislere ve araştırmacılara hizmet veren Silikon Vadisi tabanlı bir içerik platformudur. Tanınmış bilim adamları, girişimciler, yatırımcılar ve liderlerle yapılan derinlemesine diyaloglar ve yerinde değişimler yoluyla Robin.ly, yapay zeka endüstrisinin dinamiklerini ve iş becerilerini yayar ve bir yetenek havuzu oluşturur. Konumsal rekabet gücü.

Silikon Vadisi'ndeki Çinli mühendisler için bir video içerik platformu olan Robin.ly'nin kurucusu, bir yapay zeka yetenek hizmeti şirketi olan TalentSeer'in kurucusu ve Silikon Vadisi girişim sermayesi BoomingStar Ventures'ın yönetici ortağı. TalentSeer, Amerika Birleşik Devletleri'ndeki en iyi yapay zeka ve orta-üst düzey yetenek avcısı hizmet şirketidir. Yeteneklerin rolünü esas olarak yatırım ve endüstri analizi yoluyla yeniden anlar ve tanımlar ve 100'den fazla yüksek teknoloji şirketi için Silikon Vadisi ekipleri oluşturur! Robin.ly, Silikon Vadisi'nde dünya çapında on milyonlarca Çinli mühendise hizmet veren, etkili bir video paylaşım platformudur.YZ bilim adamları, tanınmış girişimciler, yatırımcılar ve liderlerle bir dizi derinlemesine diyalog aracılığıyla endüstri ve beceri bilgisini yayar ve tam bir yetenek yelpazesi yaratır. Rekabet ve yeni nesil liderleri ve girişimcileri yetiştirmeye çalışın!

Web sitemizi ve WeChat abonelik hesabımızı (Robinly) takip etmek ve zamanında konuk görüşmeleri ve çevrimdışı etkinlik bildirimleri almak için QR koduna uzun basın:

IFA umutları: Huawei yeni bir üç kameralı çözüm / çift Turbo / Kirin 980 getirebilir
önceki
"Kaptan Marvel" çok geneldir, gerçekten yapacak bir şeyiniz yoksa zaman kaybetmek zorunda değilsiniz
Sonraki
Volkswagen T-ROC seri üretim versiyonu çıktı! Gelecekte FAW-Volkswagen tarafından yapılacak
Yerli film koruma ayı sona erdi, Hollywood'un en çok izlenen üç büyük filmi "Wolf Warriors 2" yutulmak üzere!
Yongkang Rong ve Suning Tian ile diyalog: AWS, Çin bulut bilişim pazarında nasıl bir fırtına yarattı?
Bahar yüreği filizlenir, Kore dizilerini izleyin. "Peach CP" liderliğini sürdürüyor, "Touching the Heart" çok tatlı!
2017 Chengdu Otomobil Fuarı Pavyonu: GAC Acura TLX-L açıklandı
Wu Jinggan'ın oğlu "Küçük Kobe" prömiyer yol gösterisine gitmedi, ancak bir milyondan fazla hayranıyla canlı yayına geçti!
"SINNERS" trend sembollerinin bir sonraki dalgasında ustalaşılmalıdır! Balenciaga'nın son özel not serisi yayınlandı
Kadın gözetmen Hongdie, beklenmedik bir şekilde, insanları yakalayan kadın çok iyimser
Sinir ağı grafiklerine giriş (temel kavramlar, DeepWalk ve GraphSage algoritmaları)
Üç Krallık'ı çekmek için Yi Zhongtian tarafından üretildi! Yönetmen Jiang Wen 700 milyon yuan yatırım yaptı, bunu "Cao Cao" bekliyor musunuz?
2017 Chengdu Auto Show Exploration Pavilion: BAIC Magic Speed S7 görücüye çıkacak
KAWS Residence Exposure! Evi nadir sanat koleksiyonlarıyla dolu olacak mı?
To Top