Analiz Algoritmadan donanıma, yapay zekanın 2019'da nasıl gelişeceğini anlayın

Geçtiğimiz 2018 yılında yapay zeka alanında büyük olaylar, yeni keşifler ve yeni gelişmeler birbiri ardına ortaya çıktı.

BERT'nin yoğun sürümü, birçok NLP görevinin en iyi performansını yeniledi; GAN ile ilgili araştırma kağıtları büyümeye devam ediyor ve oluşturulan fotoğraflar sahte ve gerçek düzeyine ulaştı; Deepfakes, birçok politikacı ve yıldızın halkı eğlendirmesine izin vererek hızla gelişti; pekiştirmeli öğrenme Ayrıca insanlara karşı oyunu domine ediyor ...

Donanım açısından, Nvidia büyük çabalar gösterdi, Intel değişmeye çalışıyor ve özel donanım pazarı patlama yaşıyor;

Buna ek olarak, otonom sürüş ve yapay zeka etiği de geçtiğimiz yıl tartışmanın odak noktası oldu.

2018'e dönüp baktığımızda ve 2019'u dört gözle bekliyorum, yapay zeka ve makine öğrenimi nereye gidecek?

Bir Medium köşe yazarı, bunun için geçen yıl yapay zeka alanındaki bazı kalıpları özetleyen ve bu trendlerin bazılarını özetlemeye çalışan bir makale yazdı. Bu özetin Amerika Birleşik Devletleri'nin gelişimine dayandığını unutmayın. Aşağıda makalenin tam metni yer almaktadır:

algoritma

Algoritmik sese derin sinir ağının (DNN) hakim olduğuna şüphe yok.

Elbette, birinin burada veya orada "klasik" bir makine öğrenimi modeli (gradyan artırma ağacı veya çok kollu bir slot makinesi gibi) kullandığını ve herkesin ihtiyaç duyduğu tek şeyin bu olduğunu iddia ettiğini duyabilirsiniz. Bazı insanlar derin öğrenmenin ölmekte olan bir mücadelede olduğunu iddia ediyor. Üst düzey araştırmacılar bile bazı derin sinir ağı (DNN) mimarilerinin verimliliğini ve direncini sorguluyor.

Ancak, beğenseniz de beğenmeseniz de DNN her yerde: sürücüsüz arabalar, doğal dil sistemleri, robotlar - aklınıza gelebilecek her şey aynı.

Doğal dil işleme, üretken karşıt ağlar ve derin pekiştirmeli öğrenmede, DNN tarafından yapılan sıçrama özellikle açıktır.

Derin NLP: BERT ve diğerleri

2018'den önce DNN (word2vec, GLOVE ve LSTM tabanlı modeller gibi) kullanılarak metinde bazı atılımlar yapılmış olsa da, temel bir kavramsal unsurdan yoksundur: aktarım öğrenimi.

Başka bir deyişle, modeli eğitmek için kamuya açık büyük miktarda veriyi kullanın ve ardından üzerinde çalıştığınız belirli veri kümesine göre modele "ince ayar yapın". Bilgisayarla görmede, belirli sorunları çözmek için ünlü ImageNet veri setinde bulunan kalıpların kullanılması genellikle bir çözümdür.

Sorun, transfer öğrenimi için kullanılan tekniklerin doğal dil işleme (NLP) problemlerine iyi uygulanmamasıdır. Bir anlamda, word2vec gibi önceden eğitilmiş yerleştirmeler bunu telafi ediyor, ancak bunlar yalnızca tek kelime düzeyinde uygulanabilir ve dilin üst düzey yapısını yakalayamazlar.

Ancak 2018 yılında bu durum değişti. ELMo, bağlamsal yerleştirme, NLP aktarım öğrenimini iyileştirmenin ilk önemli adımı olur. ULMFiT daha da ileri gitti: Yerleşik anlamsal yakalama yeteneklerinden memnun olmayan yazar, tüm model için aktarım öğrenimi gerçekleştirmenin bir yolunu buldu.

Ancak en ilginç gelişme şüphesiz BERT'in tanıtılmasıdır. Dil modelinin İngilizce Wikipedia'daki tüm makalelerden öğrenmesine izin vererek, ekip 11 NLP görevinde en yüksek düzeyde sonuç elde etmeyi başardı - bu bir başarı! Daha da iyisi, açık kaynaktır. Bu nedenle, bu atılımı kendi araştırma sorularınıza uygulayabilirsiniz.

Generative Adversarial Networks (GAN) çok yönlülüğü

CPU'nun hızı artık üstel bir büyüme göstermeyecek, ancak Generative Adversarial Networks (GAN) ile ilgili akademik makale sayısı kesinlikle artmaya devam edecek. GAN, uzun yıllardır akademinin sevgilisidir. Ancak gerçek hayatta uygulaması çok az gibi görünüyor ve bu 2018'de pek değişmedi. Ancak GAN'ın hala bizim fark etmemizi bekleyen inanılmaz bir potansiyeli var.

Üretken yüzleşme ağını kademeli olarak artıran yeni bir yöntem ortaya çıktı: jeneratör, tüm eğitim süreci boyunca çıktısının çözünürlüğünü kademeli olarak artırıyor. Gerçekçi fotoğraflar oluşturmak için stil aktarım teknolojisini kullanan biri de dahil olmak üzere birçok etkileyici makale bu yöntemi kullanmıştır. Ne kadar gerçekçi? Bana söyle:

Bu fotoğraflardan hangisi gerçek bir kişi?

Bu sorunun bir püf noktası var: Yukarıdakilerin hiçbiri.

Bununla birlikte, GAN nasıl çalışır ve neden çalışır? Bunu hala derinlemesine anlamıyoruz, ancak bazı önemli önlemler alıyoruz: Massachusetts Institute of Technology'den bir ekip bu konuda yüksek kaliteli araştırmalar yaptı.

Bir başka ilginç gelişme de teknik olarak üretici bir yüzleşme ağı olmayan "anti-patch" dir. CNN tabanlı bir sınıflandırıcıyı kandırabilecek bir "yama" yapmak için hem kara kutuyu (temelde sinir ağının iç durumu dikkate alınmadan) hem de beyaz kutu yöntemini kullanır. Bu, önemli bir sonuca götürür: Bizi sinir ağlarının ne kadar derin çalıştığını ve insan düzeyinde kavramsal farkındalığa ulaşmaktan ne kadar uzak olduğumuzu daha iyi anlamamıza götürür.

Muz ve ekmek kızartma makinesini ayırt edebilir misin? Yapay zeka hala yapamaz.

Takviye Öğrenme (RL)

AlphaGo, 2016 yılında Li Shishi'yi mağlup ettiğinden beri, pekiştirmeli öğrenme, halkın dikkatinin odak noktası olmuştur.

Eğitimde, pekiştirmeli öğrenme, son denemedeki performansının puanı olan "ödül" sinyaline dayanır. Bilgisayar oyunları gerçek hayatın aksine doğal bir ortam sağlayarak bu sinyali her an ulaşılabilir kılar. Bu nedenle, RL araştırmasının tüm ilgisi, AI'ya Atari oyunlarını oynamayı öğretmektir.

Yeni icatları DeepMind söz konusu olduğunda, AlphaStar yine haberdir. Bu yeni model, StarCraft II'nin en iyi profesyonel oyuncularından birini yendi. StarCraft, satranç ve Go'dan çok daha karmaşıktır.Çoğu tahta oyununun aksine, StarCraft'ın oyuncuda gizli olan büyük bir eylem alanı ve önemli bilgiler vardır. Bu zafer tüm saha için çok önemli bir adımdır.

RL alanında bir diğer önemli oyuncu olan OpenAI boşta değil. Onları ünlü yapan şey, Ağustos 2018'de son derece karmaşık e-spor oyunu Dota 2'de oyuncuların% 99,95'ini mağlup eden OpenAI Five oldu.

OpenAI, bilgisayar oyunlarına çok dikkat etmesine rağmen, RL'nin gerçek potansiyel uygulama alanı olan robotları göz ardı etmedi.

Gerçek dünyada, bir kişinin bir robota verebileceği geri bildirim çok nadir ve pahalıdır: R2-D2'niz (filmdeki sanal robot) ilk "adımı" atmaya çalıştığında, temelde ona bakmak için bir insan dadıya ihtiyacınız vardır. o. Milyonlarca veri noktasına ihtiyacınız var.

Bu boşluğu doldurmak için, son trend, gerçek dünyaya dönmeden önce temel robot becerilerini öğretmek için çok sayıda senaryoyu paralel olarak çalıştırırken bir ortamı simüle etmeyi öğrenmektir. Hem OpenAI hem de Google bu yöntemi inceliyor.

Mansiyon ödülü: Deepfake

Deepfake, (genellikle) kamuya mal olmuş bir figürün hiç yapmadığı veya söylemediği bir şeyi yaptığını veya söylediğini gösteren sahte görüntüleri veya videoları ifade eder. "Hedef" karakterin çok sayıda çekimine dayalı üretken bir düşmanlık ağı eğitin ve ardından gerekli eylemleri içeren yeni bir ortam oluşturun - bu, deepfake'lerin nasıl yaratıldığıdır.

Ocak 2018'de piyasaya sürülen FakeApp adlı bir masaüstü uygulaması, bilgisayar bilimi bilgisine sahip ve hiçbir şey bilmeyenlerin deepfake oluşturmasına olanak tanıyor. Ürettiği videolar kolaylıkla sahte olarak görülebilmesine rağmen, teknoloji önemli ilerleme kaydetmiştir.

altyapı
TensorFlow ve PyTorch

Şu anda birçok derin öğrenme çerçevemiz var. Bu alan çok geniştir ve bu çeşitlilik yüzeyde anlamlıdır. Ama aslında bugünlerde çoğu insan Tensorflow veya PyTorch kullanıyor. SRE'lerin ortak endişeleri olan güvenilirlik, dağıtım kolaylığı ve model yeniden yüklemeyi önemsiyorsanız, Tensorflow'u seçebilirsiniz. Bir araştırma makalesi yazıyorsanız ve Google'da çalışmıyorsanız, PyTorch'u kullanmanız muhtemeldir.

Hizmet olarak makine öğrenimi her yerde
Bu yıl, Stanford Üniversitesi'nden makine öğrenimi alanında doktora yapmamış bir yazılım mühendisi tarafından bir tüketici API'sine paketlenmiş daha fazla yapay zeka çözümü gördük. Hem Google Cloud hem de Azure, eski hizmetleri iyileştirdi ve yeni hizmetler ekledi. AWS makine öğrenimi hizmetlerinin listesi göz korkutucu görünmeye başlıyor.

OMG, AWS hizmetleri yakında görüntülenmek için iki seviyeli bir dizin hiyerarşisi gerektirecek kadar çok olacak.

Bu fanatizm biraz soğumuş olsa da, hala zorluk çıkaran birçok yeni şirket var. Herkes model eğitiminin hızı, çıkarım sürecinde kullanım kolaylığı ve şaşırtıcı model performansı sözü verdi.

Sadece kredi kartı bilgilerinizi girin, verilerinizi yükleyin, modele eğitim veya ince ayar yapması için biraz zaman verin ve REST (veya daha ileriye dönük GraphQL için) API'yi çağırın, yapay zeka konusunda usta olabilirsiniz, hatta olmayabilirsiniz. "Ayrılma" nın ne olduğunu bulmanız gerekiyor.

Bu kadar çok seçenek varken, neden birisi kendi modellerini ve altyapısını inşa etme zahmetine girsin ki? Aslında, kullanıma hazır MLaaS ürünleri, pratik durumların% 80'inde çok iyi performans gösterir. Kalan% 20'nin çalışmasını istiyorsanız, o kadar şanslı değilsiniz: Sadece modeli gerçekten seçemezsiniz, hiperparametreleri bile kontrol edemezsiniz. Veya, bulutun konfor bölgesinin dışında bir yerde çıkarımlar yapmanız gerekiyorsa - genellikle mümkün değildir. Fiyat budur.

Mansiyon ödülü: AutoML ve AI Hub

Bu yıl başlatılan özellikle ilginç iki hizmetin her ikisi de Google tarafından piyasaya sürüldü.

İlk olarak, Google Cloud AutoML, bir dizi özelleştirilmiş NLP ve bilgisayarla görme modeli eğitim ürünleridir. Bunun anlamı ne? Araba tasarımcısı, önceden eğitilmiş birkaç modeli otomatik olarak ince ayarlayarak ve en iyisini seçerek model özelleştirme sorununu çözdü. Bu, muhtemelen modeli kendiniz özelleştirmenize gerek olmadığı anlamına gelir.

Elbette gerçekten yeni veya farklı bir şey yapmak istiyorsanız, o zaman bu hizmet size göre değil. Bununla birlikte, Google modelini büyük miktarda özel veriye dayalı olarak önceden eğitir, bu da bir yan avantajdır. Kedilerin tüm fotoğraflarını düşünün, Imagenet'ten daha tanıtıcı olmalılar!

İkincisi, AI Hub ve TensorFlow Hub. Bu ikisi ortaya çıkmadan önce, birinin modelini yeniden kullanmak gerçekten bir angarya idi. GitHub'a dayalı rastgele kod nadiren kullanılabilir, genellikle yetersiz şekilde belgelenmiştir ve genel olarak işlenmesi hoş değildir. Önceden eğitilmiş transfer öğrenme ağırlıkları da var ... Diyelim ki onları iş için kullanmayı denemek bile istemiyorsunuz.

Bu tam olarak TF Hub'ın çözmek istediği sorundur: ince ayar yapabileceğiniz veya inşa edebileceğiniz güvenilir ve organize bir model havuzudur. Sadece birkaç satır kod ekleyin - TF Hub istemcisi kodu ve ilgili ağırlıkları Google'ın sunucularından alabilir - ve sonra, vay canına, işe yarayacak!

Ai Hub bir adım daha ileri gider: yalnızca modeli değil, tüm makine öğrenimi hattını paylaşmanıza olanak tanır! Hala alfa testi aşamasındadır, ancak ne demek istediğimi biliyorsanız, en son dosyaların bile "sadece 3 yıl önce değiştirildiği" rastgele bir depodan çok daha iyidir.

donanım

Nvidia (Nvidia)

2018'de ML, özellikle DNN eğitimi aldıysanız, bir (veya daha fazla) GPU kullandınız. Bu nedenle, GPU liderleri bu yıl çok meşgul.

Şifreleme çılgınlığının soğuması ve ardından hisse senedi fiyatlarındaki düşüşle birlikte Nvidia, Turing mimarisine dayalı yeni nesil tüketici sınıfı kartlar çıkardı. Yeni kart, yalnızca 2017'de piyasaya sürülen Volta çipine dayanan profesyonel kartı kullanıyor ve Tensor Cores adı verilen yeni yüksek hızlı matris çarpma donanımını içeriyor. Matris çarpımı, DNN işleminin özüdür, bu nedenle bu işlemleri hızlandırmak, yeni GPU'daki sinir ağı eğitiminin hızını büyük ölçüde artıracaktır.

"Küçük" ve "yavaş" oyun GPU'larından memnun olmayanlar için Nvidia, "süper hesaplama platformunu" güncelledi. DGX-2, FP16 operasyonu için 16 Tesla V'ye ve 480 TFLOP'a (480 trilyon kayan nokta işlemi) sahiptir ve gerçekten bir "canavar" kutudur. Ve fiyatı da 400.000 ABD dolarına kadar güncellendi.

Ayrıca otomatik donanım da güncellendi. Jetson AGX Xavier, Nvidia'nın gelecek nesil otonom araçlara güç vermeyi umduğu bir modüldür. Sekiz çekirdekli CPU'lar, görsel hızlandırıcılar ve derin öğrenme hızlandırıcılarının tümü, büyüyen otonom sürüş endüstrisi için gereklidir.

İlginç bir geliştirme projesinde, Nvidia oyun kartları için DNN tabanlı bir işlev sundu: Derin Öğrenme Süper Örnekleme. Buradaki fikir, kenar yumuşatmayı değiştirmektir. Şu anda, esas olarak bir resmi daha yüksek çözünürlüklü (örneğin, 4 kez) oluşturarak ve ardından onu yerel monitör çözünürlüğüne ölçekleyerek yapılır.

Şimdi, Nvidia, geliştiricilerin, oyunu piyasaya sürmeden önce son derece yüksek kalitede görüntü dönüştürme modellerini eğitmelerine izin veriyor. Ardından, oyunu son kullanıcıya göndermek için önceden eğitilmiş modeli kullanın. Oyun sırasında, eski tarz kenar yumuşatma maliyetine maruz kalmadan görüntü kalitesini iyileştirmek için grafikler bu model üzerinden çalışır.

Intel Intel

Intel, 2018 yılında yapay zeka donanımı alanında kesinlikle bir öncü değil ancak bunu değiştirmek istiyor gibi görünüyor.

Şaşırtıcı bir şekilde, Intel'in eylemlerinin çoğu yazılım alanında gerçekleşir. Intel, mevcut ve gelecek donanımını geliştiriciler için daha uygun hale getirmek için çok çalışıyor. Bunu akılda tutarak, bir çift (hem şaşırtıcı hem de rekabetçi) araç seti yayınladılar: OpenVINO ve nGraph.

Neural Compute Stick'lerini güncellediler: bir USB portu ile herhangi bir DNN'yi, hatta bir Raspberry Pi'yi bile hızlandırabilen küçük bir USB cihazı.

Intel'in ayrı GPU'su hakkındaki söylentiler gittikçe daha karmaşık hale geldi. Bu söylenti dolaşmaya devam etse de, yeni cihazın DNN eğitimine uygulanabilirliği görülecek. Derin öğrenmeye kesinlikle uygun olanlar, kod adı Spring Hill ve Spring Crest olan söylentili profesyonel derin öğrenme kartlarıdır. İkincisi, Nervana'nın (Intel'in birkaç yıl önce satın aldığı) teknolojisine dayanıyor.

Yaygın (ve nadir) özel donanım

Google, inanılmaz 128 Gb HMB belleğe sahip ASIC tabanlı DNN özel hızlandırıcı olan üçüncü nesil TPU'yu piyasaya sürdü. Bu tür 256 cihaz, saniyede 100 gigabitten fazla performansa sahip bir kümede birleştirilir. Google artık bu cihazları bu yıl dünyadaki diğer oyuncularla dalga geçmek için kullanmıyor, ancak TPU'yu Google Cloud aracılığıyla halka sunuyor.

Çıkarım uygulamalarına odaklanan benzer bir projede Amazon, AWS Inferentia'yı dağıttı: Üretimde modelleri çalıştırmanın daha ucuz ve daha verimli bir yolu.

Google ayrıca Edge TPU projesini de duyurdu: Bu çip küçük: 10 yonganın toplamı bir kuruş büyüklüğündedir. Aynı zamanda, DNN'yi gerçek zamanlı videoda çalıştırabilir ve neredeyse hiç enerji tüketmez, bu da yeterlidir.

İlginç bir potansiyel yeni oyuncu Graphcore'dur. İngiliz şirket 310 milyon dolar topladı ve ilk ürünü olan GC2 yongasını 2018'de piyasaya sürdü. Kıyaslama testine göre GC2, çıkarım sırasında en iyi Nvidia sunucu GPU kartını ezdi ve güç tüketimi önemli ölçüde azaldı.

Mansiyon ödülü: AWS Deep Racer

Amazon küçük bir sürücüsüz araba DeepRacer ve bir yarış ligi başlattı. Bu tamamen beklenmedik bir durum, ancak aynı zamanda DeepLens'i daha önce başlattıkları zamanki duruma da biraz benziyor. Bu 400 dolarlık otomobilde bir Atom işlemci, 4 milyon piksellik bir kamera, wifi, birkaç USB bağlantı noktası ve birkaç saat çalışacak kadar yeterli güç bulunuyor.

Otonom sürüş modeli, tamamen bulutta bulunan bir 3D simülasyon ortamı kullanılarak eğitilebilir ve ardından doğrudan araca konuşlandırılabilir. Her zaman kendi sürücüsüz arabanızı yapmayı hayal ettiyseniz, bu Amazon arabası kendi VC destekli şirketinizi kurmanıza gerek kalmadan istediğinizi yapabilir.

Sıradaki ne? Odak, karar zekasına geçecek

Yapay zekayı kullanışlı kılan algoritmalar, altyapı, donanım ve diğer faktörler her zamankinden daha iyi olduğundan şirketler, yapay zekayı uygulamaya başlamak için en büyük engelin pratik seviyesinde yattığını fark eder: YZ'yi fikir aşamasından etkili hale nasıl uygularsınız? , Güvenli ve güvenilir üretim sistemi?

Karar zekası olarak da bilinen Uygulamalı Yapay Zeka veya Uygulamalı Makine Öğrenimi (ML), gerçek dünyadaki sorunlara yapay zeka çözümleri oluşturma bilimidir. Geçmişte algoritmanın arkasındaki bilime odaklansak da, gelecekte bu alandaki uçtan uca uygulamalara daha eşit önem vermeliyiz.

Yapay zeka, istihdamı teşvik etmek için daha fazlasını yaptı

"Yapay zeka tüm işimizi alacak", medya tarafından defalarca desteklenen bir tema ve aynı zamanda mavi yakalı ve beyaz yakalı işçilerin ortak korkusu. Ve yüzeyde, bu makul bir tahmin gibi görünüyor. Ancak şimdiye kadar tam tersi oldu. Örneğin, birçok kişi bir etiket veri kümesi oluşturma işi için ödeme alır.

LevelApp gibi uygulamalar, mültecilerin verilerini cep telefonlarıyla işaretleyerek para kazanmalarına olanak tanır. Harmon bir adım daha ileri gidiyor: Göçmenler için mülteci kamplarında ekipman sağlıyorlar, böylece bu insanlar katkıda bulunabilir ve geçimlerini sağlayabilir.

Veri etiketleri haricinde, tüm endüstri yeni AI teknolojisi ile oluşturulmuştur. Kendi kendine giden arabalar veya yeni uyuşturucu geliştirme gibi birkaç yıl önce hayal bile edilemeyen şeyler yapabiliriz.

Kenar alanında ML ile ilgili daha fazla hesaplama yapılacak

Boru hattının sonraki aşamaları genellikle altörnekleme veya başka yollarla sinyalin doğruluğunu azaltır. Öte yandan, AI modelleri giderek daha karmaşık hale geldikçe, daha fazla veriyle daha iyi performans gösteriyorlar. Yapay zeka bileşenlerini verilere yaklaştırmak ve kenara yaklaştırmak mantıklı mı?

Basit bir örnek vermek gerekirse: Saniyede 30 gigabit hızında yüksek kaliteli video üretebilen yüksek çözünürlüklü bir kamera hayal edin. Videoyu işleyen bilgisayar vizyonu modeli sunucuda çalışır. Kamera videoyu sunucuya aktarır, ancak yukarı akış bant genişliği sınırlıdır, bu nedenle video azaltılır ve yüksek oranda sıkıştırılır. Neden görüntü modelini kameraya taşıyıp orijinal video akışını kullanmıyorsunuz?

Aynı zamanda, her zaman birden fazla engel vardır: Bunlar temel olarak, uç cihazda mevcut olan bilgi işlem gücü miktarı ve yönetimin karmaşıklığı (örneğin, güncellenmiş modelleri kenara itmek). Özel donanım (Google'ın Edge TPU, Apple'ın Neural Engine vb.), Daha verimli modeller ve optimizasyon yazılımının ortaya çıkışı, bilgi işlem sınırlamalarını kademeli olarak ortadan kaldırdı. Makine öğrenimi çerçevesinin ve araçlarının iyileştirilmesiyle, yönetim karmaşıklığı sorunu sürekli olarak çözüldü.

AI altyapı alanını entegre edin

Son birkaç yılda, yapay zeka altyapısıyla ilgili faaliyetler birbiri ardına ortaya çıktı: büyük duyurular, büyük finansman turları ve ağır taahhütler. 2018 yılında bu alan soğumuş görünüyor. Hala birçok yeni gelişme olmasına rağmen, katkıların çoğu mevcut büyük oyuncular tarafından yapılmaktadır.

Olası bir açıklama, AI sistemlerinin ideal altyapısına ilişkin anlayışımızın yeterince olgun olmadığı olabilir. Sorunun karmaşıklığından dolayı, uygulanabilir çözümler üretmek için uzun vadeli, sürekli, odaklanmış ve mali açıdan güçlü çabalar gerektiriyor - ki bu da yeni başlayanlar ve küçük şirketler için iyi değil. Bir başlangıç şirketi AI sorununu "çözerse", bu kesinlikle şaşırtıcı olacaktır.

Öte yandan, ML altyapı mühendisleri nadirdir. Büyük şirketler için, yalnızca birkaç çalışanı olan ve hayatta kalmak için mücadele eden bir başlangıç, kesinlikle değerli bir M&A hedefidir. Bu sektördeki en azından birkaç oyuncu sürekli olarak kazanmak için mücadele ediyor ve hem iç hem de dış araçlar geliştirdiler. Örneğin, AWS ve Google Cloud için AI altyapı hizmetleri önemli bir satış noktasıdır.

Özetle, gelecekte bu alanda birden fazla oyuncuyu bütünleştiren bir tekelcinin olacağı tahmin edilebilir.

Daha özel donanım

En azından CPU'lar için Moore Yasası başarısız oldu ve bu gerçek uzun yıllardır var. GPU'lar yakında benzer bir kadere maruz kalacak. Modelimiz gittikçe daha verimli hale gelse de, bazı daha gelişmiş sorunları çözmek için daha fazla bilgi işlem gücü kullanmamız gerekiyor. Bu, dağıtılmış eğitimle çözülebilir, ancak kendi sınırlamaları vardır.

Ek olarak, kaynakları kısıtlı cihazlarda daha büyük modeller çalıştırmak istiyorsanız, dağıtılmış eğitim işe yaramaz hale gelecektir. Özel AI hızlandırıcısını girin. İstediğiniz veya özelleştirilebileceğiniz şekle bağlı olarak, güç tüketiminde, maliyette veya potansiyel tüketimde büyük bir sipariş kaydedebilirsiniz.

Bir dereceye kadar, Nvidia'nın Tensor Çekirdekleri bile bu eğilime çoktan katıldı. Genel bir donanım yoksa, daha fazla durum göreceğiz.

Eğitim verilerine olan bağımlılığı azaltın

İşaretli veriler genellikle pahalıdır, kullanılamaz veya her ikisi birden olur. Bu kuralın birkaç istisnası vardır. MNIST, ImageNet, COCO, Netflix Ödülleri ve IMDB incelemeleri gibi açık yüksek kaliteli veri kümelerinin tümü inanılmaz yenilik kaynaklarıdır. Ancak birçok problem için, uygun veri seti mevcut değildir. Araştırmacıların kendi başlarına veri kümeleri oluşturmaları imkansızdır, ancak veri kümelerine sponsorluk yapabilecek veya bunları yayınlayabilecek büyük şirketler acele etmiyor: büyük veri kümeleri oluşturuyorlar, ancak dışarıdan gelenlerin yaklaşmasına izin vermiyorlar.

Öyleyse, bir başlangıç şirketi veya bir üniversite araştırma grubu gibi küçük bağımsız bir kuruluş, zor sorunlara nasıl ilginç çözümler sağlayabilir? Bu, gözetim sinyallerine gittikçe daha az bağımlı olan, ancak giderek daha fazla etiketlenmemiş ve yapılandırılmamış verilere bağımlı olan bir sistem oluşturarak elde edilebilir (ara bağlantı ve ucuz sensörlerin artışı, bu tür verileri zenginleştirir). Bu kısmen GAN'lara, transferlere ve pekiştirmeli öğrenmeye olan ilgideki artışı açıklamaktadır: tüm bu teknolojiler eğitim veri setlerine daha az yatırım gerektirir (veya hiç gerektirmez).

Yani tüm bunlar sadece bir balon mu?

Bu endüstri, popüler yapay zeka "Yaz Ortası" nın yedinci yılına girdi. Bu süre zarfında, çok sayıda araştırma projesi, akademik fon, risk sermayesi, medyanın ilgisi ve kod satırları bu alana akın etti.

Ancak insanların yapay zeka tarafından verilen vaatlerin çoğunun hala yerine getirilmediğini belirtmek için nedenleri var: son Uber yolculukları hala insan sürücüler tarafından sürülüyor; sabahları omlet yapabilen pratik bir robot hala yok. Bağcıklarımı kendim bile bağlamam gerekiyordu, çok üzücüydü!

Ancak, sayısız lisansüstü öğrencinin ve yazılım mühendisinin çabaları boşuna değildi. Görünüşe göre her büyük şirket zaten büyük ölçüde yapay zekaya güveniyor veya gelecekte bu tür planları uyguluyor. AI sanatı popülerdir. Kendi kendine giden arabalar henüz ortaya çıkmamış olsa da, yakında doğacaklar.

2018 yılında Amerika Birleşik Devletleri yapay zeka alanında hızla gelişti ve Çin de çok pes etmedi. Bu eğilim, Baidu ve BOSS tarafından ortaklaşa yayınlanan "2018 Çin Yapay Zeka ABC Yetenek Geliştirme Raporu" nda görülebilir.

Kaynak: Turing TOPIA; Çeviri: Huang Shan, Yang Pengyue;

(Bu makale bir ağ alıntı veya yeniden basımdır, telif hakkı orijinal yazara veya yayın medyasına aittir. Çalışmanın telif hakkına dahilseniz, lütfen bizimle iletişime geçin.)

Dünyanın en iyi 10 İnternet ünlü seyahat şehri oynamak için yeni yollar var! Pembe yunusları transfer et, ateş böceği gece turu
önceki
Wu Xiaobo, A hisselerinin çılgınca olduğunu söylemedi mi?
Sonraki
Üçüncü "Atık Şehir Yok" etkinlik günü Pekin'de düzenlendi
Sıcak ağlama ~ doktorun zekası 4 yaşına düştü. Öğrenciler bunu onun için yaptı
Çinli turistleri kurtarmak için Tayland 10.1'den vize ücretinden muaf olacak? Resmi açıklama: sahte!
Pekin halkından bir tabak turşu, Han Hanedanlığı'nın tam bir ziyafeti gibi tadı!
Yüksek eğitimli hayat nerede kazandı? Cevap bu!
Devlete ait ve devlete ait işletmelerde reformda bir sonraki adım hakkında konuşan bu büyük adamları dinleyin.
100.000 ve 200.000 konfigürasyon fiyatı ile bu SUV'lar kaliteli ve düşük fiyatlıdır ve eski sürücüler iyi diyor!
Messinin en güçlü duruşu sandığınız kadar basit değil, ama bu numara!
Douyin'in ünlü gurme başkenti Guangxi çok lezzetli mi?
Türkiye yeni arkadaşlar bulmak için doğuda ABD dolarından kurtuluyor Türk Cumhurbaşkanı: Para kazası bir komplo
İç Moğolistan'da sonbahar ne kadar güzel? Bir WeChat size çok güzel sarhoş olduğunuzu söyler
BBA'yı takip etmek istemiyorum! Bu 300.000 lüks SUV göründüğü kadarıyla fena değil
To Top