"CITIC Research Report" AI grubu "çekirdek" yarışması, Nvidia, Google ve Cambrian dahil olmak üzere 25 şirket dağıtıldı

1Xinzhiyuan önerilir

Yatırım hotspot

  • Çekirdek çip, yapay zekanın patlama dönemine girmesinin anahtarıdır. Yapay zeka teknolojisi sistemi temel bir katmana, bir teknik katmana ve bir uygulama katmanına bölünmüştür.Ana işlem yongası ve temel katmanın büyük verileri, AI teknolojisinin gelişimini destekleyen temel unsurlardır. AI çip pazarının büyüklüğü 2016 yılında 2.388 milyar ABD dolarına ulaştı. Tahminlerimize göre, 5 yıllık YBBO% 43.67 ile 2020'de 14.616 milyar ABD dolarına ulaşacak. Şu anda, yapay zekanın temel algoritması derin öğrenmedir. "Eğitim" kısmı esas olarak bulutta (sunucu tarafında) gerçekleştirilirken, "çıkarım" kısmı bulutta ve terminalde (ürün tarafında) gerçekleştirilebilir. İki ana işlemin yongalar için son derece yüksek gereksinimleri vardır: Geleneksel CPU'lar yetersiz hesaplama gücüne sahiptir ve yeni mimari yongalar bir AI geliştirme trendi haline gelmiştir. Şu anda, geleneksel mimariyi devam ettiren temelde GPU, FPGA ve ASIC (TPU, NPU, vb.) Yonga yolları ve geleneksel bilgi işlem mimarisini tamamen alt üst eden ve hesaplama yeteneklerini geliştirmek için insan beyni nöron yapısının simülasyonunu kullanan yonga yolu vardır. Hızlandırılmış bilgi işlem için yapay zekaya özgü yongaların kullanımının önümüzdeki beş yıl ve üzeri için ana pazar olacağını düşünüyoruz.

  • Bulut sahnesi : GPU ekolojisi, gelecekte çok yongalı tamamlayıcı bir arada varoluşun lideridir. Bulut çipleri açısından bakıldığında, GPU'lar şu anda bulut yapay zeka pazarına hakim durumda. TPU'lar tarafından temsil edilen ASIC'ler şu anda yalnızca devlerin kapalı döngü ekosisteminde kullanılıyor. FPGA'lar veri merkezi işinde hızla gelişiyor. Mevcut ekoloji açısından NVIDIA, GPU pazarını tekeline alır ve Altera ve Xilinx, FPGA pazarını tekeline alır. Google TPU şu anda kendi kullanımı için en güçlü ASIC'dir, ancak şu anda yalnızca kendi açık kaynaklı TensorFlow makine öğrenimi çerçevesini ve ekosistemini desteklemektedir. Geleceğe baktığımızda GPU'ların, TPU'ların ve paralel bilgi işlem için uygun diğer işlemcilerin yapay zeka hesaplamayı destekleyen ana cihazlar olacağına inanıyoruz.Yarışmalar ve uzun vadeli bir arada yaşama var ve belirli bir ölçüde birbirleriyle işbirliği yapabilirler. FPGA'ların veri merkezi işinde daha fazla rol oynaması bekleniyor. Esas olarak etkili bir ek olarak mevcuttur. Gelecekteki yongaların geliştirme beklentisi ekolojiye bağlıdır ve CPU + GPU / TPU + FPGA'nın (isteğe bağlı) çok yongalı bir işbirliği sahnesi oluşturmak için ana yazılım çerçevesi altında birleştirilmesi beklenmektedir. Hesaplamalarımıza göre, gelecekte bulut yongaları için yerin 2020'de 10,5 milyar ABD dolarına ulaşması bekleniyor ve bunun sırasıyla 50 / 3,5 / 20 milyar ABD doları GPU / ASIC / FPGA katkıda bulunuyor.

  • Terminal sahnesi : Yavaş yavaş talep üzerine iniş yapın, trend gelecekteki entegrasyondur . Bulut, gecikme ve güvenlikle sınırlıdır ve yapay zekanın "çıkarım" kısmı terminale batmaktadır. Terminal yapay zekası, çip desteği gerektiren talep senaryolarının düşük gecikme süresi, düşük güç tüketimi ve yüksek bilgi işlem gücü gerektirdiği sonucuna varıyor. Talebe göre, AI çipinin ineceği terminal alt sektörlerini değerlendiriyoruz: (1) Akıllı güvenlik; (2) Sürüş yardımı; (3) Cep telefonları / hoparlörler / dronlar / robotlar gibi diğer tüketici terminalleri. Üç ana alanın, terminal AI yongaları için kendi gereksinimleri vardır. Akıllı güvenliğin veri akışı hesaplama hızı için yüksek gereksinimleri vardır. Yapay zeka, ilk olarak hükümet pazarına girecek. Uzun vadede, GPU ana çözümdür.Haikang ve Dahua gibi devler, gelecekte IPC'ye entegre edilecek akıllı güvenlik ürünlerini piyasaya sürmek için NVIDIA ile el ele verdi. Ana yonga trenddir. Bilgi işlem gücüne ek olarak, akıllı sürüş acil durumlarda daha yüksek yonga kararlılığı ve işlem hızı gerektirir. Şu anda NVIDIA ve Qualcomm gibi devler GPU'ları güçlü bir şekilde dağıtıyor. Yurt içi ufuk, ASIC'ler aracılığıyla otomotiv pazarına girdi. ADAS'ın özelleştirme talebiyle buna karar veriyoruz. Artış, gelecekteki adanmış çip ana akım haline gelecektir. Akıllı telefonlar, hoparlörler ve AR / VR terminalleri pil kapasitesiyle sınırlıdır ve düşük güç tüketimi için daha yüksek gereksinimleri vardır.Ayrıca ASIC çözümlerinin geleceğin olduğuna inanıyoruz. Yatırımcılara "Çin'in Yükselişi" ve "İmparatorluk Geri Dönüyor" a dikkat etmelerini hatırlatıyoruz. Cambrian, Horizon ve Shenjian Teknolojisi gibi yerli risk sermayesi şirketleri zaten birinci kademede. Gelecekte ikame için bol bol yer var, ancak Nvidia, yükselen ASIC satıcılarını engellemek için açık kaynak DLA da başlattı. Zorluğun üstesinden gelmek için, terminal AI çip uzmanlaşmasının gelecekteki gelişme eğiliminin çok açık olması bekleniyor.

  • Risk faktörleri: Yapay zeka çiplerinin performansı beklendiği kadar hızlı değil; aşağı akış talebi beklendiği kadar iyi değil.

  • Yatırım stratejisi. Yapay zekanın, yıldızların denizinin geleceğinde, 2020 yılına kadar bulut pazarı 10 milyar ABD doları, GPU ve ASIC pazarın% 80'ini kaplayan 100 milyar yuan yapay zeka çipi pazar alanı oluşturmasının beklendiğine karar veriyoruz, FPGA etkili bir tamamlayıcıdır; terminal pazarı 4 milyar ABD dolarıdır. ASIC, geleceğin trendi. GPU ve FPGA, gelecekte uluslararası devlerin oyunları olmaya devam edecek.Yerli üreticilerin bulut ve terminal ASIC alanındaki gelişim fırsatları, özellikle terminal uygulamaları konusunda iyimseriz.Kambriyen, Horizon, Shenjian Technology, Bitmain gibi şirketlerin ileriye dönük düzeni konusunda iyimseriz.

AI patlar, cips kazanır

Yapay zeka, yüz milyarlarca çip pazar alanıyla patlayıcı bir döneme girdi

AI, onlarca yıldır inişler ve çıkışlar yaparak "beklentiler-hayal kırıklıkları-ilerleme-beklentiler" döngüsünde dalgaları kırdı. AI (yapay zeka) kavramı, 1956'daki Dartmouth konferansında doğdu. 1959'da, AI alanındaki ünlü Turing testi, 1959'da çığır açan "Bilgisayar Makineleri ve Zeka" makalesinde önerildi. O zamandan beri, algoritmalar ve araştırmalar 1956-1974 boyunca yinelemeye devam etti. Akıl yürütmenin altın çağı, 1974-1980'de ilk darboğaz dönemi, 1980-1987'de uzman sistemlerin geliştirilmesi, 1987-1993'te ikinci soğuk kış ve 1993-2010 öğrenme döneminin toparlanması, ardından büyük veri ve bulut bilişim Algoritma modellerinin ve paralel hesaplamanın birleşimi olan yükseliş, yapay zekanın gelişimini yönlendiriyor ve şimdi üç düzeyde tezahür eden patlayıcı bir döneme girdi: (1) Ekolojik temel : Mobil İnternet ve Nesnelerin İnternetinin hızlı gelişimi, yapay zeka endüstrisi için ekolojik bir temel oluşturdu; (2) Yazılım seviyesi : Mevcut matematiksel modeller yeniden keşfedildi, yeni ve uygun algoritmalar icat edildi ve önemli başarılar arasında grafik modelleri, grafik optimizasyonu, sinir ağları, derin öğrenme ve gelişmiş öğrenme yer alıyor; (3) Donanım seviyesi : Moore Yasası'nın yardımıyla, sunucuların güçlü bilgi işlem yetenekleri, özellikle paralel bilgi işlem birimlerinin tanıtımı, yapay zeka eğitiminin etkisini önemli ölçüde hızlandırdı.Orijinal CPU, GPU, FPGA, ASIC (TPU, NPU ve diğer AI'ya özgü mimari yongalar dahil) çeşitli donanımlar Bulut sunucularda ve terminal ürünlerinde algoritma hızlandırma ve yapay zeka uygulama ve geliştirme sürecini hızlandırmak için kullanılır.

Teknoloji sistemi katmanlıdır ve çekirdek işleme yongası temel katmanın anahtarı haline gelir. Yapay zeka teknolojisi sistemi temel katman, teknik katman ve uygulama katmanına ayrılmıştır. Temel katman esas olarak yapay zeka çekirdek işleme yongalarını ve büyük verileri içerir Teknik düzeyde görüntü tanıma ve konuşma tanıma gibi yapay zeka algoritmalarının temel taşıdır. Yapay zeka algoritmalarının, evrişim gibi çok sayıda özel paralel işlem kullanması gerekir.Geleneksel işlemciler (CPU'lar) bu işlemleri gerçekleştirirken daha az verimlidir ve yapay zeka için uygun çekirdek işlem yongaları gereklidir. Düşük gecikme süresi, düşük güç tüketimi, yüksek bilgi işlem gücü Çeşitli uygulama senaryoları kademeli olarak gerekli hale gelir. Çekirdek işleme çipleri ve büyük veri, yapay zeka teknolojisinin gelişimini destekleyen temel unsurlar haline geldi.

CCID Consulting tarafından yayınlanan bir rapora göre küresel yapay zeka pazarı 2016 yılında 29,3 milyar dolara ulaştı. Yapay zeka çipleri, yapay zeka pazarının önemli bir parçası.Nvidia, AMD, Xilinx, Google ve diğer ilgili firmalardan alınan verilere göre yapay zeka çip pazarının 2016 yılında 2.388 milyar ABD dolarına ulaşarak küresel yapay zeka pazarının yaklaşık 8.15'ini oluşturacağını tahmin ediyoruz. Yapay zeka çip pazarı 2020 yılına kadar 14.616 milyar ABD dolarına ulaşacak ve küresel yapay zeka pazarının yaklaşık% 12.18'ini oluşturacak. Yapay zeka çipleri pazarı son derece geniştir.

Çip taşıma algoritması, rekabetin en önemli noktasıdır

Yapay zekanın temeli algoritmalardır ve derin öğrenme şu anda en yaygın yapay zeka algoritmasıdır. Derin öğrenme, önceki yapay sinir ağı (YSA: Yapay Sinir Ağları) modelinden geliştirilen Derin Sinir Ağları (DNN: Derin Sinir Ağları) olarak da adlandırılır. Bu tür bir model genellikle bilgisayar biliminde grafik modeli tarafından sezgisel olarak ifade edilir Derin öğrenmenin "derinliği", grafik modelinin katmanlarının sayısını ve her katmandaki düğüm sayısını ifade eder. Sinir ağlarının karmaşıklığı artmaya devam ediyor. 2012'de önerilen en eski tek nörondan AlexNet'e (8 ağ katmanı), 2015'te önerilen ResNET'e (150 ağ katmanı) kadar, katmanlar arasındaki karmaşıklık geometrik olarak artıyor. , İşlemci bilgi işlem gücüne olan talepteki patlayıcı büyümeye karşılık gelir. Derin öğrenme, hesaplama miktarında keskin bir artışa neden oldu ve bu da bilgi işlem donanımına daha yüksek gereksinimler getirdi. Önce derin öğrenme algoritmasını analiz edelim ve AI yongasıyla ilişkisini açıklayalım.

Derin öğrenme algoritmaları iki işleme ayrılır: "eğitim" ve "çıkarım". Basitçe ifade etmek gerekirse, yapay zekanın büyük veriye dayalı "eğitim" yoluyla çeşitli parametreleri elde etmesi ve nihai sonucu elde etmek için bu parametreleri "çıkarım" bölümüne aktarması gerekiyor.

"Eğitim" ve "çıkarım", farklı türde sinir ağı işlemleri gerektirir. Sinir ağları, her ikisi de çok sayıda paralel işlem içeren ileri hesaplamalara (matris çarpımı, evrişim ve döngü katmanları dahil) ve geriye dönük güncellemelere (esas olarak gradyan hesaplamaları) bölünmüştür. "Eğitim" için gerekli işlemler "ileri hesaplama + geriye doğru güncelleme" yi içerir; "çıkarım" esas olarak "ileriye doğru hesaplama" dır. Genel olarak konuşursak, eğitim süreci çıkarım sürecinden daha hesaplama açısından daha yoğundur. Genel olarak, bulut yapay zeka donanımı "eğitim + çıkarımdan" sorumludur ve terminal yapay zeka donanımı yalnızca "çıkarımdan" sorumludur.

"Eğitim", büyük verilerin desteğini gerektirir ve yüksek derecede esneklik sağlar ve genellikle "bulutta" (yani sunucu tarafında) gerçekleştirilir. Yapay zeka eğitim sürecinde üst katmanda devasa bir veri setine ihtiyaç duyulur ve belirli bir derin öğrenme modeli seçilir. Her modelin, verilerden öğrenmek için esnek bir şekilde ayarlanması gereken bazı dahili parametreleri vardır. Ve bu tür bir parametre ayarlaması aslında bir optimizasyon problemine bağlanabilir. Bu parametreleri ayarlarken, belirli kısıtlamaları optimize etmeye eşdeğerdir. Bu sözde "eğitim" dir. Bulut sunucusu, kullanıcının büyük verilerini topladıktan sonra, eğitim sürecini uygulamak ve ilgili eğitim parametrelerini çıkarmak için güçlü bilgi işlem kaynaklarına ve özel donanımına güvenir. Derin öğrenme eğitim süreci çok büyük veri kümeleri ve büyük miktarlarda hesaplamalar gerektirdiğinden, sunucuya daha yüksek gereksinimler de getirilir. Gelecekteki bulut yapay zeka sunucu platformunun karşılaştırılabilir veri seviyesi, süreç odaklı paralellik, çoklu iş parçacığı ve yüksek bellek bant genişliği gibi özelliklere sahip olması gerekiyor.

"Çıkarım" işlemi bulutta (sunucu tarafında) veya terminalde (ürün tarafında) gerçekleştirilebilir. Model eğitiminin tamamlanmasını bekledikten sonra, çeşitli uygulama senaryolarında (görüntü tanıma, konuşma tanıma, metin çevirisi vb.) Eğitimli modeli (çoğunlukla eğitim yoluyla elde edilen çeşitli parametreler) kullanın. "Uygulama" süreci esas olarak çok sayıda çok-biriktirmeli matris işlemlerini içerir ve paralel hesaplama miktarı büyüktür, ancak parametreler "eğitim" sürecine kıyasla nispeten sağlamdır ve büyük veri desteğine ihtiyaç duymaz.Sunucu tarafı uygulamaya ek olarak, terminalde de uygulanabilir. "Çıkarım" için gerekli parametreler, bulutta "eğitim" sonrasında düzenli olarak terminale indirilebilir ve güncellenebilir.

Geleneksel CPU'lar yetersiz bilgi işlem gücüne sahiptir ve yeni mimari yongaların yapay zekayı desteklemesi gerekir. Çekirdek yonga, bilgi işlem platformunun temel mimarisini ve geliştirme ekolojisini belirler.YZ'nin gerektirdiği derin öğrenme, yüksek dahili paralellik, büyük miktarda kayan nokta hesaplama yeteneği ve matris işlemleri gerektirdiğinden, CPU tabanlı geleneksel hesaplama mimarisi, yapay zekanın yüksek performanslı paralelliğini tam olarak karşılayamaz. Bilgi işlem (HPC) talebi, yapay zeka mimarisine uygun özel yongaların geliştirilmesini gerektirir.

Özel donanım hızlandırma, yeni mimari yongaların geliştirilmesinin temelidir. Şu anda, yapay zeka donanımı için işlemci yongalarının optimizasyonu ve yükseltilmesi için iki geliştirme yolu vardır: (1) Geleneksel bilgi işlem mimarisini sürdürmek ve donanım hesaplama yeteneklerini hızlandırmak: GPU, FPGA ve ASIC (TPU, NPU vb.) Yongaları ile temsil edilen bu özel yongalar yardımcı olarak kullanılır ve CPU'nun kontrolü ile yapay zeka ile ilgili çeşitli işlemlerde uzmanlaşır; (2) Geleneksel bilgi işlem mimarisini tamamen yıkın ve bilgi işlem gücünü artırmak için simüle edilmiş insan beyni nöron yapısını kullanın , IBM TrueNorth yongası tarafından temsil edilen, teknolojinin ve temeldeki donanımın sınırlamaları nedeniyle, ikinci yol hala araştırma ve geliştirmenin erken aşamasındadır ve şu anda büyük ölçekli ticari uygulama olasılığına sahip değildir. Teknolojik olgunluk ve ticari fizibilite perspektifinden, hızlandırılmış bilgi işlem için yapay zekaya özgü donanım kullanımının önümüzdeki beş yıl veya daha uzun bir süre içinde ana pazar olacağını düşünüyoruz.

Bulut terminali ikili sahnesi, üç çeşit çip büyülü gücü gösterir

Yapay zeka donanım uygulama senaryolarını iki kategoriye ayırıyoruz: bulut senaryoları ve terminal senaryoları. Bulut temelde çeşitli genel bulut, özel bulut, veri merkezi ve diğer iş kategorileri dahil olmak üzere sunucu tarafını ifade eder; terminal, temel olarak güvenlik, araç, cep telefonu, hoparlör ve robot gibi çeşitli uygulamaları içeren mobil terminali ifade eder. Algoritma verimliliği, temeldeki donanım seçimi ile yakından ilişkili olduğundan, "bulut" (sunucu tarafı) ve "terminal" (ürün tarafı) senaryolarının donanım gereksinimleri de farklıdır. Ana AI çiplerini çözdük.

CPU'ya ek olarak, yapay zeka şu anda esas olarak GPU, FPGA ve ASIC olmak üzere üç özel çekirdek yongası kullanıyor. Profesyonel terminoloji, bir benzetme yapmak için nispeten sıkıcıdır. durumunda Yapay zeka hesaplamayı yüzmeyle karşılaştırın CPU, GPU, FPGA ve ASIC, dört sporcu türüne eşdeğerdir: (1) CPU, iyi fiziksel kaliteye sahip bir spor okulu öğrencisidir, yüzebilir ve rekabet etmesi daha zordur; (2) GPU, dekatlon oynatıcıya eşdeğerdir Kendi başına yüzebilir ve doğrudan sahada yarışabilir; (3) FPGA, deforme olabilen bir robot oynatıcıya eşdeğerdir , Suda rekabet edebilmesi için önceden deforme olması gerekir, sonuç programlama etkisine bağlıdır; (4) ASIC, uzun süre eğitilmiş profesyonel bir yüzücüye eşdeğerdir , En hızlı yüzün, ancak olağanüstü bir profesyonel sporcuyu eğitmek uzun zaman alıyor.

Aşağıda ayrı olarak sunulmuştur.

GPU: Öncü bir "dekatlon" oyuncusu, bulut terminallerinin hepsinin başı çekiyor. Grafik işlemcisi olarak da bilinen GPU (Grafik İşlem Birimi), daha önce görüntü işlemlerine adanmış bir mikroişlemciydi. CPU'larla karşılaştırıldığında, GPU'lar karmaşık matematik ve geometrik hesaplamalar (özellikle paralel işlemler) yapmak için daha uygundur ve çok sayıda paralel işlem içeren yapay zeka derin öğrenme algoritmalarıyla eşleşir, bu nedenle yapay zeka çağında yeni bir görev verilmiştir. Yapay zeka donanımında ilk tercih olmak, bulut ve terminalde çeşitli senaryolarda inişlerde liderlik etmek. Şu anda, bulutta AI "eğitimi" için ana yonga olan GPU'lar, terminal güvenliği ve otomobil alanlarında da ilk iniş yapan ve şu anda en yaygın kullanılan ve esnek AI donanımıdır.

FPGA: "Transformers", algoritma tamamlanmadan önce en iyi seçim. FPGA (Field-ProgrammableGate Array), kullanıcıların kendi ihtiyaçlarına göre yeniden programlayabilecekleri "evrensel bir çip" olan, sahada programlanabilir bir kapı dizisidir. Programlamadan sonra fonksiyon, yüksek verimlilik ve düşük güç tüketimi özelliklerine sahip ASIC'e (uygulamaya özel entegre devre) eşdeğerdir, ancak aynı zamanda programlama esnekliği nedeniyle devrede çok fazla fazlalık olacaktır, bu nedenle maliyet ASIC kadar iyi olamaz. Mükemmel ve çalışma frekansı çok yüksek olamaz (genellikle ana frekans 500 MHz'den düşüktür). GPU ile karşılaştırıldığında FPGA, düşük güç tüketimi avantajlarına sahiptir ve ASIC ile karşılaştırıldığında daha hızlı geliştirme döngüsü ve daha esnek programlama özelliklerine sahiptir. FPGA, "uygulama patlaması" ve "ASIC seri üretimi" arasında geliştirme arayışındadır. Verimlilik ve esneklik arasında iyi bir uzlaşmadır. "Zamana karşı yarışır" ve algoritma sonlandırılmadan önce daha büyük bir avantaja sahiptir. Mevcut bulut veri merkezi işinde, esneklikleri ve derinlemesine optimizasyonları nedeniyle FPGA'ların piyasada GPU'lardan sonra patlaması bekleniyor.Geçerli terminal akıllı güvenlik alanında, AI donanım hızlandırması elde etmek için şu anda FPGA çözümlerini benimseyen satıcılar da var.

ASIC: Verimliliği belirlemeye adanmış "profesyonel oyuncular", gelecekte yapay zeka çipleri için en iyi seçim. ASIC (Uygulamaya Özel Tümleşik Devre), uygulamaya özel bir entegre devredir. Bu makalede, özel bir mimariye sahip AI uygulamaları için özel olarak tasarlanmış bir işlemci çipine atıfta bulunmaktadır. Son yıllarda ortaya çıkan TPU, NPU, VPU ve BPU gibi göz kamaştırıcı çip çeşitlerinin tamamı doğası gereği ASIC'lerdir. Performans, alan, güç tüketimi vb. Açısından AISC, GPU ve FPGA'dan daha üstündür.Uzun vadede, ister bulutta ister terminalde, ASIC, AI yongalarının geleceğini temsil eder. Bununla birlikte, AI algoritmaları günümüzde hala güçlü bir şekilde gelişmekte ve hızla yinelendiğinden, ASIC'lerin uzun geliştirme döngüleri, düşük seviyeli donanım programlama ve düşük esneklik gibi dezavantajları vardır, bu nedenle GPU'lar ve FPGA'lar kadar hızlı değildirler.

Aşağıdaki iki bölümde, buluttaki ve terminal uygulama senaryolarındaki bu üç tescilli AI yongasının uygulama durumunu, geliştirme olasılıklarını ve olası değişikliklerini dikkatlice analiz ediyoruz.

Bulut senaryosu: GPU ekolojisi liderlik ediyor ve gelecekte birden fazla yonga bir arada var olacak

Temel sonuç: GPU'lar, TPU'lar ve paralel bilgi işlem için uygun diğer işlemciler, gelecekte yapay zeka hesaplamayı destekleyen ana cihazlar olacak. Rekabet ve uzun vadeli bir arada var olacaklar ve belirli bir ölçüde birbirleriyle işbirliği yapabilecekler. FPGA'ların veri merkezi işinde ve ana bulutta daha fazla rol oynaması bekleniyor Etkili bir tamamlayıcı olarak var; CPU "küçülecek" ve yine de kontrol merkezi olarak hizmet verecek. Gelecekteki yongaların geliştirme beklentisi ekolojiye bağlıdır ve bir bulut CPU + GPU / TPU + FPGA (isteğe bağlı) çok yongalı işbirliği sahnesi oluşturmak için birkaç ana yazılım çerçevesi altında birleştirilmesi beklenmektedir.

Büyük veriye güvenen teknoloji devleri, farklı teknoloji yollarında yapay zeka bulut platformlarını devreye alıyor

Bulut platformunu temel alan büyük teknoloji devleri, yapay zekayı güçlü bir şekilde dağıtır. Bulut bilgi işlem, Hizmet olarak Altyapı (IaaS), Hizmet Olarak Platform (Paas), Hizmet Olarak Yazılım (Saas) olmak üzere üç katmana ayrılmıştır. ). Altyapı altta, platform ortada ve yazılım üstte. IaaS şirketleri, site dışı sunucular, depolama ve ağ donanımı sağlar. Büyük veri, yapay zeka için bir bilgi kaynağı sağlar ve bulut bilgi işlem, yapay zeka için bir platform sağlar.Yapay zekanın temel teknolojisi, giderek olgunlaşan bulut bilişim ve büyük veri bağlamında atılımlar yapmıştır. Şu anda, büyük teknoloji devleri, yapay zekanın buluta yönelik gelecekteki gelişme eğilimi konusunda iyimser ve bulutta depolanan büyük verilerin değerinden yararlanmak için kendi bulut platformlarını yapay zeka sistemleriyle donattılar.

100 milyar ABD doları tutarındaki bulut hizmeti pazarında, AI çiplerinin büyük bir geliştirme potansiyeli var

Yüz milyarlarca dolarlık bulut hizmeti pazarı, bulut bilişim donanım pazarı çok büyük. Bulut bilişimin pazar boyutu giderek genişliyor. Gartner istatistiklerine göre, IaaS, PaaS ve SaaS tarafından temsil edilen tipik bulut hizmeti pazarı 2015 yılında% 20,6 büyüme oranıyla 52,24 milyar ABD dolarına ulaştı ve 2020 yılında% 22 bileşik büyüme oranıyla 143,53 milyar ABD dolarına ulaşması bekleniyor. Bunların arasında, IaaS şirketlerinin pazar alanı 2020 yılına kadar 61,5 milyar ABD dolarına ulaşacak ve tüm bulut bilişim pazarının% 43'ünü oluşturacak.Bulut bilişim donanım pazarı çok büyük bir alana sahip ve bulut bilişim ve yapay zeka, çeşitli hızlandırma algoritmalarıyla yakından ilişkilidir.Geleceğin bulut bilişim donanımı birbirinden ayrılamaz. AI çip hızlandırma.

Bulut AI çiplerinin geliştirme potansiyeli çok büyük. Nvidia ve AMD'nin finansal verilerine göre, GPU'nun 2020 yılına kadar veri merkezi işinde yaklaşık 5 milyar ABD doları pazar büyüklüğüne ulaşacağını tahmin ediyoruz. Aynı zamanda, Xilinx ve Altera gibi FPGA satıcılarına göre, FPAG veri merkezi işinin 2020'de 2 milyar ABD dolarına ulaşmasını bekliyoruz. Yaklaşan ASIC bulut pazarı alanıyla birleştiğinde, bulut AI çip pazarının 2020 yılına kadar 10.568 milyar ABD dolarına ulaşmasını bekliyoruz. AI çipleri, bulutta bulut bilişimin önemli bir parçası olacak ve büyük bir geliştirme potansiyeline sahip olacak.

Bulut yongalarının mevcut durumunun özeti: GPU liderleri, FPGA'lar takip ediyor, ASIC'ler filizleniyor

Yapay zeka çipleri, buluttaki büyük verilere dayanır ve çekirdek "eğitimden" sorumludur. Bulutun özelliği "büyük veri + bulut bilişimdir". Kullanıcılar, yeterli veri analizi ve veri madenciliği yapmak, çeşitli veri özelliklerini çıkarmak ve bulut bilişim gerçekleştirmek için yapay zeka algoritmalarıyla tam olarak birleşmek için büyük veriye güvenir ve böylece çeşitli sunucu tarafı AI + uygulama. AI çipleri, çeşitli karmaşık yapay zeka algoritmalarını hızlandırmaktan sorumlu donanımdır. Çok sayıda ilgili hesaplamadan dolayı, CPU mimarisinin çok sayıda paralel hesaplamayı ele alması gereken yapay zeka algoritmalarının ihtiyaçlarını karşılayamadığı ve paralel hesaplamalar için daha uygun çiplerin gerekli olduğu ortaya çıktı.Bu nedenle GPU, FPGA, TPU gibi çeşitli çipler ortaya çıktı. Buluttaki AI çipi, yapay zekanın "eğitim" ve "çıkarım" süreçlerini eşzamanlı olarak üstlenebilir.

Bulut çiplerinin mevcut durumu: GPU'lar bulut yapay zeka pazarına hakimdir. TPU'lar tarafından temsil edilen ASIC'ler şu anda yalnızca devlerin kapalı döngü ekosisteminde kullanılmaktadır. FPGA'lar veri merkezi işinde hızla gelişmiştir.

GPU uygulama geliştirme döngüsü kısadır, maliyet nispeten düşüktür ve teknoloji sistemi olgunlaşmıştır. Şu anda, Google, Microsoft, Amazon, Alibaba gibi ana akım şirketler ve dünyanın en büyük bulut bilgi işlem merkezlerindeki diğer ana akım şirketler, AI bilgi işlem için GPU kullanıyor; Google, GPU'nun kapsamlı kullanımına ek olarak geliştirmek için çok çalışıyor. AI'ya özel ASIC çipine sahip olun. GPU'larla karşılaştırıldığında, bu yılın Mayıs ayında piyasaya sürülen TPU, güç tüketimini% 60 ve yonga alanını% 40 azalttı, bu da büyük AI bilgi işlem gücü gereksinimlerini daha iyi karşılayabilir.Ancak, yapay zeka algoritmalarının hızlı yinelemesi nedeniyle şu anda yalnızca TPU'lar mevcut. Google bunu kendisi kullanır ve TensorFlow olgunlaştıkça TPU harici olarak da sağlanabilir, ancak çok yönlülük için hala uzun bir yol var.

Baidu gibi üreticiler de veri merkezi işlerinde bulut hızlandırma için aktif olarak FPGA kullanıyor. FPGA, GPU'dan ASIC'e önemli bir geçiş planı olarak görülebilir. GPU ile karşılaştırıldığında, donanım düzeyinde optimizasyona derinlemesine gidebilir.ASIC ile karşılaştırıldığında, algoritmaların mevcut yinelemeli evrimine göre daha esnektir ve geliştirme süresi daha kısadır. AI alanındaki ASIC'lerin daha iyi performans ve güç tüketimine sahip olduğu kanıtlanmıştır ve gelecekte yapay zeka donanımının ana yönü haline gelmeleri beklenmektedir.

Bulut GPU: Bulut AI çip genel akışı, bariz ilk hareket avantajı

1.1 Geliştirme durumu: GPU, paralel hesaplama için doğal olarak uygundur ve şu anda bulut AI için en yaygın kullanılan çiptir

GPU şu anda en geniş bulut uygulamaları yelpazesine sahiptir. Şu anda, yapay zeka ile ilgilenen çok sayıda şirket hızlanma için GPU kullanıyor. Nvidia'nın resmi verilerine göre, Nvidia ile derin öğrenme projeleri geliştirmek için 2016'da işbirliği yapan 19.000'den fazla şirket vardı, 2014'teki 1.500 şirket. Şu anda, Baidu, Google, Facebook ve Microsoft gibi BT devleri yapay zeka projelerini hızlandırmak için NVIDIA GPU'ları kullanıyor. GPU'lar şu anda bulut AI derin öğrenme senaryolarında en yaygın kullanılanlardır. İyi programlama ortamının getirdiği ilk hareket avantajı nedeniyle, bu beklenmektedir. Gelecekte de güçlü olmaya devam edecek.

GPU yonga mimarisi, görüntü işleme ve güçlü paralel hesaplama yeteneklerinden doğmuştur. Görsel işlemci olarak da bilinen GPU (Grafik İşlem Birimi), daha önce kişisel bilgisayarlarda, iş istasyonlarında, oyun konsollarında, mobil cihazlarda (tablet bilgisayarlar, akıllı telefonlar vb.) Ve görüntü hesaplama için kullanılan diğer yongalarda kullanılan bir mikroişlemcidir. . CPU'ya benzer şekilde programlanabilir, ancak karmaşık matematiksel ve geometrik hesaplamalar, özellikle paralel işlemler yapmak için daha uygundur. Dahili, grafik verilerini ve karmaşık algoritmaları işlemede CPU'dan daha verimli olan oldukça paralel bir yapıya (oldukça paralel yapı) sahiptir.

GPU yapısı, CPU yapısından önemli ölçüde farklıdır ve paralel hesaplama için daha uygundur. GPU ve CPU arasındaki yapısal farklılıkları karşılaştırdığımızda, CPU alanının çoğu denetleyiciler ve kayıtlardır.GPU, veri önbelleği ve akış kontrolü yerine veri işleme için daha fazla ALU'ya (Aritmetik Mantık Birimi) sahiptir. Yapı, yoğun verilerin paralel olarak işlenmesi için uygundur. CPU bir bilgi işlem görevini yürüttüğünde, bir seferde yalnızca bir veri parçasını işler ve gerçek bir paralellik olmazken, GPU birden çok işlemci çekirdeğine sahiptir ve birden çok veriyi aynı anda paralel olarak işleyebilir.

CPU ile karşılaştırıldığında, GPU'nun AI alanındaki performansı mutlak bir avantaja sahiptir. Sinir ağı eğitiminde derin öğrenme, yüksek derecede doğal paralellik, büyük miktarda kayan nokta hesaplama gücü ve matris işlemleri gerektirir ve GPU bu yetenekleri sağlayabilir ve geleneksel CPU yöntemlerine kıyasla aynı doğrulukta daha hızlıdır. İşlem hızı, daha az sunucu yatırımı ve daha düşük güç tüketimi. NVIDIA, 11 Mayıs 2017'de San Jose, California'daki GPU Teknoloji Konferansı'nda Tesla V100'ü çoktan piyasaya sürdü. Bu şu anda en güçlü GPU bilgi işlem mimarisi Volta, TSMC'nin 12nm FFN sürecini kullanıyor ve derin öğrenme performansını işlemede 250 CPU'ya eşdeğer olan 21 milyar transistörü entegre ediyor.

1.2 Ekolojik model: Nvidia, GPU pazarını tekeline alıyor

Yapay zeka fırsatını değerlendiren NVIDIA, GPU pazarını tekeline alıyor. Nvidia şu anda küresel GPU endüstrisi pazar payının% 70'inden fazlasını işgal ediyor ve AMD ve diğer rakiplerini çok geride bırakıyor. Nvidianın temel ürünü olan GPU, gelir payının% 84'ünü oluşturuyor. Nvidia'nın uygulama alanları, video oyunları, film prodüksiyonu, ürün tasarımı, tıbbi teşhis ve bilimsel araştırma gibi çeşitli kategorileri kapsar. Ana ürünler arasında oyun grafik kartları için GeForceGPU, derin öğrenme hesaplamaları için Tesla GPU'lar ve akıllı araba işleme için tasarlanmış Tegra işlemciler bulunur. Yapay zekanın gelişmesi sayesinde NVIDIA'nın geliri ve kârı artmaya devam ederek yapay zeka endüstrisinin en büyük faydalanıcılarından biri haline geldi.

İyi bir programlama ortamı, Nvidia GPU'larının bulut AI donanımının ana akımını tekeline almasının önemli bir nedenidir. Grafik ve görüntü işlemede yaygın olarak kullanıldığından, GPU nispeten iyi bir programlama ortamına ve onu programlamak için kullanan bir grup yazılım mühendisine sahiptir, bu nedenle şu anda en yaygın derin öğrenme donanımı haline gelmiştir. Nvidia tarafından yayınlanan CUDA bilgi işlem platformu, özellikle geliştiriciler için paralel bir hesaplama platformudur. Geliştiriciler, hesaplamalı hızlandırma elde etmek için NVIDIA GPU'ları kolayca geliştirmek için CUDA platformu aracılığıyla yazılım dilini kullanabilir. CUDA platformu daha önce yaygın olarak tanındığı ve popüler hale getirildiği ve iyi bir programlama ortamı biriktirdiği için şu anda yapay zeka alanında kullanılan ve genel amaçlı hesaplama yapabilen GPU pazarı temelde NVIDIA tarafından tekelleştirilmiştir.

Bulut veri merkezleri ve araç içi gibi yapay zeka ile ilgili alanlar NVIDIA'nın yeni iş büyüme motorları haline geldi. Nvidianın 2017 mali yılı geliri, 2016 mali yılında 5,01 milyar ABD dolarından% 38 artışla 6,91 milyar ABD doları rekor kırdı. Son kullanıcı uygulama alanına göre, NVIDIAnın ana işi oyunlar, veri merkezleri, profesyonel görselleştirme ve otomotiv işlerine bölünmüştür. Oyun işi geliri, 2017 mali yılında 4,06 milyar ABD dolarına ulaşarak toplam gelirin% 58,8'ini oluşturdu ve bir önceki yıla göre% 44,1 arttı; veri merkezleri ve otomobiller, toplam gelirin sırasıyla% 12 ve% 7'sini oluştururken, veri merkezi büyümesi yıllık% 144,8'e ulaştı. Otomobil büyümesi yıllık bazda% 52,2'ye ulaştı. 2017 mali yılının 1. çeyreğinden 2018 mali yılının 1. çeyreğine kadar şirketin ana iş yapısı büyük ölçüde değişti. Veri merkezi işi% 11 ila% 21 arasında değişti ve hızlı büyüme oranı NVIDIA'nın iş büyümesinin yeni motoru haline geldi.

1.3 Gelecek trendi: Açık döngüden uzmanlaşmaya kadar GPU, gelecekte bulut pazarında güçlü olmaya devam edecek

GPU, yapay zekanın evrim yoluna ve gelecekteki evrim yönüne uyum sağlamaya devam ediyor: "açık döngüden" "uzmanlaşmaya". Şu anda, bulutta en yaygın kullanılan ve en verimli AI çipi hala GPU'dur. Ancak AI çipleri sadece GPU'lar değildir.ASIC ve FPGA ile ilgili üreticiler art arda yapay zeka hesaplama için çipleri piyasaya sürdü. Google, 45 TFLOPS (bir TFLOPS saniyede trilyon kayan nokta işlemine eşittir) performansıyla ASIC yonga TPU2'yi piyasaya sürdü ve güç tüketimi yalnızca 40W. Yerli Cambrian şirketi tarafından başlatılan ASIC yongası DaDianNao, 5.585 TFLOPS performansına ve yalnızca 15.97W güç tüketimine sahip. Birçok özel ASIC yongasının piyasaya sürülmesi, gelecekte GPU'nun hakimiyetini tehdit edebilir. Nvidia bunun açıkça farkındadır ve teknolojik yenilikleri teşvik etmeye, daha güçlü performansa sahip ve AI hesaplama için daha uygun ürünler piyasaya sürmeye ve GPU'unu sürekli olarak optimize etmeye ve daha uzmanlaşmış AI hesaplama yönünde sıkı çalışmaya devam ediyor. Mayıs 2017'de NVIDIA amiral gemisi çipi Tesla V100'ü piyasaya sürdü.Önceki nesil TeslaP100 ile karşılaştırıldığında en büyük değişiklik, derin öğrenmeyle son derece ilgili Tensor birimlerinin eklenmesidir. Tensör performansı 120TFLOPS'a ulaşabilir. GPU'lar, "açık döngü genel amaçlı" dan "AI uzmanlaşmasına" dönüşen evrimsel yapay zeka yoluna adapte olmaya devam ediyor, performansta sürekli iyileştirme ve ekolojik ortamın ilk harekete geçiren avantajı ile birleştiğinde, önümüzdeki 2 ila 3 yıl içinde GPU'ların hala yapay zeka bulut pazarı olması bekleniyor En önemli kısım.

Bulut ASIC: TPU ile temsil edilen performans, gelecekte yapay zekanın hakim zirveleri için kazanır ve rekabet eder

2.1 Geliştirme trendi: ASIC gelecekteki yapay zeka için özel çekirdek çip

ASIC'in AI yönündeki gelişimi hala erken aşamasındadır. ASIC, belirli senaryolar, gereksinimler ve algoritmalar için tasarlanmış özel bir çip olan Uygulamaya Özel Entegre Devre anlamına gelir. Şu anda, yapay zeka ASIC'in gelişimi hala erken aşamasındadır. Bunun temel nedeni, mevcut yapay zeka algoritmasının hızlı bir şekilde sonlandırılmamış ve yinelenmemiş olmasıdır.ASIC tasarımı tasarlanıp üretildikten sonra, işlev temelde sabitlenir.GPU ve FPGA ile karşılaştırıldığında yeterince esnek değildir ve geliştirme döngüsü uzun ve başlangıç maliyeti yüksektir. Yapay zeka ASIC çip şirketlerinin hem bir yapay zeka algoritması çerçevesine sahip olması hem de çip araştırma ve geliştirmede iyi olması gerekiyor ve giriş engelleri çok yüksek.

ASIC performansı, enerji tüketimi ve büyük ölçekli seri üretim maliyetleri, gelecekte bulut yapay zekasının önemli bir geliştirme yönü olan GPU ve FPGA'dan önemli ölçüde daha iyidir. Belirli bulut uygulamaları için, tamamen özel olarak tasarlanmış bir ASIC yongası olarak performans ve enerji tüketimi FPGA ve GPU'dan daha iyidir. Google kısa süre önce geleneksel GPU'lara kıyasla 15 kat ve CPU'lardan 30 kat kayan nokta performansına sahip bir yapay zeka ASIC TPU geliştirdi. ASIC, hem performans hem de güç tüketimi açısından iki avantaja sahip olduğundan ve ASIC tek yongasının maliyeti seri üretim koşullarında büyük ölçüde azaldığından, gelecekte yapay zekanın temel yongası olacağına karar veriyoruz.

2.2 Ekolojik model: Google TPU şu anda kendi kendine kullanım için en güçlü ASIC'dir ve ekolojik iyileştirmeden sonra harici tedarik beklemektedir

TPU: Google şu anda kendi kullanımı için en güçlü ASIC çipini kullanıyor ve ekolojik iyileştirmeden sonra tedarik etmeyi dört gözle bekliyor. AlphaGo en iyi insan oyuncuları süpürürken, Google'ın AlphaGo'da kullanılan ASIC çipli TPU'su sektör tarafından büyük bir memnuniyetle karşılandı. Google, 2016'daki Google I / O Konferansı'nda ilk nesil TPU ürünlerini resmen tanıttı. Bu yılın Mayıs ayında, geliştirici I / O konferansında Google, Cloud TPU olarak da bilinen ikinci nesil TPU'yu resmi olarak duyurdu. En büyük özelliği, birinci nesil TPU ile karşılaştırıldığında, sinir ağlarını eğitmek ve çıkarım için kullanılabilmesidir. Bu hem çıkarım aşamasıdır. Optimizasyon ayrıca eğitim aşaması için optimize edilmiştir. Performans açısından, ikinci nesil TPU, 45 TFLOP'luk bir kayan nokta performansına ulaşabilir. Geleneksel GPU ile karşılaştırıldığında, CPU kayan nokta performansından 15 kat daha yüksek ve 30 kat daha yüksektir. Ekolojik olarak, şu anda TPU yalnızca kendi açık kaynaklı TensorFlow makine öğrenimi çerçevesini ve ekosistemini desteklemektedir. Bu, çok eksiksiz bir ekosisteme sahip GPU'ya kıyasla bazı eksikliklere sahiptir. Bununla birlikte, Google da bu eksikliğin farkındadır.Ekolojideki eksiklikleri gidermek için Google, TensorFlow Research Cloud planını, çalışmalarının sonuçlarını paylaşmak isteyen araştırmacılara ücretsiz olarak 1.000 Cloud TPU sağlamak için önerdi. TPU ekolojisinin sürekli iyileştirilmesi ile daha güçlü performansa sahip TPU'nun bulut yapay zekasının geleceği olacağına inanılıyor.

3. Bulut FGPA: Düşük gecikme senaryolarında tam avantajlarla buluta etkili bir tamamlayıcıdır

3.1 Deforme edilebilir evrensel çip, gelecekte bulut yapay zekasının en iyi tamamlayıcısı

FPGA programlanabilir ve oldukça esnektir. Sahada programlanabilir kapı dizisi olan FPGA (Alan Programlanabilir Kapı Dizisi), PAL ve CPLD gibi programlanabilir cihazlar temelinde daha da geliştirilmiş bir üründür. FPGA çok sayıda tekrarlayan IOB (giriş ve çıkış modülleri), CLB (yapılandırılabilir mantık bloğu, içte temel mantık kapısı devreleri, AND geçitleri, OR geçitleri vb.) Ve kablolama kanalları ve diğer temel birimler içerir. FPGA, fabrikadan çıktığında "evrensel bir çip" dir.Kullanıcılar, FPGA'nın donanım devresini kendi ihtiyaçlarına göre tasarlamak için donanım tanımlama dilini (HDL) kullanabilir; programlama her tamamlandığında, FPGA içerisindeki donanım devresinin belirli bir bağlantı yöntemi vardır. Belli bir işlevi vardır. FPGA, dahili mantık dizisini isteğe göre özelleştirebilir ve herhangi bir mantık işlevini gerçekleştirmek için dahili donanım mantığını değiştirmek için gerçek zamanlı olarak kullanıcı sitesinde programlanabilir.

3.2 Temel avantajlar: bulutta yüksek performans, düşük güç tüketimi ve düşük gecikme süresi

FPGA'nın yönergesi, paylaşılan belleği ve yüksek paralel hesaplama verimliliği yoktur. Hem CPU hem de GPU, komut kod çözme ve yürütme ve geleneksel anlamda "yazılım programlama" olan paylaşılan bellek gerektiren von Neumann yapısına aittir. FPGA'nın her bir mantık biriminin işlevi yeniden programlama (programlama) sırasında belirlenmiştir ve "donanım programlamasına" ait herhangi bir talimat gerekmez; FPGA'nın her mantık birimi ile çevresindeki mantık birimi arasındaki bağlantı yeniden programlama sırasında belirlenmiştir. Paylaşılan hafıza üzerinden iletişim kurmaya gerek yok. FPGA, donanım paralelliğinden yararlanır ve sıralı yürütme modunu bozar.Bu nedenle, her saat döngüsünde daha fazla işlem görevi tamamlanır ve yürütme verimliliği büyük ölçüde iyileştirilir.

FPGA, enerji tüketiminde CPU ve GPU'ya göre bariz avantajlara sahiptir. Bir yandan, doğrudan özel bir devreye yazıldığı için, FPGA'nın erişim talimatları ve komut kod çözme işlemleri yoktur, bu nedenle güç tüketimi avantajı açıktır. Intel'in CPU komut kod çözme işlemi, tüm çipin enerji tüketiminin% 50'sini oluşturur; GPU'da komut getirme ve kod çözme de güç tüketiminin% 10 ila% 20'sini tüketir. Öte yandan, FPGA'nın ana frekansı CPU ve GPU'nunkinden çok daha düşüktür.Genellikle, CPU ve GPU 1GHz ile 3GHz arasında iken, FPGA ana frekansı genellikle 500MHz'in altındadır. 2010 yılında Microsoft Research, CPU, GPU ve FPGA tarafından matris işleminin temel kitaplığının aynı işleminin hızlanma performansını ve enerji tüketimini analiz etti ve GaxPy algoritmasının (yaygın olarak kullanılan bir matris algoritması) her yinelemesinin zaman ve enerji tüketimini karşılaştırdı. Sonuç, FPGA'dır. GPU, CPU'ya göre hızlanmada bariz avantajlara sahipken, FPGA'nın enerji tüketimi CPU ve GPU'nun yalnızca% 8'i kadardır.

Bilgi işlem / iletişim yoğun görevler için FPGA, CPU ve GPU'dan daha düşük gecikme süresine sahiptir. FPGA, aynı anda boru hattı paralelliği ve veri paralelliğine sahip olabilirken, GPU neredeyse yalnızca veri paraleldir (boru hattı derinliği sınırlıdır). Görevler toplu iş yerine teker teker ulaştığında, ardışık düzen paralelliği veri paralelliğine göre daha düşük gecikme sağlayabilir ve FPGA'ların GPU'lara göre doğal gecikme avantajları vardır. İletişim yoğun görevler için, FPGA'ların düşük gecikme süresinde CPU ve GPU'lara kıyasla daha belirgin avantajları vardır. Tüm verilerin güvenli ve zamanında iletilmesini sağlamak için ağın en alt katmanında çalışmak için FPGA ve ASIC gibi düşük gecikmeli ve yüksek verimli donanım kullanın; bu, ağ güvenilirliğini artırabilir ve yükü azaltabilir.

Esneklik ve verimlilik arasındaki denge, veri merkezinin değişen algoritmalarına uyum sağlar. Veri merkezindeki FPGA'nın en büyük özelliği, yüksek verimle birlikte düşük gecikme süresine ulaşabilmesidir. FPGA içindeki kaynaklar yeniden yapılandırılabilir, böylece veri paralelliği ve boru hattı paralelizmini kolayca gerçekleştirebilir ve veri paralelliği ile boru hattı paralelliği arasında denge kurmak kolaydır. GPU neredeyse yalnızca veri paralelliği yapabilir. ASIC ile karşılaştırıldığında, FPGA'nın programlanabilirliği büyük avantajlar içerir. Veri merkezlerindeki çeşitli algoritmalar artık sürekli güncelleniyor ve değiştiriliyor ve ASIC'lerin uzun vadeli geliştirmeyi tamamlaması için yeterli kararlı zaman yok. Örneğin bir sinir ağı modeli ortaya çıktıktan sonra ASIC haline getirilmeye başlandı, belki henüz üretime geçmedi.Bu sinir ağı modeli yerini başka bir sinir ağı modeli aldı. Öte yandan, FPGA farklı iş ihtiyaçları arasında denge sağlayabilir. Örneğin, gün içinde arama hizmetlerini sıralamak için kullanılan makineler; geceleri birkaç istek olması durumunda, bu FPGA'lar, çevrimdışı veri analizi hizmetleri sağlamak için çevrimdışı veri analizi işlevleri sağlamak üzere yeniden yapılandırılabilir. Şu anda hem Tencent Cloud hem de Baidu Cloud, hızlandırma için veri merkezinde çok sayıda FPGA sunucusu dağıttı.

Programlanabilirlik, alan ve güç tüketiminde yedekliliğe yol açacaktır.Uzun vadede, bulutta terminale göre daha yaygın olarak kullanılmaktadır. FPGAFPGAFPGAFPGAASIC

3.3 GPU202020

FPGAGPU520 Gartner 2014 FPGA 50 2015-2020 9% 2020 84 FPGA Synergy Research Group20163002018400FPGAFPGA202020

GPUFPGA FPGAGPUGPUFPGA GPUASICFPGA FPGAGPU FPGAGPUFPGA

3.4 AI

AlteraXilinxFPGA FPGA Altera Xilinx90% 6000 Lattice Microsemi 3000 FPGA Altera Xilinx

IntelAlteraFPGA 20146ProjectCatapultFPGAIntel1030%20156Intel167FPGAAlteraAlteraIntelIntelPC2017Intel6%42,9%44Altera FPGAIntelCPUCPUFPGA

FPGA FPGAFPGAFPGA20177FPGAFPGAFPGAFPGA

AI

AI GPUGPUTPUASICCEO20175 1000 Cloud TPU TensorFlowTPUTPU

CPU+GPU/TPU+FPGA CPUGPUASICTPUFPGA/CPU+GPU/TPU+FPGA2017AzureFPGA CPU Tesla K80 GPU20173CPU+GPU+FPGAAI

AI

AI AIAIAIAI

AIAIAITensorflowCaffeCaffe2mxnetAI

GPUFPGAASIC GPUTensorflowCaffeCaffe2CNTKTorchGPUFPGAASIC2016TPU2Tensorflow20173XilinxFPGAreVISIONCaffeTensorFlowAIAI

AIGPUFPGA AIAICC++AICUDAAIGPUCUDAFPGAFPGAAltera OpenCL SDKXilinxSDAccelFPGAFPGAFPGACUDAASICC

CPU+GPU/TPU+FPGAAITensorFlowCaffe2Frame

AI

AI .AIAI

AI AI

CPUAICPUAR/VR

AI123AI123/// AI123AR/VRAI+

AI+GPUFPGAASIC

1.1 AI

AI+D1720P1080P4KIHS 2013-201613%59%,

1AI/15%/10%20201683/1234AI10%/AI168/1482AITPUIPCAI+AIAI35%AI

1.2 GPUAI+

AI+AIAIAIGPUAIGPUJetson TX1AI

GPU AIGPU 2016AIGPUNVRAI2016AI20173

AI+ 2006201390002015AI 2016AI+MovidiusGPU/VPU AI AI

AI 201516LFW Dahua-FaceImage 99.78%CPUDSPGPUFGPA17

1.3 GPUIPC

GPUJetson TX1 GPU70~150200~3002~4TX1GPUTX1GPUGPU

FPGA Xilinx FPGA DPUGPU 180%AI20GPUFPGAASICFPGA

ASIC ASICAIAI2ASICAIAIAIAIAI ASIC

2. AI+GPUASIC

2.1

ADASiiMediaResearch201640.0202170.311.8%ADASADASIHS2020ADAS2482016202010%

2.2 AI+

Nvidia: 20169NvidiaXavierCPU Volta GPU Xavier 16nm FinFET Xavier 20TOPS20 2116DRIVEPX 2AutoPilotModel 3

Qualcomm: GMIC 2016 820A CPU+GPU 64Kryo CPUAdreno530 GPU

20163ADASNVDIA2016CES20171CESCESBPUBPUASIC20176OEMsTier1s MITTechnology Review

2.3 ASIC

ASIC ASICASICGPUADAS

3. AI+

3.1 AI

ASICAI 20PC iPhone Gartner 2016~2019PC 1~2%2015AR/VRAIAIAR/VRAI

3.2 =AI+AR+

ASIC 572002200720152015A2015AR/VR1520AIAIARAIAIAIAR3DAIASIC

elma: Bionic912iPhone X(iPhone 10iPhone X Face IDiPhone XA11Bionic6000A11CPU(GPU) AI AI (ASIC) AI Siri (AR)BionicA11 BionicAICPUGPUiPhoneAIAIAI

AI 201792 IFA 2017 AI 970Mate10912A11 Bionic NeuralEngine 970 NPU10×10

AIAI Yann LeCunFacebook AI

AIAI 201610AIVivLabsVivLabsSiri

3.3 GPUASIC

Echo DSP IC RAM SanDisk 4GB Wi-Fi Cortex-A7CPUMali400 GPUGPUASIC

3.4 VR/ARASIC

201611MovidiusMovidiusMyriad 2200.520Phantom4MavicMovidiusMovidiusVR/AR360°GPUFPGAASIC

AI

1.ASIC

GPUFPGA GPUFPGAGPUAIFPGAGPU

ASICAI AIIP2

ASIC AIAIASICAIIP AIIPASICARMCPU IPAI9970Mate 10 ASICAIAI

2.

AI AI2017819NPU20162017DPUGPU80%20163ADASASICBPU 2-3 BPU2017BM1680ASIC AICNN/RNN324TFLOPSGPUAI

DLAASIC 2017 5 GTC CEO Xavier DLAASIC GPU ASICASIC Xavier DLA IoT Novomind AI ASIC

Yapabilmek

AI

IBM TrueNorth IBMTrueNorth TrueNorth1KHzTrueNorth70mWIBM 16 TrueNorth

AI

IBMAI

AI

  • NVIDIAGPU

  • IntelPC

  • GoogleTPU

  • XilinxFPGA

  • AlteraXilinxIntel

AI

136-9149-1268txu@citics.com

-------------------------------

Özel açıklama

İş ayrıntılarını görüntülemek için orijinal metni okumak için tıklayın ve katılmanızı dört gözle bekleyin ~

Güç parametreleri 2.0L kaybetmez! Jeep, Mercedes-Benz ve GM'den hangi 1.3T daha güçlü?
önceki
Düşmüş girişimcilerin bu listesi bir uyandırma çağrısıdır
Sonraki
Sahiplerin dikkatine! 470.000 araba geri çağrılacak! Arabanız olup olmadığını hızlıca görün
Vietnam ekonomisi borçla aşağı çekilir ve kredibilitesi etkilenebilir ve Vietnam ekonomisi eski haline dönebilir.
Facebook algoritma imparatorluğuna baktığımızda, bizler sadece mühendislik düşüncesinin vidalarıyız
Bu derin mavi mağara, bir "dalış tesisi" hakkındaki tüm yanılsamalarımı tatmin ediyor!
En yüksek satış artışı% 3043'e ulaştı! Yüksek kaliteli bir SUV satın almadan önce bu listeyi okumalısınız
Kanada'nın 55 milyar ABD doları suda, Çinli alıcılar yatırımlarını Kanada'dan çekerek, petrolün erken oyun dışı olabileceğini de ekliyor
Bip! Askeri kart!
Bu fotoğrafları görünce yardım edemedim ama yola koyuldum!
Petrol fiyatları aniden düştü, ABD hisse senetleri güçlü bir şekilde satıldı, ABD tahvil ihracı askıya alındı ve Fed "teslim olmaya" başladı
Her yönden ustalar geliyor Bin Yıllık Porselen Şehrinde "Yabancı Sahne Kayması"
"Bilim" kırma şifresi "AlphaGo" doğdu ve Gan'a LinkedIn test seti şifrelerinin% 27'sini kırması için eğitim verildi
Kanada'daki iflasların sayısı arttı ve Çinli alıcıların çekilmesinden sonra işler ilerledi.
To Top