AI çipleri ile geleneksel çipler arasındaki fark nedir?

İlk iki günde yapay zeka FPGA hızlandırma algoritmalarında uzmanlaşmış yerli bir start-up olan Shenjian Technology, sektörde oldukça heyecan yaratan uluslararası dev Xilinx tarafından satın alındı. Şu anda, Çin'de AI çipleri yapan epeyce şirket var ve AI çipleri mevcut çip endüstrisindeki en sıcak alan haline geldi. Ancak çoğu insan, AI çiplerinin mimarisi hakkında fazla bir şey bilmiyor. Peki, AI çipleri ile geleneksel çipler arasındaki fark nedir? AI çipinin mimarisi nedir? Bu soruyla, editör bazı endüstri uzmanlarından Zhihu hakkında görüş topladı ve şimdi bunları organize edip herkese iletiyor. Elbette, AI çip mimarisini daha iyi anlamak için, EETOP tarafından 25 Temmuz'da Ulusal Kongre Merkezinde düzenlenen AI çip tasarımı seminerine katılmak en iyisidir. Temayı herkese açıklamak üzere Beihang Entegre Devre Merkezi'nden Profesör Li Hongge'yi davet ettiğimiz için şanslıyız. "Entegre Devre ve Beyin Benzeri Çip Mimarisi" dersi dinledikten sonra herkesin daha iyi anlayacağına inanıyorum.

Yapay Zeka (AI) Çip Tasarımı Semineri (25 Temmuz, Pekin Ulusal Kongre Merkezi)

Konferansın ayrıntıları için lütfen tıklayın: https://0x9.me/6SMDs

Aşağıdaki içerik düzenlenmiştir ve kendini bilir:

Yazar: Wang Peng bağlantısı: https: //www.zhihu.com/question/285202403/answer/444253962 soruları yanıtlamak için,

(1) Performans, CPU ve GPU gibi geleneksel yongalardan çok farklı. AI algoritması yürütüldüğünde, daha hızlı ve daha enerji tasarrufludur.

(2) Süreçte fark yoktur, herkes aynıdır. En azından şimdilik hepsi aynı.

Sözde AI çipi, genellikle AI algoritmaları için bir ASIC (özel çip) anlamına gelir.

Geleneksel CPU'lar ve GPU'lar, AI algoritmalarını yürütmek için kullanılabilir, ancak hız yavaş ve performans düşüktür, bu nedenle ticari olarak kullanılamazlar.

Örneğin, otomatik sürüşün trafik ışıklarını ve yoldaki diğer koşulları tanıması gerekir, ancak mevcut CPU tarafından hesaplanırsa, arabanın nehre yuvarlandıktan sonra önünde bir nehir bulamadığı tahmin edilir.Bunun nedeni, hızın yavaş olması ve zamanın hayat olmasıdır. Bir GPU kullanırsanız, hız gerçekten çok daha hızlıdır.Ancak, güç tüketimi fazladır ve arabanın pilinin uzun süre normal kullanımı destekleyemeyeceği tahmin edilmektedir. Üstelik, eski Huangın GPU'su genellikle on binlerce parçadır ve sıradan tüketiciler bunu kullanmaz. Genellikle stokta kalmaz. Ek olarak, GPU, AI algoritmaları için özel olarak geliştirilmiş bir ASIC olmadığından, son analizde hız sınıra ulaşmamıştır ve iyileştirme için yer vardır. Akıllı sürüş gibi alanlarda hızlı olmalı! Mobil terminallerde, yüz tanıma ve ses tanıma gibi AI uygulamaları kendi başlarına kullanılabilir.Bu, düşük güç tüketimine sahip olmalıdır, bu nedenle GPU OUT!

Bu nedenle, ASIC'in gelişimi kaçınılmaz hale geldi.

AI çiplerinin neden gerekli olduğu hakkında konuşun.

Görüntü tanımada ve diğer alanlarda yaygın olarak kullanılan AI algoritmaları, CNN evrişimli ağlar, konuşma tanıma, doğal dil işleme ve iki farklı algoritma olan RNN başta olmak üzere diğer alanlar. Bununla birlikte, esasen matrislerin veya vektörlerin çarpılması ve toplanması ve ardından bazı bölme, üs ve diğer algoritmalardır.

YOLO-V3 gibi olgun bir AI algoritması, evrişim, artık ağ ve tam bağlantı gibi çok sayıda hesaplamadır ve özü çarpma ve toplamadır. YOLO-V3 için, belirli giriş grafiği boyutu belirlenirse, toplam çarpma ve toplama hesaplamaları sayısı belirlenir. Örneğin, bir trilyon kere. (Gerçek durum bundan çok daha büyük)

Bu nedenle, YOLO-V3'ü hızlı bir şekilde çalıştırmak istiyorsanız, bir trilyon ekleme ve çarpma yapmanız gerekir.

Şimdi bir göz atalım. Örneğin, süper skalar CPU'lara sahip en gelişmiş sunuculardan biri olan IBMin POWER8, 4GHz, SIMD, 128bit, eğer 16 bitlik veri işliyorsa, yani 8 sayı, sonra bir döngü, en fazla 8 yürütme Çarpın ve hesaplamalar ekleyin. Bir seferde en fazla 16 işlem gerçekleştirilebilir. Bu hala teorik olarak, ama aslında imkansız.

Daha sonra CPU'nun bir saniyesindeki en yüksek hesaplama sayısı = 16X4Gops = 64Gops.

Bu şekilde, CPU'nun bir kez hesaplama süresi hesaplanabilir.

Benzer şekilde, GPU hesaplamalarına geçerseniz, yürütme zamanını da öğrenebilirsiniz. GPU'nun dahili yapısına aşina olmadığım için spesifik bir analiz yapılmıyor.

AI çiplerinden bahsedelim. Örneğin, ünlü Google TPU1.

Yaklaşık 700M Hz olan TPU1, aşağıdaki şekilde gösterildiği gibi 256X256 boyutunda bir sistolik diziye sahiptir. Toplam 256X256 = 64K çarpma ve toplama birimi, her birim bir seferde bir çarpma ve bir ekleme yapabilir. Bu 128K işlemdir. (Çarpma bir, toplama bir tane daha sayar)

Ek olarak, sistolik diziye ek olarak, çarpma ve toplamayı da içeren aktivasyon vb. Gibi başka modüller vardır.

Bu nedenle, TPU1'in bir saniyedeki en yüksek hesaplama sürelerine bakın en az = 128K X 700MHz = 89600Gops = yaklaşık 90Tops.

CPU ve TPU1'i karşılaştırdığımızda, işlem gücünde birkaç büyüklük düzeyinde bir boşluk olduğunu göreceksiniz.Bu yüzden CPU yavaş.

Elbette yukarıdaki veriler en ideal teorik değerlerdir.Gerçek koşullarda% 5'e ulaşabilir. Çip üzerindeki depolama yeterince büyük olmadığından, veriler DRAM'de depolanacaktır ve DRAM'den veri alma çok yavaştır, bu nedenle çarpma mantığı genellikle beklemek zorundadır. Ek olarak, AI algoritması katman katman hesaplanması gereken birçok ağ katmanından oluşur.Bu nedenle katmanları değiştirirken çarpma mantığı dinlenir.Bu nedenle birçok faktör gerçek yonganın kar hesaplamasının zirvesine ulaşamamasına neden olur. Ve boşluk çok büyük.

Bazı insanlar yavaş araştırma yaparsanız onu kullanabileceğinizi söylemek isteyebilir.

Şu anda, sinir ağlarının boyutu gittikçe büyüyor ve parametreler gittikçe artıyor Büyük NN modelleriyle karşılaşıldığında, eğitim birkaç hafta, hatta bir veya iki ay sürüyor.Sabırla bekleyecek misin? Ani elektrik kesintisi, her şey geri mi döndü? (Eskiden roman yazmak için bir yapay zeka eğitiyordum ve sonra bir eğitim (50 tur) yaklaşık bir gün ve bir gece sürüyor. Unutmayın ki ilk sabah eğitime başlarsanız, ertesi öğleden sonraya kadar tamamlanmayacak. Bu hala nispeten basit bir model. Sadece on binlerce küçük model var.)

Modelde değişiklik yapıldığında, doğru ya da yanlışın bilinmesi birkaç hafta sürecektir. Bunu karşılayabileceğinizden emin misiniz?

Aniden bir TPU geliyor ve öğle yemeğinden sonra geri gelmenin, parametreleri optimize etmenin ve çalışmaya devam etmenin iyi olduğunu anlıyorsunuz, ne kadar havalı!

Hızlı hesaplama hızı, hızla yinelenebilir ve daha güçlü bir AI modeli geliştirebilir. Hız paradır.

GPU'nun çekirdek yapısı net olmadığı için karşılaştırılmıyor. Emin olmak için, GPU hala nispeten hızlı, en azından CPU'dan çok daha hızlı, bu yüzden şu anda çoğu GPU kullanıyor, bu şey kolayca on binlerce fiyat, çok pahalı ve yüksek güç tüketimi, çoğu zaman stokta kalmıyor. Veri merkezlerinde toplu kullanıma uygun değildir.

Genel olarak, CPU ve GPU AI'ya özgü yongalar değildir.Diğer işlevleri elde etmek için, içinde birçok başka mantık vardır ve bu mantık, mevcut AI algoritmaları için tamamen yararsızdır.Bu nedenle, doğal olarak CPU ve GPU'nun birleşmesine neden olur. En iyi maliyet performansını elde edemezsiniz.

Google TPU geliştirmek için para harcadı ve TPU3 şimdiye kadar piyasaya sürüldü. Kullanmaktan çok memnun ve Google bulut bilişim hizmetlerini desteklemeye başladı. Saatte birkaç dolar gibi görünüyor. Birimi hatırlamıyorum ve kontrol etmek için çok tembelim.

Google'ın TPU'yu tek başına geliştirmenin gerekli olduğunu düşündüğü görülebilir.

Şu anda, görüntü tanıma, konuşma tanıma, doğal dil işleme vb. Alanlarda en doğru algoritmalar derin öğrenmeye dayanmaktadır.Geleneksel makine öğreniminin hesaplama doğruluğu aşılmıştır. Şu anda, en yaygın kullanılan algoritmanın derin öğrenmeden başka bir şey olmadığı tahmin edilmektedir. Geleneksel makine öğreniminin derin öğrenmeden çok daha az hesaplaması vardır. Bu nedenle, yapay zeka çiplerini tartıştığımda, özellikle büyük miktarda hesaplamayla derin öğrenmeye odaklanacağım. Sonuçta, düşük hesaplama karmaşıklığına sahip algoritmalar, dürüst olmak gerekirse, CPU'lar zaten hızlıdır. Üstelik CPU, ne GPU ne de AI yongalarının yapamadığı karmaşık programlama algoritmalarını yürütmek için uygundur, bu nedenle üçü yalnızca farklı uygulama senaryoları içindir ve kendi ana alanlarına sahiptir.

Karşılaştırma için CPU'nun neden kullanıldığına gelince?

Ve özellikle GPU'dan bahsetmedi. Bunun nedeni, dediğim gibi şu anda GPU belgelerini incelemedim ve GPU durumunu bilmediğim için analiz etmiyorum. Biriktirme nedeniyle, süper skalar CPU'lara daha aşinayım, bu nedenle ayrıntılı karşılaştırma için tanıdık CPU'lar kullanacağım. Dahası, küçük bir ağ bir CPU ile herhangi bir büyük sorun olmadan eğitilebilir, en çok biraz daha yavaştır. Ağ modeli çok büyük olmadığı sürece.

Questyle, SenseTime vb. Gibi bu AI algoritma şirketlerinin çok büyük modelleri vardır ve doğal olarak bir GPU tarafından ele alınamazlar. GPU hesaplama gücü de çok sınırlıdır.

CPU'nun seri olmasına gelince, GPU paraleldir

Evet, ancak kapsamlı değil. Sadece CPU serisinden bahsedin. Bu netizen çok derin bir CPU anlayışına sahip değil. Cevabımda bahsettiğim CPU, IBM'in POWER8'i. Baidu, bunun süper skaler bir sunucu CPU'su olduğunu biliyor. Şu anda, performans 4GHZ hızıyla çok üstün. Bunun SIMD olduğunu söylediğimi fark ettiniz mi? Bu SIMD, aynı anda birden fazla aynı talimatı uygulayabileceği anlamına gelir, bu seri değil paraleldir. Tek bir veri 128bittir, eğer 16 bit hassasiyet ise, o zaman bir döngü teorik olarak sekiz veri grubunun çarpımını veya toplamasını veya çarpma ve toplamayı hesaplayabilir. Buna paralellik denmiyor mu? Sadece paralellik derecesi GPU'lar kadar güçlü değil, ama bu aynı zamanda paralellik.

Bilgi işlem gücünü karşılaştırmak için neden CPU kullanamadığımı bilmiyorum?

GPU'ya hayran olan yorumlar var. Karşılaştırma için CPU kullanmak uygun değildir.

Lütfen, GPU görüntü hesaplamalarını işlemek için orijinal olarak CPU'dan ayrılmıştır, yani GPU görüntü hesaplamalarına adanmıştır. Çeşitli özel efektler ekranı dahil. Bu aynı zamanda, görüntü işleme gibi hesaplama algoritmalarını daha çok hedef alan GPU'nun doğal bir kusurudur. Bununla birlikte, bu algoritmalar derin öğrenme algoritmalarından hala oldukça farklıdır ve cevabımda bahsedilen TPU gibi AI çipleri, CNN gibi tipik derin öğrenme algoritmaları için özel olarak geliştirilmiştir. Ek olarak, Kambriyen NPU, TPU'ya benzer şekilde özellikle sinir ağları içindir.

Googleın TPU, Cambrianın DianNaou, bu AI yongaları ilk kez piyasaya sürüldüklerinde CPU / GPU ile karşılaştırıldı.

Bir göz atın, Google TPU belgesinin özeti, TPU1 ve CPU / GPU'nun performans karşılaştırma sonuçlarını doğrudan karşılaştırır, kırmızı kutuya bakın:

Bu, özette açıklanan TPU1 ile CPU / GPU arasındaki performans karşılaştırmasıdır.

Kambriyen DianNao makalesine bir göz atalım. Özet, DianNao ve CPU'nun performansı arasındaki karşılaştırmadır. Kırmızı kutuya bakın:

Geçmişe bak

Geçen yüzyılda sinir ağları ortaya çıktığında, CPU tarafından hesaplanmaları gerekir.

Bitcoin yeni çıktı, aynı zamanda CPU ile madencilik yapıyordu. Bir ASIC madencilik makinesine dönüşmüştür. Bitmain hakkında bilgi edinin.

2006 yılında başlayan derin öğrenme patlamasında hem CPU hem de GPU hesaplama yapabiliyor.GPU'nun daha hızlı olduğu ancak pahalı olduğu ve daha fazla CPU kullanıldığı ortaya çıktı.Ayrıca, GPU'nun CUDA'sı o zamanlar çok iyi değildi. NN modeli büyüdükçe ve büyüdükçe, GPU'nun avantajları gittikçe daha belirgin hale geliyor ve CUDA giderek daha fazla 6 oluyor ve GPU'nun özel bir oturumu haline geldi.

Cambrian 2014 DianNao (NPU), CPU'dan daha hızlı ve enerji açısından daha verimli. ASIC'in avantajları açıktır. ASIC'in geliştirilmesinin nedeni de budur.

Birçok firmanın programları ise programlanabilir yani çoğu FPGA ile işbirliği yapmaktadır. Shangtang ve Shenjian'dan mı bahsediyorsun? Nitekim, yayınladıkları makaleler FPGA'lara dayanmaktadır.

Bu girişimler için daha çok algoritmalar üzerine araştırma yapıyorlar.Çiplere gelince, odak noktası değil.Ayrıca şu an için enerji ve güce sahip değiller. FPGA çok esnektir, maliyeti yüksek değildir ve mimari tasarım prototipi hızlı bir şekilde gerçekleştirilebilir, bu nedenle doğal olarak FPGA tabanlı çözümleri seçeceklerdir. Bununla birlikte, son zamanlarda yoğun bir şekilde yatırım yapıyorlar ve resmi web sitesi aynı zamanda çip tasarım pozisyonları da alıyor, bu nedenle ASIC araştırma ve geliştirmesine de katılmaları gerekiyor.

FPGA'ların temsil ettiği programlanabilir çözümlerin gerçekten büyük bir ticari değeri varsa, o zaman neden ASIC'lere para harcasınlar?

Bu kadar çok şey söylemiştim, aynı zamanda iş ihtiyaçları nedeniyle öğrenen bir keşiştim. Şu anki anlayışıma göre, TPU1'in patentlerine ve belgelerine bakarak, iç tasarım yöntemini adım adım çıkarıyorum. TPU1'i anladıktan sonra, muhtemelen sözde AI işlemcilerin çoğunu biliyorum. Daha sonra Kambriyen üzerine bir dizi makale çalışın.Farklı durumlarda kullanılan birkaç farklı mimari var, eğer ilgileniyorsanız, üzerinde çalışabilirsiniz. Sonra Shangtang, Shenjian Technology vb. Gibi birkaç başka tek boynuzlu at var. Her yıl makale yayınlıyorlar, böylece kontrol edebilirsiniz. Bu belgeler muhtemelen mevcut en gelişmiş AI çip mimarisi tasarımını temsil etmektedir. Elbette en gelişmiş olanı, diğerleri kesinlikle ifşa etmeyecek. Örneğin, Google TPU2 ve TPU3 ile ilgili patentleri hiçbir zaman açıklamadı ve ben yine de bulamadım. Ancak sorun değil, mevcut literatür zaten son yıllardaki en ileri ilerlemeyi temsil ediyor.

Eser sahibi: Bluebear

Bağlantı: https://www.zhihu.com/question/285202403/answer/444457305

Şu anda bahsettiğimiz AI çipleri iki kategoriye ayrılabilir: Biri eğitim ve çıkarım içindir. Bu canlı GPGPU yapabilir, CPU yapabilir, FPGA (Altera's Stratix serisi) da yapabilir, ancak Google TPU2 ve Bitmain's sophon vb. Özel tasarımları nedeniyle enerji tüketiminde avantajlara sahip olabilir. GPGPU ile karşılaştırıldığında, bu tür ürünler genel olarak benzerdir. Oldukça fazla kayan nokta işleme birimi tutar (veya çok sayıda tensör hesaplama birimi oluşturur), bazı gereksiz grafik boru hattı araçlarını atar ve enerji tüketimi performansını artırır. Bu bölümde daha az oyuncu var ama daha ilginç. Tabii ki, ICLR'nin sabit noktalı cihazlarla eğitim görevi de vardır Xilinx ailesi, XNOR-net'in sabit noktalı cihazların eğitime katılmasına izin vereceğini umuyor.

Diğeri, basitçe eğitilmiş modeli çip üzerinde çalıştırmak için olan Çıkarım Hızlandırıcı çıkarım hızlandırma yongasıdır. Bu parça, Kambriyen NPU, Intel Movidius (eğitim için XeonPhi'ye benzer olması gereken bir Nervana var), Shenjian DPU, Horizon BPU, Imaginationın PowerVR 2NX, ARMün Trillium Projesi ve bir Yığın IP. Bu tür ürünler, diğer geliştiricilerin derin öğrenme hızlandırıcılarını SoC'lere entegre etmeleri için hem ürünlere hem de IP'ye sahiptir. Ayrıca burada Tegra X2 ürününden ayrı olarak bahsetmemiz gerekiyor.Bu küçük bir masaüstü platformuna denktir ARM işlemci ve Nvidia GPU tam eğitim çıkarım yetenekleri sağlayabilir ve tabii ki güç tüketimi de yüksek. Bence diğer hızlandırma çipleri en iyi iki kategoriye ayrılır: kayan nokta ve sabit nokta. Kayan nokta yalnızca FP16 yarı hassasiyetlidir ve tabii ki Kambriyen NPU ve Intel Movidius gibi FP16 ve INT8'i destekler. Horizon'un BPU'su ve Imagination'ın PowerVR 2NX'i gibi bir tür tamamen sabit noktadır. Elbette, daha sonra ayrıntılı olarak tartışılacak olan karışık olanlar da var.

Öncelikle ASIC olmayan ürünlerden bahsedelim. Deephi ürünlerinden bazıları ZYNQ kullanılarak uygulanmaktadır. ZYNQ kullanmanın en büyük avantajı teyp maliyetlerinden tasarruf etmesidir. Sabit nokta işlemlerini tamamlamak için çarpanları uygulamak için DSP48 ve kaynakları kullanır. Kayan noktalar CortexA9 sabit çekirdeğine aktarılır. Deephi esas olarak Model budama ve sabit nokta çalışması açısından, daha önce Öğretmen Wang Yu ile ağ sabit nokta olduğunda, bazı sabit nokta sabit nokta kaybı katmanlarının daha yüksek olduğu, bu nedenle bazı katmanlar (çoğunlukla son) kayan nokta korunduğundan ve Jianan Zhiyun'un hızlanacağından önce iletişim kurdum. İnsanlar sohbet de bu bölümü doğruladı, SOPC'yi kullanmak daha kolay. Ardından, Adreno GPU ve Hexagon DSP kullanan Qualcomm AI platformu gibi yarı zamanlı işler var (esas olarak DSP, rüzgar değerlendirmesi 970'den daha iyi görünüyor), SNPE esas olarak GPU ve DSP, MTK ve AAPL gibi kaynaklarla OpenCL fırlatıyor. benzer. Diğer fark, Intel Movidius'un daha önce piyasaya sürülmüş olması ve kayan nokta çıkarımını desteklemesidir.Aslında, VLIW'nin SIMD birimidir.Bu, önceki ATi grafik kartı veya DSP tasarımına benzer. Diğerleri, aşağıda çok fazla halka açık bilgi olmadığı için, saçma, genel AI hızlandırıcılar esas olarak mevcut ağlar için sabit nokta veya kayan nokta hesaplamalarının optimizasyonu içindir.Elbette, yığın işlem birimi (matris işlem birimi, çarpma ve toplama) ilk ve sonra Bellek veri aktarımını azaltın, 970 CCI'ye asılabilir ve ardından daha fazla önbelleğe güvenebilir, PowerVR 2NX 4 bit bellek denetleyicisine optimize edilmiş gibi görünüyor? Bellek veri yolunu optimize ederek ve bellek bant genişliği gereksinimlerinin bir kısmını azaltarak, genel durum aslında ilişkilidir. Bu tür bir şeyin süper çok çekirdekli bir DSP'ye yakın olduğunu hissediyor, ancak basitleştirildi. Sonuçta, DSP biraz kontrol yapabilir, güler.

Ek olarak, bir dereceye kadar, yeni ağın optimizasyonu çok zayıf, genel endüstri akademiden bir yıldan daha yavaş.Örneğin, DenseNet çıktı ve film sadece Resnet'i destekliyor.

Aşağıdaki iki soruyla ilgili olarak:

GPGPU veya CPU'nun enerji tüketimi oranını çıkarmasına izin verirseniz, kesinlikle iyi görünmeyecektir, ancak kayan nokta çıkarımı genellikle sabit noktadan veya azaltılmış hassasiyetten daha doğrudur (elbette, genelleme yeteneğinin sabit noktadan sonra iyi olduğu durumlar vardır). Ancak NPU'nun yalnızca belirli görevleri CPU'nun kontrolü altında gerçekleştirebilmesi utanç verici. Çok fazla uygulama desteği olmadan NPU çok tatsız. Cep telefonlarında çoğu zaman NPU kullanmıyorsunuz, bu yüzden ihtiyacınız olduğunda Mali veya başka bir şey kullandığınızı düşünüyorum. Harika ...

Hiçbir fark yok, cep telefonu SoC'leri ve grafik kartı GPU'ları için bir dizi teknoloji kullanıyor ve yeni süreçler ve yeni süreçler para karşılığında kullanılabilir.

Yazar: DeepTech

Bağlantı: https://www.zhihu.com/question/285202403/answer/446703288

Yapay zeka hayatımıza neler katabilir? Örnek olarak en aşina olduğumuz cep telefonunu ele alalım.Günlük fotoğraf güzelleştirme olağandır, ancak mevcut özçekim yazılımının çekim tamamlandıktan sonra buluta yüklenmesi gerekir ve "tek tıkla güzelleştirme" evrensel bir modelle tamamlanabilir. Öte yandan, mobil terminalin AI çipi, mevcut CPU için zor olan kullanıcının olağan tercihlerine göre fotoğraf çekildikten sonra (hatta çekimden önceki çerçeveleme aşamasını) fotoğraf güzelleştirmesini senkronize edebilir.

Öyleyse ikisi arasındaki fark nedir? Her şeyden önce, geleneksel çipin yalnızca ilgili sistemi çalıştırma sırasında talimatlara göre çalışması için çağırması gerekirken, AI talimatı birçok paralel hesaplama ve modelleme içerir. Bu şüphesiz işlemcinin bilgi işlem gücüne yüksek talepler getirir.

İkincisi, mobil terminallerin, özellikle cep telefonlarının veri toplama yetenekleridir. İyi AI uygulamalarının modeli eğitmek için çok fazla veri toplaması gerekir ve cep telefonları şüphesiz en iyi veri toplama aracıdır. Cep telefonlarına mikrofonlar, kameralar, yerçekimi sensörleri ve konumlandırma cihazları gibi giderek daha fazla sensör eklendikçe, farklı sensörleri gerçek zamanlı olarak toplayabilen, senkronize edebilen, bağlayabilen ve koordine edebilen bir "yapay zeka" çipi özellikle önemli hale geliyor.

Elbette, tırnak büyüklüğündeki bir alana 5.5 milyardan fazla transistörü entegre eden bir yapay zeka çipi, fotoğraf çekmek kadar basit olamaz. Cep telefonlarında ses hizmetleri, makine görme tanıma ve görüntü işleme gibi akıllı uygulamalar zaten mevcut.Gelecekte, tıbbi tedavi, AR ve oyun yapay zekası dahil olmak üzere daha çeşitli uygulama türleri eklenecek.

Yapay zeka çipleri, cep telefonlarındaki tatmin edici uygulamalara ek olarak, gelecekte daha fazla potansiyele sahip diğer pazarlara da açılma fırsatına sahip olacak. En tipik örnek otonom sürüş. Tesla, bağımsız olarak geliştirmek için geçen yıl AMDnin efsanevi mimarı Jim Keller'ı işe aldı. AI çipi. Gelecekte bile, roketlerden ve uzay aracından derin deniz sondalarına kadar, kontrol sistemlerinin bağlı olduğu çipler giderek daha fazla AI tabanlı hale gelecektir.

AI semineri ayrıntılarını görüntülemek için ayrıntılar için tıklayın

ölüm cezası! Liuzhou "820" büyük davasının ilk örneği düzenlendi ve karar mahkemede açıklandı!
önceki
Uluslararası oyuncu tarihindeki ikinci kişi! Parker 7.000'i kırdı ve sadece 36'da Nash'e yeniliyor
Sonraki
BRICS toplantısı yapıldı, burayı seçmek için bir neden vardı!
Çinli bir savaş uçağı dünyayı şok etti! Okuduktan sonra sadece bir cümle: çok yakışıklı!
Goldman Sachs, Çin borsası fışkırmak üzere, iki önemli sinyal verdi, "olmalı" dedi
İçtiğiniz çayın içinde "zehir" miydi? Sigorta satmaya gelen kadın taciz edildi ...
Büyüklük sırasına göre yıkım hazırlıkları! Çin yeni para sistemini canlandırmak üzere!
Bu vizesiz kasaba ağlamak için ucuz! Her yerde dünya mirası var ve beş yıldızlı bir otelde 200 yuan'a kalabilirsiniz!
Morey yapmalı! Rockets daha fazla veri kaybetti ve bunu nasıl tersine çevireceğinden, Jordan'ı kovaladığından veya tacın eksikliklerini telafi ettiğinden bahsetti
Merkez bankasının likiditesi hızla küçülüyor ve borsa 2018'de büyük bir dönüm noktası olabilir!
2 saatlik direkt uçuş, Güneydoğu Asya'dan daha mizaçlı adalarla karşılaşabilecek ve dünyanın her yerinden sanatçıların ilgisini çekebilecek.
5 maçla üçlü-duble! Wei Shao'nun 122 triple-double'ı sihirbazın sadece 16 kez gerisinde. Bu sezonun tarihteki ikinci kişi olması bekleniyor.
Bir başka serin esinti ve yağmurlu günler: 24 sonbahar yağmuru şiiri, bunlardan biri daima kalbinize düşecek
Aynı USB3.x için hız farkı neden üç kat? İş rutinleri hakkında bilgi edinin
To Top