Geçtiğimiz 2018 yılında yapay zeka alanında büyük olaylar, yeni keşifler ve yeni gelişmeler birbiri ardına ortaya çıktı.
BERT'nin yoğun sürümü, birçok NLP görevinin en iyi performansını yeniledi; GAN ile ilgili araştırma kağıtları büyümeye devam ediyor ve oluşturulan fotoğraflar sahte ve gerçek düzeyine ulaştı; Deepfakes, birçok politikacı ve yıldızın halkı eğlendirmesine izin vererek hızla gelişti; pekiştirmeli öğrenme Ayrıca insanlara karşı oyunu domine ediyor ...
Donanım açısından, Nvidia büyük çabalar gösterdi, Intel değişmeye çalışıyor ve özel donanım pazarı patlama yaşıyor;
Buna ek olarak, otonom sürüş ve yapay zeka etiği de geçtiğimiz yıl tartışmanın odak noktası oldu.
2018'e dönüp baktığımızda ve 2019'u dört gözle bekliyorum, yapay zeka ve makine öğrenimi nereye gidecek?
Bir Medium köşe yazarı, bunun için geçen yıl yapay zeka alanındaki bazı kalıpları özetleyen ve bu trendlerin bazılarını özetlemeye çalışan bir makale yazdı. Bu özetin Amerika Birleşik Devletleri'nin gelişimine dayandığını unutmayın. Aşağıda makalenin tam metni yer almaktadır:
Algoritmik sese derin sinir ağının (DNN) hakim olduğuna şüphe yok.
Elbette, birinin burada veya orada "klasik" bir makine öğrenimi modeli (gradyan artırma ağacı veya çok kollu bir slot makinesi gibi) kullandığını ve herkesin ihtiyaç duyduğu tek şeyin bu olduğunu iddia ettiğini duyabilirsiniz. Bazı insanlar derin öğrenmenin ölmekte olan bir mücadelede olduğunu iddia ediyor. Üst düzey araştırmacılar bile bazı derin sinir ağı (DNN) mimarilerinin verimliliğini ve direncini sorguluyor.
Ancak, beğenseniz de beğenmeseniz de DNN her yerde: sürücüsüz arabalar, doğal dil sistemleri, robotlar - aklınıza gelebilecek her şey aynı.
Derin NLP: BERT ve diğerleri
2018'den önce DNN (word2vec, GLOVE ve LSTM tabanlı modeller gibi) kullanılarak metinde bazı atılımlar yapılmış olsa da, temel bir kavramsal unsurdan yoksundur: aktarım öğrenimi.
Başka bir deyişle, modeli eğitmek için kamuya açık büyük miktarda veriyi kullanın ve ardından üzerinde çalıştığınız belirli veri kümesine göre modele "ince ayar yapın". Bilgisayarla görmede, belirli sorunları çözmek için ünlü ImageNet veri setinde bulunan kalıpların kullanılması genellikle bir çözümdür.
Sorun, transfer öğrenimi için kullanılan tekniklerin doğal dil işleme (NLP) problemlerine iyi uygulanmamasıdır. Bir anlamda, word2vec gibi önceden eğitilmiş yerleştirmeler bunu telafi ediyor, ancak bunlar yalnızca tek kelime düzeyinde uygulanabilir ve dilin üst düzey yapısını yakalayamazlar.
Ancak en ilginç gelişme şüphesiz BERT'in tanıtılmasıdır. Dil modelinin İngilizce Wikipedia'daki tüm makalelerden öğrenmesine izin vererek, ekip 11 NLP görevinde en yüksek düzeyde sonuç elde etmeyi başardı - bu bir başarı! Daha da iyisi, açık kaynaktır. Bu nedenle, bu atılımı kendi araştırma sorularınıza uygulayabilirsiniz.
Generative Adversarial Networks (GAN) çok yönlülüğü
Üretken yüzleşme ağını kademeli olarak artıran yeni bir yöntem ortaya çıktı: jeneratör, tüm eğitim süreci boyunca çıktısının çözünürlüğünü kademeli olarak artırıyor. Gerçekçi fotoğraflar oluşturmak için stil aktarım teknolojisini kullanan biri de dahil olmak üzere birçok etkileyici makale bu yöntemi kullanmıştır. Ne kadar gerçekçi? Bana söyle:
Bu sorunun bir püf noktası var: Yukarıdakilerin hiçbiri.
Bununla birlikte, GAN nasıl çalışır ve neden çalışır? Bunu hala derinlemesine anlamıyoruz, ancak bazı önemli önlemler alıyoruz: Massachusetts Institute of Technology'den bir ekip bu konuda yüksek kaliteli araştırmalar yaptı.
Muz ve ekmek kızartma makinesini ayırt edebilir misin? Yapay zeka hala yapamaz.
AlphaGo, 2016 yılında Li Shishi'yi mağlup ettiğinden beri, pekiştirmeli öğrenme, halkın dikkatinin odak noktası olmuştur.
Eğitimde, pekiştirmeli öğrenme, son denemedeki performansının puanı olan "ödül" sinyaline dayanır. Bilgisayar oyunları gerçek hayatın aksine doğal bir ortam sağlayarak bu sinyali her an ulaşılabilir kılar. Bu nedenle, RL araştırmasının tüm ilgisi, AI'ya Atari oyunlarını oynamayı öğretmektir.
Yeni icatları DeepMind söz konusu olduğunda, AlphaStar yine haberdir. Bu yeni model, StarCraft II'nin en iyi profesyonel oyuncularından birini yendi. StarCraft, satranç ve Go'dan çok daha karmaşıktır.Çoğu tahta oyununun aksine, StarCraft'ın oyuncuda gizli olan büyük bir eylem alanı ve önemli bilgiler vardır. Bu zafer tüm saha için çok önemli bir adımdır.
RL alanında bir diğer önemli oyuncu olan OpenAI boşta değil. Onları ünlü yapan şey, Ağustos 2018'de son derece karmaşık e-spor oyunu Dota 2'de oyuncuların% 99,95'ini mağlup eden OpenAI Five oldu.
OpenAI, bilgisayar oyunlarına çok dikkat etmesine rağmen, RL'nin gerçek potansiyel uygulama alanı olan robotları göz ardı etmedi.
Gerçek dünyada, bir kişinin bir robota verebileceği geri bildirim çok nadir ve pahalıdır: R2-D2'niz (filmdeki sanal robot) ilk "adımı" atmaya çalıştığında, temelde ona bakmak için bir insan dadıya ihtiyacınız vardır. o. Milyonlarca veri noktasına ihtiyacınız var.
Bu boşluğu doldurmak için, son trend, gerçek dünyaya dönmeden önce temel robot becerilerini öğretmek için çok sayıda senaryoyu paralel olarak çalıştırırken bir ortamı simüle etmeyi öğrenmektir. Hem OpenAI hem de Google bu yöntemi inceliyor.
Mansiyon ödülü: Deepfake
Deepfake, (genellikle) kamuya mal olmuş bir figürün hiç yapmadığı veya söylemediği bir şeyi yaptığını veya söylediğini gösteren sahte görüntüleri veya videoları ifade eder. "Hedef" karakterin çok sayıda çekimine dayalı üretken bir düşmanlık ağı eğitin ve ardından gerekli eylemleri içeren yeni bir ortam oluşturun - bu, deepfake'lerin nasıl yaratıldığıdır.
Şu anda birçok derin öğrenme çerçevemiz var. Bu alan çok geniştir ve bu çeşitlilik yüzeyde anlamlıdır. Ama aslında bugünlerde çoğu insan Tensorflow veya PyTorch kullanıyor. SRE'lerin ortak endişeleri olan güvenilirlik, dağıtım kolaylığı ve model yeniden yüklemeyi önemsiyorsanız, Tensorflow'u seçebilirsiniz. Bir araştırma makalesi yazıyorsanız ve Google'da çalışmıyorsanız, PyTorch'u kullanmanız muhtemeldir.
OMG, AWS hizmetleri yakında görüntülenmek için iki seviyeli bir dizin hiyerarşisi gerektirecek kadar çok olacak.
Bu fanatizm biraz soğumuş olsa da, hala zorluk çıkaran birçok yeni şirket var. Herkes model eğitiminin hızı, çıkarım sürecinde kullanım kolaylığı ve şaşırtıcı model performansı sözü verdi.
Sadece kredi kartı bilgilerinizi girin, verilerinizi yükleyin, modele eğitim veya ince ayar yapması için biraz zaman verin ve REST (veya daha ileriye dönük GraphQL için) API'yi çağırın, yapay zeka konusunda usta olabilirsiniz, hatta olmayabilirsiniz. "Ayrılma" nın ne olduğunu bulmanız gerekiyor.
Bu kadar çok seçenek varken, neden birisi kendi modellerini ve altyapısını inşa etme zahmetine girsin ki? Aslında, kullanıma hazır MLaaS ürünleri, pratik durumların% 80'inde çok iyi performans gösterir. Kalan% 20'nin çalışmasını istiyorsanız, o kadar şanslı değilsiniz: Sadece modeli gerçekten seçemezsiniz, hiperparametreleri bile kontrol edemezsiniz. Veya, bulutun konfor bölgesinin dışında bir yerde çıkarımlar yapmanız gerekiyorsa - genellikle mümkün değildir. Fiyat budur.
Mansiyon ödülü: AutoML ve AI Hub
Bu yıl başlatılan özellikle ilginç iki hizmetin her ikisi de Google tarafından piyasaya sürüldü.
İlk olarak, Google Cloud AutoML, bir dizi özelleştirilmiş NLP ve bilgisayarla görme modeli eğitim ürünleridir. Bunun anlamı ne? Araba tasarımcısı, önceden eğitilmiş birkaç modeli otomatik olarak ince ayarlayarak ve en iyisini seçerek model özelleştirme sorununu çözdü. Bu, muhtemelen modeli kendiniz özelleştirmenize gerek olmadığı anlamına gelir.
Elbette gerçekten yeni veya farklı bir şey yapmak istiyorsanız, o zaman bu hizmet size göre değil. Bununla birlikte, Google modelini büyük miktarda özel veriye dayalı olarak önceden eğitir, bu da bir yan avantajdır. Kedilerin tüm fotoğraflarını düşünün, Imagenet'ten daha tanıtıcı olmalılar!
İkincisi, AI Hub ve TensorFlow Hub. Bu ikisi ortaya çıkmadan önce, birinin modelini yeniden kullanmak gerçekten bir angarya idi. GitHub'a dayalı rastgele kod nadiren kullanılabilir, genellikle yetersiz şekilde belgelenmiştir ve genel olarak işlenmesi hoş değildir. Önceden eğitilmiş transfer öğrenme ağırlıkları da var ... Diyelim ki onları iş için kullanmayı denemek bile istemiyorsunuz.
Bu tam olarak TF Hub'ın çözmek istediği sorundur: ince ayar yapabileceğiniz veya inşa edebileceğiniz güvenilir ve organize bir model havuzudur. Sadece birkaç satır kod ekleyin - TF Hub istemcisi kodu ve ilgili ağırlıkları Google'ın sunucularından alabilir - ve sonra, vay canına, işe yarayacak!
Ai Hub bir adım daha ileri gider: yalnızca modeli değil, tüm makine öğrenimi hattını paylaşmanıza olanak tanır! Hala alfa testi aşamasındadır, ancak ne demek istediğimi biliyorsanız, en son dosyaların bile "sadece 3 yıl önce değiştirildiği" rastgele bir depodan çok daha iyidir.
Nvidia (Nvidia)
2018'de ML, özellikle DNN eğitimi aldıysanız, bir (veya daha fazla) GPU kullandınız. Bu nedenle, GPU liderleri bu yıl çok meşgul.
Şifreleme çılgınlığının soğuması ve ardından hisse senedi fiyatlarındaki düşüşle birlikte Nvidia, Turing mimarisine dayalı yeni nesil tüketici sınıfı kartlar çıkardı. Yeni kart, yalnızca 2017'de piyasaya sürülen Volta çipine dayanan profesyonel kartı kullanıyor ve Tensor Cores adı verilen yeni yüksek hızlı matris çarpma donanımını içeriyor. Matris çarpımı, DNN işleminin özüdür, bu nedenle bu işlemleri hızlandırmak, yeni GPU'daki sinir ağı eğitiminin hızını büyük ölçüde artıracaktır.
"Küçük" ve "yavaş" oyun GPU'larından memnun olmayanlar için Nvidia, "süper hesaplama platformunu" güncelledi. DGX-2, FP16 operasyonu için 16 Tesla V'ye ve 480 TFLOP'a (480 trilyon kayan nokta işlemi) sahiptir ve gerçekten bir "canavar" kutudur. Ve fiyatı da 400.000 ABD dolarına kadar güncellendi.
Ayrıca otomatik donanım da güncellendi. Jetson AGX Xavier, Nvidia'nın gelecek nesil otonom araçlara güç vermeyi umduğu bir modüldür. Sekiz çekirdekli CPU'lar, görsel hızlandırıcılar ve derin öğrenme hızlandırıcılarının tümü, büyüyen otonom sürüş endüstrisi için gereklidir.
İlginç bir geliştirme projesinde, Nvidia oyun kartları için DNN tabanlı bir işlev sundu: Derin Öğrenme Süper Örnekleme. Buradaki fikir, kenar yumuşatmayı değiştirmektir. Şu anda, esas olarak bir resmi daha yüksek çözünürlüklü (örneğin, 4 kez) oluşturarak ve ardından onu yerel monitör çözünürlüğüne ölçekleyerek yapılır.
Şimdi, Nvidia, geliştiricilerin, oyunu piyasaya sürmeden önce son derece yüksek kalitede görüntü dönüştürme modellerini eğitmelerine izin veriyor. Ardından, oyunu son kullanıcıya göndermek için önceden eğitilmiş modeli kullanın. Oyun sırasında, eski tarz kenar yumuşatma maliyetine maruz kalmadan görüntü kalitesini iyileştirmek için grafikler bu model üzerinden çalışır.
Intel Intel
Intel, 2018 yılında yapay zeka donanımı alanında kesinlikle bir öncü değil ancak bunu değiştirmek istiyor gibi görünüyor.
Şaşırtıcı bir şekilde, Intel'in eylemlerinin çoğu yazılım alanında gerçekleşir. Intel, mevcut ve gelecek donanımını geliştiriciler için daha uygun hale getirmek için çok çalışıyor. Bunu akılda tutarak, bir çift (hem şaşırtıcı hem de rekabetçi) araç seti yayınladılar: OpenVINO ve nGraph.
Neural Compute Stick'lerini güncellediler: bir USB portu ile herhangi bir DNN'yi, hatta bir Raspberry Pi'yi bile hızlandırabilen küçük bir USB cihazı.
Intel'in ayrı GPU'su hakkındaki söylentiler gittikçe daha karmaşık hale geldi. Bu söylenti dolaşmaya devam etse de, yeni cihazın DNN eğitimine uygulanabilirliği görülecek. Derin öğrenmeye kesinlikle uygun olanlar, kod adı Spring Hill ve Spring Crest olan söylentili profesyonel derin öğrenme kartlarıdır. İkincisi, Nervana'nın (Intel'in birkaç yıl önce satın aldığı) teknolojisine dayanıyor.
Yaygın (ve nadir) özel donanım
Çıkarım uygulamalarına odaklanan benzer bir projede Amazon, AWS Inferentia'yı dağıttı: Üretimde modelleri çalıştırmanın daha ucuz ve daha verimli bir yolu.
Google ayrıca Edge TPU projesini de duyurdu: Bu çip küçük: 10 yonganın toplamı bir kuruş büyüklüğündedir. Aynı zamanda, DNN'yi gerçek zamanlı videoda çalıştırabilir ve neredeyse hiç enerji tüketmez, bu da yeterlidir.
Mansiyon ödülü: AWS Deep Racer
Amazon küçük bir sürücüsüz araba DeepRacer ve bir yarış ligi başlattı. Bu tamamen beklenmedik bir durum, ancak aynı zamanda DeepLens'i daha önce başlattıkları zamanki duruma da biraz benziyor. Bu 400 dolarlık otomobilde bir Atom işlemci, 4 milyon piksellik bir kamera, wifi, birkaç USB bağlantı noktası ve birkaç saat çalışacak kadar yeterli güç bulunuyor.
Otonom sürüş modeli, tamamen bulutta bulunan bir 3D simülasyon ortamı kullanılarak eğitilebilir ve ardından doğrudan araca konuşlandırılabilir. Her zaman kendi sürücüsüz arabanızı yapmayı hayal ettiyseniz, bu Amazon arabası kendi VC destekli şirketinizi kurmanıza gerek kalmadan istediğinizi yapabilir.
Sıradaki ne? Odak, karar zekasına geçecek
Yapay zekayı kullanışlı kılan algoritmalar, altyapı, donanım ve diğer faktörler her zamankinden daha iyi olduğundan şirketler, yapay zekayı uygulamaya başlamak için en büyük engelin pratik seviyesinde yattığını fark eder: YZ'yi fikir aşamasından etkili hale nasıl uygularsınız? , Güvenli ve güvenilir üretim sistemi?
Karar zekası olarak da bilinen Uygulamalı Yapay Zeka veya Uygulamalı Makine Öğrenimi (ML), gerçek dünyadaki sorunlara yapay zeka çözümleri oluşturma bilimidir. Geçmişte algoritmanın arkasındaki bilime odaklansak da, gelecekte bu alandaki uçtan uca uygulamalara daha eşit önem vermeliyiz.
Yapay zeka, istihdamı teşvik etmek için daha fazlasını yaptı
"Yapay zeka tüm işimizi alacak", medya tarafından defalarca desteklenen bir tema ve aynı zamanda mavi yakalı ve beyaz yakalı işçilerin ortak korkusu. Ve yüzeyde, bu makul bir tahmin gibi görünüyor. Ancak şimdiye kadar tam tersi oldu. Örneğin, birçok kişi bir etiket veri kümesi oluşturma işi için ödeme alır.
LevelApp gibi uygulamalar, mültecilerin verilerini cep telefonlarıyla işaretleyerek para kazanmalarına olanak tanır. Harmon bir adım daha ileri gidiyor: Göçmenler için mülteci kamplarında ekipman sağlıyorlar, böylece bu insanlar katkıda bulunabilir ve geçimlerini sağlayabilir.
Veri etiketleri haricinde, tüm endüstri yeni AI teknolojisi ile oluşturulmuştur. Kendi kendine giden arabalar veya yeni uyuşturucu geliştirme gibi birkaç yıl önce hayal bile edilemeyen şeyler yapabiliriz.
Kenar alanında ML ile ilgili daha fazla hesaplama yapılacak
Boru hattının sonraki aşamaları genellikle altörnekleme veya başka yollarla sinyalin doğruluğunu azaltır. Öte yandan, AI modelleri giderek daha karmaşık hale geldikçe, daha fazla veriyle daha iyi performans gösteriyorlar. Yapay zeka bileşenlerini verilere yaklaştırmak ve kenara yaklaştırmak mantıklı mı?
Basit bir örnek vermek gerekirse: Saniyede 30 gigabit hızında yüksek kaliteli video üretebilen yüksek çözünürlüklü bir kamera hayal edin. Videoyu işleyen bilgisayar vizyonu modeli sunucuda çalışır. Kamera videoyu sunucuya aktarır, ancak yukarı akış bant genişliği sınırlıdır, bu nedenle video azaltılır ve yüksek oranda sıkıştırılır. Neden görüntü modelini kameraya taşıyıp orijinal video akışını kullanmıyorsunuz?
Aynı zamanda, her zaman birden fazla engel vardır: Bunlar temel olarak, uç cihazda mevcut olan bilgi işlem gücü miktarı ve yönetimin karmaşıklığı (örneğin, güncellenmiş modelleri kenara itmek). Özel donanım (Google'ın Edge TPU, Apple'ın Neural Engine vb.), Daha verimli modeller ve optimizasyon yazılımının ortaya çıkışı, bilgi işlem sınırlamalarını kademeli olarak ortadan kaldırdı. Makine öğrenimi çerçevesinin ve araçlarının iyileştirilmesiyle, yönetim karmaşıklığı sorunu sürekli olarak çözüldü.
AI altyapı alanını entegre edin
Son birkaç yılda, yapay zeka altyapısıyla ilgili faaliyetler birbiri ardına ortaya çıktı: büyük duyurular, büyük finansman turları ve ağır taahhütler. 2018 yılında bu alan soğumuş görünüyor. Hala birçok yeni gelişme olmasına rağmen, katkıların çoğu mevcut büyük oyuncular tarafından yapılmaktadır.
Olası bir açıklama, AI sistemlerinin ideal altyapısına ilişkin anlayışımızın yeterince olgun olmadığı olabilir. Sorunun karmaşıklığından dolayı, uygulanabilir çözümler üretmek için uzun vadeli, sürekli, odaklanmış ve mali açıdan güçlü çabalar gerektiriyor - ki bu da yeni başlayanlar ve küçük şirketler için iyi değil. Bir başlangıç şirketi AI sorununu "çözerse", bu kesinlikle şaşırtıcı olacaktır.
Öte yandan, ML altyapı mühendisleri nadirdir. Büyük şirketler için, yalnızca birkaç çalışanı olan ve hayatta kalmak için mücadele eden bir başlangıç, kesinlikle değerli bir M&A hedefidir. Bu sektördeki en azından birkaç oyuncu sürekli olarak kazanmak için mücadele ediyor ve hem iç hem de dış araçlar geliştirdiler. Örneğin, AWS ve Google Cloud için AI altyapı hizmetleri önemli bir satış noktasıdır.
Özetle, gelecekte bu alanda birden fazla oyuncuyu bütünleştiren bir tekelcinin olacağı tahmin edilebilir.
Daha özel donanım
En azından CPU'lar için Moore Yasası başarısız oldu ve bu gerçek uzun yıllardır var. GPU'lar yakında benzer bir kadere maruz kalacak. Modelimiz gittikçe daha verimli hale gelse de, bazı daha gelişmiş sorunları çözmek için daha fazla bilgi işlem gücü kullanmamız gerekiyor. Bu, dağıtılmış eğitimle çözülebilir, ancak kendi sınırlamaları vardır.
Ek olarak, kaynakları kısıtlı cihazlarda daha büyük modeller çalıştırmak istiyorsanız, dağıtılmış eğitim işe yaramaz hale gelecektir. Özel AI hızlandırıcısını girin. İstediğiniz veya özelleştirilebileceğiniz şekle bağlı olarak, güç tüketiminde, maliyette veya potansiyel tüketimde büyük bir sipariş kaydedebilirsiniz.
Bir dereceye kadar, Nvidia'nın Tensor Çekirdekleri bile bu eğilime çoktan katıldı. Genel bir donanım yoksa, daha fazla durum göreceğiz.
Eğitim verilerine olan bağımlılığı azaltın
İşaretli veriler genellikle pahalıdır, kullanılamaz veya her ikisi birden olur. Bu kuralın birkaç istisnası vardır. MNIST, ImageNet, COCO, Netflix Ödülleri ve IMDB incelemeleri gibi açık yüksek kaliteli veri kümelerinin tümü inanılmaz yenilik kaynaklarıdır. Ancak birçok problem için, uygun veri seti mevcut değildir. Araştırmacıların kendi başlarına veri kümeleri oluşturmaları imkansızdır, ancak veri kümelerine sponsorluk yapabilecek veya bunları yayınlayabilecek büyük şirketler acele etmiyor: büyük veri kümeleri oluşturuyorlar, ancak dışarıdan gelenlerin yaklaşmasına izin vermiyorlar.
Öyleyse, bir başlangıç şirketi veya bir üniversite araştırma grubu gibi küçük bağımsız bir kuruluş, zor sorunlara nasıl ilginç çözümler sağlayabilir? Bu, gözetim sinyallerine gittikçe daha az bağımlı olan, ancak giderek daha fazla etiketlenmemiş ve yapılandırılmamış verilere bağımlı olan bir sistem oluşturarak elde edilebilir (ara bağlantı ve ucuz sensörlerin artışı, bu tür verileri zenginleştirir). Bu kısmen GAN'lara, transferlere ve pekiştirmeli öğrenmeye olan ilgideki artışı açıklamaktadır: tüm bu teknolojiler eğitim veri setlerine daha az yatırım gerektirir (veya hiç gerektirmez).
Yani tüm bunlar sadece bir balon mu?
Bu endüstri, popüler yapay zeka "Yaz Ortası" nın yedinci yılına girdi. Bu süre zarfında, çok sayıda araştırma projesi, akademik fon, risk sermayesi, medyanın ilgisi ve kod satırları bu alana akın etti.
Ancak insanların yapay zeka tarafından verilen vaatlerin çoğunun hala yerine getirilmediğini belirtmek için nedenleri var: son Uber yolculukları hala insan sürücüler tarafından sürülüyor; sabahları omlet yapabilen pratik bir robot hala yok. Bağcıklarımı kendim bile bağlamam gerekiyordu, çok üzücüydü!
Ancak, sayısız lisansüstü öğrencinin ve yazılım mühendisinin çabaları boşuna değildi. Görünüşe göre her büyük şirket zaten büyük ölçüde yapay zekaya güveniyor veya gelecekte bu tür planları uyguluyor. AI sanatı popülerdir. Kendi kendine giden arabalar henüz ortaya çıkmamış olsa da, yakında doğacaklar.
2018 yılında Amerika Birleşik Devletleri yapay zeka alanında hızla gelişti ve Çin de çok pes etmedi. Bu eğilim, Baidu ve BOSS tarafından ortaklaşa yayınlanan "2018 Çin Yapay Zeka ABC Yetenek Geliştirme Raporu" nda görülebilir.
Kaynak: Turing TOPIA; Çeviri: Huang Shan, Yang Pengyue;(Bu makale bir ağ alıntı veya yeniden basımdır, telif hakkı orijinal yazara veya yayın medyasına aittir. Çalışmanın telif hakkına dahilseniz, lütfen bizimle iletişime geçin.)