LSTM'nin babası 2010-2020'yi yayınlıyor, gözlerimde derin öğrenmenin kısa bir tarihi

Kaynak: Jürgen Schmidhuber

Bu makale hakkında 5782 kelime, Önerilen Okuma 10 dakika.

Bu makale, LSTM'nin mucidi ve derin öğrenmenin duayeni Jürgen Schmidhuber tarafından yayınlanan, yazarın son on yıldaki araştırma çalışmalarına dayanan en önemli gelişmelere ve uygulamalara odaklanan, 2020'leri dört gözle bekleyen ve ayrıca veri gizliliği ve pazardan bahseden blog gönderisini tanıtmaktadır.

LSTM'nin mucidi ve derin öğrenmenin duayeni olan Jürgen Schmidhuber, 20 Şubat'ta yazarın son on yıldaki araştırma çalışmasına dayanan en önemli geliştirme ve uygulamaya odaklanan bir blog yazısı yayınladı. Son olarak, 2020'leri dört gözle bekledi ve ayrıca bahsetti İşte veri gizliliği ve piyasa geliyor. Aşağıda bu makalenin dizini yer almaktadır:

Bölüm 1: Uzun Kısa Süreli Bellek Ağının On Yılı

Bölüm 2: İleri Beslemeli Sinir Ağlarının On Yılı

Bölüm 3: LSTM ile FNN / CNN, LSTM ve FNN'nin Karşılaştırılması

Bölüm 4: Merak üzerine kurulu bir teknoloji olan GAN

Bölüm 5: 2010-2020 on yılındaki diğer sıcak konular: derin pekiştirmeli öğrenme, meta-öğrenme, dünya modelleri, damıtma ağları, sinirsel mimari arama, dikkat öğrenme, hızlı ağırlıklandırma, kendi kendine icat edilen problemler ...

Bölüm 6: Veri pazarlarının ve gizliliğin geleceği

Bölüm 7: Outlook: 2010'lar ve 2020'ler, sanal AI veya gerçek AI (Gerçek AI)?

Uzun Kısa Süreli Bellek Ağının On Yılı

Son on yılda, çoğu yapay zeka, uzun vadeli kısa süreli bellek (LSTM) sinir ağları ile ilgiliydi. Dünya temelde sıralıdır ve LSTM, konuşma tanıma, makine çevirisi, video tanıma, çevrimiçi el yazısı tanıma, robotik, video oyunları, zaman serisi tahmini, sohbet robotları, sağlık uygulamaları gibi sıralı verilerin işlenmesini tamamen değiştirdi. 2019 yılına kadar LSTM, son bin yıldaki diğer bilgisayar bilimleri makalelerinden daha fazla alıntı alacak. Yazar, en bariz uygulamalardan bazılarını aşağıda listeliyor.

2009: Çevrimiçi el yazısı tanıma . Yazarın doktora öğrencisi Alex Graves, ICDAR 2009'da (prestijli belge analizi ve tanıma konferansı) üç el yazısı yarışmasını (Fransızca, Farsça, Arapça) kazandı. Yazar tarafından Münih Teknik Üniversitesi'nde ve İsviçre'deki AILab IDSIA araştırma grubunda geliştirilen iki yöntemin bir kombinasyonunu kullandı: LSTM (1990'lar-2005) (doktora öğrencim Sepp Hochreiter tarafından analiz edilen kaybolan gradyan probleminin üstesinden gelir) ve bağlantısal zamansal sınıflandırma Hukuk (CTC) (2006). CTC ile eğitilen LSTM, uluslararası yarışmaları kazanan ilk tekrarlayan sinir ağı veya RNN'dir.

CTC ile eğitilmiş LSTM aynı zamanda ilk uçtan-uca sinirsel konuşma tanıyıcıdır. 2007 gibi erken bir tarihte, ekibimiz CTC-LSTM'yi konuşmaya başarıyla uyguladı ve aynı zamanda katmanlı bir LSTM yığınına da uyguladı. 1980'lerden beri bu, temelde sinir ağlarını gizli Markov modelleri (HMM) gibi geleneksel yöntemlerle birleştiren önceki hibrit yöntemlerden çok farklıydı. Alex Toronto'daki görevini yaptığında, hala CTC-LSTM kullanıyordu.

CTC-LSTM'nin sektörde büyük bir etkisi oldu. 2015 yılına kadar Google'ın konuşma tanıma özelliğini büyük ölçüde iyileştirdi. Bu özellik artık neredeyse tüm akıllı telefonlarda mevcuttur. 2016 yılına kadar, Google veri merkezindeki tüm bu Tensor işleme birimlerinin işlevlerinin dörtte birinden fazlası LSTM için kullanılıyor (bunun% 5'i evrişimli sinir ağları tarafından kullanılıyor). 2019'da Google'ın konuşma tanıma ekipmanı (artık sunucuda değil) hala LSTM'ye dayanıyor. Microsoft, Baidu, Amazon, Samsung, Apple ve diğer birçok ünlü şirket de LSTM kullanıyor.

2016: İlk uçtan uca nöral makine çevirisi de LSTM'ye dayanıyor . Doktora öğrencim Felix Gers, 2001 yılında LSTM'nin geleneksel modellerin (HMM gibi) öğrenemeyeceği dilleri öğrenebileceğini kanıtladı. Başka bir deyişle, "alt sembol" nöral modeli, "sembol" görevlerini öğrenmede aniden başarılı oldu! Bunun nedeni, bilgi işlem donanımının iyileştirilmesidir. 2016-17'ye kadar, Google Translate ve Facebook Translate, biri gelen metin ve diğeri giden çevrilmiş metin için olmak üzere iki bağlantılı LSTM'ye dayanmaktadır. 2017'ye kadar, LSTM'ye göre, Facebook kullanıcıları haftada 30 milyar kez çeviri yapacak. Bir karşılaştırma yapmak gerekirse: En popüler YouTube videosu ("Despacito" şarkısı) iki yılda yalnızca 6 milyar tıklama aldı.

LSTM tabanlı robot . 2003 yılına gelindiğinde ekibimiz, pekiştirmeli öğrenme (RL) ve robotik için LSTM'yi kullandı. 2010'larda, RL ve LSTM kombinasyonu standart hale geldi. Örneğin, 2018'de RL tarafından eğitilen LSTM, öğretmeni olmadan hünerli bir robot kolunu kontrol etmeyi öğrenen OpenAI şirketi Dactyl'in özüdür.

2018-2019: Video oyunları için LSTM . 2019'da DeepMind, birçok yönden satrançtan daha zor olan StarCraft oyununda profesyonel oyuncuları yenmek için RL + LSTM eğitimli Alphastar'ı kullandı. RL (modelin toplam parametrelerinin% 84'ü) ile eğitilen LSTM, aynı zamanda Dota 2 video oyununda (2018) insan profesyonel oyuncuları mağlup eden OpenAI Five'ın çekirdeğidir.

Sağlık hizmetleri için LSTM, kimyasal moleküler tasarım, dudak okuma, borsa tahmini, kendi kendine giden arabalar, beyin sinyallerini konuşmaya eşleme, nükleer füzyon reaktörlerinde ne olacağını tahmin etme gibi diğer birçok LSTM uygulaması 2010'larda ortaya çıktı.

İleri Beslemeli Sinir Ağlarının On Yılı

Prensip olarak, LSTM, bir dizüstü bilgisayarda çalışan herhangi bir programı uygulayabilen bir RNN'dir. İleri beslemeli sinir ağları (FNN'ler) daha kısıtlayıcıdır (Gobang, Go ve Satranç gibi tahta oyunlarında yeterince iyi olmasına rağmen). Başka bir deyişle, yapay zeka (AGI) oluşturmak istiyorsak, sinir ağlarına dayalı olarak, temel hesaplamaları RNN'lere benzer olmalıdır. FNN temelde yeterli değil. RNN ve FNN arasındaki ilişki, genel bir bilgisayar ve hesap makinesi gibidir. Bununla birlikte, derin öğrenmedeki on yıllık ilerlememiz, aşağıda açıklandığı gibi FNN'yi de içerecektir.

2010: Derin FNN, denetimsiz ön eğitim gerektirmez. 2009'da birçok kişi, derin FNN'lerin denetimsiz ön eğitim olmadan çok şey öğrenemeyeceğini düşündü. Ancak 2010'da ekibimiz ve doktora sonrası araştırma görevim Dan Ciresan araştırmam, derin FNN'nin basit geri yayılımla eğitilebileceğini ve denetimsiz ön eğitime gerek olmadığını gösterdi. Sistemimiz o dönemde ünlü görüntü tanıma kıyaslaması MNIST'te yeni bir performans rekoru kırdı. Bu, GPU'nun oldukça paralel grafik işleme biriminde geleneksel FNN'yi büyük ölçüde hızlandırarak elde edilir. Gözden geçirenler buna "makine öğrenimi topluluğunun uyanışı" diyor. Bugün, birkaç ticari sinir ağı uygulaması hala denetimsiz ön eğitime dayanmaktadır.

2011: CNN tabanlı bilgisayarla görme devrimi. 1970'lerden beri, İsviçre'deki ekibimiz (Dan Ciresan ve diğerleri), başkaları tarafından icat edilen ve geliştirilen evrişimli sinir ağlarını büyük ölçüde hızlandırdı. 2011'de ilk ödüllü CNN'yi oluşturdu, genel adı "DanNet" . Bu önemli bir gelişmedir. Daha önceki GPU hızlandırmalı CNN'den daha derin ve daha hızlıdır. 2011 gibi erken bir tarihte, derin öğrenmenin görüntü hedeflerini tanımada mevcut son teknolojiden çok daha iyi olduğunu gösterdi. Aslında, 15 Mayıs 2011 ile 10 Eylül 2012 arasında arka arkaya 4 önemli bilgisayar görme yarışmasını kazandı. Daha önce, GPU hızlandırmalı bir Univ CNN idi.

2011'de Silikon Vadisi'ndeki IJCNN'de DanNet, görsel desen tanıma yarışmasında insan seviyesini geçen ilk kişi oldu ve hatta New York Times bundan bahsetti. Aynı zamanda kazanan ilk derin CNN'dir: aynı zamanda Çin El Yazısı Yarışması'nı (ICDAR 2011), Görüntü Segmentasyon Yarışmasını (ISBI, Mayıs 2012) ve kanser tespiti konusunda Büyük Hedef Tespit Yarışmasını (ICPR, 10 Eylül 2012) kazandı. Tıbbi görüntüleme yarışmaları (tüm bu yarışmalar ImageNet 2012'den önceydi). CNN görüntü tarayıcımız, tıbbi bakım ve diğer yönlerden son derece önemli olan önceki yönteme göre 1000 kat daha hızlıdır. Bugün IBM, Siemens, Google ve birçok start-up şirketi bu yaklaşımı takip ediyor. Pek çok modern bilgisayarla görme yöntemi, yazarın 2011'deki araştırma çalışmalarının bir uzantısıdır.

2010 gibi erken bir tarihte, dünyanın en büyük çelik üreticisi Arcelor Mittal için GPU tabanlı derin ve hızlı bir sinir ağı başlattık ve CNN aracılığıyla (ImageNet 2012'den önce) çelik kusur algılama yeteneklerini büyük ölçüde geliştirmeyi başardık. Bu, ağır endüstrideki ilk derin öğrenme atılımı olabilir Ve şirketimiz NNAISENSE'in doğmasına yardımcı oldu. 2010'ların başında, derin öğrenme yöntemimizin başka uygulamaları vardı.

Öğrencilerim RupeshKumar Srivastava ve KlausGreff aracılığıyla LSTM ilkesi, Mayıs 2015'te yayınladığımız Karayolu Ağlarını da üretti. Bu, yüzlerce katman kullanan ilk çok derin FNN'dir . Microsoft'un en popüler ResNets'i (ImageNet2015 yarışmasını kazandı) özel bir durumdur. Önceki yol ağının performansı ImageNet'teki ResNet'inkine benzer. Otoyol katmanı da sıklıkla doğal dil işleme için kullanılır ve daha basit kalıntılar düzgün çalışmaz.

LSTM ve FNN / CNN, LSTM ve FNN'nin karşılaştırılması

Son on yıllık derin öğrenmede, statik kalıpların tanınması (görüntüler gibi) esas olarak CNN tarafından yapılırken, sıra işleme (konuşma, metin vb.) Esas olarak LSTM tarafından yapılır. Bazen video tanıma gibi CNN ve LSTM birlikte birleştirilir. FNN ve LSTM bazen birbirlerinin alanını işgal eder. İki örnek:

1. Çok boyutlu LSTM, CNN'nin sabit yama boyutuyla sınırlı değildir ve bazı bilgisayar görme sorunlarında daha iyi performans gösterir. Bununla birlikte, çoğu bilgisayar görüşü hala CNN'e dayanmaktadır.

2. Bu yüzyılın sonunda, zamanlama kısıtlamalarına (zamanlama bilgisi eksikliği) rağmen, FNN tabanlı Transformatörler, geleneksel LSTM alanı olan Doğal Dil İşleme alanında öne çıkmaya başladı. Yine de, LSTM birçok dili öğrenme görevini hızla çözebilirken sıradan Transformers çözemez.

Business Weekly, LSTM'yi "tartışmasız en ticarileştirilmiş yapay zeka başarısı" olarak adlandırdı. Yukarıda belirtildiği gibi, 2019 yılına kadar LSTM, geçtiğimiz bin yıldaki diğer tüm bilgisayar bilimleri makalelerinden daha fazla alıntı alacaktır. Yeni milenyumun rekor sahibi, LSTM ile ilgili FNN'dir: ResNet (Aralık 2015), karayolu ağımızın özel bir örneğidir.

GAN: Son on yılda merakla üretilen en ünlü teknoloji

Generative Adversarial Networks (GAN), 2010'larda çok popüler olan başka bir kavramdır. GAN, yazarın 1990'daki popüler anti-merak ilkesinin bir örneğidir. Prensip şu şekildedir: Bir sinir ağı olasılıkla çıktılar üretir ve başka bir sinir ağı bu çıktıları görür ve bunlara verilen tepkiyi tahmin eder. Gradyan iniş yöntemini kullanarak, tahmin edici NN'nin hatası en aza indirilir ve jeneratör NN maksimize edilir. Bir ağın kaybı, başka bir ağın kazancıdır. GAN, bu durumda özel bir durumdur.

2010'daki diğer sıcak konular

Temmuz 2013'te, sıkıştırılmış ağ aramamız, herhangi bir denetimsiz ön eğitim olmaksızın doğrudan yüksek boyutlu duyusal girdiden (video) kontrol stratejilerini başarıyla öğrenmek için derin pekiştirmeli öğrenmeyi (RL) kullanan ilk derin öğrenme modeliydi.

Birkaç ay sonra, nöroevrime dayalı RL, Atari oyunlarını oynamayı da başarıyla öğrendi. Kısa süre sonra, DeepMind ayrıca yüksek boyutlu duyusal girdi için bir Derin RL sistemine sahipti.

DeepMind 2016'da ünlü süper insan Go oyuncusu Go'ya sahip. Şirket, on yılın ilk yılı olan 2010 yılında kurulmuştur. Bilgisayar bilimi alanında AI yayınları ve doktoraları olan en eski DeepMinders laboratuvarımdan geldi.

1990'dan beri, kontrolörler ve dünya modelleri olarak adlandırılan iki RNN'nin kombinasyonuna dayanan RL ve planlamayla ilgili çalışmalarımız 2010'larda popüler hale geldi.

1987'den beri, çok az insan bizim meta-öğrenme veya öğrenmeyi öğrenme (öğrenmeyi öğrenme) çalışmalarımıza önem veriyor. 2010'larda, meta-öğrenme nihayet sıcak bir konu haline geldi. 1990'dan beri, yapay merak, yaratıcılık ve POWERPLAY tarzı ile ilgili kendi kendine icat edilen sorular bizim işimize benziyor.

2009'dan beri nöral mimari araştırmamıza benzer şekilde, örneğin bazı uygulamalarda sıradan LSTM benzeri LSTM mimarisinden ve 1991'den beri NN'leri diğer NN'lere sıkıştırmak veya çıkarmak için yaptığımız çalışmalardan daha üstündür.

2009'dan beri, sinir mimarisi araştırmasındaki çalışmalarımız benzerdir.Bazı uygulamalarda, LSTM benzeri mimarilerden üstündür ve 1991'den beri NN'leri diğer NN'lere sıkıştırıyor veya çıkarıyoruz. Meslekler.

1990'dan beri, hiyerarşik RL konusundaki çalışmalarımız, deterministik politika gradyanı ve sentetik gradyan gibi benzerdir. 1991'den bu yana yaptığımız iş benzerdir, yani rakip NN'ler ve diğer yöntemler aracılığıyla ve ayırt edilebilir bir veri sistemini kodlamak, gradyan iniş yoluyla öğrenmek ve NN'leri hızlı bir şekilde tamamen sinirsel hale getirmek için faktöryel açılma gösterimi yoluyla uçtan uca Ağ yöntemi, geleneksel bilgisayarlar gibi depolama ve kontrolü ayırır.

1990'ların başlarında, iki ortak sinir dizisi dikkat mekanizmamız vardı: Ağdaki çarpma birimi aracılığıyla uçtan uca ayırt edilebilir "yumuşak" dikkat (gizli boşlukta) ve RL'de Bağlamdaki (gözlem alanında) "sert" dikkat, pek çok takip çalışması üretti. 2010'larda birçok insan sinir ağlarını öğrenmek için sıralı dikkatleri kullandı. Geçen yüzyılın diğer birçok kavramı, 2010'larda daha hızlı bilgisayarların popüler hale gelmesini beklemek zorunda kaldı.

Bölüm 21'de bahsedildiği gibi, derin öğrenme, İngilizce'nin resmi bir dil olmadığı yerde icat edildi. Ukrayna'da 1965'te başladı (Sovyetler Birliği'ne ait olduğu zaman) ve her derinlikte ilk gerçekten öğrenilen ağa sahipti. Beş yıl sonra, modern geri yayılım Finlandiya'da yayınlandı (1970). Temel derin evrişimli sinir ağı mimarisi (şu anda yaygın olarak kullanılmaktadır) 1970'lerde Japonya'da icat edildi ve evrişimli (1987) sinir ağı da "ağırlık dağılımı" ve geri yayılımı birleştirdi. Başarılarımız bu yazarların ve diğer birçok yazarın omuzlarında duruyor.

Elbette çoğu uygulamada derin öğrenme, yapay zekanın yalnızca küçük bir parçasıdır ve pasif örüntü tanıma ile sınırlıdır. Bunu, en iyi genel öğrenme makineleri de dahil olmak üzere daha genel yapay zeka araştırmalarının bir yan ürünü olarak görüyoruz.

Veri pazarı ve gizliliğin geleceği

AI, temel olarak veri eğitimine dayanır. Veriler yeni petrol ise, o zaman petrol gibi bir fiyatı olmalıdır. 2010'larda, büyük gözetim platformları verileri korumak için herhangi bir fon sağlamadı, bu nedenle gizlilik kaybolacaktı. Bununla birlikte, 2020'lerde arz ve talep arasındaki etkileşim yoluyla verilerin gerçek ekonomik değerini bulmak için etkili bir veri pazarı oluşturmaya çalışmalıyız. Bazı hassas tıbbi veriler bile devlet düzenleyicileri tarafından değil, verilere sahip olan ve tıbbi veri pazarında satabilecek şirketler tarafından fiyatlandırılacaktır.

Giderek karmaşıklaşan bir toplum, zorunlu olarak gözetim ve mahremiyet kaybına yol açar mı? Şehirler, eyaletler ve şirketler gibi birçok insandan oluşan alanlar, birçok hücreden oluşan insanlar gibidir. Bu birimlerin neredeyse hiç mahremiyeti yoktur. Özel "polis hücreleri" ve "sınır koruma hücreleri" tarafından sürekli izlenirler: Siz bir kanser hücresi misiniz? Dış saldırgan mısınız, patojen mi? Tek bir hücrenin çok hücreli bir organizmanın parçası olabilmesi için özgürlüğünü feda etmesi gerekir.

Ülkeler gibi benzer süper yaratıklar. Beş bin yıldan daha uzun bir süre önce, yazı, kayıtlı tarihi mümkün kıldı ve bu nedenle onun öncü ve en önemli icadı haline geldi. Bununla birlikte, asıl amacı gözetimi teşvik etmek ve vatandaşları ve vergi durumlarını izlemekti. Süper yaratık ne kadar karmaşıksa, kompozisyonu hakkında bilgi toplama o kadar kapsamlı olur.

200 yıl önce her köyün papazı tüm köylüleri, hatta günahlarını itiraf etmeyenleri tanıyordu. Üstelik köye giren yabancıyı kısa sürede herkes tanıyordu. Hızla büyüyen şehirlerdeki anonimlik nedeniyle bu tür kontrol mekanizmaları geçici olarak kayboldu, ancak şimdi yeni gözetim cihazlarının (akıllı telefonlar gibi) geri dönmesiyle, akıllı cihazlar şirketlere ve hükümetlere milyarlarca kullanıcıyı söyleyebilir.

Kameralar ve dronlar gittikçe küçülüyor ve her yerde bulunabiliyor ve yüzlerin ve yürüyüş şeklinin tanınması daha ucuz hale geliyor ve yakında birçok insan bunu gezegendeki başka herhangi bir şeyi tanımlamak için kullanacak yerel. Bu iyi bir şey ya da kötü bir şey midir? Her durumda, seçmenlerin mahremiyeti pahasına, bazı ülkeler diğerlerinden daha kolay şekilde daha karmaşık süper yaratıklar haline gelebilir.

Outlook: 2010'lar-2020'ler: Sanal AI mı, Gerçek AI mı?

2010'larda yapay zeka, video oyunları, masa oyunları gibi sanal dünyalarda ve özellikle büyük WWW platformlarında iyi performans gösterdi. AI kazancının çoğu pazarlamadan gelir. NN'ler aracılığıyla pasif örüntü tanıma, Amazon, Alibaba, Google, Facebook ve Tencent gibi en değerli şirketlerin bazılarının sizi platformda daha uzun süre tutmasına, ilgilenebileceğiniz öğeleri tahmin etmesine ve tıklamanızı sağlamasına yardımcı olur. Kişiye özel reklamcılık. Ancak pazarlama, dünya ekonomisinin yalnızca küçük bir parçasıdır. Önümüzdeki on yıl ne getirecek?

2020'lerde Aktif AI (Aktif AI), tıpkı filmlerdeki gibi endüstriyel süreçleri, makineleri ve robotları yönlendirerek gerçek dünyayı giderek daha fazla istila edecek. Gerçek dünya, sanal dünyadan çok daha karmaşık olsa da, yaklaşan "Gerçek Dünya AI" veya "Gerçek AI" dalgası, insanları etkileyeceği için önceki A dalgasından daha büyük olacaktır. Böylece tüm üretim, ekonomik gelişmenin daha büyük bir parçası haline gelir. NNAISENSE'in tamamen Gerçek AI ile ilgili olmasının nedeni budur.

Bazı insanlar, birçok kullanıcı hakkında büyük miktarda veriye sahip büyük platform şirketlerinin AI'ya hakim olacağını iddia ediyor. Bu çok saçma, bebekler akıllı olmayı nasıl öğreniyor? "Facebook'tan büyük miktarda veri indirerek" değil, oyuncakları kullanarak kendi icat ettiği deneyler yoluyla aktif olarak kendi verilerini oluşturur, davranışının sonuçlarını tahmin etmeyi öğrenir ve bu fiziksel ve dünyayı öngören modeli giderek daha fazla hale getirmek için kullanır. İyi planlayıcı ve problem çözücü.

1990'dan beri yapay merak dediğim şeyi kullanarak bebek gibi öğrenen yapay zekayı nasıl inşa edeceğimizi ve ham verilerden soyut nesnelerin çıkarılmasına yardımcı olmak için onu entegre etmeyi zaten biliyoruz. Mekanizmalar.

Çok uzak olmayan bir gelecekte bu, bahsettiğim gör-ve-yap robotlarının oluşturulmasına yardımcı olacaktır: NN'ye karmaşık görevleri gerçekleştirmek için birçok serbestlik derecesine sahip karmaşık robotları kontrol etmeyi çabucak öğretin, Örneğin, bir akıllı telefon yalnızca görsel olarak gösterilerek ve onunla konuşarak, robota doğrudan dokunmadan veya yönlendirmeden, çocuklara öğrettiğimiz gibi monte edilebilir. Bu, insan uygarlığının birçok yönünü tamamen değiştirecek.

Tabii ki, bu tür AI'nın askeri kullanımları da vardır. AI silahlanma yarışı kaçınılmaz gibi görünse de, 2020'deki neredeyse tüm AI araştırmaları, insanların daha uzun, daha sağlıklı, daha kolay ve daha mutlu yaşamasına odaklanacak. Sloganımız: Herkes AI'dan hoşlanır. Yapay zeka, bazı büyük şirketler veya hükümetler tarafından kontrol edilmeyecek. 1941'den beri, bilgisayarların fiyatı her 5 yılda bir 10 kat daha ucuzdu. Bu eğilim yakında yok olmayacak. Herkesin hayatını birçok yönden iyileştirecek ucuz ama güçlü bir yapay zekası olacak.

2020'lerde şu anda durum böyledir. Daha uzak bir gelecekte, kendi kendine sürüş, kendi kendini kopyalama, merak, yaratıcılık ve bilinç yeteneğine sahip çoğu yapay zeka, çoğu fiziksel kaynağın bulunduğu yerde kullanılacak ve sonunda tüm görünür evreni fethedecek ve dönüştürecek, ki bu pek çok hesaplanabilir olabilir. Evrenlerden biri.

Orijinal bağlantı:

-Bitiş-

Tsinghua-Qingdao Veri Bilimi Enstitüsü'nün resmi WeChat kamu platformunu takip edin " THU Veri Pastası "Ve kız kardeş numarası" Veri Pastası THU "Daha fazla ders avantajı ve kaliteli içerik elde edin.

Çin'in yüz verileriyle ilgili ilk ceza davası: 3D avatar yapmak için yüz verilerini yasadışı olarak çalmak
önceki
Yeni koronavirüs pnömonisinden etkilenen 1183 yardım arayanların veri portreleri
Sonraki
İstatistiksel bilginin özeti (çerçeve diyagram formülü ile)
Salgınla karşı karşıya kalan tıbbi robotlar, sağlık personelinin enfeksiyonlarını nasıl önler ve tedavi eder?
Vulcan Mountain Hospital'ın Çin hızı Li Chi D-Hub hızla yardımcı oluyor
Derin öğrenmede anlaşılması gereken 13 olasılık dağılımı (bağlantı ile)
Tsinghua Üniversitesi, Doğa Üzerine Mikroelektronik Enstitüsü'nün yeni araştırması olan CNN'i uygulamak için memristörleri tam olarak kullanın
Yeni taç virüsü Ermenistan'da ortaya çıkarsa, programcılar simülasyon için Python kullanır (kod eklenmiştir)
Üretken modeller ve GAN'lar nelerdir? Bilgisayar vizyonunun büyüsünü deneyimlemek için bir makale (bağlantı ile)
Kaçak pangolinler koronavirüs taşır ve 2019-nCoV'a oldukça benzerdir
Wu Enda AI öğrenme rotası, ML, DL ve diğer kurslar ve kaynak önerileri! "Ekli bağlantı"
Sorumlu planlayıcı, elinde bir resim ve bir dip ile eski şehir için bir "önleme ve kontrol haritası" çizer.
Jiu San Society'nin Tai'an Belediye Partisi Komitesinin Gençlik Çalışma Komitesi, grup acil kan bağışı etkinlikleri düzenlemektedir.
Salgından sonra aşkı daha iyi anlıyoruz: Bahar çiçek açıyor, hadi evlenelim
To Top