Yapay zeka yarışmasında simülasyon verileri önemli bir dengeleme gücü müdür?

Tam metin 6085 Kelimeler, tahmini öğrenme süresi 18 dakika

Kaynak: Unsplash

Yapay zeka yarışı

İnsanlık, yapay zekanın egemenliği için kıyasıya bir rekabet içindedir. Beş büyük ABD teknoloji şirketi (Google, Amazon, Facebook, Apple ve Microsoft) görüntü tanıma, konuşma tanıma ve duygu analizi alanlarında araştırma ve geliştirmeye çok para yatırıyor ve yapay zeka teknolojisi girişimlerini benzeri görülmemiş bir hızla hedefliyorlar. Bir satın alma yapın.

Çin'de Baidu, Alibaba, Tencent ve Xiaomi, 2025 yılına kadar yapay zeka alanında küresel lider olmayı umarak hükümet desteğiyle hızla gelişiyor. Bu yeni tür silahlanma yarışı özellikle yoğun, çünkü galip yapay zeka endüstrisini tekelleştirecek ve her şeyi alacak gibi görünüyor (bu aşağıda ayrıntılı olarak açıklanacaktır).

Veriler neden önemlidir?

Yapay zekanın gelişimi, üç önemli bölümün işbirliğine dayanır: algoritma yeniliği, hesaplama gücü ve veri. En gelişmiş derin öğrenme algoritması, yapay zeka teknolojisinin gelişimini ilerletmenin ilk önemli parçasıdır. Akademik laboratuvarlara ve büyük teknoloji şirketlerine büyük miktarda finansal kaynak akarken, bu algoritmalar hızla gelişiyor. 2010'dan bu yana, en doğrudan sonuç, akademik araştırmanın patlayıcı büyümesi oldu. Örneğin, 2014'ten 2017'ye kadar, sinir ağları üzerine araştırma raporlarının sayısının bileşik yıllık büyüme oranı% 37'ye ulaştı. Benzer şekilde, Seul'de düzenlenen son Uluslararası Bilgisayar Vizyonu Konferansı da 2017'den 2019'a kadar sunulan araştırma raporlarının sayısının iki katına çıkmasına tanık oldu. Neyse ki, akademik araştırmacılar, ilerlemelerini yapay zeka topluluğuyla paylaşmayı umarak araştırmalarının çoğunu açtılar, büyük teknik laboratuvarlar ise dünyanın her yerinden en iyi araştırmacıları çekmeye istekli.

Yapay Zeka Endeksi 2018 Faaliyet Raporu

Bilgi işlem gücü, yapay zekayı geliştirmede ikinci anahtar faktördür. Bu alanda insanlar çok ilerleme kaydetmeye devam ediyor. 2012 ile 2018 arasında bilgi işlem alanında 300.000 kat artışa tanık oldular. Bilgi işlem gücündeki üssel artış, her 18 ayda iki katına çıkan Moore Yasasını geçti. Cerebras, Graphcore ve Horizon Robotics gibi yeni donanım girişimlerinin FLOPS / Watt'ta (ve TPU'da) önemli bir büyüme sağlamak için özellikle yapay zeka için çipler geliştirdikçe bu eğilimin devam edeceğine inanmak için neden var. Performans iyileştirmesine, dağıtılmış bulut bilişim ile birlikte bilgi işlem maliyetinde (FLOPS / $) bir düşüş eşlik eder, bu yapay zekanın kullanımını kolaylaştıracaktır.

Yapay zeka denkleminin üçüncü ve son önemli kısmı veridir. Çok sayıda algoritma yeniliğine rağmen, bugünün algoritmaları verilere büyük talepler yüklediği için veriler hala özellikle önemlidir. Daha derin içgörüler elde etmek için. Yapay zeka algoritmalarının eğitim için çok sayıda veri seti kullanması ve doğrulama için daha fazla veri seti kullanması gerekir. Veriler, yapay zeka algoritmalarının daha iyi çalışmasını, daha hızlı öğrenmesini ve daha güçlü olmasını sağlayabilir. Aslında, daha fazla veriye sahip basit bir algoritma, genellikle daha az veriye sahip karmaşık bir algoritmadan daha iyidir. Ek olarak, birçok algoritma marjinal performansta bir düşüş yaşadı, bu da çıktı doğruluğunda küçük bir iyileştirme elde etmek için onlara daha fazla büyüklük verisi siparişinin girilmesi gerektiği anlamına gelir.

Allegro adlı bir yapay zeka bilgisayarlı görme platformu, azalan bir getiri örneği gösterdi. Allegro, 200.000'den fazla etiketli görüntü (COCO) içeren herkese açık bir veri kümesi kullanarak, farklı kategorilerdeki (ör. Köpekler, kediler, arabalar, bisikletler) 80 hedef görüntüyü otomatik olarak tanımak için iki nesne algılama algoritması eğitti. ). Deneyin sonucu, algoritmanın ortalama doğruluğunun ilk 10.000 görüntüyü tanıdığında hızla arttığı ve ardından yavaşlamaya başladığı ve böylece geri dönüşlerdeki düşüş yasasını tam olarak yansıttığıdır.

Okurların bu konuda kafası karışabilir çünkü bugün dünyada çok fazla veri var. Açıkçası, günlük üretilen veri miktarı çok büyük. 2018'de bu rakam günde 25.000 megabayttı ve bunun% 90'ı önceki iki yılda üretildi. Bu büyüme yalnızca, insanların evlerini daha akıllı hale getirecek, sağlığı daha sürdürülebilir hale getirecek ve hayatı daha kolay hale getirecek Nesnelerin İnterneti'nin büyümesiyle hızlanıyor.

Ancak, bu veri hazinesinin arkasında göz ardı edilemeyecek bir gerçek yatmaktadır: veriler eşit olmayan bir şekilde dağıtılmıştır. Daha spesifik olarak, birçok büyük teknoloji şirketi ürettikleri verilerin çoğuna sahiptir. Bu şirketler çoğunlukla Amerika Birleşik Devletleri'nde beş ve Çin'de dört kişidir. Örneğin Facebook'a her gün 35 milyon görsel yükleniyor, WhatsApp üzerinden 65 milyar mesaj gönderiliyor ve Google'da 3,5 milyar arama terimi üretiliyor.

Verilere haksız erişim, verilerin teknolojik dünyaya girişte yeni bir engel haline geldiği anlamına gelir. Pedro Domingos'un (Pedro Domingos) "The Master Algorithm" de dediği gibi: "En çok müşteriye sahip olan kişi en fazla veriyi toplar, en iyi modelleri öğrenir ve daha fazlasını alır. O andan itibaren en yeni müşteriler erdemli bir döngü - ancak rakipler için bir kısır döngü. "Teknoloji devleri için bu yeni mücadele türünde, küçük teknoloji girişimleri ve teknoloji dışı şirketler onunla rekabet edemez. Ancak sentetik verilerin ortaya çıkmasıyla her şey değişir.

Sentetik veriler bu rekabeti adil hale getirebilir mi?

Sentetik verilerin neden oyunun kurallarını değiştirebileceğini açıklamadan önce, sentetik verilerin ne olduğunu açıklamak önemlidir. Sentetik veriler veya simülasyon verileri, adından da anlaşılacağı gibi, gerçek faaliyetlerden yakalanmak yerine bir bilgisayar tarafından oluşturulan verileri ifade eder. Başka bir deyişle, bu, gerçek verilerin istatistiksel kısmını kopyalayan bir algoritma üzerinde oluşturulan bir tür veridir. Depolama maliyetlerindeki düşüş, üretken karşıt ağlar gibi yeni algoritmaların ortaya çıkması ve bilgi işlem gücündeki muazzam ilerlemeyle birlikte 1990'larda sentetik veriler ortaya çıksa da, insanların sentetik verilere olan ilgisi yeniden canlandı.

Sentetik veriler, yeni ürünler için eğitim ve test verileri, model doğrulama ve en önemlisi yapay zeka modelleri dahil olmak üzere birçok alanda yaygın olarak kullanılmaktadır. Her sektörün gerçek verileri toplaması gibi, sentetik veriler de çok çeşitli sektörlerde oluşturulabilir. Sağlık verilerinin neden olduğu gizlilik sorunlarını önlemek için klinik bilimsel deneylere uygulanabilir (bkz. MDClone). Çevik geliştirme ve geliştirme işlemlerinde test ve kalite güvence döngüsünü hızlandırmak için kullanılabilir. Finans kuruluşları, dolandırıcılık tespit sistemlerini test etmek ve eğitmek için sentetik verileri kullanabilir. Son fakat en az değil, bilgisayarla görme algoritmalarını eğitmek için kullanılabilir.

Bu makale, bilgisayarları görüntü ve video tanıma yoluyla dünyayı anlamaları için eğiten bir araştırma alanı olan bilgisayar görüşü alanında sentetik verilerin nasıl çalıştığına odaklanacak. Bu alan 60 yıldan daha uzun bir süre önce bilgisayarları üçgenler veya kareler gibi şekilleri ayırt etmek için eğiterek başlamasına rağmen, bilgisayarla görmenin nihai amacı, bilgisayarları dünyayı insanlar gibi anlayacak şekilde eğitmektir.

Yapay zeka odaklı bir test platformu olan StandardCognition, müşteriler tarafından seçilen ürünleri nasıl ayırt edebileceğini gösterdi. (Resim kaynağı: StandardCognition)

Bilgisayarla görme araştırmacıları, anın en önemli sorunlarından bazılarını çözüyor. Uygulama örnekleri arasında tıbbi görüntüleme (bkz. Aidoc), sürücüsüz arabalar, akıllı mağazalar (bkz. Standart Biliş), dronlar, artırılmış gerçeklik (AR) ve sanal gerçeklik (VR) bulunur. Tüm bu uygulamalar, kanseri bulmak için farklı şeyleri tanımak, trafik kazalarını önlemek veya dünyayı görmek için AR ve VR kulaklıkları takmak için hesap makinelerini eğitmeyi içerir. Bu uygulama örneklerinin tümü, algoritmayı eğitmek için büyük miktarda veri gerektirir. Örneğin, günümüzde radyologları geride bırakabilecek doğru bir teşhis elde etmek için milyonlarca kanser taramasına sahip algoritmalar sağlamak gerekiyor. Benzer şekilde, bir arabayı engelleri tanımak, engellerden kaçınmak veya doğru zamanda durmak için eğitmek de insan güdümlü arabalardan daha güvenli sürücüsüz arabalar oluşturmak için çok sayıda görüntü gerektirir. Sorun şu ki, bu verilere erişim, tüm bu yapay zeka modellerinin doğruluğunu artırmanın önünde bir engel haline geldi. Sentetik veriler bu büyük darboğaz sorununu çözebilir ve gerçek verilerden daha önemli avantajlara sahiptir.

Ölçeklenebilir

Şimdiye kadar, sentetik verilerin temel avantajının ölçeklenebilirlik olduğu açık olmalı. Sentetik veriler algoritmalar tarafından oluşturulduğundan, kelimenin tam anlamıyla, insanlar gerektiğinde algoritma eğitimi için yeterli veri oluşturabilir. Örneğin, başka bir tıbbi vakada Toronto Üniversitesi'ndeki araştırmacılar, belirli nadir durumları simüle etmek için kullanılan sentetik X-ışınları yarattı. Nadir hastalıkları tanımlamak için sinir ağlarını eğitmek için yeterince büyük bir veritabanı elde etmek için gerçek X-ışınlarını bu durumlarla birleştirdiler. Bu durum, birçok açıdan büyük bir atılımdır ve ayrıca algoritmaları iyileştirmek için önemli verilerden yoksun olan teknoloji şirketleri için iyi fırsatlar sunar.

İstatistiksel problemlerden kaçının

Sentetik veriler, ölçeklenebilir olmanın yanı sıra, gerçek verilerden örneklenirken karşılaşılan birçok istatistiksel sorunu da önleyebilir. Bu sorunun en yaygın örneği, örnekleme önyargısıdır. Şirketlerin bazı gerçek verileri elde etmesi zordur ve bu verilerin dünyadaki nesnelerin geniş dağılımını temsil edecek kadar yeterli farklılıkları kapsaması gerekir. İnsanlar buna iyi bir örnektir. Geçtiğimiz günlerde "Fortune" dergisinin söylediği gibi, Google gibi büyük bir şirket için bile, yeterince farklı ırkı kapsayan yüz verilerini toplamak büyük bir zorluk. Bu büyük bir sorundur, çünkü önyargılı veriler üzerinde eğitim algoritmaları, kullanıcılarla karşılaştıklarında algoritmanın "performansında" sapmalara yol açacaktır. Bu sorunu çözmek için DataGen gibi şirketler, algoritmaların eğitiminin daha gerçek dünya nüfus dağılımını kapsama temelinde gerçekleştirilebilmesini sağlamak için tamamen sentetik yüzler oluşturmak için oldukça farklılaştırılmış veriler kullanıyor.

DataGen tarafından yüksek farklılaşma ile oluşturulan tamamen sentetik bir yüz örneği (Kaynak: DataGen)

Uç durumları simüle edin

Gerçek verilerin istatistiksel problemleriyle bağlantılı olarak, sentetik verilerin üretimi, gerçek hayatta nadir görülen durumları çözmek için kullanılabilir. Bu kara kuğu olaylarını gerçek hayatta kontrol etmek zordur veya bazı durumlarda işlemeye bile değmez (örneğin, tehlikeli olaylar). Örneğin, hedef tespiti alanında, trafik kazaları veya yoldan geçen vahşi hayvanlar hakkında veri toplamak çok zordur. Bununla birlikte, kendi kendine giden arabalarda, bir trafik kazasının durumunu bilmek veya otobandan geçen yaban domuzlarından kaçınmak çok önemlidir. Bu, Tesla her ay kendi kendine giden araçlardan oluşan bir filo aracılığıyla çok sayıda gerçek görüntü yakalamasına rağmen, yapay zeka modelini sentetik verilerle gerçek verilerle birleştirerek eğitmek için piyasadaki en gelişmiş simülatörü kurmuş olmasıdır. nedeni.

Daha az maliyet

Sentetik verilerin bir başka yararı da daha düşük maliyettir. Genel olarak, gerçek verileri manuel olarak toplama ve etiketleme maliyeti çok pahalıdır (ve çok zaman alıcıdır). Uygulama durumlarına bağlı olarak, algoritma üretime sokulduktan sonra, verilerin toplanması ve etiketlenmesi en az yüzlerce dolara mal olacaktır. Toplama ve etiketleme sürecinin haftalarca veya aylarca sürdüğünden bahsetmiyorum bile, bu da şüphesiz yapay zeka araştırmacılarının ilerlemesini büyük ölçüde yavaşlatıyor. En önemlisi, bazı verilerin toplanması çok zordur çünkü elde edilmesi zordur. Örneğin savaş bölgelerinden veri toplamak zordur veya veri elde etmek için dağlık veya derin deniz ortamlarına gitmek zordur. Bu nedenle, sentetik veriler, veri toplamanın büyük maliyetinin eksikliklerinin üstesinden gelmek için büyük bir fırsat sunar.

Çalışanlar bir etiketleme şirketi için görselleri manuel olarak etiketliyor (Kaynak: New York Times)

Çok çeşitli dizilerde gerçek verileri yakalamak için donanım ve kamera ekipmanının değiştirilmesi gerektiğinde, bu maliyet oldukça yüksek olacaktır. Bu, yerleşik kameralarla sürekli yeni ürünler yayınlayan teknoloji şirketlerinin karşılaştığı bir durumdur. Her yeni cep telefonu, gözetleme kamerası, robot veya drone, önceki algoritmaların eğitim yöntemlerini bozacak lens parametrelerine sahiptir. Bu algoritmalar genellikle ilk başta soğuktur ve yeni veriler ve doğru parametrelerle yeniden eğitilmeleri gerekir. Fark ne kadar büyükse, yeni ürün o kadar çok veriye ihtiyaç duyar. Örneğin, eski algoritma göz seviyesinde verilerle eğitilirse, yeni bir süpürme robotunun tamamen yeni verilere ihtiyacı vardır. Tüm bu tür durumlarda, sentetik verilerin kullanımı, kameranın dahili ve harici parametrelerini, her uygulama için mükemmel şekilde uygun olan verileri çıkarmak için kolayca dönüştürebilir.

simülasyon

Robotik, sentetik verilerin çok büyük etkiye sahip olabileceği başka bir alandır. Robot uzmanları çok zor sorunları çözmek için çok çalışıyor, ancak aynı zamanda kıt eğitim verilerinin zorluğuyla da karşı karşıya. Pek çok robot eğitimi, kendi kendine keşif yoluyla yeni beceriler öğrenen derin pekiştirmeli öğrenme algoritmalarını kullanır. Bu, iyileştirme için binlerce örnek gerektirir. Robot fonlarının büyük maliyeti nedeniyle, bu sürecin maliyeti çok yüksektir ve gerçek deneylerde insan yinelemesiyle tamamlanması neredeyse imkansızdır. Bununla birlikte, sentetik bir ortamda "aracılar" kullanmak, robotları eğitmek için mükemmel bir sanal alandır.

gizlilik

Sentetik verilerin bir diğer önemli avantajı, gizliliği korumaktır. Genel Veri Koruma Yönetmeliğinin ortaya çıkmasından kaynaklanan herhangi bir aydınlanma varsa, o da hükümetin gizlilik mevzuatının teknoloji endüstrisi üzerinde önemli bir etkiye sahip olduğudur. Teknoloji şirketlerinin topladıkları veri türlerini ve yöntemlerini değiştirmeleri gerekiyor. Günümüzde yüz, tüm vücut ve hatta ev hakkında veri toplamak çok hassas bir konu. Bununla birlikte, insanlar, insanları ve çevreyi çevreleyen büyük zorlukları çözmeye devam etmek istiyorsa, yapay zeka algoritmalarını eğitmek için bu tür verileri toplamaya devam etmeleri gerekiyor. İnsanların evlerinden veri alma eyleminin yerini almak için neden gizlilik riski olmayan çok sayıda gerçek hayat yüzünü veya iç ortam resmini sentezlemiyorsunuz?

DataGen tarafından oluşturulan tamamen sentetik bir iç mekan ortamı örneği (Kaynak: DataGen)

Daha derin yetenekler

Son olarak, sentetik verilerin bir diğer önemli avantajı, elle toplanan ve etiketlenen gerçek verilerden daha fazla bilgi içermesidir. Bir yandan, sentetik veriler mükemmel doğruluk sağlarken, geleneksel manuel olarak açıklanmış veriler her zaman belirli bir derecede hataya sahiptir. Bu, yapay zeka algoritmalarını eğitmek için başlı başına büyük bir değer getiriyor. Bununla birlikte, gerçek süper gücü, 3B ek açıklamalar gibi daha derin bilgiler sağlama yeteneğinde yatmaktadır. Hepimizin bildiği gibi, manuel etiketlemenin doğasında olan sınırlamalar nedeniyle 3D etiketlemenin genişletilmesi zordur. Sentetik verileri kullanarak, tüm 3B geometrik bilgileri, 3B anlamsal meta verileri, fiziksel parametreleri ve hatta gerçek verilerle sağlanamayan diğer kategorileri kapsayabilir. Örneğin, sentetik veriler derinlik, madde, fizik (nesne kütlesi veya kırılma gibi) ve hatta diğer anlamsal parametrelerle ilgili verileri içerebilir. Daha net bir şekilde açıklamak için, aşağıdaki iki somut örneğe bakalım: sentetik insan gözleri ve eşyaları tutan sentetik avuç içi.

Teknoloji şirketleri birçok nedenden dolayı yapay zeka algoritmalarını eğitmek için insan gözü verilerine ihtiyaç duyar: duygu tanıma, AR ve VR teknolojisi ve hatta tıbbi ekipman. Sentetik insan gözü kullanılarak kırmızı, yeşil ve mavi (RGB) renk verileri, kızılötesi veriler, derinlik haritaları, segmentasyon haritaları ve insan gözünün gerçek bakış yönü veya insan gözü üzerinde ve çevresinde çeşitli kırılma parametreleri gibi bazı ayrıntılar elde edilebilir.

Sentetik insan gözü için ek açıklama örnekleri (Kaynak: DataGen)

Nesnelerin elle yakalanması durumunda, yukarıdaki bilgilerin yanı sıra nesne kalitesi ve malzeme verileri gibi anlamsal ortam verileri ve nesnenin yakalanabileceği konum veya nesne gerçekten elle tutulduğunda deformasyon parametreleri de kullanılabilir. Bu ek değişkenler, bir kişinin neyi kaptığını (akıllı mağaza) veya bir nesneyi (robot) nasıl yakalayacağını tanımak için algoritmaları eğitirken çok önemlidir.

İnsan eliyle kavranan nesnelerin ek bölümlemesine bir örnek (Kaynak: DataGen)

Şimdiye kadar, sentetik verilerin veri kusurlarını çözmek ve yapay zeka algoritmalarının öğrenme eğrisini daha da hızlandırmak için mükemmel bir fırsat sağladığı açıkça anlaşılmalıdır. Bununla birlikte, tüm yazılımlar gibi, verileri sentezleme yeteneği yalnızca oluşturduğu modelle senkronize edilir. İyi sonuçlar elde etmek için, sentetik verilerin yüksek kalitede olması ve gerçek dünyaya mükemmel şekilde uygulanabilmesi gerekir. OpenAI araştırma bilimcisi Josh Tobin'in (Josh Tobin), Evan Nisselson tarafından TechCrunch'ta yayınlanan bir makalede söylediği gibi: Doğru bir sentetik veri simülatörü oluşturmak gerçekten çok Zor. Sentetik veriler üzerinde eğitilen model ile gerçek veriler üzerinde eğitilen model arasında doğruluktan 3-10 kat daha fazla hata var. Boşluk hala oradadır. Sentetik veriler birçok görevi iyi bir şekilde yerine getirebilmiştir, ancak son derece doğrudur Koşullar altında, mevcut performansı hala tatmin edici değil. "

İyi haber şu ki, birçok yeni şirket bu sorunu çözmek için çok çalışıyor. Bunların arasında DataGen adında bir İsrail şirketi de var. DataGen ekibi, bilgisayarla görme algoritmalarını eğitmek için büyük ölçekte karakterlerin ve ortamların gerçekçi verilerini oluşturmak için sentetik bir veri oluşturma motoru inşa ediyor. Şirketi ilk öğrendiğimde, en etkileyici şey verilerinin aslına uygunluğuydu. Yazar, sentetik verilerin bir kişinin kafasını karıştırıp bunun doğru olduğuna inanmasını sağlayabiliyorsa, sentetik verilerin sinir ağlarını eğitmek için yeterli olduğuna inanıyor. Ancak, yazar daha sonra durumun mutlaka böyle olmadığını keşfetti.Ekip, kendi verilerini gerçek verilerle karşılaştırdı ve sentetik verilerin gerçek verileri aştığını buldu. Bu, insanların simülasyon ile gerçeklik arasındaki boşluğu doldurma noktasına ulaştığı anlamına geliyor ve bu boşluk, son on yılda sayısız araştırmacı ve teknoloji şirketini geri çekti.

DataGen, insan eli gerçekçi örnekleri oluşturmak için algoritmalar kullanır (Kaynak: DataGen)

Simülasyon ile gerçeklik arasındaki boşluğu doldurmak önemlidir. Sentetik veriler, büyük teknoloji şirketleri ile aynı tür gerçek verileri elde edemeyen küçük girişimler arasındaki rekabeti dengeleyecektir. Daha küçük teknoloji şirketleri, güçlü rakipleri geride bırakan algoritmalar oluşturma ve böylece şiddetli yapay zeka rekabetini yeniden dengeleme becerisine sahip olacak.

Başka bir deyişle, büyük teknoloji şirketleri sentetik verileri gerçek verilerle birleştirecek ve yapay zeka algoritmalarında muazzam ilerlemeye şahit olacak. Sürekli artan bu rekabet, topluma tamamen faydalı olacak çünkü yapay zeka araştırmaları hızlanacak ve daha iyi gerçek sonuçlar üretecek.

Son olarak, ister bir başlangıç şirketi ister büyük bir teknoloji şirketi olsun, sentetik veriler bilgisayar vizyonu ve yapay zeka alanına bir sonraki atılımı getirecek ve insanlık tarihinin gidişatını sonsuza kadar değiştirecek yeniliklere ilham verecek.

Kaynak: Unsplash

Yorum Beğen Takip Et

Yapay zeka öğrenme ve geliştirmenin kuru mallarını paylaşalım

Yeniden yazdırıyorsanız, lütfen arka planda bir mesaj bırakın ve yeniden yazdırma şartnamelerine uyun

Xinsheng Today | Akıllı tuvalet burada! Kapağı otomatik olarak kaldırabilir ve sizinle sesli konuşabilir
önceki
RPA devrimi yeni bir dünyanın kapısını açıyor: Otomasyon 1920'lerde çalışmayı nasıl yeniden tanımlayacak?
Sonraki
İşlevsel programlamanın ikinci baharı mı? Yükselişinin ardındaki nedenleri yeniden ortaya çıkarın
Fetiş: Codethulhu nasıl çağrılır
Core Voice Today | İlk yerli vaka! Beyin-bilgisayar çipi felçli hastaların zihinleriyle kola içmesine ve mahjong oynamasına izin veriyor
2020 Başlangıç çizgisinde kazanın, veri biliminde 5 temel beceri
Yapay zeka ile ilgili olarak, 2020'de test edilmesi gereken on trend
Python'da * args ve ** kwargs nedir? Bu nasıl kullanılır?
Kolaydan zora, altı temsili programlama problemine meydan okumaya cesaretiniz var mı? (Çözüm planı ile)
Core Voice Today | Sonuna kadar zor mu? Apple, iPhone'un kilidini açmak için dava açmaya hazırlanıyor
Bir baş veri sorumlusu, otomasyon yoluyla verilerden değer yaratmayı nasıl başarır?
Yıl sonunda işten çıkarıldı! Tazminat ve yıl sonu ikramiyeleri yalnızca soruna göre dağıtılabilir mi?
Sinir ağlarını gözlemlemeyi öğrenin: tüm model eğitiminde evrişimli katmanın aktivasyonunu görselleştirin
Xinsheng Bugün | İlk yaşayan robot! Bilim adamları kurbağa kök hücrelerinden canlı robotlar yapıyor
To Top