Python'da büyük metinlerden konular nasıl çıkarılır?

Yazar: Wang Shuyi

Qubit, düzenleme ve yayınlama yetkisine sahiptir

İşiniz ve eğitiminizdeki aşırı bilgi yüklemesinden hiç şikayet ettiniz mi? Sizin için çok sayıda makale okumanın ve farklı konuları ve bunlara karşılık gelen anahtar kelimeleri çıkarmanın bir yolu var, böylece konuşurken ve gülerken ona bakabilirsiniz.

Bu makale, 1.000'den fazla metinden konuları ayıklamak için Python kullanır ve sizi adım adım denetimsiz makine öğrenimi LDA yöntemlerinin cazibesini deneyimlemeye götürür. Denemek ister misin

Batık

Hemen hemen her modern insan aşırı bilgi yüklemesinin acısını yaşadı. Makaleleri okuyamıyorum, müzik dinleyemiyorum veya video izleyemiyorum. Ancak, gerçekliğin baskısı kolayca pes etmenizi engeller.

Yüksek lisans öğrencisiyseniz, ders kitapları ve makaleler okumanız gereken şeylerdir. Artık WeChat, Weibo, Get App, Read More, Douban Read, Kindle gibi çeşitli okuma kanalları ve RSS'ye abone olduğunuz birçok blog var ... Durum daha ciddi hale geldi.

Veri bilimiyle çok ilgilendiğiniz için, çok sayıda veri bilimi WeChat resmi hesabına abone oldunuz. Çok çalışkan olmanıza rağmen hala birçok makaleyi özlediğinizi biliyorsunuz.

Python tarayıcı sınıfını öğrendikten sonra, kendi ejderha öldürme tekniğinizi denemeye karar veriyorsunuz. Tarayıcıların gücüne güvenerek, tüm veri bilimi genel makalelerini toplamayı planlıyorsunuz.

WeChat genel hesap makalelerinin erişim yöntemlerini dikkatlice analiz ettiniz ve bir anahtar kelime listesi oluşturdunuz. Sogou arama motorunun özelliklerini akıllıca kullanarak, kendi tarayıcınızı yazdınız ve çalıştırmak için gece yarısı başarıyla buluta koydunuz.

Mutlu, heyecanlı ...

Ertesi günün sabahı, gün ışığı sadece aydınlandığında, yeterince uyuyamıyorsanız, emeklemenin sonuçlarını görmek için heyecanla kalkacaksınız. Zaten 1000'den fazla var! Kendinizden geçmişsiniz, csv formatında dışa aktarın, yerel makinenize kaydedin ve göz atmak için açın.

10 dakikalık heyecandan sonra sakinleştiniz ve kendinize iki önemli soru sordunuz.

Bu makaleler okumaya değer mi?

Bu makaleleri okuyabilir miyim?

Bir veri bilimi resmi hesabını okumak için ortalama 5 dakikaya ihtiyacınız var. Bu 1000'den fazla makale ... bir hesap makinesi çıkarır ve dikkatlice hesaplarsınız.

Bu otelde toplanan makaleleri okuduktan sonra uyumazsanız 85 saatinizi alacaktır.

Okuduğunuz 85 saat boyunca, birçok yeni veri bilimi halka açık hesabı ortaya çıkmaya devam edecek.

Metnin içeriğinden neredeyse bunalmış gibi hissediyorsunuz, çok nefessiz ...

Python'u bu kadar uzun süre öğrendikten sonra, şunu düşünmelisiniz: Analiz etmek için otomatik araçlar kullanabilir miyim?

İyi haber, cevap evet.

Ama ne tür araçlar?

Kendi cephaneliğinize baktığınızda kelime bulutları, duygu analizi ve karar ağaçları buldunuz.

Ancak, yukarıdaki silahların hiçbiri aşırı bilgi yüklemesi ile başa çıkmanıza yardımcı olmaya uygun görünmüyor.

Kelime Bulutu Kaç tane yapmayı planlıyorsunuz? Tüm makaleler tek ise, tüm makalelerin içeriği karışık, anlamsız olacaktır - çünkü bu makalelerin veri biliminden bahsettiğini biliyorsunuz! Her makale bir kelime bulutu olarak yazılırsa ve 1.000'den fazla resme göz atılırsa bir faydası yokmuş gibi görünüyor.

Bilgi ve beceri kazanmak için veri bilimi kamu hesabı makalelerini okuyorsunuz Metinde yer alan duyguları analiz etmek işe yaramaz görünüyor.

Karar ağaçları sınıflandırma için kullanılabilir, evet. Ancak ihtiyaç duyduğu giriş bilgileri Yapılandırılmış nın-nin Sahip olmak Verileri işaretleyin, elinizde tuttuğunuz metin yığını Yapılandırılmamış nın-nin Hayır Verileri işaretleyin.

Tüm silahlar yanlış ateşlendi.

Tamam. Bu makale, veri bilimi cephaneliğinize yeni bir silah koymanıza yardımcı olur. Başa çıkabilecek şey, büyük miktarlarda yapılandırılmamış işaretsiz veridir. Makine öğreniminin sınıflandırılmasında, denetimsiz makine öğrenimi kategorisine girer. Spesifik olarak, kullanmamız gereken yönteme konu modeli veya konu çıkarma denir.

tema

Model yapmak istediğimiz için, ne tür bir model inşa edeceğimizi bulmamız gerekiyor.

Wikipedia'nın tanımına göre, konu modeli, makine öğrenimi ve doğal dil işleme alanlarında bir dizi belgede soyut konuları keşfetmek için kullanılan istatistiksel bir modeli ifade eder.

Bu tanımın kendisi biraz soyut görünüyor, bir örnek alalım.

Wikipedia'da da sevimli bir köpek yavrusu hakkında böyle bir anlatı var.

Abo (Bo; 9 Ekim 2008 -), 44. Amerika Birleşik Devletleri Başkanı Barack Obama'nın evcil köpeğidir ve Obama ailesinin bir üyesidir. Abo, kısırlaştırılmış bir erkek siyah uzun tüylü Portekiz su köpeğidir. Obamaların köpeği yoktu çünkü en büyük kızı Maria köpeklere alerjisi var. Ancak yıllar geçtikçe Beyaz Saray sahiplerine köpek bakma geleneğini devam ettirmek için ilk aile Beyaz Saray'a girdikten sonra aylarca çeşitli köpek ırklarını gözlemleyerek geçirmiş ve özel olarak daha az saç dökülmesine sahip hipoalerjenik Portekiz su köpeğini seçmiştir. köpek.

Gelin şu sevimli köpek fotoğrafına bir göz atalım:

İşte soru geliyor, bu makalenin konusu nedir?

"Köpek!"

Bir dakika, başka bir soru. Bir kullanıcının bu makaleyi okuduğunu ve çok ilgilendiğini varsayalım. Onun ilgisini çekebilecek daha fazla makale tavsiye etmek ister misiniz? Aşağıdaki iki paragraftan hangisi daha uygundur?

Seçenek 1:

Afgan Tazısı bir tazı ve en eski köpek türüdür. Afgan Tazısı, son halkada kıvrılmış kuyruğu ile kalın, narin ve ipeksi bir görünüme sahiptir. Afgan tazı, İran'da, doğu Afganistan'ın soğuk dağlarında yaşıyor.Afgan tazı, başlangıçta tavşan ve ceylan avlamak için kullanılıyordu. Afgan Tazısı için diğer isimler arasında Balkhtarzi Kutch Hound, Hound, Baluchhound, Kabil Hound veya African Hound bulunur.

Seçenek 2:

Obama, 1989 yazında, Sidley Austin Hukuk Bürosu'nda yaz öğrencisi iken o zamanlar zaten avukat olan Michel Robinson ile tanıştı. İkisi 1992'de evlendi ve iki kızı var - en büyük kızı Maria, 1999'da Chicago'daki Chicago Üniversitesi Tıp Merkezi'nde doğdu ve en küçük kızı Sasha, 2001'de Chicago Üniversitesi Tıp Merkezi'nde doğdu.

Size 30 saniye verin, düşünün. Cevabın ne

Cevabım emin değil.

İnsanlar doğal olarak karmaşık sorunları basitleştirmeyi severler. Her şeyi, tıpkı bir eczanedeki çekmeceler gibi belirli, müdahale etmeyen kategorilere ayırmak için sabırsızlanıyoruz. Daha sonra gerektiğinde, ilgili çekmeceden bir şeyler almanız yeterlidir.

Bir kariyer gibi. "Üç yüz altmış satır" derdik. Rastgele birini çıkarın ve onu satırlardan birine yerleştirelim.

Artık işe yaramıyor, karşı örnek sözde "eğik çizgi gençliği" dir.

Konu da o kadar net değil. Yavru Bo'yu tanıtan makale uzun olmasa da, tek bir konu tam olarak ele alamaz.

Kullanıcı bu makaleyi yavru köpekleri sevdiği için okursa, o zaman ona 1. seçeneği öneriyorsunuz, ancak kullanıcı Obama'nın ailesine odaklanırsa, 1. seçenek 2. seçenekle karşılaştırılmaz. Çok uygun.

Konuyu tek kelimeyle tanımlama girişiminden vazgeçmeli ve bunun yerine bir konuyu tanımlamak için bir dizi anahtar kelime kullanmalıyız (örneğin, "Obama" + "evcil hayvan" + "köpek" + "ilk aile").

Bu modda, aşağıdaki seçenek 3 öne çıkabilir:

İngiliz "Daily Mail" raporuna göre, kısa süre önce Amerika Birleşik Devletleri'nde bir adam, Başkan Obama'nın evcil köpeği Bo (Bo) 'yu kaçırmaya çalıştı ve Kuzey Dakota'dan Washington'a 2.000 kilometreden fazla araba sürmekten çekinmedi. Büro memurları tutuklandı. Obama'da şu anda iki Portekiz su köpeği var, Bo ve Sunny.

Bundan bahsetmişken, muhtemelen konu çıkarmanın amacını anlıyorsunuz. Ancak çok sayıda makale karşısında, benzer makaleleri nasıl bir araya getirebilir ve birleştirilmiş konuları açıklayan önemli anahtar kelimeleri nasıl çıkarabiliriz?

Konu çıkarma için birkaç yöntem vardır. En popüler olanı Latent Dirichlet tahsisi veya kısaca LDA olarak adlandırılır.

LDA'nın ilgili ilkeleri bu makalenin sonunda yer almaktadır. Bir konu çıkarma alıştırması yapmak için Python kullanalım. İlkelerle ilgileniyorsanız, daha fazla okumak isteyebilirsiniz.

hazır

Hazırlıktaki ilk adım Anaconda paketini kurmaktır. Ayrıntılı işlem adımları için lütfen "Python Bir Kelime Bulutu Olarak Nasıl Kullanılır" makalesine bakın.

Makale bağlantısı:

WeChat genel platformundan taranan datascience.csv dosyası da indirilebilir. İndirme işleminin tamamlanıp tamamlanmadığını görmek için Excel ile açabilirsiniz.

İndirme: {link:

https://s3-us-west-2.amazonaws.com/notion-static/8426b8d7145a4c898566145621b4b906/datascience.csv

Her şey normalse, lütfen csv dosyasını çalışma dizini demomuza taşıyın.

Sisteminizin "terminaline" (macOS, Linux) veya "komut istemine" (Windows) gidin, çalışma dizini demomuzu girin ve aşağıdaki komutları yürütün.

İşletim ortamı yapılandırılmıştır.

Terminali veya komut istemini yazın:

Jupyter Notebook düzgün çalışıyor. Şimdi kodu resmi olarak yazabiliriz.

Kod

Jupyter Not Defterinde yeni bir Python 2 not defteri oluşturalım ve buna konu-model diyelim.

Tablo verilerini işlemek için hala veri çerçevesi aracı Pandas'ı kullanıyoruz. Önce ara.

Ardından veri dosyamızı datascience.csv okuyun ve kodlamasının Çince GB18030 olduğunu ve bu kodlamanın varsayılan olarak Pandas tarafından ayarlanan kodlama olmadığını unutmayın, bu nedenle hatalı hataları önlemek için kodlama türünün burada açıkça belirtilmesi gerekir.

Okumanın doğru olup olmadığını onaylamak için veri çerçevesinin ilk birkaç satırına bir göz atalım.

Sonuçlar aşağıdaki gibidir:

Sorun değil, ilk birkaç satırın tüm sütunları doğru bir şekilde okunuyor ve metin açıkça normal. Verilerin tamamen okunup okunmadığını doğrulamak için veri çerçevesinin uzunluğuna bakarız.

İnfazın sonucu:

Satırların ve sütunların sayısı, taradığımız sayı ile tutarlıdır. Geçer.

Daha sonra önemli bir iş kelimesi segmentasyonu yapmalıyız. Bunun nedeni, her makalenin anahtar kelimelerini çıkarmamız gerektiğidir. Çince, kelimeleri bölmek için boşluk kullanmaz. Burada "kekemelik kelime segmentasyonu" aracını kullanıyoruz. Bu aracın belirli tanıtımı ve diğer kullanımları için lütfen "Çince Kelime Bölümleme için Python Nasıl Kullanılır?" "Bir makale.

Makale bağlantısı:

Önce jieba kelime segmentasyon paketini diyoruz.

Bu sefer işlememiz gereken şey tek bir metin verisi değil, 1000'den fazla metin verisi, bu yüzden bu çalışmayı paralel hale getirmemiz gerekiyor. Bu, önce tek bir metnin kelime bölümlemesini ele almak için bir işlev yazmayı gerektirir.

Bu işlevle, veri çerçevesindeki tüm metin (gövde) bilgilerini toplu işlemek için sürekli olarak çağırabiliriz. Elbette bu işi yapmak için kendiniz bir döngü yazabilirsiniz. Ancak burada daha verimli uygulama işlevini kullanıyoruz.

Aşağıdaki kod parçasının yürütülmesi kısa bir süre alabilir. lütfen sabırla bekleyin.

Yürütme sırasında aşağıdaki istemler görünebilir. Önemli değil, sadece görmezden gelin.

Yürütmeden sonra, metnin doğru şekilde bölümlere ayrılıp ayrılmadığını kontrol etmemiz gerekir.

Sonuçlar aşağıdaki gibidir:

Kelimeler boşluklarla ayrılmıştır. Daha sonra, metnin vektörleştirilmesi adı verilen önemli bir iş yapmamız gerekiyor.

Bu isimden korkmayın. Anlamı aslında çok basit. Bunun nedeni, bilgisayarın yalnızca Çince'yi değil, İngilizceyi bile tanıması ve yalnızca sayıları tanımasıdır. Yapmamız gereken şey, makaledeki anahtar kelimeleri özelliklere (sütunlara) dönüştürmek ve ardından her makaledeki anahtar kelime oluşumlarının sayısını saymaktır.

Burada iki cümle varsa:

Oyunu seviyorum.

Oyundan nefret ediyorum.

Ardından aşağıdaki özellikleri çıkarabiliriz:

ben

Aşk

nefret

oyun

Daha sonra yukarıdaki iki cümle aşağıdaki tabloya dönüştürülür:

İlk cümle olarak ifade edilir, ikinci cümle 'dir. Buna vektörleştirme denir. Makine bunları anlayabilir.

Prensip açık, ilgili yazılım paketini tanıtalım.

İşlenmiş metinler, çok sayıda kelime içerebilen tüm WeChat resmi hesap makaleleridir. Tüm kelimelerle uğraşmak istemiyoruz. Bir yandan işlem süresi çok uzundur ve diğer yandan çok nadir kullanılan bu kelimelerin konu çıkarımımız için çok az anlamı vardır. Yani burada bir kısıtlama, metinden yalnızca en önemli 1000 özellik anahtar kelimesini çıkarın ve sonra durun.

Daha sonra, anahtar kelime çıkarma ve vektör dönüştürme sürecini başlatıyoruz:

Bu noktaya kadar hiçbir şey olmadı. Çünkü programdan herhangi bir çıktı yapmasını istemedik. Daha sonra LDA'nın büyük numarasını yayınlayacağız. Önce yazılım paketini tanıtın:

Ardından konu sayısını yapay olarak belirlememiz gerekiyor. Bu gereklilik birçok insanı şaşırttı - bu makale dizisinde kaç konu olduğunu nasıl bilebilirim? !

Merak etmeyin. LDA yöntemini uygulamak için konu sayısını belirtmek (veya buna saçma demek) gerekir. Makaleyi sadece kabaca birkaç kategoriye ayırmanız gerekiyorsa, sayıyı küçültebilir, aksine çok detaylı konuları belirleyebilmek istiyorsanız konu sayısını artırabilirsiniz.

Bölümün sonuçlarından memnun olmadığınızı düşünüyorsanız, optimize edilecek konuların sayısını yinelemeye ve ayarlamaya devam edebilirsiniz. Burada önce denemek için 5 kategori belirledik.

1.000'den fazla vektörleştirilmiş makalemizi LDA'ya atın ve temaları mutlu bir şekilde bulmasına izin verin.

İş yükünün bu kısmı ağırdır, program bir süre çalışacaktır ve Jupyter Notebook, yürütme sırasında geçici olarak yanıt vermeyebilir. Bir süre bekleyin, endişelenmeyin.

Program sonunda bittiğinde, aşağıdaki istem mesajını göreceksiniz:

Ancak yine de hiçbir çıktı yok. Ne tür bir tema arıyor?

Temanın kesin bir adı yoktur, ancak bir dizi anahtar sözcükle tanımlanmıştır. Her konudaki ilk birkaç anahtar kelimeyi görüntülemek için aşağıdaki işlevi tanımlarız:

Fonksiyonu tanımladıktan sonra, her konu için ilk 20 anahtar kelimeyi geçici olarak çıkarıyoruz.

Aşağıdaki komut, sırayla her konunun anahtar kelime tablosunun çıktısını almamıza yardımcı olacaktır:

Uygulama etkisi aşağıdaki gibidir:

Bu 5 konu arasında, konu 0'ın esas olarak veri bilimindeki algoritmalar ve teknolojilere odaklandığı, 4. konu ise açıkça daha çok veri bilimi uygulama senaryolarına odaklandığı görülebilir.

Kalan konular nasıl özetlenebilir? Düşünme sorusu olarak, bunu düşünmek için zaman ayırmanızı size bırakıyorum.

Bu noktada LDA, tema çıkarma işlemini tamamlamamıza başarıyla yardımcı oldu. Ama çok memnun olmadığınızı biliyorum çünkü sonuçlar sezgisel değil.

Daha sezgisel hale getirelim. Aşağıdaki komutları uyguladığınızda ilginç şeyler olacaktır.

Evet, aşağıdaki resmi göreceksiniz ve bu hala etkileşimli dinamik bir resim.

Şeklin sol tarafındaki daireler farklı konuları temsil eder ve dairenin boyutu, her konudaki makale sayısını temsil eder.

Şeklin sağ tarafında, en önemli (en sık) 30 anahtar kelimenin bir listesi bulunmaktadır. Herhangi bir konunun üzerine gelmediğinizde, bu 30 anahtar kelimenin metnin tamamından çıkarılan en önemli 30 anahtar kelimeyi temsil ettiğini unutmayın.

Farenizi 1 numaranın üzerine getirirseniz:

Sağdaki anahtar kelime listesi hemen değişecek ve kırmızı renk, mevcut konu altındaki her bir anahtar kelimenin sıklığını gösterir.

Yukarıdakiler, konu sayısının 5 olduğu varsayıldığı durumdur. Peki ya konu sayısını 10'a ayarlarsak?

Tüm kodu yeniden çalıştırmanıza gerek yoktur, sadece aşağıdaki satırları çalıştırın. Bu programın bir süre daha çalışması gerekiyor, lütfen sabırlı olun.

Program bize 10 başlık altında en önemli 20 anahtar kelimeyi çıkarır.

Görsel çıktı eklidir:

Tema 10'a ayarlandığında, bazı ilginç fenomenlerin ortaya çıktığını hemen göreceksiniz - makalelerin çoğu sağ üstte gruplar halinde görünüyor ve 2 küçük kabilenin (8 ve 10) izole edilmiş gibi görünüyor. Burada 8 numaralı konuya bir göz atalım ve anahtar kelime bileşimini görelim.

Yüksek frekanslı anahtar kelimelerin açıklamasından, bu konunun esas olarak politika, yasa ve yönetmelik konularını tartıştığını tahmin edebiliriz.Teknoloji, algoritmalar ve uygulamalar konularıyla bu kadar uyumsuz olması şaşırtıcı değildir.

Açıklama

Önceki makale, konu çıkarma işlemini adım adım yapmak için LDA'yı kullanmanıza yardımcı olur. Başarı duygusu, değil mi? Ancak, açıklamaya değer iki küçük konu var.

Her şeyden önce, bilgi edinme endüstrisindeki uzmanlar, anahtar kelime listesini şimdi gördüklerinde gülüyorlar - bu çok kaba!

Aslında Çince durdurma kelimelerini kaldırmadı! Evet, sorunsuz göstermek için burada birçok detayı gözden kaçırdık. Pek çok içerik önceden ayarlanmış varsayılan parametreleri kullanır ve Çince durma kelimesi ayar bağlantısını tamamen yok sayar, bu nedenle "bu", "eğer", "olabilir" ve "eşittir" gibi durdurma kelimeleri sonuçlarda sallanarak görünecektir. . Ama önemli değil, tamamlama mükemmellikten çok daha önemli. Sorunu bilmek, daha sonra iyileştirmek kolaydır. Çince durdurma kelimesi kaldırma bağlantısının nasıl ekleneceğine dair bir makale yazma fırsatım var.

Ayrıca 5 veya 10 konu da olsa optimum sayı seçeneği olmayabilir. Program geri bildiriminin sonuçlarına göre denemeye devam edebilirsiniz. Aslında, bundan çok daha fazla ayarlanabilir parametreler var. Tüm parametreleri anlamak istiyorsanız, aşağıdaki "ilke" bölümünü okumaya devam edebilir ve ilgili talimatları ve yönergeleri bulmak için resmi takip edebilirsiniz.

prensip

Önceki makalede, ilkeyi tanıtmadık, ancak LDA'yı bir kara kutu olarak gördük. Prensibi tanıtmak istemediğimden değil, ama çok karmaşık.

Size formüllerden birini göstermeniz yeterlidir ve karmaşıklığına bir göz atabilirsiniz.

Size bir sır vereyim: Bilgisayar bilimi ve veri bilimi üzerine akademik derslerde, konuşmacılar LDA'yı tanıttığında, genellikle doğrudan ana bölümü atlarlar.

Neyse ki, konuları ayıklamak için LDA'yı kullanmadan önce prensibi tamamen anlamanıza gerek yok.

Bu, araba kullanmayı öğrenmek gibi, nasıl hızlanacağınızı, fren yapacağınızı, vites değiştireceğinizi ve yönlendireceğinizi bildiğiniz sürece, arabayı yolda sürebilirsiniz. Tüm sınavları geçseniz ve ehliyet alsanız bile, motorun veya elektrik motorunun yapısını ve çalışma prensibini gerçekten anlıyor musunuz (saf bir elektrikli araba kullanıyorsanız)?

Ancak sadece LDA'nın ilkelerini anlamak istiyorsanız, öğrenmesi çok zor olmayan 2 kaynak tavsiye ederim.

İlki öğretici slayt gösterisidir. slideshare, öğreticiler bulmak için iyi bir yerdir. Bu eğitimde 20.000'den fazla görünüm vardır ve içerik basit bir şekilde açıklanmıştır ve çok nettir.

Eğitim bağlantısı:

https://www.slideshare.net/clauwa/topic-models-lda-and-correlated-topic-models?next_slideshow=1

Ama benim gibi görsel öğrenen biriyseniz bu Youtube videosunu izlemenizi tavsiye ederim.

Video adresi:

https://www.youtube.com/watch?v=BuMu-bdoVrU

Konuşmacı Continuum Analytics'ten Christine Doig. Kullandığımız Python paketi Anaconda şirketin ürünüdür.

Christine tarafından kullanılan LDA ilke açıklama modeli, bu klasik LDA makalesindeki model diyagramı değildir (çoğu insan bu resmi anlamanın kolay olmadığını düşünür):

Çeşitli belgeleri derinlemesine okuduktan sonra model şemasını özetledi:

LDA'yı açıklamak için bu modeli kullandığınızda, hemen bir netlik duygusu hissedeceksiniz.

Mutlu bir keşif yolculuğu dilerim!

tartışmak

Bu makalede bahsedilen LDA algoritmasına ek olarak, konu çıkarma için hangi makine öğrenimi algoritmalarını biliyorsunuz? Konu modelinin bilgi erişiminde ve diğer alanlarda başka hangi senaryolara uygulanabileceğini düşünüyorsunuz? Herkesle paylaşmak için bir mesaj bırakmaya hoş geldiniz, birlikte değiş tokuş edelim ve tartışalım.

yazar hakkında

Wang Shuyi : Hayat boyu öğrenen, üniversite öğretmeni. Biraz yazma, konuşma, Python ve makine öğrenimi bilgisi. Kişisel kamu numarası: Yushu Zhilan.

Daha fazla yazar makalesinin kilidini açmak için sol alt köşedeki "Orijinali Oku" yu tıklayın.

Bitiş

Bir uyarı

Qubit'ler, otonom sürüşle ilgili alanlarda çalışan öğrenciler veya ön saflardaki mühendisler için otonom bir sürüş teknolojisi grubu oluşturuyor. Li Kaifu, Wang Yonggang, Wang Naiyan, Wang Tao Grupta büyük sığırları bekliyorlar. Herkese qubit WeChat (qbitbot) eklemeye hoş geldiniz, ha'ya katılmak için başvurmak için "otomatik sürüş" diyor ~

İşe Alım

Qubit, editörleri, muhabirleri, operasyonları, ürünleri ve diğer pozisyonları işe alıyor ve çalışma yeri Pekin, Zhongguancun'da bulunuyor. İlgili ayrıntılar için lütfen şu yanıtı verin: resmi hesabın diyalog arayüzünde "İşe Alım".

Chengdu İlk Ring Mozi Köprüsü Tüneli Projesi ana inşaat aşamasına girdi
önceki
70 yaşındaki Lippi savaşı yönetmek için puro içti, 72 yaşındaki Hiddink Olimpiyat Oyunlarına karşı oynadı, bir veri daha da çarpıcı
Sonraki
Rockets, sezon başında beş hedefine kaç kişi ulaştı? İkisi işe yaramaz olmaya kararlı ve diğer üçü de çok asılıyor!
China Fire Fighting PlayerUnknown's Battlegrounds: Orange Battlefield! Oyuncu: Ateş oyununa katılmak için tavuk yemek mi?
BYD'nin yeni arabası listelendi, arka arkaya üç ok ana akıma geri dönmeyi umuyor
Lippi taktikleri düşünmek için puro içiyor Zheng Zhi yokken orta saha oyuncusunu nasıl kontrol ediyor? Wu Xi'nin sözleri hayranlara bir dip veriyor
Resmi duyuru! Beş takım acele ediyordu, Thunder başka bir güçlü destek kazandı, Westbrook George harekete geçirildi ve eksiklikler telafi edildi!
Fotoğraflar: Guang'an, Wusheng'deki "Olimpik" BMX üssünü aydınlatıyor
"Resmi" tarz muhteşem bir şekilde döndü, yeni nesil Audi A6 daha genç
Rockets, yaralanmalar için en çok ağır takviye kuvvetlerine güvenerek yine kötü haberler gönderdi. Yaralanmaların zamanlaması çok ölümcül oldu ve ayarlama yapmak için çok geçti.
Qin Sheng ve karısı yurtdışına tatile gittiler, tatlı karısı mutlu bir şekilde köpek maması serpti Hayranlar: Resmi dönüşü dört gözle bekliyorum
Yolculuk eski mi? Yapımcı dokunaklı cevap verdi: Hayır, 13 yıl daha savaşabiliriz
Hislerim için 200 milyon atıyorum, Sweet'e 100 beğeni vereceğim
Amazon Alexa'nın arkasındaki kadın: Ben bir liberal sanat öğrencisiyim, nasıl olur da yapay zeka ekibine liderlik ederim?
To Top