Harari ve Li Feifei arasındaki diyalog: İnsanlığı etkileyen yapay zekanın dört ana sorunu

Kaynak: Temel Okuma

Bu makale hakkında 5400 Word, önerilen okuma 10 dakika.

İkili arasındaki sohbet, yeni bir tür yapay zeka çalışmasının başlangıcı oldu.

Geçenlerde Stanford Üniversitesi'nde iki büyük yapay zeka uzmanı Yuval Harari ve Li Feifei 90 dakikalık bir diyalog kurdular Diyalog sırasında cevaptan çok soru vardı. Söyleşiye WIRED'in genel yayın yönetmeni Nicholas Thompson ev sahipliği yaptı. O gün 1.705 kadar seyirci vardı ve tüm konferans salonu son derece kalabalıktı.

Diyaloğun amacı, yapay zekanın insanlığın geleceği üzerindeki etkisini tartışmaktır.

Kudüs İbrani Üniversitesi'nde tarih profesörü olan Harari, Poronsky Yaratıcılık Ödülü'nü iki kez kazandı. Aynı zamanda, uluslararası çok satan kitaplar olan "A Brief History of Mankind: From Animals to God" ve "A Brief History of Future: A Brief History: From Homo Sapiens to God-Man" kitaplarının da yazarıdır.

Li Feifei, tanınmış bir yapay zeka araştırmacısı, mühendisi ve bilgisayar bilimi profesörüdür. Günümüzde yapay zeka alanında en üretken bilim adamlarından biridir ve derin öğrenme ve bilgisayar vizyonundaki başarıları, dünya çapındaki şirketler ve araştırma ekipleri tarafından kullanılmaktadır. Li Feifeinin en ünlü başarısı, 14 milyon görüntü içeren ek açıklamalı bir veri kümesinin oluşturulmasıdır: Bilgisayarla görme alanında yaygın olarak kullanılan ImageNet.

İkili, insan davranışına hala güvenilip güvenilemeyeceği, yapay zeka çağında demokrasinin neye benzediği ve yapay zekanın nihayetinde insanları çatlatıp geliştirmeyeceği dahil olmak üzere yapay zeka ve teknolojiyle ilgili en önemli konulardan bazılarından bahsetti.

Li Feifei ve Harari sadece konuşma noktalarından ibaret değil, aksine ikisi bizden birçok önemli konu üzerinde düşünmemizi istiyor.Bu konular, yapay zeka teknolojisinin bireyler üzerindeki özgürlük ve seçim dahil, yapay zekanın insan dünyasının hukuku ve ekonomisi üzerindeki etkisini anlatıyor. Ve siyasi sistemin etkisi.

Aşağıdaki dört ana sorun, AI'nın bireyler üzerindeki etkisini çözmeye çalışır:

  • Özgür irade üzerine düşünün: Müşterilere, seçmenlere veya kendi duygularınıza inanmıyorsanız, kime inanıyorsunuz? -Yuval Harari
  • Sevginin ve yapay zekanın sınırlamaları: Aşk kırılabilir mi? Li Feifei
  • AI etkisi altında öz farkındalık: Algoritmalarda özellikle kendisi için önemli olan şeyleri anlamak ve böyle bir dünyada yaşamak ne demektir? -Yuval Harari
  • Yapay zekanın merkezindeki insan: Yapay zeka ve teknolojinin eğitim, araştırma ve diyaloğunu merkez olarak insanlarla yeniden inşa edebilir miyiz? Li Feifei

Diyalogdan sonra, birçok seyirci bir aciliyet hissetti. Bu keskin sorular, AI uygulayıcıları, politika yapıcılar ve halk tarafından düşünmeye değer ve ayrıca tartışılması gereken yapay zekanın önemli bir parçası.

Hızlı hareket etmeniz gerekiyor. Harari, "Mühendisler beklemeyecek. Mühendisler beklemeye istekli olsalar bile, mühendislerin arkasındaki yatırımcılar beklemeyecek. Dolayısıyla bu, fazla zamanımız olmadığı anlamına geliyor."

Özgür irade üzerine düşünme

Müşterilere, seçmenlere veya kendi duygularınıza inanmıyorsanız, kime inanıyorsunuz? Yuval Harari

Diyalog özgür irade ve davranışı derinlemesine ve belirsizliğini araştırıyor ve yüzeysel konuları tamamen ortadan kaldırıyor.

Özgür iradenin geçerliliğini sorgulama argümanı, ilk bakışta alakasız ve teorik bir çaba gibi görünüyor - bu mühendislik disiplinlerinin kapsamının tamamen dışındadır. Aslında, tartışmada bahsedilen zorlukların çoğu, filozofların binlerce yıldır tartıştığı konulara benziyor.

Bu diyalog yeni bir bakış açısı sağlıyor: Harari'nin belirttiği gibi, teknoloji gelişmeye devam ediyor ve insanların yakından ilgilendikleri inançları "felsefi düşünce nedeniyle değil, pratik teknoloji nedeniyle" sorgulanmaktadır.

On yılın çoğunda Harari, özgür irade ve kişisel davranış gibi temel kavramları eleştirdi.

O yalnız değil. Sinirsel aktiviteyi ölçmek için teknolojideki ilerlemeler nedeniyle, birçok nöropsikolojik deney, özgür iradeye yönelik yeni saldırılar başlatıyor.

Bu, birçok üst düzey sinirbilimcinin, insanların karar alma özgürlüğünden şüphe duymasına neden oldu.

Sadece kendi davranışlarımızı etkilemek ve bilgileri işlemek için beynimizde haritalar oluşturuyoruz. Bu nedenle, bilinçli olarak verdiğimizi sandığımız karar aslında sadece bir illüzyondur ve beynin bize yapmamızı söylediğine indirgenebilir. Hannah Cricklow, ünlü bir Princeton sinirbilimci ve "The Science of Destiny" kitabının yazarı

Bilim gelişmeye devam etse de, insanların özgür iradesinin sonuçları manipüle ediliyor - Harari bunu "insanları deşifre etmek" olarak adlandırıyor - toplumda büyük bir risk teşkil ediyor.

Bir kuruluş, "kendisini benden daha iyi bilen bir algoritma oluşturmaya çalışabilir, böylece beni manipüle edebilir, geliştirebilir veya değiştirebilir."

Bu nedenle, amacımız yalnızca nasıl manipüle edileceğine, geliştirileceğine veya değiştirileceğine karar vermek değil, aynı zamanda bu kararları ilk önce kimin alması gerektiğine de karar vermektir.

İnsani güçlendirme olanakları hakkında nasıl seçim yapacağımızı bilmek isteyebiliriz.

"İyileştirmenin iyi mi yoksa kötü mü olduğuna kim karar verebilir? Bu çok derin bir etik ve felsefi mesele ise ve filozoflar bunu binlerce yıldır tartıştıysa, geliştirmenin ne olduğuna nasıl karar verirsiniz? (Bu soru için biz Cevap yok) 'İyi olan nedir?' İyileştirmek için hangi iyi niteliklere ihtiyacımız var? Diye sordu Harari.

Çoğumuz için "geleneksel insancıl fikirlere güvenmek", kişisel seçim ve özgürlüğe öncelik veren doğal bir şeydir. Ancak, uyarıyordu: "Bir teknoloji insanları büyük ölçüde çatlattığında, tüm bunlar başarısız olur."

İnsan davranışı ile özgür irade fikri arasında bir anlaşmazlık varsa, hangi teknolojinin kullanılabileceğini belirlemek zordur. Bu aynı zamanda hayatımızın tüm yönlerini etkiler: neyi seçeriz, ne satın alabiliriz, nereye gidebiliriz ve nasıl oy kullanırız. Teknolojinin kapsamına kimin karar vermesi gerektiği belli değil.

Biyoteknoloji (B), hesaplama gücü (C) ve veri analizi (D) teknolojilerinin ortak gelişimi nedeniyle, bu belirsizlik büyük bir sorunla yüzleşmemize neden olabilir. Harari'ye göre, bu üç teknoloji Hack Hmans'da (HH) kullanıldı.

Matematiksel düşünceye göre bunu B * C * D = HH olarak özetlemiştir.

Modern teknolojiyle, Hacking Humans'ın gerçek olma olasılığı yüksektir.

Li, "Şu anda bu konularda diyalog ve araştırma yapmalıyız." Dedi.

Gerçekten manipülasyon varsa, hükümet, iş ve kişisel özgürlük sisteminin yasal kalması nasıl sağlanır?

Aşk ve yapay zekanın sınırları

Aşk kırılabilir mi? Li Feifei

İnsanlar "saldırıya uğrayabilir" ve davranışları ve inançları manipüle edilebilirse, bu ince kontrolün sınırlamaları nelerdir?

İnsanların az miktarda alt toplamla manipüle edilebileceğini itiraf ediyoruz. Örneğin, ekmeğin taze pişirildiği bir fırına girerken, kim aniden tarçınlı çörek istemez ki? Ancak insan davranışı kısıtlanmalıdır.

Bu noktada, hiç kimse manipülasyonun sınırlarını tam olarak bilmiyor gibi görünüyor.

Bununla birlikte, manipülasyon stratejileri iyi bilinmektedir. Hikayelerini anlatan medya ve film, edebiyat ve televizyon çalışmaları aracılığıyla insanlar, bazı suçluların ve dolandırıcıların bu manipülatif taktikleri benimsediğini ve ikincisinin de cesaretlerinden ve zulümle suçlandığını keşfetti.

Genel olarak, insanlar kolayca manipüle edildiklerine inanmazlar. Aksine, manipüle edilenlerin aptal bir azınlık olduğunu düşünün. Harari şu sonuca vardı: "Manipülasyona karşı en savunmasız insanlar, manipüle edilemeyeceklerini düşündükleri için özgür iradeye inananlardır."

Bu nedenle, sevgiyi sadece manipüle edilebilecek potansiyel bir silah olarak kullanmak mümkün değil, aynı zamanda iyi bir şekilde belgelenmiş. Bu uygulama romantik dolandırıcılıkla aynıdır ve uzun bir geçmişe sahiptir; birçok kişi "uzun mesafeli çiftlerin acil durumları çözmek için aniden bir miktar paraya ihtiyaç duyduklarını" duymuştur. Romantik dolandırıcılıklar, tüm dolandırıcılıklar arasında en "başarılı" olanıdır. Geçen yıl Amerika Birleşik Devletleri'ndeki romantik dolandırıcılık miktarı. 143 milyon ABD dolarına kadar.

Kolombiyalı bir psikolog ve "Güven Oyunu" kitabının yazarı olan Maria Konikova, bize manipülasyonun "ilk önce duygu yoluyla elde edildiğini" hatırlatıyor. "En azından şu an için duyarlılık mantığın yerini alıyor", bu da bizi savunmasız bir duruma sokuyor.

Sonuçta, manipülasyon sistemi yapay zeka olsun ya da olmasın, insanların başkalarıyla bağlantı ve yakınlık kurma yeteneğini manipüle etmek için aşkı deneyimlemesine gerek yoktur. Harari, "Sevgiyle gerçek duyguları manipüle etmek aynı şey değildir" dedi.

Bilim adamları, aşkı küçümsememek temelinde, biyolojik ve nörokimyasal bileşenleri hakkında yeterli araştırma yaptılar.

Bireyler giderek daha fazla bilgi, insan vücudu ve zihni hakkında daha derin bir anlayış, büyük miktarda veriyi analiz etmenin daha düşük ve daha düşük maliyeti ile birleştiğinde, bu kadar büyük miktarda dolandırıcılık olasılığının artmasıyla sonuçlanır, bu nedenle göz ardı edilemez. Bu dolandırıcılıklar, yalnızlık, izolasyon ve başkalarıyla bağlantı kurma arzusu dahil olmak üzere insanların gerçek duygularından yararlanır.

İnsanlar bu tür manipülasyonlara karşı hassastır. Konikova, "Söylenenlere inanmak istiyoruz" dedi.

Veri biliminin ve teknolojik ilerlemenin olası sınırlamaları hakkında çok az insan net bir görüşe sahiptir. Ancak Li Feifei bu konuda çok iyimser, "Umarım insanların bu teknolojiyi anlamaları çok, çok, çok ileri gidebilir. Ancak, bu teknoloji hala emekleme aşamasında." Ancak, devam edin, tehlike giderek daha fazla hale gelecektir. Statüko doğruysa, bu durum ne kadar sürer?

Li Feifei'nin dediği gibi: "Bu potansiyel krizin aciliyetini, önemini ve ölçeğini gerçekten açığa çıkardığınızı düşünüyorum. Ancak bu durum karşısında harekete geçmemiz gerektiğini düşünüyorum."

Yapay zekaya öz farkındalık verin

İnsanların kendileri hakkındaki önemli bilgilerinin algoritmalardan gelmesi ne anlama geliyor? Yuval Harari

Milenyumda insanlar, bir zamanlar beyin olan işin bir kısmını diğer araçlara aktardılar. Yazma nedeniyle belleğe güvenmekten kurtulduk ve iyi kayıt yapabiliyoruz. Navigasyon araçları da önceki efsanelerden ve yıldız haritalarından haritalara ve uydu navigasyon sistemlerine dönüştü.

Ama yapay zeka bize tamamen yeni bir fırsat getirdi, yani insan da teknolojiye öz farkındalık verse ne olacak?

Harari kendini keşfetme hakkında bir hikaye anlattı. Hikayede, yirmili yaşlarına kadar erkeklerden hoşlandığını fark etmediğini itiraf etti. Bu itiraf, kaçınılmaz olarak, insanların kör noktalarını keşfetmek için ne kadar enerji harcadıklarını düşünmelerine neden olur. Dedi ki: "21 yaşında erkekleri sevdiğimi fark ettim. Sonra geriye dönüp bakmaya başladım. Bunu 15-17 yaşımdayken fark etmeliydim" dedi.

Yapay zeka tarihinde bu fikir onlarca yıldır çok büyüleyiciydi.

Bahse girerim robotları yapmamızın nedeni diğer bilim ve sanatlarınkiyle aynıdır, hepsi benliğin önemli bilişini tatmin etmek, varsayımı ve şüpheyi doğrulamak, kısacası benliği yeni bir perspektiften incelemek içindir. Pamela McCordack, ünlü yapay zeka tarihçisi ve "Machine Thinking" kitabının yazarı

Bugün bile, sağlanan verileri çeşitli farklı hastalıkları tespit etmek için kullanıyoruz, bu hastalıkların depresyondan kansere kadar hayatlarımız üzerinde erken ve anlamlı bir etkisi var.

Fiziksel ve zihinsel sağlığa ek olarak, sağlanan bu verilerin geniş ölçekli analizinin ne getireceğini de bilmek istiyoruz. Sonuçta, insan deneyiminin kültür, nesil ve statüden etkilenmeyen yönleri var.

Analiz teorisi ilerledikçe ve mevcut veriler arttıkça, ondan ne tür deneyimler öğrenebiliriz ve bunu arkadaşlarımızla, komşularımızla ve dünyanın diğer tarafındaki hayatları bizimkinden tamamen farklı olan insanlarla paylaşabiliriz.

Ancak hala iki büyük zorluk var.

Algoritma ne kadar karmaşık olursa olsun, hala tehlike vardır; kendimiz hakkında bilgi verdiğimizde, özellikle de sorgulamak ve doğrulamak zorlaştığında, tehlike hala mevcuttur.

Bir şeyi bir algoritma veya biraz yapay zeka olarak süslediğinizde, otorite gibi hareket edecek ve tartışmayı zorlaştıracaktır. Hannah Fry, tanınmış bir matematikçi ve Londra Üniversitesi "Hello World" kitabının yazarı

Algoritma kanser olduğumuzu öngörürse, onu doğrulayabiliriz. Ancak algoritma bize daha belirsiz bilgiler verirse, örneğin popüleriz, o zaman onu ciddiye alma eğiliminde olmalıyız çünkü doğrulamak imkansızdır. Potansiyel olarak yanlış algoritmalara olan yanlış güven nedeniyle, bu da bize farklı kararlar vermemize izin verecektir.

Frye, kişisel yargıları tersine çevirmek için algoritmalara çok fazla güvenebileceğimizi belirtti.

Turist arabasıyla ilgili bir hikayeye tıkladı. Bu arabadaki turistler, hayal ettikleri yere ulaşmak için suyun içinden geçmek istiyor. Yeni kuralları ihlal etmediler ve kurtarılmaları gerekiyor.

Ama kendimizi algılamamız çarpıtmak zorunda kalırsa, bizi kim kurtaracak?

Buna ek olarak, başkalarını kendi deneyimlerimizle bağlamak için verileri kullanmak, algoritmaların kişisel bilgilerimize ilişkin içgörü kazanması için ayrı bir konudur ve bu, diğer katılımcılarla (bizden ziyade) paylaşılabilir.

Harari, "Algoritma sizinle bilgi paylaşmazsa, ancak reklamcılarla veya hükümetle bilgi paylaşırsa ne olur?" Diye merak etti Harari.

Şu anda bile, sosyal medyadaki bilgilerimiz "alakalı" reklamlar sağlamak için kullanılıyor ve bu reklamları görmemiz için bize kimin para ödediğini anlamaya yeni başlıyoruz.

Harari, "Bu iyi bir örnek çünkü zaten oldu" dedi.

Yapay zeka, sevgilimizden istifa edip etmeyeceğimizi tahmin etmek için kullanıldı. Her iki yön de, çoğumuzun özel arkadaşlarımızın (kişisel olmayan kuruluşlar bir yana) bilmesini istemediğimiz kişisel kararlardır.

Li, bir algoritmanın bu şekilde kendi iç gözlemimizi geçip geçemeyeceğinden şüphe ediyor. "Emin değilim!" Dedi, bu bize hala zamanımız varken bu zorlukların bazılarını kasıtlı olarak çözebileceğimizi umdu.

"İnsanların ateşten ürettikleri her teknoloji iki ucu keskin bir kılıçtır. Yaşamları, çalışmaları ve toplumu iyileştirebilir, ancak tehlikeler getirebilir ve yapay zeka bu tehlikelere sahiptir" diye hatırlattı.

Yapay zekanın merkezindeki insanlar

Yapay zeka ve teknolojinin eğitim, araştırma ve diyaloğunu merkez olarak insanlarla yeniden inceleyebilir miyiz? Li Feifei

Tartışma birçok ilgili disiplini içeriyordu: Karşılaştığımız sorunların çoğunu çözmeye başlamak için Li, yapay zekayı insan merkezli bir şekilde yeniden inşa etmek için akıllı ve açık bir öneride bulundu.

Stanford Üniversitesi'nde Lee'nin dönüşümü, boyutu ve kaynağı ne olursa olsun tüm kuruluşlar için işlevsel bir şablon sağlamayı amaçlamaktadır.

Yeni işbirlikçi diyaloglar yürütmek için farklı alanlardan kişileri bir araya getiren Stanford'un insan merkezli yapay zeka araştırma enstitüsünü kurdu.

Kolej aşağıdaki üç hedefe sahiptir:

  • Yapay zekanın ne olmasını istediğimizi dikkatlice düşünün;
  • Multidisipliner öğrenmeyi teşvik edin;
  • İnsani gelişme ve büyümeye odaklanın.
  • Li Feifei üniversiteye şunları söyledi: "Bugün bir çözüm bulmak zorunda değiliz, ancak hümanistler, filozoflar, tarihçiler, siyaset bilimciler, ekonomistler, etikçiler, hukuk bilimcileri, sinirbilimciler, psikologlar yapabiliriz Ev ve diğer birçok bilim insanı bir sonraki bölümde yapay zeka araştırma ve geliştirmesine katılacak. "

    Bu öneri, araştırmacıların ve uygulayıcıların halkın güvenini kazanma ve sürdürme, olumlu bir kullanıcı deneyimi sağlama ve yapay zekayı düşünceli politika önerileriyle değiştirme korkusundan kaynaklanmaktadır.

    AI topluluğu içinde açıkça tanımlanmış hedefler, hepimizin birleşebileceği bir merkeze doğru önemli bir adımdır ve disiplinler arasındaki kesişimler giderek daha çekici hale gelmektedir.

    Li Feifei şunları vurguladı: "İşte bu nedenle, yapay zekanın yeni bölümünün, aynı masada çok taraflı ve işbirliğine dayalı diyalogları yürütmek için hümanistler, sosyal bilimciler, iş liderleri, sivil toplum ve tüm ülkelerin hükümetleri tarafından yazılması gerektiğine inanıyoruz. "

    Ama bir yol ayrımına geldik.

    Aslında, bugün karşılaşılan etik sorunların çoğu mühendislerin kararlarının sonucudur: "Hızlı davranma ve her şeyi bozma" ruhu, sonuçta gerçek başarısızlığa yol açar.

    Teknik bir alanda çalışmak, yaratıcılarının geliştirdikleri teknolojinin etkisini görmelerini engelleyebilir. Aslında, istenmeyen sayısız sonuç vardır: Örneğin, büyük çevrimiçi perakendeciler küçük işletmeleri doldurdu ve şehirlerin yapısını değiştirdi.

    İnovasyon arzusunu ve beraberinde gelen riskleri nasıl dengeliyoruz? Şirketler başarılı olduklarında, yapay zeka ürünlerinin getirdiği yavaşlamayı dikkate almadan büyümelerini sınırlamak için önlemler almalı mıyız?

    Li Feifei, etiğin yazılım disiplinine dahil edilmesi konusunda iyimser.

    "İnsan merkezli yapay zeka, ahlaki çıkarımlar ve insan refahı hakkında düşünmek için Stanford Üniversitesi siyaset bilimi profesörü Rob'un" Bilgisayar, Etik ve Kamu Politikası "gibi dersler almış yeni nesil teknoloji uzmanları tarafından yazılmalıdır."

    Bu hedef ne kadar basit olursa olsun, yapay zeka topluluğundaki birçok kişi bunun aynı zamanda en zorlu olup olmadığını merak edebilir.

    Li Feifei, "Teknik uzmanlar olarak, bu işi tek başımıza başaramayız." Diye uyardı.

    Yapay zeka işiyle uğraşanları, işlerinin sosyal etkilerini ve diğer belirsiz konuları önemsemek istemeyenleri nasıl ikna edebiliriz? Bunları önemsemeli mi? Ve bu bir beklenti mi? Sektördeki her rolün etik bir boyutu olması gerekiyor mu?

    Li Feifei emin değil.

    "Bu konularda etikçiler ve filozoflar dahil olmalı ve bizimle işbirliği yapmalıdır."

    Bu sektörde çalışan vizyonerler onun önemini göz ardı etmeyecek olsa da, gerektirdiği paradigma değişimi en aza indirilmemelidir. Tarihsel olarak, teknik topluluk, teknik olmayan veya teknik olarak birbirine yakın konuları küçümsedi. Peki, yapay zeka topluluğu bu yeni görüşlere saygı duyacak mı yoksa dikkatini geri yayımı anlamayanlara mı çevirecek?

    Hararinin çalışmasının Li Feifeinin müfredatında olup olmadığı sorulduğunda şaka bile yaptı: "Üzgünüm, hiç de değil. Temel derin öğrenmeyi öğretiyorum. Onun kitabında denklem yok."

    Görüşmenin zamanlaması tam olarak doğruydu ve yapay zekanın önümüzdeki on yıllarda bireyler üzerindeki etkisi hakkında önemli yeni sorular ortaya attı. Manipülasyon olasılıklarının sınırlarını tam olarak anlamadan "hackleme" olasılığını azaltmak için Harari bizi öz farkındalığa odaklanmaya çağırıyor:

    "Tüm felsefi kitaplardaki en eski tavsiye kendinizi tanımanızdır. Sokrates, Konfüçyüs ve Buda'dan duyduk: Kendinizi tanıyın. Ama bir fark var ve şu anda rekabetiniz var ... Şirketler ve hükümetler rekabet ediyor. Kendinizi sizden daha iyi tanırlarsa oyun biter. "

    Ancak Li Feifei'nin önerdiği gibi, işbirliğine ihtiyaç var. Bu çalışma, dünya çapında birçok organizasyonda şekillenmeye başlıyor.

    Harari ve Li Feifei arasındaki diyalog, yeni bir yapay zeka çalışmasının başlangıcı oldu.

    "Hümanistler ve teknoloji uzmanları arasında bir diyalog açtık ve daha fazla diyalog görmeyi umuyorum" dedi.

    İlgili Bağlantılar:

    https://towardsdatascience.com/yuval-noah-harari-and-fei-fei-li-on-ai-90d9a8686cc5

    Editör: Huang Jiyan redaksiyonu: Lin Yilin
    - Bitiş -

    Tsinghua-Qingdao Veri Bilimi Enstitüsü'nün resmi WeChat kamu platformunu takip edin " THU Veri Pastası "Ve kız kardeş numarası" Veri Pastası THU "Daha fazla ders avantajı ve kaliteli içerik elde edin.

    Zhangjiajie, Hunan: Esintili Dağ Yogası
    önceki
    Handan, Hebei: Öne çıkan üreme zengin olmanın yolunu açıyor
    Sonraki
    Yuyao, Zhejiang: Renkli Bayberry
    Fangxing: Veri güvenliği için risk tabanlı sürekli yönetişim sistemi
    Changxing, Zhejiang: Yangmei ormanındaki kırmızı yelekler, çiftçilerin gelirlerini artırmalarına ve mutluluğun tadını çıkarmalarına yardımcı oluyor
    Sihong, Jiangsu: Çarpıcı bir patates hasadı
    Yichang, Hubei: Huangbai Nehri sınıraşan havza yönetimi sorununu çözmek için birden fazla önlem
    Dijital düşünme, dijital tuzaklar ve 0.01 atılım
    America's Cup | Uruguaylı "dörtlüsü" hala güzel
    Kirazlar olgunlaştı
    Endüstriyel büyük veriler için nesne depolama teknolojisi uygulaması
    "Resmi onay: Robin Li AI'dır"
    Pekin, rüzgar-kum-tehlikeli alanları baştan sona kontrol ediyor, eski "ıssız sahil çukurları" vahaya dönüşüyor
    Büyük veri @ siz! "Çifte yenilik" yükseltmesinin en önemli özelliği burada
    To Top