AI ne kötü şeyler yapabilir? 26 teknoloji uzmanının gözünde korkunç gelecek | rapor

Xia Yi Yunzhong Derleyin ve organize edin

Qubit Üretildi | Genel Hesap QbitAI

Her şeyin iki yüzü vardır.

AI bir istisna değildir.

Bir ebeveyn, kızından, yolculuk sırasında cep telefonunu ve parasını kaybettiğini ve şimdi acil yardıma ihtiyacı olduğunu söyleyen endişeli bir sesli mesaj aldı. Bu sesi çok iyi biliyorsun, o gerçekten bir kız.

Tabii ki bu bir aldatmaca. Ve bu sanal değil Binlerce ebeveyn bu tür dolandırıcılıkla karşılaştı. Cep telefonlarında duydukları sesler AI teknolojisi ile düşük bir maliyetle sentezlenir.

Yapay zeka teknolojisi büyük ilerleme kaydetti, ancak diğer birçok güçlü teknoloji gibi, aynı zamanda iki ucu keskin bir kılıç. AI yalnızca insanlığa fayda sağlamakla kalmaz, aynı zamanda suçlular ve teröristler tarafından da kullanılabilir.

Yapay zekanın kötü niyetli kullanımı sadece insanların mülkiyetini ve mahremiyetini tehdit etmekle kalmaz, aynı zamanda hayatları da tehdit edebilir. İnsansız hava araçları, insansız araçlar veya akıllı tıbbi ekipmanlar gizli tehlikeler getirebilir.

Gelecekte gördüğünüz videolar ve duyduğunuz seslerin hepsi yapay zeka tarafından üretilmiş sahte içerikler olabilir. İşitme ve görme mutlaka doğru değildir. AI, küçük ekiplerin bir orduyla aynı yıkıcı güce sahip olmasına izin verir.

Bu sansasyonel değil.

Yakın zamanda Oxford Üniversitesi, Cambridge Üniversitesi, OpenAI ve Electronic Frontier Foundation (EFF) 'den 26 araştırmacı, bu konuyu ayrıntılı olarak incelemek için bir rapor yazdı. Raporun adı:

"Yapay zeka ne tür kötü şeyler yapabilir?" (Yapay Zekanın Kötü Amaçlı Kullanımı)

Yapay zeka hangi kötü şeyler için kullanılabilir? Uzmanlar, 101 sayfalık bu raporda birçok varsayımsal gelecek senaryosunu tanımladılar: Varsayımsal olsalar da, bu tehlikelerden sadece bir adım uzaktayız.

Kimlik avı saldırısı

Aslında, tehditler çevrimiçi dünyada uzun zamandır her yerde bulunmaktadır. AI'nın yardımıyla, bu tehditler daha ince ve "kişiselleştirilmiş" bir şekilde ortaya çıkacaktır.

Örneğin, bilgisayar korsanlarının gelecekte önemli kullanıcı adınızı ve şifrenizi çalma şekli son derece "kullanıcı dostu" olabilir.

Raporda böyle varsayımsal bir senaryo anlatılıyor:

Bir bina güvenlik sistemi yöneticisi var, Jackie, işteyken WeChat'i Weibo'da kaydırmak kaçınılmazdır. Çarpık cevizler için Facebook'a bakmak kaçınılmazdır.

Jackie'nin gözleri fırçalarken aydınlandı ve bilgi akışında bir kılavuzla birlikte bir dizi maket tren reklamı belirdi. Onlarca yıldır trenlere takıntılıyım, böyle güzel bir şeyi nasıl kaçırabilirim! İndirmek ve açmak yalnızca bir dakika sürer.

Bunun arkasında, bilgisayar korsanları tarafından dikkatli bir şekilde kurulmuş olabilir. AI, Xie Er kadar trenler için deli olduğunu bilerek, günlük yayınladığı dinamik ve fotoğrafların parçalarından ve parçalarından tercihlerini analiz edebiliyor. Onun için böyle bir broşür tasarlayıp ardından bir feed stream reklamı yayınlayarak, binanın güvenlik sistemini yönetmek için beğendiği şeyi yaptığı ve kullanıcı adı ve şifresini aldığı söylenebilir.

Korumak zor.

Daha akıllı otomatik virüsler

Geçen baharda dünyayı kasıp kavuran WannaCry virüsünü hatırlıyor musunuz? Kendini kopyalayabilir, yayabilir ve 100.000'den fazla bilgisayara şantaj yaptı.

Gelecekteki otomatik virüsle uğraşmak WannaCry'den çok daha zor olacak. WannaCry'nin yayılma yöntemi, ağdaki 445 numaralı açık bağlantı noktasını bulmaktır, yani otomatik yayılımı insanlar tarafından belirlenen kurallara bağlıdır. Virüs çeşitli yazılımlardaki güvenlik açıklarını kendi kendine keşfedebilirse ...

Bekle! Yazılım güvenlik açıklarını özerk olarak keşfetme teknolojisi aslında zaten mevcuttur.Birçok büyük şirket ve devlet kurumu, yazılım sistemlerinin güvenliğini sağlamak için bu teknolojiyi kullanır.

Sonuç olarak, Doğu Avrupalı hacker grupları bir WannaLaugh oluşturmak için benzer teknikler kullandılar, sonuçlar WannaCry'den çok daha trajik olacaktı:

WannaLaugh etkinleştirildikten sonra, sürekli olarak yeni güvenlik açıkları keşfederken bilgisayarlara bulaşmak için bilinen güvenlik açıklarını kullanır. Elbette, iyi korunmuş bilgisayarlar felaketten kurtulabilir, ancak bu sonuçta sadece küçük bir sayıdır.Eski cep telefonları, bilgisayarlar ve akıllı cihazlar, çeşitli yeni ve eski boşluklardan tek tek virüsler tarafından kontrol edilir.

Bu sefer 100.000'den fazla birim olmalı.

Çevrenizdeki robotların hepsi silah

Ticari dronların, insansız araçların ve robotların yaygınlaşması şüphesiz büyük kolaylık getirecektir. Ancak bu kolaylık bize ve ayrıca suçlulara aittir.

Örneğin, gelecekteki suikastlar hiç insan gerektirmeyebilir.

Rapordaki bu varsayımsal senaryonun ana kurbanı Alman Maliye Bakanı:

Bir yıl, bir SweepBot temizlik robotu, benzer yaklaşımları bekleyen Alman Maliye Bakanlığı'nın yer altı garajına sızdı. Maliye Bakanlığı bu marka robotları her gün ofisi temizlemek için kullanıyor.

Maliye Bakanlığına bağlı iki Süpürme Robotu garajı temizlerken, dışarıdan gelen pusuda olanlar fırsatı değerlendirdiler, arkalarını takip ettiler, asansöre çarptılar ve malzeme odasındaki büyük bir SweepBot grubuna karıştılar.

3 Haziran'da, içeri sızan temizlik robotu, Maliye Bakanlığı'nın ofis binasını her zamanki gibi temizledi. Şu anda Maliye Bakanı geçti. SweepBot'a bağlı yüz tanıma sistemi, onu hemen tanıdı ve bir sonraki görevi etkinleştirdi.

Üzerine atla ve yerleşik bombayı patlat.

Temizlik robotlarının satış hacmi çok büyük ve arkasındaki insan ajanın kim olduğunu bulmak için neredeyse hiçbir yer yok. Elbette, insansız bir taksiye saldırır ve benzer bir olaya karışırsanız, aynı şey olacaktır. Robot yeniden takıldığı, program ayarlandığı, görevin ne zaman başlayacağı ve nasıl tamamlanacağı sürece, insanların artık bunun için endişelenmesine gerek kalmaz.

Bu hikayenin gizli bir insan suikastı gibi geldiğini düşünüyorsanız, bir soru daha düşünebilirsiniz:

Bir insan bu tür bir robotu değiştirerek aynı anda kaç kişi suikast yapabilir?

İki sıfır sekiz dört

Telesekran, "Bin Dokuz Yüz Seksen Dört" deki ağabey için bir izleme aracıdır, ancak 21. yüzyılın yeni ve ağabeyi için sadece pediatri olarak kabul edilebilir.

AI ile her hareketiniz Big Brother'ın gözetiminde olabilir.

Rapor hapse giren bir "sosyal aktivistin" hikayesini anlatıyor:

Avinash bu toplumdan çok memnun değil: hackerlar her yerde ve hükümet umursamıyor. Güncel olaylardan endişe duyuyor, büyük şirketlerin kaba davrandığına ve hükümetin hiçbir şey yapmadığına dair çok fazla haber gördü ve güncel olayları eleştiren birçok blog da yazdı.

Hevesli bir genç adam sadece klavyeci olamaz. Avinash ayrıca çevrimdışı olmayı, duvarları boyamayı, büyük posterler asmayı ve herkesin önünde öfkesini haykırmayı planlıyor. Afiş kağıdı, kendi kendine boyama ve hatta konuşmadan sonra ayrılma etkisi yaratmak için birkaç duman bombası aldı.

Hatta polis bu paketlerden önce geldi.

Karar verildikten kısa bir süre sonra polis, "sosyal huzursuzluk tahmin sisteminin" kendisini potansiyel bir tehdit olarak gördüğü suçlamasıyla onu ofisten uzaklaştırdı.

Elbette bu hikayenin başka bir yanı olabilir.

Avinash'ın gördüğü haber haklı görünse de, yine de doğru ve yanlıştı. Havadan ünlü bir konuşma yapmak çok kolay.İnsan yüzleri, sesleri ve yapay zeka onları tam olarak taklit edebilir.

Kişiselleştirilmiş öneri algoritmalarıyla çevrili, bu toplumun olumlu yanını görme fırsatı asla bulamayabilir. Yarı doğru ve yanlış olan haberler dışında, onun gibi insanlara reklam veren birçok siyasi grup var.

İzlenin, kontrol altına alın. Bu, Avinash'ın hayatıdır.

Yukarıdaki hikaye tamamen hayal ürünüdür, herhangi bir benzerlik tamamen hızlı teknolojik gelişmeden kaynaklanmaktadır.

sonuç olarak

Halen belirsiz pek çok faktör olsa da, gelecekteki güvenlik durumunda yapay zekanın öne çıkan bir konuma geleceği açıktır. Yapay zekanın kötü niyetli kullanımı için fırsatlar bol ve artmaya devam edecek.

Yapay zeka, tavla, satranç, Jeopardy! Quiz, Dota2 ve Go gibi birçok dar alanda insan yeteneklerine ulaştı veya aştı. Oyun alanına ek olarak borsa yatırımında, sürücüsüz arabalarda ve diğer alanlarda da yapay zeka uygulandı.

Bu nedenle, yapay zekanın potansiyel kötü niyetli kullanımının hazırlanması ve engellenmesi zaten beklenmeyen bir görevdir.

Gelecekte, AI sosyal etkileşim gibi daha fazla alana genişledikçe, direnmesi zor olan daha kötü niyetli AI saldırıları olacaktır. O zaman yapay zekaya karşı koymanın yolu başka bir yapay zeka olabilir. Ancak tek başına AI savunması hala yeterli değil.

"Rapor", araştırmacıların ve karar vericilerin, kötü niyetli AI kullanımını önleme ve hafifletme perspektifinden uygun AI araçlarını, stratejilerini ve spesifikasyonlarını sunmaları gerektiğini önermektedir.

Başka bir deyişle, bu rapor bu tehditlere nasıl yanıt verileceğinden pek emin değil.

Bu raporun yazarlarından OpenAI politika direktörü Jack Clark, güvenlik konularının çok zor olduğunu kabul ediyor. "Her zaman izlenecek inanılmaz derecede iyi bir yol vardır" dedi.

Elbette bu rapor hakkında şüphe yok.

Amerika Birleşik Devletleri Oregon Eyalet Üniversitesi'nde profesör olan Thomas Dietterich, bu raporun yazarının bilgisayar güvenliği uzmanlarını içermediğine ve Google, Microsoft veya Apple'dan üye bulunmadığına işaret etti. Dedi ki: "Bu rapor, her gün siber suçlarla savaşan biri değil, benim gibi kazara bir kişi tarafından yazılmış gibi görünüyor."

Bu raporun ilgili yazarları şunlardır: Miles Brundage (Oxford Üniversitesi) ve Shahar Avin (Cambridge Üniversitesi). Diğer yazarlar aşağıda gösterilmiştir:

Tam rapor

Bu raporla ilgileniyorsanız, Qubit WeChat Resmi Hesabı'nın diyalog arayüzüne yanıt verebilirsiniz (ID: QbitAI) Kötü şeyler yap "Üç kelimeyle, raporun indirme adresini alabilirsiniz.

- Bitiş -

Samimi işe alım

Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! İlgili ayrıntılar için lütfen QbitAI diyalog arayüzünde "işe alım" kelimesini yanıtlayın.

Qubit QbitAI · Toutiao İmzalama Yazarı

' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin

Adı "A Sınıfı" ve bir "B Sınıfı", bu araba kolayca Chongqing "medya öğretmeni" nin hayranı oldu
önceki
LOL S8 için kaçırılmayacak bir eşleşme! RNG, 3 yıl önce eski altın ortağının sevgisi ve ölümü olan ölümcül bir düşmanla karşılaştı
Sonraki
Chongqing ökaryotik tak ve çalıştır! Bir tarafın büyük ismi Luneng "sağlığı" ile savaşırsa, soğuk sarayda dövülebilir!
Çin'de saf bir elektrik markası olan Geometry Auto, Singapur'da Geometry A bayrağını kurdu ve dünya çapında 18.000'den fazla sipariş verdi
AFC Şampiyonlar Ligi'nin en karışık oyunu
PlayerUnknown'ın Battlegrounds düşük versiyonu mobil oyunların seviyesi mi? Ekran küçültme eylemi sert! Öğeleri otomatik olarak alın
Tianhai Xiaofu güvende mi? 1 gol lideri Shen Xiangfu, üç ana oyuncunun yerini aldı, maçtan sonra bir maçın daha iyi olduğunu söyledi
Van der Vaart altı ayda yalnızca bir oyun oynuyor ve gerilemenin gizli nedenleri var
Yeni enerji aracı sübvansiyonları gerçek oldu Yidong EV460: Gelin buraya bir göz atalım
Otizmli çocuklar için bir yapay zeka tanı platformu olan Cognoa, ilk kez FDA düzenleyici sertifikasını aldı
Wanda Honghu'nun hırsı, bir general asla şüphe etmedi! Zhao Yijiao VEYA Zhu Xiaogang, acil ihtiyacı kim çözebilir?
Oyun dünyasının en zor oyuncusu! 1700 başarı ödülü var, ne kadar olduğunu anlayabilirsiniz.
Zor kardeşler iniş için yarışır, bir taraf Shandong kahramanlarına meydan okur! Anahtar olarak Cui Kangxi'nin kuralı kaldırıldı mı?
Gerçek kuantum üstünlüğünden ne kadar uzaktayız? Sadece donanıma bakamıyorum
To Top