uyarmak! Derin sahtecilik teknolojisinin Battlefield uygulaması

Yapay zekanın (AI) alt kavramlarından biri olan günümüzün en popüler bilimsel ve teknolojik kavramlarından biri olan derin öğrenme, örnek verilerin iç yasalarını ve temsil düzeylerini öğrenmektir.Öğrenme sürecinde elde edilen bilgiler metin, görüntü ve ses gibi verilerle ilgilidir. Açıklama çok yardımcı oluyor. Nihai amacı, makinenin insanlar gibi analiz etme ve öğrenme yeteneğine sahip olmasını ve metin, görüntü ve ses gibi verileri tanıyabilmesidir. Şu anda iletişim, endüstriyel üretim, ulaşım, finans, tıp, medya, eğlence ve diğer endüstrilerde yaygın olarak kullanılmaktadır. Hayatta insanlar, bir zamanlar bilim ve teknolojide başka bir devrim olarak kabul edilen kimlik doğrulama ve kolay ödeme için derin öğrenme yüz tanımayı kullanabilir. Bununla birlikte, bir süre önce sosyal medyada "yıldız değiştiren" teknolojinin popülaritesi büyük sosyal tartışmalara neden oldu. "Derin sahtecilik", derin öğrenme teknolojisinde "antagonistik nesil ağı" modeli kullanılarak oluşturulan akıllı bir video işleme teknolojisidir ve "yıldız değiştiren yüz" bu teknolojinin en tipik uygulamasıdır. Bu teknolojiyi kullanarak eğlence veya başka amaçlarla yapılan politikacı konuşmaları ve film parçaları sahte olmak için yeterlidir ve halkın uyanıklığını ve ulusal güvenlik kurumlarının dikkatini uyandırmıştır. Derin sahtecilik teknolojisinin seviyesinin her geçen gün değiştiği ve tanımlama araçlarının nispeten pasif olduğu gerçek ortamda, psikolojik savaş için özgünlük, rahatlık ve hızlı evrimle derin sahteciliği kullanmak giderek mümkün hale geliyor.

uyarmak! Derin sahtecilik teknolojisinin Battlefield uygulaması

Derin sahtecilik teknolojisi kavramı ve ilkesi

"Deepfakes", İngilizce "derin öğrenme" ve "sahte" kelimelerinin birleşimidir ve bu teknolojinin derin öğrenmeye dayalı yeni bir bilgi değiştirme ve değiştirme yöntemi olduğunu belirtir. Derin öğrenmeden farklı olarak, derin sahtecilik teknolojisi bir tür "denetimsiz öğrenim, Üretken Çekişmeli Ağlar (GAN, Üretken Karşıt Ağlar)" dır.

Kendi kendine optimizasyonda sahte veriler oluşturun. Bu tür bir teknik mantık için, yeterli veri ve hesaplama hızı olduğu sürece, teorik olarak üretken model "yüzleşmede" kendi üzerinde yinelemeye devam edecek ve sahte videoyu sürekli olarak optimize edecektir. Mart 2019'da, bir teknisyenin "Yang Mi" yüzünü değiştirmek için teknolojiyi kullandığı bir olay, kamuoyunda hararetli bir tartışmaya neden oldu ve Çin'de ilk kez bir "yüz değişikliği" yükselişi başlattı. Kısa bir süre sonra, yıldız "değişen yüz" cep telefonu uygulaması "ZAO" indirilmek üzere piyasaya sürüldü ve kısa sürede büyük uygulama mağazalarının indirme sıralamalarının zirvesine çıktı. Bir süre, çevrimiçi sosyal medya "kendilerini yıldızlarla değiştirmek" için netizenlerle dolup taştı. "Yüz", netizenlerin "yıldız rüyasını" büyük ölçüde tatmin eden performans olaylarının film kliplerinde veya videolarında göründü.

Ancak, tavada bir parıltıdan sonra, "ZAO" ile ilgili gizlilik hükümleri, vatandaşların gizlilik haklarının ihlal edildiğinden şüphelenildiği için kamuoyu tarafından kınandı ve bu da uygulamanın kaldırılmasına neden oldu. Aslında, derin sahte "yüz değiştirme" teknolojisi, birkaç yıl önce Amerika Birleşik Devletleri'nde önemli girişimlerde bulundu, örneğin Cycle GAN gibi, tüm yüz dönüşümlerinde önemli bir erken girişim olduğu söylenebilir. Face 2 Face'in "standart ve düzenli" bir girişim olduğu söylenebilir. Ancak yurtdışında en sıcak ve en çok dolaşan derin öğrenme yüz değiştiren model şüphesiz Deepfake'tir. Bu teknolojinin ilk olarak yabancı pornografik web siteleri Reddit kullanıcıları tarafından pornografik videolarda Hollywood yıldızları ile porno yıldızları arasında "yüz değiş tokuşu" yapmak için kullanıldığını ve bunun netizenler tarafından yaygın bir şekilde yayılmasına ve söz konusu yıldızların büyük sıkıntılarına neden olduğunu belirtmek gerekir.

Yüzleşme oluşturma ağının şematik diyagramı

Yalnızca videonun "yüzü değişiyor" değil, derin sahtecilik teknolojisi de veri toplama ve öğrenme yoluyla hedef nesnenin sesini taklit edebilir. Ocak 2018 gibi erken bir tarihte, yerli teknoloji şirketi iFLYTEK'in başkanı Liu Qingfeng, basın toplantısında gösteri yapmak için derin sahtecilik çerçevesinde konuşma sentez teknolojisini kullandı. ABD Başkanı Trump, basın toplantısını tebrik etti, "Trump "Hatta akıcı Çince ile herkese merhaba bile diyebilirim. Liu Qingfeng'in sözleriyle, "Trump'ın konuşmasını taklit etmek için makineler kullanıyoruz ve Amerikalılar bile bunun doğru olduğuna inanıyor." Buna ek olarak, Birleşik Krallık'taki Londra Üniversitesi'nden araştırma ekibi, tanımlanması zor olan mükemmel bir "yeniden kazıma" elde etmek için yalnızca hedef nesnenin el yazısının bir örneğini sağlaması gereken derin öğrenmeye dayalı yeni bir akıllı algoritma geliştirdi. Ses ve el yazısının yanı sıra, parmak izleri, yazma stili ve hatta mikro ifade ve diğer benzersiz biyolojik ve düşünme özellikleri sorunları da derin sahtecilik teknolojisi ile tamamen aşılmıştır. Yeterli veri toplandığı sürece derin sahteciliğin tamamen "başka bir şey yaratabileceği" söylenebilir. sen". Bu "siz" bilincinizin kontrolü altında değildir, ancak ister asker, ister tabur komutanı, ister komutan veya başkan olun, tanrının asla talimat vermediği bilgileri sosyal, yaşam ve çalışma çevrelerinize yayınlayabilir. Bundan, derin sahtecilik teknolojisinin psikolojik savaş potansiyeli açıktır.

Derin Sahtekarlık Teknolojisinin Battlefield Uygulama Stratejisi

Derin sahtecilik teknolojisi henüz gelişmemiş haldeyken, ABD ulusal güvenlik departmanı, teknolojinin ulusal güvenliği tehdit eden büyük bir gizli tehlikeye sahip olduğunun son derece farkındaydı ve bu nedenle, teknoloji üzerindeki kısıtlamaları politika, yasal ve teknik düzeylerde artırmaya başladı. ABD Senatosu ve Temsilciler Meclisi üyeleri, bu teknolojinin gizli amaçlara sahip kişiler tarafından kötü amaçla kullanılmasını önlemek için art arda "2018 Kötü Amaçlı Sahtecilik Yasağı Yasası", "Derin Sahtecilik Sorumluluk Yasası" ve "2019 Derin Sahtekarlık Raporu Yasası" nı uygulamaya koydu. Aynı zamanda, savaşta derin sahtecilik teknolojisinin büyük potansiyeli de tespit edildi. 2019 yılının Haziran ayında, bazı kongre üyeleri Temsilciler Meclisi'nden derin sahtecilik tanımlama teknolojisi yarışmasına izin vermesini isteyerek ABD Savunma Bakanlığı İleri Araştırma Projeleri Ajansı'ndan (DARPA) bir Teknolojinin araştırılmasını, geliştirilmesini veya ticarileştirilmesini teşvik eden rekabetçi teşvik programları, yetenekleri aslında bu teknolojiyi psikolojik savaşta ve kamuoyu saldırı ve savunmasında kullanılmak üzere askerileştirmeye motive ediyor.

"Yüz değiştirme" sürecini derinden taklit edin

Düşman ülkelere karşı mücadelede uluslararası toplumun da desteği gerekiyor.Harvard'ın Kennedy Devlet Okuluna bağlı Belfer Araştırma Merkezi, "Düşman ülkenin siber casusları bir ülkeyi çalıyor" şeklinde bir "AI ve Ulusal Güvenlik" raporu yayınladı. Gerçek gizli belgeden sonra, gerçek belge ve ilgili bazı sahte belgeler aynı anda sızdırılır ve ardından ilgili sahte belgeleri desteklemek için ilgili ses ve video materyallerini sentezlemek için derin sahtecilik teknolojisi kullanılır. Sahte belgelerin güvenilirliği büyük ölçüde geliştirilecektir. Bu, kamuoyunu manipüle ediyor ve ülkenin siyasi gücünün istikrarını etkiliyor. Şu anda, çeşitli ülkelerin liderlerinin görünüşü, sesi, el yazısı ve yazı stilini elde etmek çok kolay. Amerika Birleşik Devletleri'nin iki başkanının ve Trump'ın yüz değiştiren videoları dünya çapında geniş çapta yayıldı. 2019 Yılın başında, bir Belçikalı siyasi parti, Trump'ın Belçika'nın iklim değişikliği konusundaki tutumunu eleştirdiği bir video yayınladı; bu, ABD hükümetinin Belçika'nın içişlerine müdahalesinden büyük bir memnuniyetsizlik yarattı.Bu videonun daha sonra derin sahtecilik teknolojisine dayanan sahte bir video olduğu doğrulandı. Tartışmaya neden olan video ile son çürütme arasında bir gecikme var. Sosyal ağların dalgalanma etkisiyle birleştirilen derinlemesine sahte ürünler, büyük ölçekli bir yanlış bilgi yayılmasına neden olabilir, bu zaman farkından tam olarak faydalanabilir ve karşı güç karşılık vermeden önce düşmana karşı olumlu uluslararası kamuoyu rehberliği yapabilir ve düşmana karşı kamuoyu oluşturabilir. Bastırma, yüksek söylem zeminini ele geçirme ve uluslararası destek kazanma belli bir ölçüde hatırı sayılır bir etkiye sahip olabilir.

Birincisi komuta sistemi içindir.Savaş alanı ortamında, önceden planlayabilir ve düşmanın komuta etkisine müdahale etmek için yapay zeka yüz değişikliği ve konuşma sentezi gibi derin sahtecilik teknolojisini kullanabilirsiniz.Yerel askeri ve siyasi liderlerin görünümü ve sesi tabandan gelen birliklere yanlış talimatlar iletir; düşman yüksek seviyelerini dövün İmzalar, birliklere sahte belgeler ve emirler verir. İkincisi, düşmanın propaganda sistemine müdahale etmek için sahte haberleri kesintiye uğratan "yüz değiştiren" düşman haberleri gibi düşmanın savaş alanı propaganda sistemini hedef almaktır. Üçüncüsü, düşmanın liderinin yerinde komuta sesini taklit etmek ve savaş alanında bağırmak gibi düşmanın ön cephedeki birliklerini hedef almaktır. Savaş alanı durumu hızla değişiyor ve zayıf bilgi iletişimi komutanın karar vermesinde büyük bir etkiye sahip olacak. Sahte ses, sahte video ve derin sahtecilik teknolojisi ile sentezlenen sahte dosyalar, bilgi ablukası durumunda komutanı büyük ölçüde sınayacak şekilde düşmanın iç kısmına gönderilecek. Bir dereceye kadar düşmanı aldatabilir veya düşmanın ordusunda kaosa neden olabilir ve yanlış kararlar vermek veya en iyi zamanı geciktirmek için düşmanın komuta sistemine etkin bir şekilde müdahale ederek düşmanın savaş etkinliğini ve savaşma isteğini zayıflatır. Ayrıca bir şans da vardır. İsyanı kışkırtmak ve teslim olmaya ikna etmek gibi hedeflere ulaşın.

Araştırma ekibi tarafından sahte Obama videosunun etkisi

Cephenin dışında, muharebe hedeflerine ulaşmak için düşman hatlarının arkasında derin sahtecilik teknikleri de kullanılabilir.Siyasi olarak, düşman askeri ve siyasi liderlerin TV konuşmalarını sentezleyebilir veya askeri ve siyasi liderleri şeytanlaştırma veya kitleleri yanıltma amacına ulaşmak için imza belgelerini taklit edebilirler. Ya da yüksek seviyeli düşman cephe birliklerinin teslim olduğuna dair sentezlenmiş bir bildiri yayınlayın, kitlelerin savaş iradesini sarsın ve binanın düşeceği yanılsamasını yaratın. Irak Savaşı sırasında ABD ordusu, Bağdat'a yönelik saldırı arifesinde, Bağdat'ı koruyan Cumhuriyet Muhafızları'na bağlı bir tümen komutanının halkı teslim olmaya yönlendirdiğini iddia ederek Irak halkına karşı psikolojik bir savaş yürüttü. Psikolojik savaş operasyonları da alay konusu haline geldi. Şu anda derinlemesine sahtecilik teknolojisinin bir müdahalesi varsa ve tümen komutanının teslim beyanı veya televizyondaki konuşması sentezlenirse, ABD askeri propagandasının güvenilirliğinin de büyük ölçüde artacağını hayal edin. Ayrıca derin sahtecilik teknolojisinin de katılması nedeniyle, ister resmi ister gayri resmi haber olsun, düşman hatlarının arkasındaki kişilerin bilgiye olan güvenini bir ölçüde etkileyecektir. 2016 ABD seçimlerinde, bazı insanlar Rus istihbarat teşkilatlarının sahte haberleri yaymak için derin sahtecilik teknolojisini kullandığından şüpheleniyordu, bu da Trump'ın seçimi kazanmasına yol açtı.İnsanlar, maruz kaldıkları tüm bilgilerin sahte olduğundan şüphelenme eğiliminde olduklarında, sosyal kaos seviyesi derinleşti. .

Derin sahtecilik teknolojisinin gelişme trendi

Derin sahtecilik, geçmişte nispeten basit PS görüntü kurcalama veya diğer video ve ses kurcalama tekniklerinden farklıdır, ancak yapay zeka derin öğrenme için eğitim örneklerine dayanır. Ne kadar fazla örnek veri, bilgisayar hedef nesneyi o kadar gerçekçi simüle eder ve sonunda sahte olma noktasına ulaşır. Derin sahtecilik, aynı zamanda, daha önceki sahtecilik teknolojisi ile eşi benzeri olmayan kapsamlı bir öğrenim için hedefin yüzünü, sesini, mikro ifadesini, el yazısını ve diğer biyolojik özelliklerini birleştirir. Derin sahtecilik teknolojisi 2017'de ilk doğduğunda kullanılan evrişimli sinir ağından en son yüzleşme nesil ağına kadar, hem bilgi işlem gücü hem de akıllı "yüz değiştirme" sadakati büyük ölçüde iyileştirildi ve bu da halkı giderek daha fazla hale getirdi Doğru ile yanlışı ayırt etmek zordur. Sıradan insanların, özel olarak eğitilmedikleri ve profesyonel tanımlama yöntemleriyle desteklenmedikleri sürece derin sahte videolarda kusurları bulmaları zordur. İsviçreli bilim adamları "yüzü değiştiren videoları" belirlemek için en son yüz tanıma sistemini kullanmaya çalıştılar ve sonuç bir hata oranıydı % 95'e kadar.

Sentetik medya çapaları yanlış propaganda yapıyor

Geleneksel yapay zeka teknolojisi ile karşılaştırıldığında, derin sahtecilik teknolojisi için eşik nispeten düşüktür. Hollywood gişe rekorları kıran filmlerindeki özel efektler, video işleme teknolojisi tekelinin ve devasa sermaye yatırımının arkasında bir gerçeklik duygusuna sahiptir, genel halk buna dahil olamaz. Derin sahtecilik teknolojisinin ortaya çıkışı, video derin işlemenin popülaritesini büyük ölçüde artırmıştır. Yalnızca daha akıllı "denetimsiz öğrenme" algoritmaları kullanmakla kalmaz, aynı zamanda programlama dilleri ve açık kaynak yazılım kitaplıkları yüklemeden de çalışır. Daha nadir olan şey, derin sahte Hedef nesne videosu, ses, yazma tarzı, vb. Gibi "kaynak veriler" ağda kolayca bulunabilir, bu da eğitim verilerini çok zengin hale getirir ve ürün gerçekliğini geliştirmeye yardımcı olur. Giderek daha özgür ve kullanışlı uygulamaların ortaya çıkmasıyla, sıradan insanlar, hedef nesnelerin yalnızca birkaç yüksek çözünürlüklü videosu ile 12 saatten daha kısa bir sürede profesyonel yüz değiştiren videolar üretebilir ve bunlar yapıldıktan sonra sosyal medyanın hızlı gelişimi ile birleştirilebilir. Ağ, bitmiş ürün neredeyse sıfır maliyetle dağıtılabilir.

Derin sahtecilik teknolojisi tarafından kullanılan yüzleşme oluşturma ağı, son derece kendi kendine uyarlanabilirdir ve kullanıcılar tarafından aşırı manuel müdahale gerektirmez. Yüzleşme oluşturma ağında kendini sürekli olarak optimize edecek ve "gerçek korkutucu" elde etmek için sürekli yükseltmeler gerçekleştirecektir. Seviye. Derin sahtecilik teknolojisinin erken gelişiminde, derin öğrenmeyi "beslemek" için "kaynak verileri" oluşturmak için hedef nesne videosu, ses ve resimler dahil olmak üzere materyalleri manuel olarak aramak ve kendi başına uygun bir yedek video bulmak da gereklidir. 2018 yılında, tanınmış yabancı bilim ve teknoloji web sitesi "Main Board", derin sahtecilik teknolojisinin "kaynak veri" aramasını otomatikleştirmesinin en az bir yıl süreceğini öngörmüştü, ancak aslında bu otomasyon yinelemesi yalnızca bir ay sürdü. Önceden, derin sahtecilik videolarının yapay olarak tanınmasında "hedef nesnenin yanıp sönmesi", "mikro ifadenin doğal olup olmadığı" ve "yüzde pürüzlü kenarlar olup olmadığı" referans olarak da kullanılabilir. DARPA, bir "anti-yüz" bile geliştirdi. AI suç soruşturma ve tespit prosedürleri, ancak sahtecilik teknolojisinin sürekli yükseltilmesiyle, yukarıdaki tanımlama yöntemleri kısmen geçersiz kılınmıştır ve sahtecilikle mücadele teknolojisi, derin sahteciliğin güncelleme hızına ayak uydurmak için gelişmeye devam etmelidir.

Fotoğrafın doğuşundan önce insanlar bilgiyi iletmek için dili, kelimeleri ve resimleri kullandılar, bu da pek çok gerçekçi olmayan efsane ve yalanlara neden oldu. Bu nedenle, bilge insanlar "işitmenin kurgu, görmenin inanmaktır" olduğuna inanıyorlardı. Bugün, yapay zeka derin sahtecilik teknolojisinin hızla gelişmesiyle birlikte, sadece "kulaklar ve işitmeler hayalidir", "görmek" mutlaka "inandırıcı" olmak zorunda değildir. Sahte videoların karmaşıklığı, tanımlama zorluğu ve aktarım hızının mevcut çağında, savaşmak için derin sahtecilik teknolojisini uygulamak avangart bir seçimdir.Herhangi bir ülkenin güvenlik departmanı propagandasının tamamen doğru olduğunu ve bilgi uydurduğunu gerçekten vaat edemez. Girişim teslim edildi. Zamanla, "kötü paranın iyi parayı dışarı atması" atmosferinin etkisi altında ülkeler, derinlemesine sahtecilik teknolojisinin araştırma ve geliştirme ve savaş alanı uygulamalarını güçlendirir. Etkilenen subaylar ve askerler, üstlerinin emirlerine güvenmeyecek ve sıradan insanlar medyaya olan güvensizliklerini artıracaktır. Sadece güncel olaylar değil, yerleşik tarih de taklit edilebilir. Gelecekte derin sahtecilik teknolojisi ve tanımlama teknolojisi, sürekli rekabet ve çatışma içinde hızla gelişecek ve o zaman, bir bilgi parçasının gerçekliği ancak yayıncı tarafından bilinebilir.

Telif hakkı uyarısı: Bu makale "Military Digest" dergisinde yayınlandı. Yazar: Fu Lei. Yeniden yazdırmanız gerekirse, lütfen "" Askeri Özet "den yeniden yazdırıldı" seçeneğini belirttiğinizden emin olun.

Kürt faktörü, Orta Doğu stratejik bulmacasını güçlendirmek için bir kaldıraç haline geliyor
önceki
Büyük Peter tarafından Poltava
Sonraki
Beiyang Donanmasının ihtişamı ve düşüşü
"Tibet Ordusu Halkına" Japon Savunma Sanayii Geliştirme Modeli
Resimli İngiliz Challenger-2 ana muharebe tankı
Helikopter silah bölmelerinin gelecekteki savaş uygulamaları
Kore ordusu-Güney Kore'nin savunma insan gücü planı ve kalkınma yönü tarafından hazırlanan gelecekteki "zayıflama planı"
Omurgaya üç boyutlu çıkarma - amfibi saldırı gemileri üzerine bir tartışma
Kuzeybatı Shandong'daki Anti-Japon Öncü Wang Kekou
ABD ordusu, akıllı bireysel teçhizatı şiddetle geliştiriyor
Bir yıllık para sıkıntısı | China Resources Land'in rota sorusu
Çin'deki bu yerler denize açılmak üzere, çok güzel
Çin'in en ünlü on çiçeğine değer verildi
Çiçeklerle dolu küçük bir avlu
To Top