AI'ya güvenlik kilitleri ekleyebilir miyiz?

Resim kaynağı: Visual China

Metin | Beyin Kutupsal Gövdesi

Göz ardı edilemeyecek kullanım ve savunma, teknoloji canavarını evcilleştirirken insanlığın ebedi temasıdır. Bu yüzden son derece karmaşık bir güç koruma sistemimiz, trafik kurallarımız ve sayısız trafik güvenliği ekipmanımız ve devasa bir İnternet güvenliği endüstrimiz var.

Şimşek ve elektrik çarpması tehlikesi nedeniyle şehri kapatmaya karar vermeyeceğiz, bunun yerine onu katman katman sınırlayacak, koruyacak ve teknolojinin insanlığa güvenle hizmet etmesine izin vereceğiz.

Bu mantık bugün AI'nın önünde yeniden oynanıyor. Muhtemelen insanların alevlerle ilk kez karşılaştıklarında yaşanan panik gibi, yüz yılı aşkın bilim kurgu kültürü halka yapay zeka ile karşı karşıya kaldıklarında dünyayı yöneten robotların korkusunu hatırlatıyor. Aslında bu sanki dünyaya çarpan bir gezegen gibi ... Olabilecek bir durum ama kimse ne kadar süreceğini bilmiyor.

Ancak, AI'nın geliştirilmesi ve uygulanmasıyla, bu yeni teknolojinin maruz kaldığı tehlikeler ve belirsizlikler gerçekten de yavaş yavaş su yüzüne çıktı. Peki yapay zeka için "yalıtım bandı" ve "hava anahtarı" nerede?

Deepmind, kısa bir süre önce bir blogda, AI modelinin sergileyebileceği kaos ve kontrol kaybına yanıt olarak, kritik bir noktada AI'yı "kapatmak" için bir "AI sigorta mekanizması" geliştirmeye hazırlanıyorlar. AI'nın kötü niyetli eğilimi keşfedildiğinde, AI etkinliklerini aktif olarak sonlandıracaktır.

Şu anda, bu alandaki araştırmalar hala keşif yönündedir. Ancak yine de keşfetmemiz gereken bazı sorular var: Bir AI sigorta anahtarı varsa, hangi koşullar altında AI çalışmasını sonlandırmalıdır? Benzer alanlarda AI güvenliğini sağlamak için başka hangi yöntemler çalışıyor? AI üzerine bir güvenlik kilidi takma fikrinin zorlukları ve hatta güvenilmez yönleri nelerdir?

Önlenmesi gereken "Yapay Zekanın Kötülükleri" nelerdir?

Her şeyden önce, "Yapay Zekanın Kötülüğü" nden kesin bir şekilde alıntı yapmalıyız. Bu, ateşin kullanılması gibi bir şey. Muhtemelen insanlık tarihindeki en ciddi teknik uygulama. Ama en azından bugün kimse "ateşin kötülüğü" nden veya "Prometheus'un orijinal günahından" bahsetmiyor.

Yapay zeka, derin sinir ağlarının karmaşıklığının, yaygın ilgi gören yapay zeka kara kutu sorunu olan belirli ortamlarda yapay zeka işletim mantığının çözülemezliğini oluşturması bakımından biraz farklıdır. Amerikalı romancı Howard Lovecraft, insanlığın en büyük korkusunun bilinmeyenin korkusu olduğuna inanıyor.

Günümüz yapay zeka teknolojisinin ana uygulama yöntemi olarak, derin öğrenmenin çok fazla perdesi vardır. Akademisyen Yao Qizhi bir zamanlar bugün derin öğrenmedeki pek çok şeyin bilim dışı olduğuna karar verdi. Gizemini çözmek, AI disiplininde büyük bir sorun haline geldi.

Öyleyse, hala gizemli olan AI, uygulamaya hangi tehlikeli olasılıkları getiriyor?

Yapay zeka ile ilgili olumsuz raporların sayısı, olumlu vakaların sayısından çok daha az olsa da, sayı aslında oldukça büyük. Özetlemek gerekirse, bugün yüzleşmemiz gereken üç tehlike var:

1. Veriden ayrımcılığa

AI, küfür etmeyi ve ırk ayrımcılığını öğrenebilir. Herkes bunu bilmeli. En meşhur vaka, Mart 2016'da Microsoft'un Tay adında bir chatbot başlatmasıdır, ancak piyasaya sürüldükten bir gün sonra Tay, 19 yaşındaki basit ve sevimli bir kızdan küfür ve ırkçı yorumlarla dolu bir AI ya dönüşmüştür. Çılgın ", bu yüzden Microsoft bu ürünü acilen kaldırdı. Bu durum zaten birçok AI sohbet uygulamasında ve sesli asistanlarda ortaya çıktı ve hatta alışveriş rehberleri ve güvenlik tanıma gibi birçok AI uygulaması bile insanların yemek yemesini nasıl izleyeceğini sessizce öğrendi.

Temel sorun, yapay zekanın sosyal ağlardaki diyalog verilerini özümsemeyi öğrenmesidir, ancak bir yemekten sonra öğrendiği tek şey çirkin. Derin öğrenme, büyük veriye dayanır, ancak veriler çok iyi olmayan verilerle karıştırılırsa, AI bu içeriği davranış kalıplarına getirebilir.

Peki içeriğin iyi olduğu nasıl anlaşılır? Bu belirsiz soruya hala iyi bir cevap yok.

2. Bir silah ve siyah üretim aracı olarak AI

İnsanlar sadece kötü yapay zekayı öğretmekle kalmaz, aynı zamanda kötülük yapmak için doğrudan yapay zekayı da kullanabilir. Bu alandaki vakalar nadir değildir. 2015 yılında Birleşik Krallık, kullanıcıların tonunu taklit etmek için AI modellerini kullanan e-posta ve telekomünikasyon dolandırıcılıklarını keşfetmeye başladı; birçok bilgisayar korsanı, şifreleri çalmak ve güvenlik kilitlerini kırmak için AI kullanma becerisini gösterdi; Çin'de bile, çoğu yasa dışı Molecule, siyah üretimin çalışmasını desteklemek için e-ticaret hesaplarını ve siparişleri taramak için AI tanıma teknolojisini kullanmaya başladı.

3. Güvenilmez makine sezgisi

Bir algoritma olarak AI, açıkça insan sağduyusunu sağduyu olarak kabul etmiyor, ancak çoğu durumda hem sıradan insanlar hem de bilimsel araştırmacılar bunu görmezden gelecek. Bilinen bir durum, Deepmind bir kürek oyununda yapay zekayı eğittiğinde, derin öğrenme modelinin nihai sonucunun sıradan insan oyuncular tarafından seçilen rota değil, oyundaki çılgın çevreler olduğunu keşfetti. Bir oyun olmasına rağmen, derinden uyanmaktadır.Örneğin, insansız sürüş sahnesinde yapay zeka sorunları düşünmek için insan trafik kurallarına uymayabilir.Doğrudan viyadükten uçabilir veya daha iyi bir geçiş elde etmek için geri gitmeyi seçebilir. etkililik.

Bu endişe verici değil Bugünün araştırması, sokak tabelalarındaki küçük bir numaranın bilgisayarla görmeyi engelleyebileceğini buldu. Sonuçta, bir makine görebiliyor olsa bile, bu bir insan "görüşü" değildir.

Açıkçası, bu sorunlar gelecekteki AI uygulamalarında yeterince karmaşık ve tehlikelidir. Peki sorun geldikten sonra çözümler nelerdir?

Savcılar, uygulayıcılar ve ahlakçılar: AI'yı kilitlemek için ne kullanıyoruz?

Yapay zekanın kendi kontrolünün kaybedilmesi, potansiyel güvenlik tehlikeleriyle ilgili olabilir ve insanlık tarihindeki herhangi bir teknolojik riskten farklı olabilir. Büyük miktarda veriyi emer ve karmaşık dahili dönüşümler gerçekleştirir, bu nedenle insanlar için zorluk, benzin veya elektrik gibi basit güvenlik yasalarına sahip olmaması, ancak bulunması zor bir gizli hata olmasıdır.

Yapay zeka geliştiricilerinin durum hakkında sık sık konuştuğunu duyarız: model bir kez çalıştı, Tamam iyiydi ve sonra tekrar koştu, bir sorun vardı, ne ters gitti, bilmiyorum ... İki kez tekrarlıyorum, tekrar daha iyi görünüyor mu?

Açıktır ki, endüstri gibi önemli bir üretim alanında, bu tür vahşi çalışanları görevlendirmek uygun değildir. Peki, AI için bir güvenlik cihazı nasıl kurulur? Bugün endüstrinin birkaç fikri olduğunu görebiliyoruz. Bunun net bir tür anlaşmazlığı olmadığı unutulmamalıdır, AI güvenliğini gerçekleştirirken, birlikte çalışmak için kapsamlı bir çözüm gereklidir.

1. Cellat

Konu, başında bahsettiğimiz DeepMind'a geri dönüyor. Geliştirdikleri AI güvenlik teknolojisi, karmaşık AI görevlerinin arkasında duran bir "AI yürütücü" olarak tanımlanabilir. Takviye öğrenme mekanizmasına dayanan kendi güvenlik mantığına sahip güçlü bir AI sisteminin geliştirilmesi yoluyla, diğer AI modellerinin çalışmasını istediği zaman izleyebilir. Olağandışı bir hareket olduğunda, derhal takılın ve gücü kesin.

Aslında, "kesintiye uğrayabilir" kavramı, AI güvenliği alanında her zaman DeepMind'in temel kavramı olmuştur. Geçen yılın Aralık ayında, kesintiye uğrayan ve yeniden başlatılan bir ortamda aracının çalışma etkisinin bozulmamasını nasıl sağlayacaklarını gösteren "Güvenli Kesilebilir Ajanlar" adlı bir araştırma sonucu yayınladılar.

Yapay zekanın yapay zekayı izlemesine izin verin, teknoloji çok gelişmiş olsa da, hala bazı sorunlar var, ancak muhtemelen gelecekte yapay zeka güvenlik kilitlerinin ana araştırma yönüdür, çünkü giderek karmaşıklaşan derin sinir ağları karşısında, diğer sorun izleme modellerinin tüketilmesi zor olabilir. İşçilik maliyetleri karşılanır.

Bununla birlikte, bu yeni teknolojinin getirdiği temel şüphe, açıkça "süpervizörü kim denetleyecek?"

2. Savcılar

İster ayrımcılık ister yanlış makine sezgisi olsun, özünde derin öğrenmenin kara kutusuna atfedilebilir. Öyleyse, insan geliştiricilerin yapay zeka sorununun hata noktasını bulabilmesi ve ardından onu aceleyle kesmek yerine düzeltebilmesi için kara kutuyu görmenin bir yolu var mı?

Aslında, kara kutuyu çözmek, AI güvenlik alanının ve uygulama senaryolarının ana yönüdür. Günümüzde bilimsel araştırmalarda ve hatta endüstriyel alanlarda kara kutu yorumlama araçlarının giderek daha fazla ortaya çıktığını görebiliriz.

Bugün kara kutuyu açıklamanın iki ana yolu vardır: Biri, AI'yı almak için AI kullanmaktır.Örneğin, yanlış eğitim sonuçlarının eğitim kaynağını bulmak için diğer AI modellerinin yörüngesini kopyalamak ve izlemek için bir sinir ağı modeli eğitmek için dikkat mekanizmasını kullanın. , Geliştiricilerin düzeltme yapmalarına yardımcı olmak için.

Başka bir fikir, derin öğrenme modelinin yapısını görselleştirmek için bazı araçlar kullanmaktır, bu da kara kutunun bir cam kutu haline geldiği anlamına gelir. Bu nedenle, bir AI hatası oluştuğunda, Ar-Ge personeli sorunu bulmak için her katmanın eğitim sürecini nispeten kolayca sorgulayabilir.

Bununla birlikte, ister bir yapay zeka savcısı ister bir insan savcısı olsun, bugün bu kara kutu yorumlanabilir teknolojiler genellikle yalnızca daha az karmaşık derin öğrenme modelleriyle ilgilenebilir. Üstelik yapay zekayı "yapay + zeka" haline getirerek genellikle çok sayıda insanın katılmasını gerektiriyor ve tüketilen insan gücünün hatırı sayılır bir teknik seviyeye sahip olması gerekiyor.

3. Ahlakçılar

Nasıl bakarsanız bakın, yapay zekanın kötülük yapmasını engellemek bugün sadece teknik bir sorun değil. Örneğin, eğitim verilerinin üç perspektifinin yeterince olumlu olup olmadığı, büyük ölçüde geliştiricilerin üç perspektifine bağlıdır; örneğin, AI silahları ve AI gözetim araçları geliştirme arzusunun kısıtlanıp sınırlandırılamayacağı bir sosyal ve uluslararası sorumluluk meselesi olmalıdır; ve birçok AI ayrımcılığı Sorun, geliştiricinin iş verimliliğini artırma arzusundan kaynaklanıyor ve bu aynı zamanda etik bir konudur.

Bu sorunların çoğalmasını önlemek için, AI güvenlik kilidi açık bir şekilde sadece teknik bir kilit olmamalı, aynı zamanda çok çeşitli sosyal mekanizmaları da getirmelidir. Bu yılın Şubat ayında OpenAI, Oxford Üniversitesi, Cambridge Üniversitesi vb. Dahil 14 kurum ve üniversite "Yapay Zekanın Kötü Amaçlı Kullanımı" adlı bir araştırma raporu yayınladı. Rapor, günümüz yapay zeka araştırma sonuçlarının iki ucu keskin kılıç olduğunun kabul edilmesi gerektiğine işaret etti. Yapay zekanın oluşturduğu riskleri kontrol etmek için, politika yapıcılar, yapay zekanın olası kötü niyetli kullanımını araştırmak, önlemek ve azaltmak için teknik personel ile yakın bir şekilde çalışmalıdır. Yapay zeka alanında normların ve etik çerçevelerin oluşturulmasına öncelik verilmeli; bu yapay zeka zorlukları tartışılırken ele alınan paydaşların ve uzmanların kapsamı genişletilmelidir.

Yapay zekanın kötü niyetli sorununu önlemek için teknoloji, hukuk, etik ve araştırma alışkanlıkları alanlarından kapsamlı bir önleme ve kontrol gerçekleştirilmelidir.Bu uluslararası bir fikir birliği haline gelmiştir. Ama açıkçası bu kilit en basit görünüyor ve onu gerçekten yapmanın zorluğu düşünülemez.

"Elektrik kesintileri", büyük teftişler veya sosyal denetim olsun, bu AI güvenlik kilitlerinin ardında AI etik sorunlarının önünde gizlidir.Günümüzün insanları tereddütleri paylaşıyor: insan doğasının özü çelişkili, ancak biz insanları taklit etmek istiyoruz. AI'nın tek tip kuralları vardır.

Ancak, güvenlik kilidinin masumiyetini kim garanti edecek?

Herhangi bir AI güvenlik koruma önleminden bağımsız olarak, alt satırda bir cümle var: Umarım AI, iyiyi ve kötüyü ayırt edebilir, iyilik onu takip edecek ve kötülük duracaktır.

Ve bu ne kadar kolay? Yapay zeka, insan toplumu tarafından üretilen daha fazla eğitim verisine ihtiyaç duyduğunda, her türlü insani değer yargısı da ona yansıtılır. İnsan toplumundaki bazı etik engeller kaçınılmaz olarak AI dünyasında yer almaktadır.

Örneğin, diğer AI'lar hata yaptığında AI sisteminin davranışını sona erdirip sonlandırmayacağını keşfetmeye çoktan başladık. Ancak bu, yanlış AI davranışının sınırının tanımlanmasını içerir. Yanlış davranışı kim işaretleyecek?

Google AI'nın bir zamanlar siyahları orangutanlar olarak tanıdığını hepimiz biliyoruz ki bu açıkça bir ayrımcılıktır. Ancak AI, kamu güvenliğinin zayıf olduğu bir mahallede polis konuşlandırmasının güçlendirilmesi gerektiğine karar veriyorsa, bu da bir tür ayrımcılık mı ve sonlandırılmalı mı? Bu sorun, California'da şiddetli tartışmalara yol açan Los Angeles Polis Departmanı tarafından kullanılan sistemde gerçekten ortaya çıktı.

Ayrıca, ülkeler arasındaki AI kuralları tutarlı olmalı mı? Bugün, giderek daha fazla AI şirketi, uluslararası endüstriyel kuruluşlar ve hatta devlet kuruluşları, AI'nın etik sorunlarına dikkat çekmeye ve uluslararası olarak birleşik bir AI etik kodu formüle etmeye başlıyor. Ancak birleşik bir AI spesifikasyonu, belirli ülkelerin gelenek ve alışkanlıklarını ihlal edecek mi? Bazı ülkelerde ve bölgelerde AI araştırmalarına engel olacak mı? Örneğin, AB'nin AI araştırma gizliliğini koruma politikası dünya için gerçekten uygun mu?

AI etik düzeyindeki bu neredeyse paradoksal sorunlar, tüm AI güvenlik kilidi teknolojileri ve endüstriyel davranışların karşılaştığı en derin düşmanlardır. Daha uzun vadeli geleceğe bakıldığında bile, insan davranışı yargısı AI'dan gerçekten daha mı iyi? Bazen, öngörülemeyen makine öğrenimi davranışını kesintiye uğratmak için teknolojiyi kullanmak aslında insan cehaletini ortaya çıkarır mı? Ya da teknoloji yaratmak için teknolojiyi kullanmanın yeni olasılığını sona erdirmek mi?

Bu soruların bugün gerçek bir cevabı yok. Bu aynı zamanda bugün yapay zekaya sıkı bir güvenlik kilidi koymanın hala imkansız olduğu anlamına geliyor. Ancak, yapay zekanın kara kutusunu ve yapay zekanın kendi kendini denetlemesindeki teknolojik gelişmeler, gerçekten de yapay zeka uygulamalarının güvenlik endeksini hızla artırıyor. Bugün medyada ortaya çıkan AI güvenlik sorunlarının çoğu hızla çözülmelidir.

Sorunlar ve çözümler her zaman dönüşümlü olarak ilerlemektedir.

Son olarak bu konuyu bitirmek için "bilim kurgu" yapalım:

İnsanların nihai AI güvenlik kilidi, AI'nın insanlığa uyandığı anı engellemek için kullanılmamalı mı? Ama bu hangi an? Bu anlık güvenlik kilidini anlayabiliyor musunuz, önce engellenmesi gerekmiyor mu?

Daha heyecan verici içerik için Titanium Media WeChat ID'yi (ID: taimeiti) takip edin veya Titanium Media Uygulamasını indirin

Yuan Shikainin Başkanlık Sarayını parçaladı ve Çan Kay-şekin bastonunu aldı. Qing Hanedanlığına isyan etti ve Japonyaya direndi, ancak nevrotik olduğunu iddia etti.
önceki
Acer Predator serisi ChinaJoy'daki çeşitli ürünler piyasaya sürüldü
Sonraki
HGUC 1/144 Neo Zeong Xinanzhou özel araba Neo Zeong
Xin Shixiang, WeChatin ekran pazarlamasını yasaklaması durumuna yanıt verdi / Douyin "bağımlılıkla mücadele sistemini" başlattı / Uber insansız araçlar yaya ölümlü kazalara neden oldu
Double Eleven arifesinde, neden herkes Uniqlo'yu "kapmaya" hazırlanıyor?
Mango Channel'da 16 yeni dizi, hangisini seçersiniz?
Bu renkli şarabı içtikten sonra ertesi gün Samanyolu'ndan işeyebileceğiniz söyleniyor!
"Saint Seiya" klasik karakter restorasyonu, Athena Gundam değişikliği
Aşık olmak istemediğiniz hareketli resmi görelim
PG 1/60 Farklı Renk Kılıç Takım Strike Gundam
Bir zamanlar gangsterdi, ancak hapisten çıktıktan sonra kardeşlerini ulusal çapta ünlü bir restoran açmaya götürdü ...
Erkek tanrıların evrimi, yıllar duygusaldır
IPhone X 10.000 yuan'a satıldı, telefon neden daha pahalı?
Çin'deki tek Turing Ödülü sahibi Yao Qizhi, Tsinghua'da açılan "Yao Sınıfı" nda hiç AI ünlüleri var mı?
To Top