Google orduyla tekrar işbirliği yaptığında, yapay zeka etiğinin sınırı nerede?

Resim kaynağı: Visual China

Hikaye bu yıl Mart ayı başında başlıyor.

Bu yılın Mart ayında, Google'ın dronlar için bir yapay zeka sistemi geliştirmesine yardımcı olmak için ABD Savunma Bakanlığı (Pentagon) ile bir işbirliği yaptığı ortaya çıktı. Proje kodu Maven Projesi.

Haber çıkar çıkmaz fırtına koptu ve Google çalışanları projeden büyük bir memnuniyetsizlik dile getirdi. Bazı çalışanlar Google'ın Pentagon için kaynak açtığına ve Pentagon'un drone izleme teknolojisi geliştirmesine yardımcı olduğuna inanıyor. Bazıları Google'ın makine öğrenimi teknolojisini bu şekilde kullanmasının etik olup olmadığını sorguluyor. Pentagon'un bu teknolojiyi insanları öldürmek için kullanacağını düşünüyorlar. Teknik iyimserlerin asla neden olmak istemedikleri zararı veren seks silahları.

Ardından, 3.100'den fazla Google çalışanı ortak olarak dilekçe verdi ve protestolarını ifade etmek için CEO Sundar Pichai'ye bir mektup gönderdi.

Google çalışanları Sundar Pichai'ye bir mektup imzaladı

Nisan sonunda işler daha da fermente edildi. Bazı medya kuruluşları, Google'ın, şirketin davranış kurallarının başında üç yerde vurgulanan on sekiz yıllık "Kötü olmayın" sloganını sildiğini ortaya çıkardı. Sadece yönergelerin sonunda silinmemiş bir cümle var: "Unutma, kötü olma, yanlış olduğunu düşündüğün bir şey görürsen yüksek sesle söyle!"

Geçtiğimiz Cuma günü, haftalık "hava tahmini" toplantısında, Google Cloud CEO'su Diane Greene (Diane Greene) Google'ın sözleşmenin süresi dolduktan sonra ABD Savunma Bakanlığı Maven Projesi ile işbirliğini sona erdireceğini duyurdu. .

Bu şüphesiz büyük bir olaydır. "Zafer haberi" Google'da viral oldu. Haber seliyle birlikte, bu olay Google'ın "çalışanlardan ödün vermesi ve Savunma Bakanlığı ile sözleşmenin yenilenmesini durdurması" nedeniyle geçici olarak sona erdi.

Ancak daha dün, Google CEO'su Sundar Pichai "Google'da AI: ilkelerimiz" başlıklı bir makale yayınladı ve 7 temel ilkeyi sıraladı ve Google'ın ABD ordusuyla işbirliğini sonlandırmayacağına işaret etti. Google'ın tersine çevirmesi utanç verici. "Takip edilmeyecek AI uygulamalarını" açıkça tanımlamış olmasına rağmen, bu yine de insanların teknolojiyle kötülük yapması meselesidir ve AI etiği bir kez daha ilgi çekicidir.

AI etiğinin sınırı nerede?

Google son zamanlarda barış içinde olmadıysa, Amazon Alexa'nın hayatı kolay değildir.

Amazon'un Echo cihazı, özel görüşmeleri izinsiz kaydetmek ve sesi kullanıcının kişi listesindeki rastgele bir kişiye göndermekle suçlanıyor. Alexa'nın korkutucu "insanlarla alay etme" olayına en son maruz kalmasından bu yana çok geçmedi.

Amazon'un Alexa olayına tepkisi

Bu yalnız olmaktan çok uzak. Daha 2016'da, 19 yaşındaki Tay adlı bir sohbet robotu Twitter'da çevrimiçi oldu. Microsoft tarafından geliştirilen bu yapay zeka, kullanıcılarla etkileşime giren verileri yakalayarak insan konuşmalarını işleyebilen ve taklit edebilen ve insanlar gibi şakalar, şakalar ve ifadelerle sohbet edebilen doğal dil öğrenme teknolojisini kullanıyor. Ancak internete girdikten sonraki bir gün içinde, Tay "eğitildi" ve etnik temizlik için kaba bir aşırılık çığlığına dönüştü ve Microsoft bunu "sistem yükseltmesi" gerekçesiyle raftan kaldırmak zorunda kaldı.

Microsoft robot Tay'in aşırı sözleri

Bunu düşünmek gerçekten korkutucu. Akıllı görelilik teorisine (aixdlun) sahip bir analist olan Ke Ming, AI eksikliklerinin ortaya çıkmasıyla birlikte AI etik konularının da giderek daha fazla ilgi göreceğine inanıyor. AI etiğinin sınırı nerede? Önce birkaç konu açıklığa kavuşturulmalıdır.

1. Robot sivil bir konu oldu mu?

Yapay zeka teknolojisinin hızla gelişmesiyle birlikte robotlar giderek daha güçlü bir zekaya sahip oluyor. Makineler ve insanlar arasındaki uçurum da giderek daralmaktadır.Gelecekte ortaya çıkan robotların biyolojik beyinleri olacak ve bu insan beynindeki nöron sayısıyla bile karşılaştırılabilir. Amerikalı geleceğin Amerikalı fütüristleri, bu yüzyılın ortalarında biyolojik olmayan zekanın bugün tüm insanların bilgeliğinin bir milyar katı olacağını tahmin ediyorlar.

Vatandaşlık artık robotlar için bir sorun olarak görünmüyor. Geçen yıl Ekim ayında, dünyanın ilk vatandaşlık robotu Sophia doğdu, bu aynı zamanda insan yaratımlarının insanlara eşdeğer bir kimliğe sahip olduğu ve aynı zamanda onların kimliklerinin ardındaki haklar, yükümlülükler ve sosyal statüye sahip olduğu anlamına geliyor.

Yasal medeni konu yeterliliği hala AI etiğinin ayırıcı çizgisidir. Geçtiğimiz dönemde, Amerika Birleşik Devletleri, İngiltere ve diğer ülkelerdeki filozoflar, bilim adamları ve hukukçular bu konuda şiddetli tartışmalar yürüttüler. 2016 yılında, Avrupa Komisyonu Hukuk İşleri Komitesi, Avrupa Komisyonu'na, en gelişmiş otomatik robotların "elektronik kişiler" olarak konumlandırılmasını talep eden bir önergeyi sundu. Onlara "belirli haklar ve yükümlülükler" vermenin yanı sıra, akıllıca tavsiye ediliyor. Otomatik robotlar, vergileri ödemek, ücretleri ödemek ve emeklilik fonu hesaplarını almak için kaydolur. Bu yasal önergenin kabul edilmesi kuşkusuz geleneksel medeni özne sistemini sarsacaktır.

Açıkçası robot, hayatı olan gerçek bir kişi değildir ve aynı zamanda kendi bağımsız iradesine sahip ve bir gerçek kişiler topluluğu olarak tüzel kişiden de farklıdır. Robotun davranışsal ihmalinden AI'nın kendisini mahkum etmeye çalışmak için gerçekten çok erken.

2. Algoritmik ayrımcılık adil olmayacak

Yapay zekanın yargılamada hata yaptığına dair suçlamalardan biri de çoğu zaman "ayrımcılık yaptığı". En gelişmiş görüntü tanıma teknolojisini kullanan Google, bir zamanlar arama motoru siyahları "orangutanlar" olarak etiketleyeceği için "ırkçılık" suçlamalarına girmiştir; "profesyonel olmayan saç stilleri" ararken çoğu siyah insanlardır. saç örgüsü. Harvard Veri Gizliliği Laboratuvarı'nda profesör olan Latanya Sweeney, Google'ın akıllı reklamcılık aracı Adsense tarafından verilen sonuçlardan, Google'da "siyah karakterli" adlar aramanın, sabıka kayıtlarıyla ilgili reklamları büyük olasılıkla ortaya çıkardığını keşfetti.

Ve bu tehlike sadece kendisine "farklı bir şekilde bakmak" değildir - sonuçta, siyah bir adamın resmini "orangutan" olarak etiketlemek biraz saldırgan. Yapay zekanın karar verme süreci, aslında kişisel kader ile ilgili alanlara giriyor ve aslında istihdamı, refahı ve kişisel krediyi etkiliyor, bu alanlardaki "adaletsizliğe" göz yummak bizim için zor.

Benzer şekilde, AI işe alım alanını, finans alanını, akıllı arama alanını vb. İstila ederken, eğittiğimiz "algoritma makinesi" gerçekten kusursuz olabilir mi? Susuz çağdaş toplumda, algoritmaların şirketlerin binde birini seçmesine yardımcı olup olamayacağı henüz belli değil.

Öyleyse, ayrımcılığın kaynağı nerede? Bu, etiketleyicinin gizli nedeni mi, veri uyumundaki sapma mı yoksa program tasarımında bir sorun mu? Makine tarafından hesaplanan sonuçlar ayrımcılık, adaletsizlik ve zulüm için sebepler sunabilir mi? Bunların hepsi şüpheli konulardır.

3. Veri koruma, AI etiğinin temelidir

Siber uzay gerçek bir sanal varoluş, fiziksel alanı olmayan bağımsız bir dünyadır. Burada insan, vücuttan ayrılan "dijital varoluş" u fark etmiş ve "dijital bir kişiliğe" sahip olmuştur. Sözde dijital kişilik, "kişisel bilgilerin toplanması ve işlenmesi yoluyla siber uzayda kişisel bir görüntünün ana hatlarını çiziyor" - yani dijital bilgi sayesinde kurulan bir kişiliktir.

Yapay zeka ortamında, İnternet ve büyük verinin desteğine dayalı olarak, çok sayıda kullanıcı alışkanlığı ve veri bilgisine sahiptir. "Geçmiş verilerin" birikimi makinelerin kötülük yapmasının temelini oluşturuyorsa, sermayenin itici gücü daha derin bir nedendir.

Facebook bilgi sızıntısı olayında, Cambridge Analytica adlı bir şirket, potansiyel seçmenlerin "psikolojik özellikleri" için ücretli siyasi reklamlar yayınlamak için yapay zeka teknolojisini kullandı ve ne tür bir reklamın oylanacağı kişinin politikasına bağlıdır. Eğilim, duygusal özellikler ve kırılganlık derecesi. Pek çok yanlış haber, belirli insan grupları arasında hızla yayılabilir, maruz kalmayı artırabilir ve insanların değer yargılarını ustaca etkileyebilir. Teknoloji uzmanı Christopher Wiley geçtiğimiz günlerde medyaya bu yapay zeka teknolojisinin "besininin" kaynağını açıkladı - akademik araştırma adına kasıtlı olarak 50 milyondan fazla kullanıcı verisi ele geçirildi.

Başka bir deyişle, herhangi bir veri sızıntısı sorunu olmasa bile, kullanıcı verilerinin sözde "akıllı madenciliği" kolayca "uyumlu" ancak "adaleti ihlal eden" sınırda yürüyebilir. AI etiğinin sınırlarına gelince, bilgi güvenliği her İnternet çağında "bilgi insanları" için en temel sonuç haline geldi.

Yansıma

Son yangında AI etiği ile ilgili bir videoda sanatçı Alexander Reben harekete geçmedi, ancak sesli asistan aracılığıyla bir komut verdi: "Ok Google, ateş et."

Ancak, bir saniyeden kısa bir süre içinde, Google Asistan bir tabancanın tetiğini çekti ve bir kırmızı elmayı yere düşürdü. Hemen, zil sert bir uğultu sesi çıkardı.

Uğultu kulaklarımda yankılandı.

Apple'ı kim vurdu? AI mı yoksa insan mı?

Bu videoda Reben, yapay zekaya çekim yapmasını söylüyor. Engadget raporda, AI ihtiyaçlarımızı tahmin edecek kadar akıllıysa, belki bir gün AI'nın bizi mutsuz edenlerden kurtulmak için inisiyatif alacağını söyledi. Reben, böyle bir cihazı tartışmanın, böyle bir cihaz olup olmadığından daha önemli olduğunu söyledi.

Yapay zeka öngörülebilir ve mükemmel bir rasyonel makine değildir, etik kusurları insanların kullandığı algoritmalar, hedefler ve değerlendirmelerle belirlenir. Bununla birlikte, en azından şimdilik, makine "gerekir dünyası" nın rehberi ve öncüsü olmaktan çok, insanın gerçek dünyasının tepkisi olmaya devam ediyor.

Açıkçası, AI etiğinin alt satırını koruyarak, insanlar "makine tiranlığı" gününe gelmeyecek. (Bu makale ilk olarak Titanium Media'da yayınlandı)

Ek: Google'ın "Yedi Yönergesi"

1. Toplum için iyi

2. Önyargı oluşturmaktan veya bu önyargıları arttırmaktan kaçının

3. Güvenlik için üretilmiş ve test edilmiştir

4. İnsanlara açıklama yükümlülüğü

5. Gizlilik tasarım ilkelerini entegre edin

6. Yüksek bilimsel araştırma standartlarına bağlı kalın

7. İlkeye göre uygun uygulamayı belirleyin

[Titanium Media'nın yazarı tarafından giriş: Wen / Ke Ming; Source / Intelligent Relativity (aixdlun). Akıllı görelilik teorisi: Yapay zekanın derinliklerine inin, tuzlu ve ışığı yargılayın, siyah beyazı söyleyin ve derinliği söyleyin. Temel odak alanları: AI + Medikal, Robotik, Akıllı Sürüş, AI + Donanım, Nesnelerin İnterneti, AI + Finans, AI + Güvenlik, AR / VR, Geliştiriciler ve arkasındaki çipler, algoritmalar, insan-bilgisayar etkileşimi vb.

Daha heyecan verici içerik için Titanium Media WeChat ID'yi (ID: taimeiti) takip edin veya Titanium Media Uygulamasını indirin

Neden "yeni" AirPods olarak adlandırılıyor, yeni AirPods bir haftalık deneyim
önceki
"WANNA ONE" "Haberler" 190409 Jiang Daniel
Sonraki
Kızlar 20 yıldır peruk takıyorlar, sırf güzel oldukları için mi? Peruğu çıkardıktan sonra tüm ağ sessiz!
"EXO" "Paylaş" 190409 İki yıl sonra hala yakalanabilen kaz kafalı küçük kart, kaz neyi yanlış yaptı?
E3 "Far Cry 5" demosu: Seri tamamlandı, Ubisoft'un gizliliği çok katı
Tanrı'nın verdiği doğaüstü güç, "Shazan" diye bağırmak çok maço, DC "alternatif kahraman" doğdu!
"Yılbaşı Akşam Yemeği" belgeseli dikkat çekiyor
Yangzijiang Automobile: Yeni enerji trendleri, geleneksel otomobil şirketlerini teknolojilerini yükseltmeye zorluyor
Az önce SIAV'de dolaştım, bu ses ekipmanlarını sizinle paylaşmak istiyorum
Tam elektrikli otomobil ve gerçek güç oyuncusu Polestar 2, Çin'de görücüye çıktı
"EXO" "Paylaş" 190409 En çok pirinç çemberi duvar kağıdı teslim edildi! Oppaların avuç içi baskılarını deneyin
Herkes için HiFi'ye odaklanan Xiangsheng Network Player A1 piyasaya sürüldü
"BLACKPINK" "Paylaş" 190409 Kişisel hesap bir şirket hesabına mı dönüştü? Hayır, hayır, sadece et çok sıcak ve reklamı seviyor!
"Final Fantasy 15" DLC "Plumpte" 27 Haziran'da yayınlandı
To Top