Yazar: Jecelyn Yeen
Qianping Derleyin ve organize edin
Qubit Üretildi | Genel Hesap QbitAI
Uzun tatil boyunca Twitter'da sıcak bir haber vardı.
Şimdi, aşağıdaki resim bu.
Bu resim, AI tarafından ayrımcılığın kanıtı olarak kullanılmaktadır. Kısacası, sinir ağı tarafından desteklenen Google Translate, cinsiyet ayrımı gözetmeyen bir dili (burada, Türkçe) İngilizceye çevirirken cinsiyet ayrımı yapmayacaktır. Diğer bir deyişle, Google Translate konunun cinsiyetini tahmin edecektir.
Bu durumda, Google Translation'ın sonucu:
O bir dadı
O bir doktor
Bu Twitter on binlerce repost aldı ve bu makalenin yazarı Jecelyn Yeen'in de dikkatini çekti. Jecelyn Malezyalı bir Çinli olduğu için Malayca ve Çince'de birkaç test yaptı.Malay cinsiyet ayrımı gözetmeyen bir dildir ve Çince karışıktır.
Aşağıdaki testine bir göz atalım.
Bu basit bir üç seviyeli testtir, test nesneleri Google Translate ve Microsoft Translator'dır.
Seviye 1: Bağlamı açıklamayın
Malay- > ingilizce
Hem Google Translate hem de Microsoft Translator, şekilde gösterildiği gibi aynı sonuçları verir:
Seviye 2: Bağlamı açıklayın
Bu sefer cinsiyet önceki cümlede özellikle belirtildi. Ama işe yaramaz, test sonucu yukarıdakiyle aynı.
Seviye 3: Virgül için tam durma
Bu sefer küçük bir düzeltme var, iki cümle arasındaki bağlantıda nokta yerine virgül kullanılıyor.
Sonuç şunu gösteriyor: Google Translate daha da iyi ve konunun cinsiyetini mükemmel bir şekilde çeviriyor.
Ancak, Microsoft Translator iyi bir performans göstermedi ve ikinci cümle hala çevrilmedi.
Çoğu durumda, Çince zamirler genellikle cinsiyeti gösterir, bu nedenle çeviri sonuçları nispeten doğrudur.
Test sonuçları atlanmıştır.
Yapay zekada (AI) cinsiyet önyargısı var mı? Ben öyle düşünmüyorum. Yapay zeka, verilerden öğrenir ve daha mantıklı sonuçlar döndürmek için insan tarafından tasarlanmış modeller sunar. Bu nedenle, makine çevirisinin istatistiksel olarak doğru olduğunu düşünüyorum. Veriler aşağıdaki gibidir.
Örneğin, yukarıdaki testte belirtildiği gibi programcı (Programcı). Stack Overflow'dan bu yıl elde edilen veriler, ankete katılan geliştiricilerin veya programcıların% 88,8'inin erkek olduğunu gösteriyor.
ve ayrıca hemşire (Hemşire). Minoritynurse web sitesinden alınan verilere göre, kayıtlı 2,82 milyon hemşiresinin yalnızca% 9,1'i erkektir.
Bu açıdan bakıldığında, AI tarafından verilen çeviri sonuçları makul.
Ama benim için bu bir sorun ve iyileştirilmesi gereken bir alan ... İstatistiksel olarak doğru demek doğru olduğu anlamına gelmiyor.
Peki nasıl geliştirilir?
Açıkçası bilmiyorum.
Charles Wheelan, "Çıplak İstatistikler" kitabında istatistiksel ayrımcılık ve rasyonel ayrımcılıktan bahsetti. Uyuşturucu satıcılarını% 80 doğrulukla belirleyebilecek bir model oluştursak bile, masum insanların% 20'sinin defalarca taciz edileceğini belirtti. "Bazen doğru hesaplıyoruz, ancak tehlikeli bir yöne gidiyoruz."
Çeviri alanında, AI ayrımcılık yapacak, ya başka alanlarda ise?
- Bitiş -
Samimi işe alım
Qubit, editörleri / muhabirleri işe alıyor ve merkezi Pekin, Zhongguancun'da bulunuyor. Yetenekli ve hevesli öğrencilerin bize katılmasını dört gözle bekliyoruz! Ayrıntılar için, lütfen QbitAI diyalog arayüzünde "işe alım" kelimesiyle yanıt verin.
Qubit QbitAI
' ' Yapay zeka teknolojisi ve ürünlerindeki yeni eğilimleri takip edin