Algoritmaların adilliğini ölçmek neden her zaman zordur?

Tam metin 3852 Kelimeler, tahmini öğrenme süresi 12 dakika

Kaynak: Pexels

Algoritmik adalet diyaloğu, sosyal ahlakın bir büyüteci haline geldi.

Algoritmanın sapması, toplumun kaotik geçmişini yansıtıyor. Silinen tüm sapmalar hala verilerde gizleniyor, yeniden ortaya çıkma fırsatını bekliyor olabilir.Bunun nedeni kısmen, insanların yanlışlıkla bu sapmaları yazılıma programlamış olmaları ve algoritmanın bu sapmaları artırmasıdır.

Yüzeyde, algoritma sapması, ekonometrik ve istatistiksel yöntemlerle çözülebilen bir mühendislik problemi gibi görünüyor. Bununla birlikte, adil, adil ve etik bir sonuç sağlamak için, bu sadece veri biliminden gelen bir zorluk değildir. Bir yapay zeka öğrenme programı kurmak manuel müdahale gerektirdiğinden, en adil programı kurmak büyük bir sorumluluk ve azim gerektirir.

2016'da Google Fotoğraflar, iki Afrikalı Amerikalı'nın fotoğraflarını "goriller" olarak sınıflandırdı.

İki yıl sonra, Google'ın olaya tepkisi, basitçe "goril" kelimesini sınıflandırma veritabanından silmekti.

2016 verileri, Amazon'un Avrupalı ve Amerikalı tüketiciler için "aynı gün teslimat" hizmetinin eşit olmadığını göstermektedir. Florida'da, suç işleme riskine dayalı tutukluluk ve şartlı tahliye öneren algoritma, Afrikalı Amerikalılar arasında daha yüksek bir hata oranına sahiptir, yani başka bir suç işlemeyecek olan Afrikalı Amerikalıların, önerilen gözaltı olarak algoritma tarafından yanlış değerlendirilme olasılığı daha yüksektir.

Tarafsız kelimeleri cinsiyete özgü zamirlere çevirirken, Google'ın word2vec sinir ağı çevirisi cinsiyet kalıp yargılarını yansıtır. Örneğin, "doktor" (veya "patron", "finansçı" vb.) Genellikle "o" olarak çevrilir ve "Hemşire" (veya "ev hanımı", "dadı" vb.) "Kadın" olarak çevrilir.

Bu sorunlar bir dizi nedenden kaynaklanmaktadır.

Bazı sorunlara potansiyel sosyal kökler neden olur; makine öğrenimi algoritması tarafından işlenen veriler önyargılı kişiler tarafından oluşturulmuşsa, ortaya çıkan algoritma da önyargılıdır. Bazı problemler sadece istatistiksel yapaydır; makine öğrenme algoritması, halk için en uygun algoritmayı bulacak şekilde eğitilirse, bu algoritmayı uygulamayan azınlık gruplarının sınıflandırma ve tavsiye uyarlanabilirliği zayıf olacaktır. Yukarıdaki iki nedenin birleşiminden kaynaklanan bazı problemler de var: renkli gözlük takan insanlar önyargılı algoritmalara sahipler ve bu algoritmalara dayanan öneriler mantıksız stereotipleri şiddetlendirdi. Örneğin, yoksul topluluklar üzerindeki daha sıkı kamu güvenliği denetimi, bu topluluklardaki suç raporlarının sayısını artırdı ve bu da polis analizinin bu topluluklara daha fazla polis gücü tahsis edilmesini önererek kötü bir döngüye girmesine yol açtı.

Sorun şu ki, algoritma adaleti için net bir tanım ve önlem yok. Algoritmaların adilliği hakkındaki tartışma, sosyal ahlakın bir büyüteci haline geldi. Adilliğin nasıl tanımlanacağı ve ölçüleceği konusundaki tartışma, aynı zamanda bugün dünyadaki ahlak tartışmasının daha geniş bir yelpazeye yayıldığını da yansıtıyor.

Bugün, algoritmik adaletin nasıl tanımlanıp ölçüleceğine dair tartışma, devam eden daha geniş ahlaki konuşmayı yansıtıyor.

Geçenlerde Stanford Üniversitesi Bilgi İşlem Politikası Laboratuvarı yönetici müdürü Sharad Goel ile röportaj yaptım. Röportaj, algoritma adaleti konusundaki bazı uygulama çalışmalarını, özellikle algoritma adaleti kavramına ilişkin üç görüşün avantaj ve dezavantajlarını tartıştı. Bu makale bu bölümü basitleştiriyor Uzmanlar daha kapsamlı bir açıklama için bu makaleyi okuyabilir.

Kaynak: Pexels

Üç adalet kavramı

Belirli grup etiketleri devre dışı bırakılmalıdır.

Bu görüş, algoritmanın tahminlerde bulunurken belirli korumalı kategorileri dikkate almaması gerektiğidir. Örneğin, algoritmalar, ırka veya cinsiyete dayalı olarak kredi uygunluğunu veya tekrar suç işlemeyi öngörmemelidir. Bu adaleti sağlama yöntemi basit ve anlaşılması kolaydır, ancak iki ana sorun vardır:

1. Korunan kategoriler için kabul edilebilir ve kabul edilemez zamirleri ayırt edin. Korunan kategori algoritmadan çıkarılmış olsa bile, onun tarafından açıklanan istatistiksel varyans diğer mevcut değişkenleri kullanma eğiliminde olacaktır. Örneğin, bir kredi başvurusu etnik faktörlerden etkilenmeyecek olsa da, etnik kökenle yakından ilgili posta kodları, ayrımcılığı maskeleyen modelde tahminlerin daha yüksek bir oranını işgal edecektir. Aslında posta kodları yeni bir etnik değişken haline geldi. Hangi zamirlerin korunan kategoriler için mantıksız ikameler olduğunu ve hangilerinin kabul edilebilir ve farklı değişkenler olduğunu belirlemek zor ve tartışmalıdır. Sınırların bu bulanıklaşması başka bir sorunu ortaya çıkarır, yani "belirli etiketlerin" yasaklanması.

2. Sosyal (bazen kişisel) maliyetler yüksektir. Korunan kategorilerin genellikle algoritmik tahmin gerektiren davranışlar üzerinde derin bir etkisi vardır. Hepimizin bildiği gibi, sigortanın erkeklere daha fazla ödediği için erkek sürücüler için sigorta primi daha yüksektir. Algoritmayı tasarlarken cinsiyet faktörünü dışlamak erkek sigorta primlerini düşürecek ve kadın sigorta primlerini artıracaktır. Risk algoritmasında cinsiyet faktörlerinin ortadan kaldırılıp kaldırılmaması tartışmalı, böylece kadınlar gerçekte taşıdıklarından daha fazla para harcıyorlar. Kısaca, bu kesin bir eşitlik yaratsa da, orantılı adalet işaretini görmezden geliyor gibi görünüyor. Bazı insanlar bu yöntemin aslında haksız olduğunu düşünüyor.

Daha yüksek riskler ceza adaleti ortamına yansır. Yeniden suç işlemeyi tahmin etmek için algoritmadan cinsiyet ve ırk gibi korunan kategorilerin kaldırılması, algoritmanın etkinliğini azaltacaktır, bu da daha düşük gerçek suç riskine sahip daha fazla kişinin gözaltına alınacağı ve daha yüksek riske sahip olanlar serbest bırakıldığı anlamına gelir. Sonuç, özellikle suç oranlarının arttığı topluluklarda genel suç oranlarında bir artıştır. Şiddet içeren suçların çoğunun zaten tanıdığınız insanlar arasında gerçekleştiğini unutmamak önemlidir. Bu nedenle, algoritmanın etkinliği düştüğünde, halihazırda vahşet yaşamış topluluklar daha fazla ikincil vahşet yaşayabilir (ancak, algoritmada korunan kategorilerin kullanımına hala izin verilmemektedir).

Çoğu insan (yasa dahil), açık bir gerekçe bulunmadığında, korunan kategorilere dayalı kararların ahlaki olarak kınanması gerektiğine inanmaktadır. Zorluk, bu korumalı kategorileri kullanmanın zararlı sonuçları azaltmada etkili görünmesidir. Takas kapsamında, bazı insanlar algoritmik adaleti tanımlamak için başka yöntemler kullanır. Adaleti sağlarken tahminlerin doğruluğunu en üst düzeye çıkarmanın bir yolu var mı (anlamlı korunan kategorilerin dahil edilmesine izin vererek)?

Farklı gruplarda algoritma performansı tutarlı olmalıdır.

Irk ve cinsiyet gibi korunan kategorileri (ten rengi veya cinsiyet hariç tutmak gibi) göz ardı etmenin aksine, adaleti sağlamanın bu yolu, algoritmanın performans göstergelerinin tüm korunan kategorilerde aynı olması gerektiğini varsayar. Örneğin, beyaz suçlular ve siyah suçlular arasındaki tekrar suçlama riskini değerlendirmek için bir algoritma aynı tahmin hatası değerine sahip olmalıdır. Bu yöntem, ten renginin sezgiselliğini göz ardı etmese de, en azından algoritma tahminini teoride daha verimli hale getirir ve hangi zamirlerin (ırkın orijinal ikame değişkeni olarak posta kodu gibi) algoritmaya dahil edilip hangilerinin olamayacağına karar vermekten kaçınabilir.

Yine de bu yöntem hala mükemmel değil.

Sebepleri anlamak için, farklı grupların farklı ortalama puanları, sapmaları, eğimi, basıklığı ve diğer göstergelere sahip insan gruplarını temsil ettiğini anlamak önemlidir. (Yukarıdaki şekilde gösterildiği gibi, algoritmanın her popülasyon eğrisinde aynı işlemi gerçekleştirmesine izin vermek için aynı kesme eşiğini kullanmayı hayal edin). Genel olarak konuşursak, adalet söz konusu olduğunda, hangi gruba dahil olurlarsa olsunlar herkesin tek tip standartlara uyabileceğini umuyoruz. Ancak farklı popülasyonlar için aynı sınır eşiği kullanılırsa, farklı popülasyonların tahmin gücü ve hata oranı muhtemelen farklı olacaktır - bu sadece istatistiksel ilkelerin bir sonucudur. Politikalar ve düzenlemeler, şirketleri korumalı gruplarda aynı performansa sahip algoritmaları kullanmaya zorlarsa, bu, şirketlerin ve kurumların istatistiksel tekniklerin ve çalışan gizlilik anlaşmalarının etkisi altında ayrımcılık yapmaları için gizli teşviklere eşdeğerdir.

İşletmeler ve kurumların genellikle iki seçeneği vardır: 1. Algoritmanın performansını farklı gruplar arasında eşit olacak şekilde kodu manipüle ederek algoritmanın kalitesini ve verimliliğini azaltın (bu seçim, daha önce tartışılan yüksek serbest bırakma riski gibi potansiyel tehlikeleri de beraberinde getirir) Suçluların yeniden suç işleme oranı). 2. Farklı gruplar için farklı algoritma eşikleri benimseyin, böylece farklı gruplar (cinsiyet, ırk, cinsel yönelim, vb.) Farklı kesme eşiklerine sahip olsun. Ancak bunun adalet kavramını ihlal ettiği ve genellikle ahlaka ve hatta hukuka aykırı olduğu açıktır (pozitif ayrımcılık gibi bariz bir istisna dışında). Zorunlu algoritma performans eşitlemesinin farklı gruplar için olumsuz etkileri yalnızca teorik değil, siyah ve beyaz vatandaşlar için tekrar suç işleme risk puanları veri tabanı ve polisin bu gruplarda kaçak bulması olasılığını öngören bir veri tabanı gibi kaydedildi.

Algoritma puanları, farklı grupların üyeleri arasında aynı anlama sahip olmalıdır.

Algoritma adaletini sağlamanın üçüncü yolu, algoritmanın puanlarının korunan kategorilerde aynı anlama sahip olmasını sağlamaktır (örneğin, bir kadın sigorta başvurusunda X şeklinde bir risk değerlendirme puanı alırsa, o zaman sigorta tutarı puanla aynı olmalıdır. Erkekler eşittir). Yüzeysel olarak, bu yöntem beklentileri karşılamış ve adil görünüyor. Ancak sorun, kasıtlı ayrımcılık varlığında adaleti garanti edememesidir, bu nedenle bu adil tanıma dayanan algoritmik kurallar, yine de belirsiz ayrımcılığın bundan yararlanmasına izin verir. Belirsiz ayrımcılık iki durumu içerir:

1. Algoritma sınır eşiği etrafında dalgalanma endeksini kontrol ederek, ikame değişkenleri (ırk yerine posta kodu gibi) yine de grubu haksız bir şekilde bölecektir. Örneğin, kredi temerrüdü riski daha yüksek olan bireylerle daha düşük riskli bireylerin eşleştirilmesi, sınır eşiğine yakın korunan kategorinin risk puanını keyfi olarak kontrol edebilir. Bu, esasen algoritmanın kırmızı çizgisine bağlanabilir.

2. Daha önce belirtildiği gibi, farklı gruplar farklı istatistiksel risk eğrilerine karşılık gelir. Grup içindeki niceliksel göstergeler farklıysa (örneğin, bir kişinin özel puanının yerine "yüksek", "orta" ve "düşük" etiketlerinin kullanılması), gerçek risk eğrisindeki fark, korurken farklı grup sınırlarını maskeleyebilir. Korunan kategorilerde (ırk, cinsiyet vb.) Yüksek riskli etiketlere sahip kişilerin benzer oranlarda suç, ihlal ve kaza işlediği yanılsaması. Örneğin, yukarıdaki şekilde, gruptaki her bir kişinin yüzdesine bağlı olarak, onları "yüksek", "orta" ve "düşük" risklerle etiketlemek, farklı gruplar için etkili kesme eşikleri oluşturacaktır ve etiket "yüksek" tir. Riskli korunan gruplar için, algoritma performansı potansiyel olarak tutarlı kalabilir.

B2C şirketleri bu teknolojileri nadiren kullanıyor gibi görünüyorlar.Genellikle ayrımcılık nedeniyle kar kaybına uğruyorlar, ancak B2B şirketleri bu motivasyona sahip. Örneğin, reklam eşleştirme şirketleri, reklam hedeflerinin korunan kategorilere dayandığını kanıtlamak için belirli grupları sınır eşiğinin üstüne veya altına itme teşviklerine sahiptir. Siyasi kampanyalar veya lobicilik grupları da stratejik alt gruplar arasında kamuoyunu etkilemek için bu yöntemlerle kolayca çekilirken, bazı "ekmek kırıntıları" ve şaşırtıcı "kırıntıları" bırakıyor. (Amerikalı milletvekilleri Facebook'un iş modelini anlamazlarsa, bu sorunu da iyi anlamayacaklarına inanıyorum.)

meydan okuma

Kaynak: Pexels

Algoritma adaletini tanımlamanın her yönteminin avantajları ve dezavantajları vardır. En sıkıntılı şey, her yöntemin eksikliklerinin olması değil, bu yöntemlerin temelde uyumsuz olmasıdır.

Adalet tespiti için temel olarak korunan kategori alınırken, göz ardı edilemez. Bir yandan gruplar arasında benzer sonuçlar elde etmek için benzer risk puanlarına ihtiyaç duyulmamalı, diğer yandan benzer algoritma hata oranlarına ihtiyaç duyulmalıdır. Algoritmik adaleti tanımlama yarışı hala devam ediyor, ancak ahlaki psikoloji geçmişi birçok insanı bu çalışmayı askıya almaya sevk etti.

Sektör, "adalet nedir" konusunda bir fikir birliğine varamaz ve algoritma adaletini bir matematik ve bilgisayar bilimi problemi olarak görmek fazla iyimserdir. Sorun, karmaşık bir veri küpünü çözmek değil, mağara duvarlarında yalnızca gölgeleri yakalayabilen mükemmel platonik adalet biçimini göstermeye çalışmaktır. Nihayetinde hangi çözümlerin benimseneceğini ve bu çözümlerin maliyetinin düzenleyici ve ekonomik teşviklerle etkileşim halinde olduğunu tahmin etmek zordur.

Son analizde, algoritma adaletinin özü sosyal bir ahlaki konu olmalıdır.

Yorum Beğen Takip Et

Yapay zeka öğrenme ve geliştirmenin kuru mallarını paylaşalım

Yeniden yazdırıyorsanız, lütfen arka planda bir mesaj bırakın ve yeniden yazdırma şartnamelerine uyun

Android geliştirme mühendisinin anlatımı: 2 yıllık geliştirme, 7 deneyimi özetledim
önceki
Bugün Core Voice | Python 2.7 desteği resmi olarak sona erdiriyor: Python 3 burada
Sonraki
Ağlamak kolay! Geliştiriciler için sahip olması gereken 8 web uygulaması
Teknik borcu boşaltın! Veri bilimcilerin kısa Python koduna ihtiyacı var
Yetersiz zaman? Pandaların daha hızlı uygulanmasını sağlamak için bu kelimeyi ekleyin
Tembel hileler: Pandas kodu yazmaktan nasıl kaçınacağınızı öğretin
Core Voice Today | Yeni Yıl! CCTV 2019 bilim ve teknoloji haberlerini duyurdu, bunu biliyor musunuz?
Irak parlamentosu, yabancı askerlerin konuşlandırılmasına son verme kararı aldı
Kalbini ısıt! Yaşlı adam büyüteci aldı ve bu teşekkür mektubunu sağlık personeline yazdı ...
Yeni yılda ilk kez toplam RRR düşürülecek Bugün 800 milyardan fazla kırmızı zarftan kim faydalanacak?
Aşırı fakir köyün ilk sekreteri zamana karşı yarışıyor: 20 ayda 100.000 mil yol aldı ve 15 lastiği değiştirdi | Araştırma · Gözlem
Çatışmanın tırmanması! Irak birçok yerde bombalandı ve ABD askerleri arttı Orta Doğu savaşı yeniden alevlendirecek mi?
90'lar sonrası "küçük kardeş" Pekin'e giren insanlara sıcak bir şekilde "eve" gitmeleri için eşlik etti.
Liuzhou, Guangxi, yoksul insanların yoksulluktan kurtulmalarına yardımcı olmak için elde taşınır video görüşme platformunu başlattı
To Top