AI önyargılı olabilir mi?

Yazar: Laura McKinney
Yaratılış Tarihi: 5 Nisan 2021
Güncelleme Tarihi: 26 Haziran 2024
Anonim
AI önyargılı olabilir mi? - Teknoloji
AI önyargılı olabilir mi? - Teknoloji

İçerik


Paket servisi:

Son yıllarda, AI giderek daha fazla kabul gördü ve güzelliği değerlendirmekten, yeniden değerlendirme riskini değerlendirmeye kadar her şeye uygulandı. Bunu yaparken, bazı durumlarda önyargı ve ayrımcılığı destekleyen standartları da onaylamıştır.

Teknolojinin ilerlemesi, bilgiye ve fırsata erişimi gerçekten demokratikleştirme potansiyeline sahiptir. Bununla birlikte, bazı durumlarda toplumumuzda bazı insanların diğerlerinden daha eşit olduğu fikrini pekiştirecek şekilde kullanılır.

Yapay zekanın (AI) kasıtlı olarak belirli kategorileri dışlamak için kullanıldığı veya insan programcıları tarafından ayrımcı bir etkiye sahip gömülü önyargıyı yansıttığı aşağıdaki yedi örnekten gördüklerimiz.

AI Güzellik Yanlılığı

Güzellik seyircinin gözünde olabilir, ancak bu öznel görüş AI'yı programlayabildiğinde, programda önyargılı olursunuz. Rachel Thomas, 2016 yılında beauty.ai tarafından yapılan bir güzellik yarışmasında böyle bir olay olduğunu bildirdi. Sonuçlar, daha açık tenlerin karanlık olanlardan daha çekici olduğunu gösterdi.


Ertesi yıl “Fotoğraflar için filtreler oluşturmak için sinir ağlarını kullanan FaceApp, insanların cildini aydınlatan ve onlara daha fazla Avrupa özelliği veren bir“ sıcaklık filtresi ”yarattı.”

Dillerde Toplumsal Cinsiyet Yanlılığı

Thomas ayrıca, kariyerlerin basmakalıp beklentilerini aşan belgeli bir çeviri örneği de veriyor. Başlangıç ​​noktası iki cümledir: "O bir doktor. O bir hemşire."

Onları Türkçe'ye çevirip İngilizceye çevirirseniz, bir telefon oyunundan beklediğiniz sonuçları elde edersiniz.

Başladığın şeyi elde etmek yerine, 1950'lerde beklediğin bir beklentin olurdu: "O bir doktor. O bir hemşire." Beklentiler ve kalıplaşmış önyargılar temelinde cinsiyet atayacak olan Türkçe dilindeki cinsiyet-nötr tekil zamirden kaynaklandığını açıklıyor. (AI'da Kadınları Okumak: Cinsiyetçiliği ve Kalıplaşmış Tekniklerin Tech ile Güçlendirilmesi)


Resimlere ve dile filtre uygulayan ırksal ve cinsiyetçi önyargılar sinirlenmeye neden olurken, AI'dan kaynaklanan aktif ayrımcılıkla aynı şey değildir, ancak bu da olmuştur.

Kanıt, konut kategorisindeki bir reklam için, Afrika kökenli Amerikalı, Asya kökenli Amerikalı veya Hispanik gibi kategorilerin hariç tutulmasıyla izleyicileri daraltma seçeneğine izin veren kısıtlamaların bir ekran görüntüsü idi. Reklam burada görüntülenebilir.

ProPublica'nın işaret ettiği gibi, bu tür reklamların ayrımcı etkisi hem 1968 Adil Konut Yasası hem de 1964 Sivil Haklar Yasası kapsamında yasadışıdır. Bu davadaki tek savunması, reklamın, olduğu gibi, konut için olmadığıdır. t satılık veya kiralık bir mülk veya ev hakkında.

Ancak, ırksal önyargıları belirten ve çeşitli kurumları sosyal ağa karşı dava açmaya teşvik eden başka hedefleme örnekleri de olmuştur. Wired’ın bildirdiği gibi, nihayet Mart 2019’da reklamlarla azınlıklara karşı ayrımcılık yapılmasını sağlayan beş yasal davanın çözülmesi sonucunda reklam hedefleme teknolojisini düzenlemeye karar verdi.

Uzlaşma raporunda ACLU, bu tür hedefli reklamların ne kadar sinsi olabileceğini, azınlıklar ve kadınların, beyaz erkeklerle paylaşılan bilgiye, konutlara ve iş fırsatlarına aynı erişiminin sağlanamadığını bile fark edemeyebileceğini belirtti.

İş, daire ve kredi bulmak için daha fazla insan internete döndüğü için, reklam hedeflemesinin toplumdaki mevcut ırk ve cinsiyet yanlılıklarını çoğaltacağı ve hatta daha da kötüleştireceği konusunda gerçek bir risk var. Bir işverenin mühendislik işleri için reklamları yalnızca erkeklere göstermeyi seçtiğini düşünün - yalnızca erkek olarak tanımlanmayan kullanıcılar bu reklamları asla görmez, aynı zamanda ne kaçırdıklarını asla bilemez.

Ne de olsa, nadiren çevrimiçi görmediğimiz reklamları belirleme yöntemimiz var. Bu ayrımcılığın, dışlanan kullanıcı için görünmez olması, durdurmayı daha da zorlaştırır.

2. İşlerde cinsiyet ve yaş ayrımı

Yasal davalar arasında, konutlarda hedeflemenin izin verdiği yasadışı ayrımcılık yapıldı. ProPublica, çözüm konusundaki raporunda, platformu test ettiğini ve Afrikalı Amerikalılar ve Yahudiler gibi hariç tutulan gruplar hakkında “konutla ilgili reklamlar” satın almayı başardığını ve daha önce şirketler tarafından yaş ve cinsiyete göre kullanıcıları hariç iş ilanlarını bulduğunu söyledi. Bu ev isimleri. ”

ACLU, kullanıcılar belirli bir reklamın neden gösterildiğinin cevabını tıklayarak başka bir Kablolu makalede yer aldıklarını bulabildiklerinden, açıkça belirli bir yaş grubundaki erkeklere yönelik olduğunu belirten bir dizi iş ilanı. ACLU, Sosyal Ağa karşı Eşit İstihdam Fırsatı Komisyonu ile ve reklamları hem iş hem de insan hakları kanunlarına aykırı oldukları gerekçesiyle yerleştiren şirketlere karşı görevlendirdi.

40 yaşın üzerindeki kişilerin işe alınmasına yönelik ayrımcılık, İstihdam Yasasında (ADEA) federal Yaş Ayrımcılığını ihlal ediyor. Ancak, iş ilanlarını yalnızca bu yaşın altındaki insanlara hedeflemek, platformun sağladığı şeylerden biridir.

ProPublica, hangi iş ilanlarının yaşa göre bu yasa dışı dışlanma biçiminden faydalandığını ortaya koyan raporlarından birinin odağına odaklandı. “Ev isimleri” arasında Verizon, UPS, Uber, Hedef, Eyalet Çiftliği, Kuzeybatı Karşılıklı, Microsoft, J Caddesi, HusbSpot, IKEA, Kamu Yararı Fonu, Goldman Sach, OpenWorks ve kendisi yer almaktadır.

Yüz Tanıma Başarısızlığı

“Beyaz Bir Adamsanız Yüz Tanıma Doğru”, Şubat 2018'de yayınlanan New York Times makalesinin başlığını açıkladı. Cilt tonu ile hatalı kimlik arasında belirgin bir ilişki bulduğu sonuçları gösterdi:

“Cilt ne kadar koyu olursa, hatalar o kadar artar - teknolojinin farklı ırk ve cinsiyetten insanlar üzerinde nasıl çalıştığını ölçerek taze zemini kıran yeni bir çalışmaya göre, daha koyu tenli kadınların görüntüleri için yaklaşık% 35'e kadar.”

Bulgular, MIT Media Lab'de araştırmacı ve Algoritmik Adalet Birliği'nin (AJL) kurucusu Joy Buolamwini'ye yatırılmaktadır. Araştırma alanı, AI'nın altında yatan, model için belirlenen beyaz erkek normuna uymayan yüzleri tanımak gibi çarpık sonuçlara yol açan önyargılarıdır.

Buolamwini, 2017 TED konuşmasında yüz tanıma için ırk ve cinsiyet yanlılığı sorununu sundu.

<

Videonun açıklamasında dile getirildiği gibi AI önyargısını işaretlemeden bırakma, "otomasyon çağı sakat olacak ve iltihap bırakılırsa eşitsizliği daha da artıracaktır." Riskler, “makine hakları tarafsızlığı varsayımı altında sivil haklar hareketi ve kadın hareketi ile kazanılan kazancı kaybetmekten” başka bir şey değildir.

Video açıklaması, AI'daki Kadınlar: Cinsiyetçiliği ve Stereotipleri Teknikle Güçlendirmek: “Otomatik sistemler doğal olarak tarafsız değil. Öncelikleri, tercihleri ​​ve önyargıları yansıtıyor - kodlanmış öncelikleri yansıtıyor; Yapay zekayı şekillendirme gücüne sahip olanların bakışları. ”

25 Ocak 2019'da Buolamnwini, kendi araştırmalarını ve AI'nın kusurlarının Amazon Rekognition'ında hatalarla sonuçlandığını belirten ve şirketin AI hizmetlerini polis departmanlarına satmayı durdurmasını talep eden ilave araştırmacılardan oluşan bir Orta posta yayınladı.

Rekognition, açık tenli erkekleri tanımak için% 100 doğruluk ve koyu erkeklerde bile% 98,7 doğrulukla övünebilirken, kadınlara gelince doğruluk, hafif kadınlar için% 92,9'a düşmüştür. Daha da fazla göze batan koyu kadınlarda keskin düşüş% 68.6 doğruluk seviyesindeydi.

Fakat Amazon, acımasızca reddetti. Bir Venture Beat makalesi, derin öğrenme ve AI’nın genel müdürü olan Dr. Matt Wood’dan yapılan açıklamada, araştırmacıların bulgularının AI’nın gerçekte nasıl kullanıldığını yansıtmadığını vurguladı.

“Yüz analizi ve yüz tanıma, altta yatan teknoloji ve onları eğitmek için kullanılan veriler açısından tamamen farklı. Yüz tanımanın doğruluğunu ölçmek için yüz analizini kullanmaya çalışmak, bu amaç için amaçlanan bir algoritma olmadığı için tavsiye edilmez. ”

Ancak, algoritmaları çok problemli bulmuş olan büyük araştırma merkezlerine bağlı olanlar değildir. ACİL, kendi testini Gizmodo raporuna göre, 12.33 $ 'lık makul bir maliyetle gerçekleştirdi. Rekognition'ın 28 Kongre üyesini suçluların fotoğraflarıyla eşleştirdiğini buldu.

“Kuzey Kaliforniya'nın ACLU'su Rekognition'ı, 535 Kongre üyesinin fotoğraflarını 25.000 adet kamuya açık fotoğraf makinesi ile eşleştirerek görevlendirdiğinde yanlış tanımlamalar yapıldı.”

28 kişiden 11'i renkli insanlar olduğu için, onlar için% 39'luk önemli bir hata oranını yansıtıyordu. Aksine, bir bütün olarak hata oranı% 5 daha kabul edilebilirdi. Mugghots ile bağlantılı Rekognition'lardan olan Kongre Black Caucus'un altı üyesi, endişelerini Amazon’un CEO’su olan açık bir mektupta dile getirdi.

Recidivism Önyargı

AI’ya renk insanlarına karşı gömülü olan önyargı, sadece tespit etmede bir hatadan daha fazlası anlamına geldiğinde daha ciddi bir problem haline gelir. Bu, 2016'da bir ProPublica soruşturmasının bulgusunun sonucuydu. Bu yanlılığın sonuçları, ten renginin algoritması tarafından tercih edilen kişinin gerçek riskini görmezden gelmekle birlikte bireysel özgürlükten başka bir şey değildir.

Makale, bir beyaz fail ve bir siyah olan iki paralel olaya atıfta bulundu. Hangisinin kanunları tekrar ihlal edebileceğini tahmin etmek için bir algoritma kullanıldı. Siyah olana yüksek, beyaz olana düşük riskli.

Tahmin tamamen yanlış anlamıştı ve serbest kalan beyazın tekrar hapse atılması gerekiyordu. Bu son derece sorunlu çünkü mahkemeler şartlı tahliye kararına karar vermede güveniyor ve bu da programa dahil edilen ırk yanlılığının yasa uyarınca eşit muamele olmadığı anlamına geliyor.

ProPublica, algoritmayı kendi testine koydu, 2013 ve 2014 yıllarında Florida'da Broward County'de tutuklanan 7.000'den fazla insanın risk puanlarını sonraki iki yıl içinde onlara yönelik yeni suçlamaların getirildiği rakamlarla karşılaştırdı.

Buldukları şey, şiddet içerikli suçları tekrarlamak için yapılan tahminlerin yalnızca% 20'sinin gerçekleşmesi ve daha az sayıda suçun, riski belirten skorların% 61'inde gerçekleşmesiydi.

Asıl sorun, sadece doğruluk eksikliği değil, aynı zamanda ırk önyargısıdır:

  • Formül özellikle siyah sanıkları gelecekteki suçlular olarak yanlış işaretleme olasılığını taşıyordu, yanlış bir şekilde onları beyaz sanıkların oranının neredeyse iki katı olarak etiketliyordu.
  • Beyaz sanıklar, siyah sanıklardan daha düşük riskli olarak yanlış etiketlendi.

Aslında bu, siyah insanlar için% 45, beyaz insanlar için% 24 hata oranına çevrildi. Bu göz kamaştırıcı istatistiklere rağmen, Thomas Wisconsin Yüksek Mahkemesinin bu algoritmanın kullanılmasını hala onayladığını bildirdi. Residivism algoritmaları ile ilgili diğer problemleri de detaylandırıyor.