Dijitalleşme ve Eşit Haklar – Yapay Zekada Cinsiyet Eşitsizliği (*)

(*) Bu makale Avrupa Birliği tarafından 2020 yılında yayınlanan “ Gender Equality Index 2020:
Digitalisation and the future of Work ” başlıklı çalışmanın yapay zeka ile ilgili bölümünün bazı ufak
değişikliklerle çevirisinden oluşmaktadır.

Günümüzde yapay zeka araçlarının cinsiyet, etnik köken, yaş veya engellilik gibi özellikler temelinde
kategorize edilen belirli dezavantajlı gruplara karşı, onlara zarar verecek bir şekilde ayrımcı
sonuçlara neden olabiliceğine dair endişeler giderek artmaktadır. Toplumda, kurumsal kültürlerde
ve bireylerde -özellikle de yapay zekanın geliştirilmesiyle ilgili çalışanlarda- mevcut olan
önyargıların kasıtlı veya kasıtsız olarak sistemlerin ve algoritmaların içinde nüfuz etmesi riski
bulunmaktadır.
Bilim ve teknoloji alanındaki işgücünde, özellikle de dijital teknolojiler geliştiren sektörlerde, cinsiyet
çeşitliliğinin eksikliği, açık ve örtük cinsiyetçi önyargıların dijital hizmet ve ürünlere nüfuz etmelerini
mümkün kılmakta ve şiddetlendirmektedir (Wang ve Redmiles, 2019). Yazılım sektöründe mevcut
olan toplumsal cinsiyet önyargılarına ilişkin son araştırmalar, yazılımların daha çok özellikleri
(cinsiyet/yaş/engellilik) tasarım ekibinin özellikleriyle eşleşen kullanıcıların ihtiyaçlarını karşılama
eğiliminde olduklarına işaret etmektedir (Burnett vd., 2018).
Otomatik bir veri işleme tekniği olan algoritmalar, yapay zekanın temelini oluştururlar ve ve bunlar
için doğru yönetişim mekanizmalarına ihtiyaç bulunmaktadır. Yapay zekanın imkan verdiği otomatik
karar alma süreçleri kesinlikle fayda sağlamaktadır, ancak bunlar cinsiyetçi (veya başka bir şekilde
yanlış) kararlar ürettiğinde, bu kararlar çok geç tespit edilebilirler ya da kararın değiştirilmesi
imkansız olabilir. Algoritmaların nasıl çalıştığını tanımlamak için kullanılan ‘kara kutu’ terimi, girdiler
ve çıktılar gözlemlenebilir ve anlaşılabilir olsa da, aradaki süreçte olan her şeyin – yani ‘kara
kutunun’ içinde nelere olduğunun – anlaşılamaz olduğu gerçeğini ifade etmektedir.
Algoritmalar o kadar karmaşıktır ki, bu algoritmalara tam erişimin mümkün olduğu durumlarda bile,
algoritmayı üreten kişiler dahi çıktının nasıl yaratıldığı konusunda tam bir netliğe sahip değillerdir
(Bathaee, 2017). Bu şeffaflık eksikliği, algoritmaların değerlendirilmesi ve düzenlenmesi
konusunda önemli güçlükleri beraberinde getirmektedir ve bu güçlükler özellikle de bir algoritmanın
kararlarından nihai olarak etkilenecek olan topluluklar açısından önem taşımaktadır (Al-Amoudi ve
Latsis, 2019; Goodman ve Flaxman, 2017).
Yapay zeka içine gömülü önyargılar açısından önemli bir risk faktörü verilerin kalitesidir. Verilerin
özellikle çevrimiçi toplama yollarıyla daha da bol hale gelmesi nedeniyle dikkatler daha çok veri
kalitesinden çok veri miktarları üzerinde yoğunlaşmaktadır. Verilerin istenilen popülasyonu temsil
etmediği veya, bir ölçüm yapılacaksa, istenilen şeyi ölçmediği durumlarda, sorunların ortaya
çıkması muhtemeldir (FRA, 2019).
Algoritmalar söz konusu olduğunda, doğru girdi doğru çıktı için bir ön koşuldur (veri biliminde ‘giren
çöpse, çıkan da çöptür’ ilkesi olarak bilinir). Mevcut önyargıları yansıtan verilerin kullanılması, belirli
bireylerin haksız muameleye maruz kalmalarına yol açarak, cinsiyet, yaş, engellilik, etnik köken,
din, eğitim ve cinsel yönelime dayalı ayrımcılıkları ortaya çıkarabilir (LIBE Komitesi, 2018).
Örneğin ‘kelime yerleştirme’ (bir tür algoritma), günlük teknolojide çevirileri ve otomatik tamamlama
özelliklerini güçlendirmek için kullanılır. Bu teknoloji, genellikle haber makaleleri gibi çevrimiçi
kaynaklardan elde edilen sıradan insan dili verileri üzerinde eğitilmektedir (Bölükbaşı vd., 2016;
Çalışkan vd., 2017). Kelime yerleştirmenin asıl yenilikçi özelliği ise, kelimesi kelimesine karşılık
bulmak yerine, kelimeler arasındaki ilişkiyi anlamaya ve hesaplamaya çalışmasıdır (Nissim vd.,
2020).

Yenilikçi doğasını bir kenara bırakırsak, kelime yerleştirme, makine öğreniminin körü körüne
uygulanmasının toplumsal cinsiyet önyargılarını nasıl artırabileceğine ilişkin önemli bir örnektir.
Örneğin, bir sistemin analojileri tamamlama becerisini test eden bir çalışmada, sistem ‘ev işleri için
kadın ne ise, bilgisayar bilimi için de erkek odur' sonucunu vermiştir (Bölükbaşı vd., 2016). Bir
başka çalışmada, doktorların erkek, hemşirelerin kadın oldukları bilgisi ile beslenen bir yapay zeka
aracının kullanımının normalda cinsiyet-nötr olan meslekler için bile cinsiyetçi sonuçlar
üretebildiğini göstermiştir (Lu vd., 2018).
Ortaya çıkan yalnızca cinsiyetçi önyargılar değil, aynı zamanda diğer sorunlu kültürel
çağrışımlardır. Neyse ki, bu tür önyargıları tespit etmek ve ortadan kaldırmak için araçlar
geliştirmeye yönelik çabalar da bulunmaktadır (Bölükbaşı vd., 2016; Chakraborty vd., 2016; Lu vd.,
2018; Prates vd., 2019).
Her birey için ekonomik fırsatlara ilişkin önemli bir belirleyici olan işe alma ve istihdam öncesi
değerlendirmelerde yapay zeka giderek daha fazla kullanılmaya başlanmıştır (Bogen ve Rieke,
2018; Metz, 2020). Yapay zeka kullanan işe alım araçları sadece işverenlere daha düşük maliyetler
sunmakla kalmaz, aynı zamanda önyargılarla mücadeleye veya bu önyargıları azaltmaya yardımcı
olarak mevcut ve gelecekte işe alınacak çalışanlara (daha) eşit fırsatlar sunabilir.
Bu tür teknolojilerin pazarlanmasında kullanılan argümanlardan biri, bu araçların adayları insan
önyargısı olmadan objektif bir şekilde değerlendirme becerileridir. Bununla birlikte, hassas
özellikleri dikkate almadan oluşturulan veya öğrenme sürecinde daha önceki önyargılı işe alım
kararlarını baz alan bir algoritma, nesnellik görünümü sağlarken kurumsal ve sistematik önyargıyı
yeniden üretecektir (Bogen ve Rieke, 2018; Raghavan vd., 2020).
İşgücü piyasasında bu tür vakalar halihazırda yaşanmaktadır: yakın dönemde, bazı ABD’li
şirketlerin kulladıkları, şirketin geçmişteki işe alımları üzerinden eğitim alan ve bu verilerdeki
hassas ve ilgili özellikleri belirlemekte başarısız olan algoritmaların, işe alımlarda kadın başvuranlar
açısından dezavantajlar yarattıkları, böylece cinsiyet önyargılarını ve ayrımcılığı güçlendirdikleri
tespit edilmiştir (Dastin, 2018). Yapay zekanın ayrımcılığı ortadan kaldırma ve işyerinde çeşitlilik
sağlama potansiyeli elbette yadsınamaz; bununla birlikte, bu ancak farkındalık, şeffaflık ve gözetim
koşulları altında tam anlamıyla sağlanabilir.
Artan veri miktarı ve analitik yöntemler sayesinde, yapay zeka sağlık alanında da önemli bir
değişim yaratma potansiyeline sahiptir. Yapay zeka bir taraftan sağlık alanında çalışan
profesyonellere en son tıbbi bilgileri sağlarken, diğer taraftan geniş hacimli verilerden
öğrendikleriyle kendisinin ve tıbbi teşhisler ile tedavilerin doğruluğunu arttırabilir (Jiang ve ark.,
2017).
Bununla birlikte, tıbbi araştırmalar, tarih boyunca toplumsal cinsiyet duyarlılığından yoksun bir alan
olmuştur ve klinik araştırmalarda kadınların temsil eksikliği cinsiyet körü veya önyargılı sağlık
hizmetlerine dönüşmüştür (EIGE, 2020a). Yapay zekayı sağlık sektörüne uyarlarken algoritmaları
yaratmak, eğitmek ve çalıştırmak için kullanılan veriler cinsiyet ayrımcılığa neden olabileceği gibi,
bir yapay zeka aracının sınırları da kolayca yanlış, eksik veya çarpık sonuçlara yol açabilir.
Sistemlerin karmaşıklığı ayrımcılığı saptamayı ve düzeltmeyi güçleştirmektedir; yapay zekanın
yaygın kullanımı ile insan hayatında yaratabileceği olumsuz sonuçlar dikkate alındığında, bu ciddi
bir endişe unsurudur. Sağlık hizmetlerinde yapay zekanın tasarlanması, uygulanması ve
değerlendirilmesi aşamalarında toplumsal cinsiyet analizinin yapılmaması, sağlık alanındaki ve
toplumsal cinsiyetle ilişkili eşitsizliklerin gözardı edilmesine veya yeni eşitsizliklerin yaratılmasına
neden olabilir (Sinha ve Schryer-Roy, 2018).

Bu makale Avrupa Birliği Sivil Düşün Programı kapsamında Avrupa Birliği desteği ile çevirilerek yayınlanmıştır.. İçeriğin sorumluluğu tamamıyla teknolojikanneler.com ‘a aittir ve AB’nin görüşlerini yansıtmamaktadır.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site, istenmeyenleri azaltmak için Akismet kullanıyor. Yorum verilerinizin nasıl işlendiği hakkında daha fazla bilgi edinin.