Makine öğrenmesi, önyargılar ve ayrımcılık
Dünyanın veri sistemleri doğal olarak yine dünyanın eşitsizliklerini ve önyargılarını yansıtıyor. Yapay zekâ da geliştirici ve kullanıcıların dünya görüşünü yansıttığından önyargıları kodlayıp pekiştiriyor. Şu an yapay zekânın en yaygın biçimi olan makine öğrenmesi, dünyadaki örneklerin pek çok soruna yol açan kalıplarını tarayarak yol alıyor. Örneğin eğitimle ilgili verilere baktığımızda bazı grupların bu verilere dahil edilmediğini; verilerin dar bir kültürel kaynaktan toplandığını görüyoruz. Eğitim verileri, gerçek dünyanın tüm eşitsizliklerini, önyargılarını ve adaletsizliklerini içeriyor ve makine öğrenmesi sistemlerinin bu haksızlıkları belirleme ve düzeltme gibi bir becerisi yok. Verilerden, ırk ya da cinsiyete ilişkin bilgileri ayıklamak da bu sorunu çözmüyor. Çünkü yapay zekâ yine de temsili değişkenleri veya verilerden ayıklanan bu tarz bilgileri, farklı grupları faklı şekillerde ele alırken kullanmayı sürdürüyor.
Örneğin Ekim 2019’da ABD’de yapılan bir araştırmada,
araştırmacılar, hangi hastaların ekstra tıbbi bakıma ihtiyaç duyduğunu tahmin
etmek için hastanelerde 200 milyondan
fazla kişi üzerinde kullanılan bir algoritmanın, siyah hastalara oranla beyaz
hastaları daha fazla tercih ettiğini bulmuştu. Irk, bu algoritmada kullanılan
bir değişken olmasa da, hastaların sağlık hizmeti maliyet geçmişi ırkla yakından ilişkili bir değişkendi. Çünkü ekonomik sorunlar, sağlık hizmetine
erişememe gibi çeşitli sosyal ve ekonomik nedenlerden dolayı siyah hastalar,
beyazlara göre daha düşük sağlık maliyetine neden oluyordu.
Dünyanın en büyük teknoloji devlerinden biri ve
dolayısıyla da yapay zekâ ve makine öğrenmesini en çok kullanan şirketlerden
biri olan Amazon, 2015’te çalışanları işe almak için kullandığı algoritmanın
kadınlara karşı önyargılı olduğunu fark etti. Bunun nedeni algoritmanın, son 10
yılda gelen özgeçmişleri temel almasıydı. Erkek başvuran sayısı fazla olduğu
için algoritma erkekleri kadınlara tercih edecek şekilde eğitilmişti.
Peki, kullanılan veriler olanı yani var olan adaletsiz dünyayı değil, olması gerekeni
yani daha adil bir dünyayı temsil etse...
Amazon’un işe alma algoritmasında erkekler ve
kadınlar için eşit miktarda veri kullanılmış olsa, algoritma bu kadar büyük bir
ayrımcılık yapmayacaktı. Yapay zekâ sistemleri içinde önyargıları artıran, ayrımcı
dil kullanan veya böyle kararlar veren bunun gibi pek çok örnek var. Bu
örneklerden yola çıkan ve adaleti matematiksel olarak tanımlamanın ve ölçmenin
mümkün olup olamayacağı üzerine çalışan araştırmacılar, adalet tanımının pek
çok şekli olabileceği ve tüm adalet ölçütlerini karşılamanın imkânsız olduğunu söylüyor. Geçekten “adil” bir
yapay zekâ geliştirmek için başlatılan tüm çabalar, nihayetinde bir adalet
ölçütünü bir diğeri pahasına karşılama noktasında kilitleniyor. Aynı zamanda
süreci otomatikleştirmek, uzun vadede daha geniş bir anlayış kazanma ve değişim
sağlama fırsatının kaçırılmasına da neden olabilir. Yapay zekâ geliştiricilerinin
öncelikle adil olmayan sonuçlara yol açan faktörleri belirlemesi ve alternatif
yaklaşımları değerlendirmesi, böylece hem daha adil hem de statükoya meydan
okuyan daha inovatif sistemlere ulaşılabilmesi gerekiyor.
Büyük
veri etiğinin iki temel konusu; şeffaflık ve önyargılar
Avrupa Komisyonu, 8 Nisan 2019’da güvenilir yapay
zekâ için “Ethics Guidelines for
Trustworthy Artificial Intelligence” başlıklı bir etik kılavuz hazırladı.
Bu kılavuzda, yapay zekâ uygulamalarının güvenilir sayılabilmesi için uyulması
gereken temel ilkeler belirtiliyor. Bu ilkelerden biri şeffaflık… Kılavuzda “Yapay
zekâ sistemleri ve iş modelleri şeffaf olmalıdır. İnsanlar bir yapay zekâ
sistemi ile etkileşime girdiğinin farkında olabilmeli, sistemin uygulaması ve
sınırları hakkında bilgilendirilmelidir” deniyor. Bir diğer ilke ise önyargılar
ve ayrımcılıkla ilgili: “Yapay zekânın savunmasız
grupların marjinalleştirilmesinden, önyargı ve ayrımcılığın daha da artmasına
kadar pek çok olumsuz etkisi olabilir. Bu nedenle yapay zekâ sistemleri
çeşitliliği teşvik etmeli, herkes tarafından erişilebilir olmalı, insanların
din, dil, cinsiyet, cinsel yönelim, yaş, ırk gibi farklılıklarına saygılı
olmalı, ayrımcılık yapmamalı, adil muamele ilkesine uymalıdır.” Bkz. Yapay zekâ, insan ve etik
Yapay zekâ, karar destek sistemleri ve tahmine
dayalı analitik veriler üzerinde çalışıyor ve neticede bir karar veriyor. Bu
durumda veriler zaten bir önyargı içeriyorsa yapay zekâ bu önyargıyı yeniden üretiyor.
Çıkan kararlar, “bu restoran önceki tercihlerinize uygun” gibi görece önemsiz
olabileceği gibi kamu özgürlüklerinin azaltılmasına yol açacak “bu bölgede polis
devriyeleri artırılmalı” gibi daha önemli ve sistemi etkiyen bir karar da
olabiliyor. Dolayısıyla karar desteği ve
tahmine dayalı analitik için kullanılan yapay zekâ sistemleri hesap
verebilirlik, toplumsal katılım ve denetim konusunda kaygılara yol açıyor.
Yapay zekâ önyargıları, toplumsal katılımı kısıtlayan karar alma süreçleri
yaratabiliyor. Karar sistemindeki ve veri analizindeki önyargı, şeffaflık
sorunu ile birleşince işler daha da kötüleşiyor. Önyargılardan etkilenen ve
ayrımcılığa uğrayan kişi veya grubun kararın neye göre ve nasıl çıktığını
bilmesi neredeyse imkânsız oluyor. Bu nedenle önyargıları ortadan kaldırmak
için şeffaflık ve önyargı analizinin el ele gitmesi ve politika yapıcıların bu
iki konuyu birlikte ele alması gerekiyor. Yapay zekânın daha “demokratik”
kararlar vermesi için daha geniş bir toplumsal harekete ihtiyaç var. Kararların
neye dayanarak ve nasıl alındığı şeffaflaştıkça, önyargıları pekiştiren
kararların önlenmesi için izlenebilecek yollar da daha kolay
keşfedilebilir.
Kaynaklar:“Ethics of Artificial Intelligence
and Robotics”, Vincent C. Müller, Stanford Encyclopedia
of Philosophy; “Bias and fairness in AI
algorithms”, WEF Strategic Intelligence; “Real-life examples of discriminating artificial intelligence”,
Terence
Shin, Towards Data Science; “What do we
do about the biases in AI?”, James Manyika, Jake
Silberg, Brittany Presten, Harvard Business Review;“High-Level Expert Group on Artificial Intelligence: Ethics Guidelines
for Trustworthy AI”, European Commission.
Yorumlar
Yorum Gönder