Makine öğrenmesi, önyargılar ve ayrımcılık

 


Yapay zekâ algoritmaları oluşturmak için kullanılan verilerdeki önyargılar ayrımcılık gibi sosyal sonuçlara neden oluyor. Bunlar da fırsat eşitsizliğini artırıyor ve belli grupların üzerindeki baskıyı güçlendiriyor.

Dünyanın veri sistemleri doğal olarak yine dünyanın eşitsizliklerini ve önyargılarını yansıtıyor. Yapay zekâ da geliştirici ve kullanıcıların dünya görüşünü yansıttığından önyargıları kodlayıp pekiştiriyor. Şu an yapay zekânın en yaygın biçimi olan makine öğrenmesi, dünyadaki örneklerin pek çok soruna yol açan kalıplarını tarayarak yol alıyor. Örneğin eğitimle ilgili verilere baktığımızda bazı grupların bu verilere dahil edilmediğini; verilerin dar bir kültürel kaynaktan toplandığını görüyoruz. Eğitim verileri, gerçek dünyanın tüm eşitsizliklerini, önyargılarını ve adaletsizliklerini içeriyor ve makine öğrenmesi sistemlerinin bu haksızlıkları belirleme ve düzeltme gibi bir becerisi yok. Verilerden, ırk ya da cinsiyete ilişkin bilgileri ayıklamak da bu sorunu çözmüyor. Çünkü yapay zekâ yine de temsili değişkenleri veya verilerden ayıklanan bu tarz bilgileri, farklı grupları faklı şekillerde ele alırken kullanmayı sürdürüyor.

Örneğin Ekim 2019’da ABD’de yapılan bir araştırmada, araştırmacılar, hangi hastaların ekstra tıbbi bakıma ihtiyaç duyduğunu tahmin etmek için hastanelerde 200 milyondan fazla kişi üzerinde kullanılan bir algoritmanın, siyah hastalara oranla beyaz hastaları daha fazla tercih ettiğini bulmuştu. Irk, bu algoritmada kullanılan bir değişken olmasa da, hastaların sağlık hizmeti maliyet geçmişi ırkla yakından ilişkili bir değişkendi. Çünkü ekonomik sorunlar, sağlık hizmetine erişememe gibi çeşitli sosyal ve ekonomik nedenlerden dolayı siyah hastalar, beyazlara göre daha düşük sağlık maliyetine neden oluyordu.

Dünyanın en büyük teknoloji devlerinden biri ve dolayısıyla da yapay zekâ ve makine öğrenmesini en çok kullanan şirketlerden biri olan Amazon, 2015’te çalışanları işe almak için kullandığı algoritmanın kadınlara karşı önyargılı olduğunu fark etti. Bunun nedeni algoritmanın, son 10 yılda gelen özgeçmişleri temel almasıydı. Erkek başvuran sayısı fazla olduğu için algoritma erkekleri kadınlara tercih edecek şekilde eğitilmişti.  

Peki, kullanılan veriler olanı yani var olan adaletsiz dünyayı değil, olması gerekeni yani daha adil bir dünyayı temsil etse...

Amazon’un işe alma algoritmasında erkekler ve kadınlar için eşit miktarda veri kullanılmış olsa, algoritma bu kadar büyük bir ayrımcılık yapmayacaktı. Yapay zekâ sistemleri içinde önyargıları artıran, ayrımcı dil kullanan veya böyle kararlar veren bunun gibi pek çok örnek var. Bu örneklerden yola çıkan ve adaleti matematiksel olarak tanımlamanın ve ölçmenin mümkün olup olamayacağı üzerine çalışan araştırmacılar, adalet tanımının pek çok şekli olabileceği ve tüm adalet ölçütlerini karşılamanın imkânsız olduğunu söylüyor. Geçekten “adil” bir yapay zekâ geliştirmek için başlatılan tüm çabalar, nihayetinde bir adalet ölçütünü bir diğeri pahasına karşılama noktasında kilitleniyor. Aynı zamanda süreci otomatikleştirmek, uzun vadede daha geniş bir anlayış kazanma ve değişim sağlama fırsatının kaçırılmasına da neden olabilir. Yapay zekâ geliştiricilerinin öncelikle adil olmayan sonuçlara yol açan faktörleri belirlemesi ve alternatif yaklaşımları değerlendirmesi, böylece hem daha adil hem de statükoya meydan okuyan daha inovatif sistemlere ulaşılabilmesi gerekiyor.

Büyük veri etiğinin iki temel konusu; şeffaflık ve önyargılar

Avrupa Komisyonu, 8 Nisan 2019’da güvenilir yapay zekâ için “Ethics Guidelines for Trustworthy Artificial Intelligence” başlıklı bir etik kılavuz hazırladı. Bu kılavuzda, yapay zekâ uygulamalarının güvenilir sayılabilmesi için uyulması gereken temel ilkeler belirtiliyor. Bu ilkelerden biri şeffaflık… Kılavuzda “Yapay zekâ sistemleri ve iş modelleri şeffaf olmalıdır. İnsanlar bir yapay zekâ sistemi ile etkileşime girdiğinin farkında olabilmeli, sistemin uygulaması ve sınırları hakkında bilgilendirilmelidir” deniyor. Bir diğer ilke ise önyargılar ve ayrımcılıkla ilgili: “Yapay zekânın savunmasız grupların marjinalleştirilmesinden, önyargı ve ayrımcılığın daha da artmasına kadar pek çok olumsuz etkisi olabilir. Bu nedenle yapay zekâ sistemleri çeşitliliği teşvik etmeli, herkes tarafından erişilebilir olmalı, insanların din, dil, cinsiyet, cinsel yönelim, yaş, ırk gibi farklılıklarına saygılı olmalı, ayrımcılık yapmamalı, adil muamele ilkesine uymalıdır.” Bkz. Yapay zekâ, insan ve etik

Yapay zekâ, karar destek sistemleri ve tahmine dayalı analitik veriler üzerinde çalışıyor ve neticede bir karar veriyor. Bu durumda veriler zaten bir önyargı içeriyorsa yapay zekâ bu önyargıyı yeniden üretiyor. Çıkan kararlar, “bu restoran önceki tercihlerinize uygun” gibi görece önemsiz olabileceği gibi kamu özgürlüklerinin azaltılmasına yol açacak “bu bölgede polis devriyeleri artırılmalı” gibi daha önemli ve sistemi etkiyen bir karar da olabiliyor. Dolayısıyla karar desteği ve tahmine dayalı analitik için kullanılan yapay zekâ sistemleri hesap verebilirlik, toplumsal katılım ve denetim konusunda kaygılara yol açıyor. Yapay zekâ önyargıları, toplumsal katılımı kısıtlayan karar alma süreçleri yaratabiliyor. Karar sistemindeki ve veri analizindeki önyargı, şeffaflık sorunu ile birleşince işler daha da kötüleşiyor. Önyargılardan etkilenen ve ayrımcılığa uğrayan kişi veya grubun kararın neye göre ve nasıl çıktığını bilmesi neredeyse imkânsız oluyor. Bu nedenle önyargıları ortadan kaldırmak için şeffaflık ve önyargı analizinin el ele gitmesi ve politika yapıcıların bu iki konuyu birlikte ele alması gerekiyor. Yapay zekânın daha “demokratik” kararlar vermesi için daha geniş bir toplumsal harekete ihtiyaç var. Kararların neye dayanarak ve nasıl alındığı şeffaflaştıkça, önyargıları pekiştiren kararların önlenmesi için izlenebilecek yollar da daha kolay keşfedilebilir.  

Kaynaklar:“Ethics of Artificial Intelligence and Robotics”, Vincent C. Müller, Stanford Encyclopedia of Philosophy; “Bias and fairness in AI algorithms”, WEF Strategic Intelligence; “Real-life examples of discriminating artificial intelligence”, Terence Shin, Towards Data Science; “What do we do about the biases in AI?”, James Manyika, Jake Silberg, Brittany Presten, Harvard Business Review;“High-Level Expert Group on Artificial Intelligence: Ethics Guidelines for Trustworthy AI”, European Commission.

 

 

 

 

Yorumlar

Bu blogdaki popüler yayınlar

Yapay zekâ, inovasyon ve telif hakları

OpenAI, ChatGPT ve kendi kendine sohbet

Metaverse, artırılmış gerçeklik ve gizlilik