Google Play Store
App Store

Yapay zekâ algoritmaları mevcut veri setlerindeki eşitsizlikleri ideal kabul ederek yeniden üretiyor. Yapılan araştırmalar sesli asistanlardan çeviri sistemlerine kadar eşitsizliğin boyutunu gözler önüne sererken şirketler sorumluluk almaktan kaçınıyor.

Yapay zekâ kadınlar için eşitsizlik üretiyor
Fotoğraf: Freepik
Sarya Toprak
Sarya Toprak
saryatoprak@birgun.net

Kadınların yaşamın her alanında boğuştuğu eşitsizlikler teknoloji alanında da görünür oluyor. Özellikle hızla gelişen yapay zekâ algoritmaları toplumsal cinsiyet eşitsizliğini yeniden üretiyor.

Büyük veri setlerinden öğrenen yapay zekâ sistemleri geçmişteki eşitsizlikleri de içselleştiriyor. Örneğin, teknolojide erkeklerin ağırlığı nedeniyle geçmiş işe alım verilerinin çoğunlukla erkek adaylardan oluşması, bir yapay zekâ modelinin erkekleri tercih etmesine yol açabiliyor.

UNESCO’nun 2019 tarihli bir raporu, teknoloji şirketlerindeki ağırlıkla erkeklerden oluşan ekiplerin, farkında olmadan, kadın karakterli dijital asistanları itaatkâr ve edilgen bir kişilikle programladıklarını ortaya koydu.

2018’de Stanford Üniversitesi’nde yapılan “Gender Shades” isimli çalışmada ise yüz tanıma teknolojilerinin performansında ırk ve cinsiyet etkileşimli bir adaletsizlik bulunduğunu göstererek algoritma geliştirme pratiklerinin yeniden değerlendirilmesi çağrısı yapıldı. Araştırmaya göre açık tenli erkeklerin cinsiyetini belirlemedeki hata oranları en fazla 0,8 olurken koyu tenli kadınlar için hata oranları 34'ün üstünde.

KADINLAR OTOMATİK OLARAK ELENDİ

Öte yandan 2014-2017 yılları arasında kullanılan, Amazon’un geliştirdiği otomatik özgeçmiş eleme sisteminin kadın adayları otomatik olarak elediği ortaya çıktı. Bu vakadaki sorunun yapay zekâ modelinin geçmiş verilerdeki cinsiyet dağılımını birebir kopyalaması olduğu belirtildi. Teknoloji sektöründe erkeklerin çoğunlukta olmasından kaynaklı sistemin “erkek aday idealdir” şeklinde bir kuralı benimsediği anlaşıldı.

Benzer bir sorun da çeviri sistemlerine yaşanıyor. 2017’de yapılan bir çalışmada, dil modellerindeki kelime vektörlerinin toplumsal cinsiyet ön yargılarını taşıdığı görüldü. (Örneğin sistem mühendis kelimesini erkek olarak çevirirken hemşire kelimesini kadın olarak çevirebiliyor).

Google görsel arama sonuçlarının da ön yargıları sürdürdüğü görülüyor. Örneğin, “CEO” kelimesi Google’da aratıldığında ilk 100 görsel sonucun sadece %11’i kadın iken, ABD’de CEO’ların yaklaşık %27’si kadın. Bu durum, arama algoritmalarının mevcut toplumsal temsilleri daha da aşırı biçimde yansıtma eğiliminde olduğunu ortaya koyuyor.

Sesli asistanlar ve genel olarak kullanıcı arayüzlerinde cinsiyet temsili ise giderek daha da dikkat çeken bir konu. Sesli dijital asistanların (Apple Siri, Amazon Alexa, Google Asistan vb.) çoğu kadın sesiyle ve kadın ismiyle sunuluyor.  UNESCO’nun 2019’da yayınladığı “I'd Blush If I Could” (Kızarabilseydim Kızarırdım) başlıklı raporu (2019), Siri gibi asistanların kullanıcılardan gelen aşağılayıcı veya tacizkâr ifadelere bile alttan alan veya özür dileyen yanıtlar verdiğini, bunun da kadınların itaatkâr olması gerektiği yönündeki kalıp yargıyı pekiştirdiğini belirtiyor. Yapay zekâ sistemleri cinsiyetçi önyargılara sahip olan şirketler ise genellikle “YZ’miz önyargılı değildi, veriler öyleydi; aslında kullanmıyorduk sorun olursa düzeltiriz” gibi sorumluluğu üzerinden atan ifadeler kullanıyor. Örneğin Amazon yetkilileri, sistemin hiç resmi olarak kullanılmadığını vurgulayarak olası tepkileri azaltmaya çalışmıştı.

***

SAĞLIK ALANINDA DA DURUM BENZER

Tıbbi teşhis ve tedavi öneri sistemlerinde yapay zekâ kullanımı giderek artarken, cinsiyetler arası farkların gözetilmemesi hata payını artırıyor.

Özellikle kadınlar tarihsel olarak tıp araştırmalarında az temsil edildiği için, birçok medikal veri seti erkek ağırlıklı.  Bu durum, yapay zeka modellerinin hastalık belirtilerini değerlendirirken kadınların fizyolojik farklılıklarını hesaba katamamasına yol açabiliyor.

Örneğin, kalp krizi geçiren kadınların semptomları erkeklerden farklı seyredebiliyor; eğer bir karar destek sistemi sadece “göğüs ağrısı” gibi erkek tipik belirtilere odaklanırsa, kadın hastaların krizini atlayabilir. ABD’deki bazı klinik karar algoritmalarının kadınlara daha düşük risk skoru verdiği ve bu yüzden kadınların ileri tetkiklere sevk oranının düştüğü saptandı.Örneğin bir çalışmada, aynı semptomlarla gelen hastada kadın cinsiyette algoritma risk puanını 10 üzerinden 4 verip “düşük risk” çıkarırken, erkek cinsiyette 6 verip “orta risk” diye öneri verdi.