Yapay zekâ ahlak masası

Tolga MIRMIRIK

Freni patlamış bir arabada ve yoldan çıkamayacağınız bir durumda yaya geçidine doğru hızla yol alıyorsunuz. Yaya geçidinden geçen insanlar var. Sizin şeritte hamile bir kadın ve yaşlı bir sokak köpeği, karşı şeritte ise yaşlı dedeleri ile karşıdan karşıya geçmekte olan iki kız çocuğu var. Hangisini seçerseniz seçin, seçtiğiniz şeritte ölüm kaçınılmaz. Araca hiçbir müdahalede bulunmaz ve kendi şeridinizde mi kazayı yaparsınız yoksa direksiyonu kırarak diğer şeritte mi?


Bir süredir daha da yaygınlaşan ve her yanımızı sarmaya başlayan, kendi kendine giden taşıtlar, beraberinde de insanlığın tarihinde hiç karşılaşmadığı yepyeni soruları doğurdu. Bir yanda teknolojik gelişmelerin insan yaşamı için faydaları, diğer yanda da şüphecilerin bu tür araçlara güvensizliği alışkın olduğumuz hayat bakışımıza etki etmeye başladı. En basiti otonom araçların karıştığı kazalardaki hukuki sorumlulukların belirsizliğinden başlayıp sigorta şirketlerinin nasıl tavır alacaklarına kadar süre giden tartışmalar uzun zaman daha sürecek gibi. Komplo teorisi severlerin “otonom araçlar ile bizleri köle yapacaklar” gibi abukluklarına girmeye gerek bile yok.

Yazılımcıların, mühendislerin, konu uzmanı yetkin akademik insanların yapay zekâ ve makine öğrenmesi hakkındaki çalışmaları, konunun özündeki insan faktörünün yoğunluğu dolayısı ile disiplinler arası çalışmaları şart kılıyor. Yapay zekâ ve alt kümesi olan makine öğrenmesinde yazılım mühendisleri ile felsefeciler, biyologlar, matematikçiler, fizikçiler, tıp doktorları, psikologlar ve hukukçular yan yana çalışıyor. Son iki yazımda çok basit örnekler ile başlangıç seviyesinde değindiğimiz “rota bulma” ya da “seçim yapabilme” gibi sayısal algoritmalar, otonom araçların insanların günlük hayatlarında karşılaşabileceği ve insan yaşamına mal olabilecek durumlar için çok yeterli olamıyor.

Arabanız Ahlaklı Bir Seçim Yapar Mı?

Ahlak konusu, bizim toplumumuzdaki yanlış öğretim yüzünden çok sığ ve çarpık bir noktaya sıkıştırılmış bir konu. Ahlakın sadece dini inanca bağlı yorumlanması ve ne yazık ki daha çok kadın erkek arasındaki ilişkilerde akla gelmesi bu çarpıklığın daha da büyümesine yol açıyor. TDK sözlük anlamı, “Bir toplum içinde kişilerin uymak zorunda oldukları davranış biçimleri ve kuralları” olan ahlak terimi, daha çok neyin doğru veya yanlış sayıldığı (sayılması gerektiği) ile ilgilenir (Vikipedi).

İlk paragraftaki senaryo, ahlak felsefesinde çok yoğun şekilde atıfta bulunulan ve orijinali İngiliz felsefeci Philippa Foot tarafından 1967’de “Trolley Problem” ya da “Trolley Dilemma” olarak ortaya atılan ve Türkçe’ye “tramvay ikilemi” olarak çevrilebilecek bir soru üzerine geliştirilmiş. MIT (Massachusetts Institute of Technology) tarafından desteklenen bir “Ahlak Makinesi” projesinde rastlayabileceğiniz yüzlerce değişik senaryodan sadece birisi. Projenin çıkış noktası olan “Tramvay İkiliemi” de, en basit şekli ile, kontrolden çıkmış bir tramvayın raylarda çalışan durumdan habersiz beş işçiye doğru hızla ilerlemesini, sadece sizin kontrol edebileceğiniz bir düzenek ile bu tramvayın gidişini farklı bir ray ikilisine alabileceğinizi, ancak o tarafta da bir işçinin ölümüne sebebiyet vereceğinizi söyleyen ve size hangi kararı vereceğinizi sorgulatan bir klasik düşünme deneyi. Burada insanın aklına seçimin basit olacağı gelse ve düzeneği kullanıp da beş kişi yerine bir kişinin ölmesinin yeğleneceği düşünülse de işin gerçeği çok ciddi çalışmaların gerekliliğini doğurmuş durumda. İnsanın ikili seçeneklerinden ilki olan “düzeneğe hiç dokunmamak” pasif bir eylemken, diğer seçenek kasıtlı olarak insan hayatına zarar vermeye sebep olan etkin bir eylem.

Ahlak Makinesi projesi, otonom araçların ahlaki ikilemlerle karşı karşıya kaldıklarında nasıl karar vermesi gerektiğine dair insan görüşünün kitle kaynaklı bir resmini çıkarabilmek amacıyla oluşturulmuş. Orijinal tramvay ikilemi gibi sadece aynı özelliklerdeki bir kişiye karşılık beş kişi gibi basitlikten, şeritlerde değişik yaş ve meslek gruplarının olduğu, geçiş yapan insanların suçlu mu dürüst insanlar mı oldukları, yanlarında ev hayvanı olup olmadığı ve hatta yayalara kırmızı ışık yanıp yanmadığı gibi detaylı senaryolar ve düşünme deneyleri de var.

Ahlak Makinesi projesinde 2018 yılına kadar 233 farklı ülkeden 40 milyon farklı karar toplanmış. Her gün yeni kararlar da girilmeye ve analiz edilmeye devam ediyor. Deneyden toplanılan tüm veri de açık kaynak olarak tüm dünyadaki bilim insanlarının kullanımına açılmış durumda. Bu verilere siz de https://www.moralmachine.net/ sitesine girerek katkıda bulunabilir ve seçimleriniz sonrasında tüm dünyadaki diğer seçimler ile kendi seçimlerinizin karşılaştırmalı analizini de görebilirsiniz. Hem belki de ileride kaçınılmaz olarak her yerde kullanacağımız otonom araçların “ahlaki seçimlerine” bir değer de siz katmış olabilirsiniz.

Ek bilgiler
Moral Machine - https://www.moralmachine.net/
OSF | Moral Machine Veriseti - https://osf.io/3hvt2/