Bir restorana yeni tanıştığımız biri ve birileriyle gittiğimizi düşünelim. Önümüze şarap menüsü gelmiş olsun. En pahalı şaraplar var, en ucuz şaraplar var ve bir de ikisinin arasında kalan şaraplar var. Bir şarap uzmanı veya bilmeden en pahalısını isteyecek bir görgüsüz değilsek, genellikle iki ucun arasında bir şarap tercih ederiz. Bunu neden yaptığımızı çok sorgulamayız. Bir mağazaya gittik diyelim, çorap reyonunda şöyle bir uyarı olsun: Bu çoraptan en fazla 12 adet satın alınabilir. Böyle denilince bir çift çorap ihtiyacımız varsa bile, daha fazla çorap alırız. Çünkü birinci örnekte çapayı en ‘pahalı şaraba’, ikincisinde de ‘12 adet’ sınırına atmışızdır.

Çoğumuzun bildiği gibi bunların hiçbiri tesadüf değil. Pazarlama departmanları, davranışsal ekonomiden yararlanarak hepsini bilinçli tasarlarlar. Örneğin; fast food zincirleri, menülerine salata gibi sağlıklı seçenekleri, öncelikle “salata yiyenleri de kaçırmayalım” diye koymazlar. Çünkü çoğunlukla çapayı sağlıklı olduğunu düşündüğümüz ürüne atsak bile, o ilk anda içimizi rahatlatır, biz yine hamburger, patatese yumuluruz. Psikoloji alanında Anchoring Bias (Türkçede; Çapalama Etkisi (yanlılığı), Demirleme Etkisi, Ankraj Etkisi olarak anılabiliyor) adını vererek bu olguyu 1970’lerde ilk tanımlayanlar, sonradan Nobel Ekonomi Ödülü de kazanacak olan Daniel Kahneman ve birlikte çalıştığı Amos Tversky’di.

Peki, bugün dünyanın başına bela olan dezenformasyon veya yanlış bilgi sorunuyla bu ‘çapalama etkisinin’ ne ilgisi olabilir? Bu haftaki Köşe Vuruşu’nda, Eski Google Ceo’su Eric Schmidt’in uyarıları eşliğinde, bu sorunun cevabını aramak istiyorum.

YAPAY ZEKÂ VE DEZENFORMASYON

Google’dan ayrıldıktan sonra yapay zekâ alanında çalışmaya başlayan eski CEO Eric Schmidt son olarak Henry Kissenger ve Daniel Huttenlocher ile birlikte The Age of AI (Yapay Zekâ Çağı) isimli bir kitap yazmıştı. Schmidt son olarak The Atlantic dergisine verdiği röportajda* önemli uyarılarda bulundu. Şu an özellikle reklam gösterimi için kullanılan yapay zekâ teknolojilerini, bir kontrol alanı içinde iyi niyetli bulduğunu (buna katılmıyorum) söyleyen Schmidt, bizi daha kötüsünün beklediğini kaydetti. O da Yapay Zekânın davranışlarımızdan yola çıkarak zayıf yönlerimizi tahmin ederek dezenformasyon üretme olasılığıydı. Bunun için de en önemli silahı, yazının ilk paragrafında bahsettiğim Çapalama Etkisi olacaktı. Çünkü insanların çapayı atacağı yeri tahmin etmek makine için hiç de zor değildi. Yapay Zekâ, özellikle kalıpları ve istisnaları bulma konusunda mahirdi. İşte Schmidt de buradan yola çıkarak diyor ki, o evreye vardığımızda şu anki yanlış bilgi sorunu çocuk oyuncağı olacak. Diyebilirsiniz ki, şimdi de zaten dezenformasyonu bot hesaplarla yayıyorlar. Evet, botlarla yayıyorlar ama yaydıkları şeyi şu an hâlâ insanlar oluşturuyor. O evrede bizim en zayıf yanımıza uygun dezenformasyonu da robotlar tasarlayacak. Örneğin; mültecilerle ilgili bir önyargımız olduğunu tespit ettiyse, mültecilere ilişkin, görseliyle, videosuyla çabucak düşeceğimiz yüzlerce manipülatif içeriği üretmesi mümkün olacak. Ben öyle kolay kolay yemem diye düşünmeyin, makine bu haberleri kitlesel değil, tamamıyla bizim bireysel zaaflarımıza ilişkin tasarlayabilir.

ÇÖZÜMÜ VAR MI?

Ne platformlar, ne devletler, ne de bilim insanları bunun tam bir çözümünü bulmuş durumda değil. Ancak eskiden Big Tech’in zirvesindeki kuruluşların birinin, Google’ın başında olan Schmidt’in “Bunu çözmemiz lazım” uyarısını ciddiye alıyorum. Aynı röportajda Schmidt’in bir de özeleştirisi var. Diyor ki, “Biz kötü bilginin çözümünün daha fazla bilgi olduğunu düşündük. Böylece zararlı olsa bile içeriğin kaldırılmasına karşı oldukça agresif bir tavır aldık. Bunu hem teknolojik olarak hem de kültürel olarak doğru bir şey kabul ettik.” İşte aslında bugün gelinen nokta, biraz da Schmidt ve çağcıllarının o gün aldığı tavrın eseri. İnterneti sınırsız özgürlükler alanı olarak görmenin, düşünce özgürlüğünün sınırlarını iyi çizememenin sonuçlarını yaşıyoruz. Yapay zekanın daha çok gelişeceği bir çağda her şey daha da kötüye gidilebilir.

SORUNUMUZ ULUSLAR ÜSTÜ

Haftalardır parça parça aktardığım ve sonunu hep aynı yere bağladığım bu tehlikeler tekrar tekrar gösteriyor ki, nasıl iklim değişikliği bütün dünyanın varlık sorunuysa, internetteki dezenformasyon sorunu da bütün insanlığın ortak sorunu. Bunun için uluslar üstü yapılar kurmak ve hakikati yeniden eski konumuna taşımak için savaşmak zorundayız. Çünkü arkasında kimin olduğunu bulmanın imkânsızlaşacağı, robotların kendi başına ürettiği dezenformasyonla mücadeleyi birilerini tutuklama tehdidiyle çözemezsiniz. Çünkü hakikat olmazsa ne demokrasiler ayakta kalır ne de medeniyet. Bugünlerde Meclis gündemine girecek olan sosyal medya düzenlemeleri bunları hesaplıyor mu emin değilim? Sosyal medya düzenlemesi sadece muhalefetle mücadele aracı olarak düşünülüyorsa vay halimize. Çünkü bu haliyle sosyal medya, mevcut iktidarlardan da muhalefetlerden de daha büyük. Onunla böyle yalnız başına mücadele edemezsiniz.

* https://www.theatlantic.com/technology/archive/2021/09/eric-schmidt-artificial-intelligence-misinformation/620218/