Kemal Kılıçdaroğlu’nun 2 Mayıs’ın ilk saatlerinde, gece vakti attığı “Cambridge Analytica’cılık oynamayın” temalı tweet, eski bir tartışmayı yeniden canlandırdı. Cambridge Analytica’ya aslen aşinaydık. 2016 ABD seçimlerinde etkili olduğuna inanılan bir manipülasyon skandalıydı ve 2018 yılında su yüzüne çıkmıştı. Bu tarihlerden itibaren sosyal medya platformlarını da başka türlü tartışmaya başladık zaten. Veri bilinci ve farkındalığı konusunda yeni bir dönemin kapısını açan bu gelişmeler henüz tam olarak sindirilememişken üretken yapay zekânın hayranlık ve korku arasında gidip gelen kuşatması altındayız. Bu nedenle, Cambridge Analytica, bence artık eski bir çağın tartışması. Çünkü tehlikenin sadece boyutu değil şekli de değişti ve tanımlamak zorlaştı. Zaten Kemal Kılıçdaroğlu’nun da bunu bir metafor olarak kullandığını düşünüyorum. Yani söylemeye çalıştığı şey, “teknoloji yoluyla karanlık tarafa geçerek, manipülatif bir takım operasyonlara girişmeyin” şeklinde tercüme edilebilir. 

CAMBRIDGE ANALYTICA NASIL VERİ TOPLADI? 

Cambridge Analytica, 2018 yılında feshedilen bir şirketin ismi. Suçlandıkları şeyi basitçe özetlemem gerekirse, kişisel verilere amacı aşan bir ulaşım ve bu yolla manipülasyon. Bunu nasıl yaptılar? Öncelikle 50 milyon ABD’li Facebook kullanıcısına 2-3 dolar gibi ufak bir meblağ ödeyerek bir kişilik testi uyguladılar. Bu 50 milyon kişinin arkadaşlarıyla birlikte 87 milyon kişinin detaylı kişisel verisine ulaştılar. Buradan da kişilik profilleri çıkararak, her profile özel manipülasyon içerikli iletişim yapma imkânı elde ettiler. Örneğin, 2016 seçiminde Hillary Clinton’a oy vermesi muhtemel görülen 3,5 milyon Afrika kökenli Amerikalı’dan oluşan veri tabanlarını “caydırıcılık” gibi bir kategoriye ayırarak, onlara özel “sandığa gitmeyin” iletişimi yapmak gibi. Bu yazıyı okuyanların çoğunun bildiğini düşündüğüm bu detayları bilerek tekrarladım. Çünkü bir gerçeği hatırlamamız gerekiyor. Şimdi bu teknik her ne kadar şeytanice olsa da verinin nasıl toplandığı belli. Bir hackleme, gizlice edinme veya gizem söz konusu değil. 50 milyon kişi, küçük bir ödül karşılığında bu testi bile isteye cevaplamış. Burada, Cambridge Analytica’nın hızla gelişen yeni medya teknolojileri karşısında oluşan yasal boşluğu sinsice kullandığını söyleyebiliriz. Aylardır konuştuğumuz ve çoğunlukla hayranlıkla karşıladığımız üretken yapay zekâ da boşluklar üzerinden yükseliyor ve şu anda asıl ona dikkat kesilmemiz gerekiyor. 

ÜRETKEN YAPAY ZEKÂNIN ÜÇ TEHLİKESİ

Üretken yapay zekânın tehlikelerini üç grupta toplayabiliriz. Birincisi; dezenformasyonun hem yazılı hem de görsel olarak mükemmelleşmesi. Yapay zekâ ile yaratılan deepfake video ve ses teknolojileriyle “gördüğüne, duyduğuna bile inanma” devri başladı. Bu en kısa vadeli tehlikesi ve seçim ortamında hepimizi ilgilendiriyor. ABD, 2024 seçimi için bu tehlikeyi önceliyor ama bizim en kritik seçimimize sadece bir hafta kaldı. Orta vadeli tehlikesi yaratacağı işsizlik sorunu. Bu da bir kaos ve eşitsizliği derinleştirme potansiyeli taşıyor. Uzun vadeli tehlikesiyse, bu modellerin insan kontrolünden çıkıp dünyanın kontrolünü ele alması ihtimali. Bununla ilgili de uyarılar muhtelif. Bu yazıda bunların detaylarına girmeyeceğim. Ancak özellikle kısa vadeli tehlikesi ve dünyadaki yasal düzenleme çabalarına odaklanmakta fayda var. 

‘YAPAY ZEKÂNIN BABASI’ NE DEDİ? 

Geoffrey Hinton ‘Yapay Zekânın Babası’ diye tanınan önemli bir teknoloji öncüsü. ChatGPT gibi hayranlık uyandıran sohbet robotlarının merkezindeki teknolojiyi yaratanlardan biri. Geçen hafta bu teknolojinin risklerine dair önemli bir konuşma yaptı. Üstelik Google’daki işinden ayrıldığını ve bu teknolojinin risklerine karşı artık özgürce konuşabileceğini de belirtti. “Ben yapmasaydım, başkası yapardı” bahanesiyle kendini avuttuğunu bile ekledi. Şimdi mucitlerinden birinin böylesine endişe verici sözler söylediği dünyada biz ne yapacağız, neler yapılıyor? 

Dünyada olup bitenler konusunda kısa bir özet geçmem gerekirse, perşembe günü, Beyaz Saray’da Başkan Joe Biden’ın da katıldığı bir toplantı yapıldı. Google, Microsoft, OpenAI, Anthropic gibi yapay zekâ alanında çalışan şirketleri de bu toplantıdaydı. Başkan Biden bu toplantıda "Yaptığınız şey muazzam bir potansiyel ve çok büyük bir tehlike içeriyor" diyerek bir düzenlemenin ve belki de bu yolla desteklemenin sinyalini verdi. Diğer taraftan dünyanın geri kalanıysa, gözünü Avrupa Birliği’ne çevirmiş durumda. Çünkü AB, yaklaşık iki yıldır çalıştığı Yapay Zekâ Yasası konusunda son düzlüğe girmiş durumda. Yasanın en kritik noktası ChatGPT tarzı üretken yapay zekâ araçlarının ‘yüksek riskli’ kategorisine alınıp alınmayacağı konusu. Bu noktada karşı lobi faaliyetlerinin sürdüğü biliniyor. AB iki konuya odaklanmış durumda,; birincisi ChatGPT tarzı üretken yapay zekânın eğitim verilerinin nereden geldiği, ikincisi bu bilgilerin kullanıcılara nasıl sunulduğu. Bilindiği üzere İtalya’da ChatGPT başlangıçta geçici olarak yasaklanmış, OpenAI’nin veri hakları konusunda verdiği güvencelerden sonra -Eylül 2023’e kadar bazı şartları yerine getirmesi karşılığında- serbest bırakılmıştı. 

Benim, üretken yapay zekânın Cambridge Analytica’yı eski bir tartışma haline getirmesiyle ilgili görüşüm de buradan kaynaklanıyor. Bir tarafta verinin nasıl toplandığını biliyoruz ama diğer tarafta bir gizem var. Çünkü bu çeşit yapay zekâ, internet üzerindeki pek çok veri toplanarak eğitiliyor. Ancak beslenme kaynaklarını tam olarak bilmiyoruz. Mükemmel görseller ve metinler yaratıyor ama bunlar için eğitilirken kaç veri toplama yasası ihlal edildi ya da telif hakkı ihlali yapıldı? Üstelik Cambridge Analytica’nın yaptığı gibi insanlara test doldurtup, verilerini işleyip daha sonra onlara dezenformasyon içeriği göstermek gibi dolambaçlı bir yola da gerek yok. İnsanlar bu yapay zekâ aracına kendileri girip bir şeyler soruyor veya görsel çıktılar alıyor. Buradaki manipülasyon potansiyelini hayal edebiliyor musunuz? Dahası, bu araçlara sorulan her soru, yapılan her giriş ve bu sırada paylaşılan kişisel bilgiler hep yeni bir eğitim verisi olarak birikiyor. Üretken yapay zekâ muazzam faydalarının yanı sıra dezenformasyon yoluyla dünyayı şekillendirmenin yeni bir biçimi olabilir. Cambridge Analytica mevzusu, bu yeni hikâyenin önsözünde yer alan bir cümle olabilir sadece. Seçimden sonra yeni bir Türkiye’ye uyanacaksak, kendi kısır tartışmalarıyla gün geçiren değil, bu konudaki önlem ve düzenlemelerin de gündemde olduğu bir ülke olmalı.