Politikacılar yapay zekâ tartışmasına Elon Musk’ın yapay zekâ çalışmalarına altı ay ara verilsin çağırısının ardından dahil oldu. ABD başkanı Biden, bir süredir önde gelen temsilcileriyle yapay zekâ teknolojisinin yaratacağı olası güvenlik risklerini görüşüyor. 1-2 Kasım’da İngiltere’de toplanan Yapay Zekâ Güvenliği Zirvesi, teknolojinin uluslararası aktörlerini bir araya getirdi. İngiltere başbakanının çağırısıyla gerçekleşen zirvenin tekrarı altı ay sonra Güney Kore'de, ardından bir yıl içinde Fransa'da olacak. Yapay zekâ teknolojisine politikacıların müdahil olmasını isteyenler bu alanda faaliyet gösteren teknoloji firmaları ve yapay zekâ uzmanlarıydı. Özellikle ABD merkezli firmalarla, onlarla birlikte çalışan akademisyenler sık sık yapay zekânın “Ulusal ve uluslararası güvenliğe tehdit” ve sonuç olarak “Uygarlığın yok oluşuna neden olacak” risklerine dikkat çekiyor. “Yeni terör yöntemlerine zemin hazırlama potansiyeli” gibi devleti, mevcut politika tarzının sonu gibi politikacıyı kışkırtan ifadelerin yer aldığı çok imzalı bildiri ve mektupların imzacıları, hükümetlerden yapay zekâdan kaynaklanan riskleri yönetecek standartlar oluşturmasını istiyor. 

Yapay zekâ teknolojisi, mühendislerin söylediği ve bugün öngörülemeyen kimi riskler barındırıyor olabilir. Fakat politikacılarla yapay zekâ yatırımcılarının, “risk”i, yapay zekânın topluma yönelik olumsuz etkilerini tanımladığını düşünmek, onları bir araya getiren şeyin insanlığın ve uygarlığın geleceğine ilişkin kaygıları olduğunu sanmak saflık olur. Biden’in, Rishi Sunak’ın ve Şi Cinping’in “Herkesin iyiliğini destekleyen, insan odaklı, güvenilir ve sorumlu yapay zekâyı sağlamak” olduğuna inanmamıza engel neden saymakla bitmez. O nedenle bu telaş ve tartışmanın, şu âna kadar tek yönlü spesifik veri kullanan yapay zekâ uygulamaları ile genel veri kullanmayı vaat eden yeni teknoloji arasında pozisyon belirlemeden kaynaklandığını söyleyebiliriz. Çünkü Genel Yapay Zekâ, henüz emekleme aşamasında olsa da paylaşılan tüm verileri analiz ederek “neden”, “nasıl”, “niçin” sorularına da yanıt oluşturan bir program vaat ediyor. Bunlar, sosyal, ekonomik ve siyasal davranışlarımıza yön verenlerin hoşlandığı sorular değil. “Neden” sorusuna her daim devlet dışında ve ona rağmen yanıt aranmıştır. Devlet(ler), bundan ötürü küresel “bilgi” endüstrisinin yardım çağrısına hızlı yanıt vermiştir. Böylece, zihinsel bir çabanın ürünü olan AI, onu zihinsel faaliyet olarak görmeyen güç merkezlerinin denetimine girecek. Ekonomisini kimin kontrol edeceğini, toplumu kimin enforme edip yöneteceğini, çökeceği söylenen uygarlıktan boşalan yerin nasıl bir uygarlıkla doldurulacağını ise aralarındaki rekabetin sonucu tayin edecek. 

Politikacıları harekete geçiren asıl şeyin, yapay zekânın otonomlaşarak (AGI) ulus devletlerin bilgi üretim ve dağıtımındaki tekelini kırma ihtimalidir. Devlet(ler), bilgisayar ve internetin gelişim sürecinde tehlikeyi sonradan fark etti ve hâlâ da etkili önlemler geliştirebilmiş değiller. Facebook, Twitter (X), Youtube, TikTok, Whatsapp, eposta, zoom gibi resmî ideoloji ile çelişen/çatışan bilgilerin yaygınlaşmasına yol açan paylaşım platformlarına sonradan müdahale (fiş çekme, yargılama, para cezası) dışında tedbir alamıyor. Şimdi bu tecrübeden ders çıkarıp yapay zekâ teknolojisini kontrol edecek ön tedbir yolları aranıyor. Yapay Zekâ Güvenliği Zirvesine katılan devletler, aslında yapay zekânın avantaj ve dezavantajları konusunda herhangi bir öngörüye sahip değillerdi. Onları uyaran OpenAI'nin GPT-4'ü kullanıma sunmasının hemen ardından Elon Musk’ın bin imzacıya ulaşan yapay zekâ çalışmalarının durdurulmasını isteyen bildirisiydi. Bildiride “Makinelerin bilgi kanallarımızı propaganda ve yalanla doldurmasına izin mi vermeliyiz?” diye soruluyor medeniyetimizin kaybedilmesi riskinden söz ediliyordu. Bildiri, varlığını büyük oranda yalan söyleme ayrıcalığına borçlu olan devlet(ler) için müdahale edilmesi gereken bir duruma dikkat çekiyor ve aynı zamanda AI tarafında müdahaleyi kolaylaştırıcı çatlaklar olduğunu gösteriyordu. Görebildiğimiz kadarıyla OpenAI’da sıçrayan ayrışma, cebimizde taşıdığımız yalan makinelerinin fişinin bağlı olduğu endüstrisinin büyük aktörleri ile (X, Apple, Google, Meta ve sosyal ağları) yapay zekâ çalışmalarına zihniyle dahil olanlar ve olacaklar arasında yaşanıyor. Büyük bilişim şirketlerinin yöneticileri Elon Musk bildirisine imza verirken OpenAI’dan imza verilmemiş olması (Hatta bildiriyi OpenAI adına imzalayan eski CEO’su Sam Altman'ın yönetim kurulunun itirazı üzerine imzasını geri çekmesi de) bu tezi doğruluyor. Öyle gözüküyor ki tahmin edilemez büyüklükte bir ekonomi ve sosyal kontrol vaat eden yapay zekâ çalışmaları, “Kâr amacı gütmeyen” kamusallığa vurgu yapan özgür yazılımcılara bırakılmayacaktır. 

Risk politikasını en yüksek sesle dillendiren ve küresel kamuoyu oluşturma gücü bulunan Elon Musk’a ayrı bir parantez açmak gerekiyor. Musk, düşünmeyi öğrenebilen bilgisayarlar tasarlamak amacıyla kurulmuş DeepMind’e ortak olmasını (sonra ortaklıktan ayrıldı) “tehlikeyi izlemek” , Mars’a giden roketler üretmesini de asteroid çarpması veya dünya savaşı gibi medeniyetin çöküşüne yol açacak felaketlere karşı insanlığı korumak olduğunu söylüyor. Bu söylemiyle onu nükleer silahlanmanın caydırıcılığı ile barışın tesis edileceğini savunan silah tüccarlarına benzetebiliriz. Kasasında orta gelir grubundaki 200 milyon dünya insanının serveti bulunan Elon Musk ve diğerlerinin sektörü kirleten unsurlar olarak gördükleri kâr amacı gütmeyen Genel Yapay Zekâ çalışmalarının denetimini sağlayacak standartlar getirmedeki ısrarları, yapay zekânın teknolojik ürünlerinde kullanılan biçimiyle kalmasından yana oldukları içindir. Çünkü otonomlaşmış Genel Yapay Zekânın, onların da kontrol edemeyecekleri zorluklar çıkarma ihtimali var. Politikacılarla ortaklaştıkları nokta tam da burasıdır; biri ticari öbürü politik mesajını doğrudan iletebildiği mevcut statükoyu korumak istiyor. 

Bugün, “Yapay zekâ eğitim için tehdit mi? başlığı altında yapay zekânın eğitime olumlu ve olumsuz etkilerini ele almayı düşünmüştük. Böyle teknik bir konuya politik giriş yapalım derken yazı kendisine ayrılan yeri aştı ve asıl mesele (yapay zekânın eğitime olası etkileri) haftaya kaldı.