Sadece yapay zekanın potansiyel tehlikelerine takılıp kaldığınızda, gündelik hayatınızı inanılmaz kolaylaştırabilen yeni sistemlerin değerini ister istemez azımsıyor ve hatta görmezden gelmeye başlıyorsunuz

Yapay zeka ve yanlış korkular

Fark etmiş olabileceğiniz gibi, şu anda müthiş bir hızla gelişen bir yapay zeka devriminin ortasındayız ve her gün yeni haberler duyuyoruz. Bu, tabii ki "AI doomsday" olarak da bilinen, yapay zekaya yönelik felaket tellallığını da müthiş seviyelere ulaştırdı - ki son 60 yılda yapay zeka her yükselişe geçtiğinde bu korku da illa bir coşuyor. Gerçi bu, tamamen haksız bir korku sayılmaz, çünkü öngörülebilir bir gelecek boyunca yapay zeka, robot ordularla yükselip insanları köleleştiremeyecek; ancak kötücül ve kontrolden çıkmış bir yapay zeka bankacılık, nükleer silahlar, istihbarat veya diplomasi süreçlerine sızarak insanların kendi kendilerine çok ciddi zararlar verebilir.  

Stabilite sorunları 

Ama sadece yapay zekanın potansiyel tehlikelerine (ki onun da fazlasıyla abartılmış versiyonlarına) takılıp kaldığınızda, gündelik hayatınızı inanılmaz kolaylaştırabilen bu yeni sistemlerin değerini ister istemez azımsıyor ve hatta görmezden gelmeye başlıyorsunuz. İşte siz de yapay zekanın insanlığı ele geçirmesinden korkanlardansanız, Kopenhag Üniversitesi’nin yaptığı bir araştırma sizi bir süreliğine rahatlatabilir. Çünkü görünen o ki yapay zeka, tüm bu ihtişamına rağmen, “stabilite” sorunlarına sahip.  

Stabilite, bir sistemin sonucu değiştirmemesi gereken basit hatalara karşı direnç gücü olarak düşünülebilir. Mesela bir yol tabelasını düşünün. Üzerine bir sticker yapıştırılacak olsa, insan bir sürücü bu sticker’ı umursamadan, o stickerın yapıştırıldığı işaret her neyi söylüyorsa onu anlayabilir ve hiçbir sorun yaşamadan, işaretin söylediğine göre davranabilir, öyle değil mi? Ama yapay zekaya sahip otonom bir araç, tabela üzerindeki ufacık bir sticker nedeniyle yoldan çıkabilir ve hatta kazalara neden olabilir. İşte bir yapay zekâ sisteminin insanlar için bariz olan bu tür saçmalıklara direnme gücüne "stabilite" diyoruz.  

Makineler, daha şimdiden tıbbi tarama görüntülerini doktorlardan daha doğru yorumluyor, yabancı dilleri tercümanlardan daha isabetli tercüme ediyor ve yakında arabaları insanlardan daha güvenli bir şekilde sürmeleri ümit ediliyor. Ama bunlar, görece basit problemler ve Kopenhag Üniversitesi’nden araştırmacıların matematiksel olarak ispatladığı üzere, yapay zekâ algoritmaları şu anda aktif olarak kullandığımız bu görece basit problemlerde stabil kalmaya devam edebilseler de, daha karmaşık problemlere doğru gittikçe stabiliteleri giderek bozulmak zorunda. Eğer elde ettikleri bu sonuçlar gerçekten doğruysa, kıyamet senaryolarında gördüğümüz yapay zekalara ulaşmamız çok zor, belki de imkansız olabilir. 

Araştırma ekibinin başındaki Prof. Dr. Amir Yehudayoff’un da söylediği gibi, yapay zeka algoritmalarının, girdi birazcık değiştirilse bile çıktılarının neredeyse aynı kalacağı şekilde “kararlı” olmasını isteriz. Ancak insanlar, gerçek hayattaki olay ve süreçlerin içerdiği gürültüyü kolaylıkla görmezden gelebilirken, aynı gürültüler makinelerin kafasını karıştırabiliyor. 

Aslında araştırmacıların asıl hedefi, spesifik bir uygulamadaki (mesela otonom araçlar sahasındaki) hataları tespit etmek değildi; hatta direkt olarak otonom araçlarla çalışmadılar bile. Daha ziyade, bir algoritmanın hataya açıklığının ölçüsünü belirlemenin ve araştırmacılar arasında ifade etmenin bir yöntemini bulmaya, yani bir çeşit “dil” geliştirmeye çalıştılar. Yehudayoff, şöyle diyor: 

Zayıflık tespiti 

“Makine Öğrenimi algoritmalarındaki zayıflıkları tartışmak için bir dil geliştiriyoruz. Bunu başarabilirsek, algoritmaların nasıl test edilmesi gerektiğini açıklayan kılavuzların geliştirilmesi mümkün olabilir. Ve uzun vadede, bu yine daha iyi ve daha kararlı algoritmaların geliştirilmesine yol açabilir.” 

Bu durum, piyasadaki bazı yapay zekâ sistemlerinin açıkça yalan söylediğini de ortaya koyuyor: Mesela daha şimdiden bazı yazılımcılar, yapay zekâ sayesinde kişilerin gizliliklerini korumanın mutlak ve nihai bir yolunu bulduklarını iddia etmeye başladılar. Halbuki Kopenhag Üniversitesi’nde yapılan bu araştırmanın sonuçları, böyle bir sonucun mümkün dâhi olmadığını söylüyor. Dahası, yöntemleri sayesinde her algoritmanın zayıf taraflarını tespit etmek mümkün olabilir. 

Yeni yayınlanan makale, akademide şimdiden epey bir ilgi çekmiş olsa da, henüz teknoloji şirketleri bunu umursamıyor gibi gözüküyor. Ama eğer matematiksel ve teorik analiz doğruysa, duvara tosladıklarında mecburen umursayacaklar. O zamana dek, bilim insanları pratik teknolojilerin altında yatan teorik altyapıyı geliştirmeye ve anlamaya devam ediyorlar.