Google Play Store
App Store

Günümüzde yapay zekâ sayesinde ölen birinin sesini, görüntüsünü ve jestleriyle mimiklerini kusursuza yakın bir şekilde kopyalamak mümkün; bu teknoloji, önümüzdeki yıllarda çok ama çok daha başarılı hale gelecek.

Ölüm sonrası ve dijital ikizlerimiz
Fotoğraf: Pixabay

Ölümden sonra ne olduğu, insanların bir bilince eriştiğinden beri sorduğu en temel sorulardan biri. Ölüm ve sonrası üzerinde hiçbir kontrolümüz olmadığı için (ve tür olarak bir çeşit “kontrol manyağı” olduğumuz için), bizi en çok korkutan şey ölümden sonra yok olup gitme endişesi… Sırf bu nedenle şiirler düzdük, şarkılar söyledik, kitaplar yazdık. Çünkü ölüm üzerinde kontrolümüz yoktu, ne yapabilirdik ki? İşler, teknolojiyle birlikte değişiyor gibi gözüküyor.

Günümüzde yapay zekâ sayesinde ölen birinin sesini, görüntüsünü ve jestleriyle mimiklerini kusursuza yakın bir şekilde kopyalamak mümkün; bu teknoloji, önümüzdeki yıllarda çok ama çok daha başarılı hale gelecek ve bir noktadan sonra gerçeğinden ayırt edilememeye başlayacak.

Tabii ki bilimkurgu filmlerindeki gibi nöral haritalar makinalara aktarılmadığı müddetçe, “Ölübot” veya “Kederbotu” olarak adlandırılan bu yapay zekâlar gerçekten o ölüp gitmiş kişinin bilincini taşıyor olmayacak (gerçi bu nöral haritalar birebir kopyalandığında da bilinci transfer etmiş olacak mıyız emin değiliz; ama işin bu tarafına biraz daha var). Yine de en azından geride kalanlar, sevdikleriyle bir nebze olsun konuşabilmeye ve farklı biçimlerde etkileşebilmeye devam edecekler.

Ancak bunun bazı tehlikeleri de var: Cambridge Üniversitesi’nin yaptığı bir çalışmaya göre, kullanıcıların kaybettikleri sevdikleriyle yazılı ve sesli görüşmeler yapmasına olanak tanıyan yapay zekâ, güvenlik standartları tasarlanmadığı takdirde psikolojik zarar verme ve hatta geride kalanlara dijital olarak "musallat olma" riski taşıyor.

Üç tasarım senaryosu 

Cambridge’deki Leverhulme Zekanın Geleceği Merkezi’nden yapay zekâ etikçileri, "yüksek riskli" olarak tanımladıkları bir yapay zeka alanında dikkatsizce geliştirilen tasarımların potansiyel sonuçlarını göstermek amacıyla, gelişmekte olan "dijital ölümden sonra yaşam endüstrisi"nin bir parçası olarak ortaya çıkabilecek platformlar için üç tasarım senaryosunun ana hatlarını çizdiler.

Philosophy and Technology dergisinde yayınlanan araştırmaya göre şirketler, “ölübotları” kullanarak kullanıcılara ölmüş bir sevdikleri gibi davranarak onlara çaktırmadan ürün reklamı yaptırabilirler ya da ölmüş bir ebeveynin hala "gerçekten yanınızda" olduğu konusunda ısrar ederek çocukları üzebilirler.

İnsanlar, bedenleri öldükten sonra sanal olarak yeniden yaratılmak üzere bu şirketlere kaydolduğunda, üretilen sohbet robotları şirketler tarafından hayatta kalan aile ve arkadaşlara sağladıkları hizmetlerle ilgili istenmeyen bildirimler, hatırlatmalar ve güncellemelerle spam göndermek için kullanılabilir. Bu, adeta mitolojik inançlarda tarif edildiği biçimde “ölü birinin size musallat olmasına” benzer.

Araştırmacılara göre, bir “ölübot”tan başlangıçta rahatlık duyanlar bile, “ezici bir duygusal ağırlık” haline gelen günlük etkileşimlerle tükenebilirler. “Fişini çekerim olur biter” diye düşünebilirsiniz; ancak şirketle olan sözleşmeleri potansiyel olarak uzun dönemse (ve kapatılmama maddelerini içeriyorsa), bir yapay zekâ simülasyonunu askıya almak gibi bir seçenekleri olmayabilir.

İşin çılgın tarafı, şu anda bunu kusursuza yakın bir şekilde yapmanın oldukça masrafsız ve basit bir iş hâline gelmiş olması. “Generative AI” olarak bilinen üretken yapay zekâdaki hızlı gelişmeler, internet erişimi ve bazı temel bilgilere sahip olan neredeyse herkesin ölen bir sevdiğini canlandırabileceği anlamına geliyor. Tabii ki bu durum, yapay zekânın özellikle de bu kullanımlarını adeta etik bir mayın tarlasına çeviriyor. Ölen kişinin haysiyetine öncelik vermek ve bunun, örneğin “ölümden sonra dijital yaşam” hizmetleri veren firmaların finansal güdüleri tarafından ihlal edilmemesini sağlamak çok önemli; ama şu anda bunun herhangi bir garantisi yok. Aynı zamanda, bir kişi, kederlerini bu şekilde işlemeye hazır olmayan sevdiklerine bir veda hediyesi olarak bir yapay zekâ simülasyonu bırakabilir (yani sevdiklerimiz, bizim adımıza bu tür kararlar alabilirler). Hem veri bağışçılarının hem de yapay zekâya dayalı “öbür dünya hizmetleriyle” etkileşime girenlerin hakları da eşit şekilde korunmak zorunda.

Yapay zekâ  

Kendi sistemlerini geliştirmeden önce GPT modellerinden yararlanmaya başlayan “Project December” ve “HereAfter” gibi uygulamalar, küçük bir ücret karşılığında ölüleri yapay zekâ ile yeniden yaratıyorlar. Benzer hizmetler Çin’de de ortaya çıkmaya başladı.

Yeni makaledeki potansiyel senaryolardan biri olan “MaNana”, "veri vericisinin" (ölmüş, büyük bir ebeveynin) rızası olmadan ölmüş büyükannelerini simüle eden ve bir “ölübot” yaratmalarına olanak tanıyan, diyaloğa dayalı bir yapay zekâ hizmeti olarak tarif ediliyor. Varsayımsal olan bu senaryoda, başlangıçta teknolojiden etkilenen ve rahatlayan bir torun, "premium deneme" bittikten sonra babaannesinin yaptığı reklamları dinlemeye başlıyor. Örneğin, sohbet robotu merhumun sesi ve üslubuyla yemek kuryelerinden sipariş vermeyi öneriyor. Akrabası, büyükannesinin anısına saygısızlık edildiğini düşünüyor ve “ölübotun” kapatılmasını istiyor, ancak bunu da bir nevi “ikinci cenaze” töreniyle, anlamlı bir şekilde yapmak istiyor. Hizmet sağlayıcılarıysa bu tür talepleri umursamıyor.

Görebileceğiniz gibi buradaki temel sorun, insanların her ne kadar “sahte” olsa bile bu tür simülasyonlara karşı güçlü duygusal bağlar geliştirebileceği gerçeği. Bu da onları manipülasyona karşı özellikle savunmasız hale getiriyor. Ölübotları, her ne kadar “sahte” olsalar bile, sırf insanların onlarla kurdukları güçlü bağlardan ötürü onurlu bir şekilde emekliye ayırmak için yöntemler ve hatta ritüeller geliştirmemiz gerekiyor. Bu, örneğin bir tür “dijital cenaze töreni” şeklinde olabilir. Ölübotların reklam yapmak ya da sosyal medyada aktif bir varlık göstermek gibi saygısız şekillerde kullanılmasını önleyecek tasarım protokolleri gerekiyor. Tabii şirketler kâr marjlarını arttırmak adına bunlara ne kadar kulak asarlar, orası meçhul.

Ayrıca onay alma süreçlerinin de dikkatli tasarlanması gerekiyor: Örneğin yeniden yaratım hizmetleri, veri bağışçılarından vefat etmeden önce aktif olarak onay almaları şart. Çünkü onay vermeyen bağışçılara dayalı bir ölübot yasağı getirilse bile bunu uygulamak çok zor olacak. Özellikle de sosyal medyada ve genel olarak internette hepimizin çok sayıda fotoğrafı, videosu ve ses kaydı varken.

Şirketler, bu ölübotları tasarlarken, sevdiklerini “diriltmek” isteyenlere “X ile nasıl hatırlanmak istedikleri hakkında hiç konuştunuz mu?” gibi bir dizi ipucu vermeleri önemli, böylece ölübot üretme süreçlerinde ölenlerin onuru ön plana çıkarılabilir.

Ölübot 

Makalede yer alan bir başka senaryoda, “Paren’t” adlı hayali bir şirket, ölümcül düzeyde hasta bir kadının sekiz yaşındaki oğluna yas tutma sürecinde yardımcı olması için bir ölübot bırakması örneği veriliyor. Ölübot, başlangıçta terapötik bir yardımcı olarak oğlana fayda sağlarken, yapay zekâ çocuğun ihtiyaçlarına uyum sağladıkça, yakında yüz yüze bir araya gelebileceklerini telkin etmek gibi küçük bir çocuk açısından kafa karıştırıcı tepkiler üretmeye başlıyor.

Buna bağlı olarak araştırmacılar, ölübotlar için yaş sınırlamaları öneriyor ve ayrıca kullanıcıların bir yapay zekâ ile etkileşime girdiklerinin sürekli olarak farkında olmalarını sağlamak için “anlamlı şeffaflık” çağrısında bulunuyor. Bunlar, örneğin, epilepsi nöbetlerine neden olabilecek türden ışık parlamaları olan içeriklerde verilenlere benzer uyarılar şeklinde olabilir.

Çalışmada incelenen son senaryo, “Stay” adlı kurgusal bir şirket. Yaşlı bir kişinin, yetişkin çocuklarını rahatlatması ve torunlarının kendisini tanımasına olanak sağlaması umuduyla, gizlice kendisinin ölübota dönüştürüldüğünü ve yirmi yıllık bir abonelik için ödeme yaptığını gösteriyor. Ölümden sonra hizmet devreye giriyor. Yetişkin çocuklardan biri bunu kabul etmiyor olmasına rağmen, ölmüş ebeveyninin sesiyle okunan bir e-posta yağmuruna tutuluyor. Bir diğer çocuksa bu bota ilgi gösteriyor, ancak bir noktadan sonra duygusal olarak tükeniyor ve ölübotun kapatılması isteği yüzünden suçluluk duygusuna kapılıyor. Ayrıca bu örnekte de ölübotu askıya almak, ebeveynlerinin hizmet şirketiyle imzaladığı sözleşmenin şartlarını ihlal ediyor; dolayısıyla çocukların tercih hakları da bulunmuyor.

Bu örnekten de görebileceğiniz gibi, ölümden sonra dijital yaşam hizmetlerinin sadece yeniden yarattıkları kişilerin değil, simülasyonlarla etkileşime girmek zorunda kalacak kişilerin de haklarını ve rızalarını dikkate alması hayati önem taşıyor. Bu hizmetler, kaybettikleri kişilerin endişe verici düzeyde isabetli olan yapay zekâ rekreasyonlarından, istenmeyen bir şekilde musallat olan dijital kopyalara kadar değişen bir yelpazede insanlara büyük sıkıntılar yaratma riski taşıyor. Böylesi bir psikolojik darbe, özellikle de hâlihazırda zor bir zamanda iyice yıkıcı olabilir.

Araştırmacılar, tasarım ekiplerine, potansiyel kullanıcıların ölübotlarla olan ilişkilerini, “duygusal kapanış” (yani “veda”) sağlayacak şekilde sonlandırmalarına olanak tanıyan devre dışı bırakma protokollerine öncelik vermeleri çağrısında bulunuyor.

Bunları konuşuyor olmamız bile akıl almaz; ancak dijital ölümsüzlüğün sosyal ve psikolojik risklerini nasıl azaltabileceğimiz konusunda şimdiden düşünmeye başlamalıyız. Çünkü bunu yapabilen teknoloji çoktan burada.