Derin Yalancılık!

‘‘Deepfake’’ kelimesini ‘‘yapay zekâ kullanarak üretilen, birinin taklit edildiği video” ya da “derin sahtelik” olarak geçiyor çeviri sitelerinde.

Tolga MIRMIRIK

Geçtiğimiz on gün içinde, önümüzdeki seçime katılacak muhalefet partilerinin ve özellikle sosyal medyadaki muhalif kesimin söylemleri, uyarıları yapılan “deepfake” video ve ses propagandalarına yoğunlaştı. “Deepfake” kelimesine içime sinen bir Türkçe karşılık bulamadım ancak genel kabul gördüğü şekilde “yapay zekâ kullanarak üretilen, birini taklit edildiği video”, “sahte görüntü üretmek için kullanılan sistem ya da yöntem” ya da “derin sahtelik” olarak geçiyor çeviri sitelerinde.

İnternetteki arama motorlarında yapılacak küçük bir arama ile onlarca örneğine ulaşabileceğiniz bu videoların inandırıcılığı ve etkisi hakkında büyük ve haklı bir korku var. Uzun zamandır bilişim, sosyoloji, psikoloji ana bilim dallarında çalışan bilim insanları teknoloji ve sosyal ağlar sayesinde yayılması çok kolaylaşan sahte bilgiler, haberler ve video, ses dosyaları hakkında uyarılarda ve araştırmalarda bulunmakta:

“Son yıllarda, sahte haberler halkın tartışmaları, insan toplumu ve demokrasi için bir tehdit haline gelmiştir” (Borges ve diğerleri, 2018; Qayyum ve diğerleri, 2019). “Sahte haberler, hayali haber tarzı içeriği ifade eder. Halkı aldatmak ya da halk içinde paniğe yol açmak için uydurulmuştur.” (Aldwairi & Alwahedi, 2018; Jang ve Kim, 2018). “Yanlış bilgi sosyal medya üzerinden hızla yayılır ve milyonlarca kullanıcıyı etkileyebilir.” (Figueira ve Oliveira, 2017). “Şu anda, her beş internet kullanıcısından biri haberlerini sadece YouTube üzerinden alıyor ve ikincil haber kaynağı da Facebook” (Anderson, 2018).

İŞE YARAR ALANLAR?

Peki hiç mi olumlu bir şey yok bu “deepfake” denilen teknoloji hakkında? Elbette var. “Deepfake” teknolojisi, filmler, eğitim materyalleri ve dijital iletişim, oyunlar ve eğlence, sosyal medya ve sağlık, malzeme bilimi ve moda ve e-ticaret gibi çeşitli iş alanları dahil olmak üzere birçok endüstride olumlu kullanımlara da sahiptir. Konuyu açmaya çalışayım:

1. Eğitim: “Deepfake” teknolojisi, öğrencilerin sanal olarak öğretmenleri veya ünlü tarihi kişilikleriyle etkileşimde bulunmalarına olanak tanıyarak eğitimde yeni bir boyut getirebilir. 1917 Rus Devrimi’ni Lenin’in ağzından ve görüntüsü ile dinlediğinizi ya da I. Anafartalar Savaşı’nı direkt Mustafa Kemal Atatürk’ten dinlediğinizi düşünün. Ya da yaşadığı dönemde ünlü bir matematikçi, fizikçi ve mühendis olan Arşimet’ten suyun kaldırma kuvveti ile ilgili bir eğitim aldığınızı düşünün. Muhteşem fikir değil mi?

2. Sağlık: “Deepfake” teknolojisi, birçok tıbbi teşhis ve tedavi yönteminde kullanılabilir. Örneğin, deepfake teknolojisi, doktorların hastaların yüz ifadelerini analiz etmelerine yardımcı olabilir ve teşhis ve tedavi sürecini iyileştirebilir.

3. Eğlence: “Deepfake” teknolojisi, film endüstrisindeki efektlerin daha gerçekçi ve inandırıcı hale getirilmesine yardımcı olabilir. Ayrıca, deepfake teknolojisi, oyuncak ve diğer eğlence ürünlerinde kullanılabilir. Bu teknolojiler ölmüş aktör ya da aktrislerin güncel filmlerde oynamalarına olanak sağlıyor zaten günümüzde. Hali hazırda uygulanan bir yöntem. Etik olarak çok tartışılabilecek bir durum -ki tartışılıyor da- fakat gerçekten filmin içindeymiş gibi hareket eden ve konuşan bir Marilyn Monroe karakterine çok da hayır demezdim sanırım kişisel olarak. 

4. İletişim: “Deepfake” teknolojisi, video konferans görüşmelerinde daha gerçekçi bir deneyim sağlayabilir. Ayrıca, “deepfake” teknolojisi, insanların uzaktan sevdikleriyle daha kişisel bir bağ kurmalarına da yardımcı olabilir. Bir girişim firmasının, ölmüş yakınlarımızla sanki yaşıyorlarmış gibi video konferans ile konuşmamıza olanak sağlayan bir fikri ve uygulaması vardı ki beni oldukça korkutmuştu.

5. Moda: “Deepfake” teknolojisi, moda endüstrisinde ürünlerin daha gerçekçi bir şekilde sergilenmesine yardımcı olabilir. Örneğin, deepfake teknolojisi, insanların bir ürünü gerçekte nasıl görüneceğini daha iyi anlamalarına yardımcı olabilir. Kimi e-Ticaret firmaları bu teknolojiyi bir süredir uygulamalarında kullanmakta. Seçili ceket, pantolon, etek, kazakların sizin gerçek fotoğrafınızdan yaratılan farklı videolarda nasıl görüneceğini gösterebiliyorlar.

Ancak, ilk başta özellikle uyardığım “deepfake” teknolojisinin potansiyel kötüye kullanımı çok daha ön planda tutulmalı. Bu nedenle, bu teknolojinin kullanımının sınırlandırılması ve regülasyonlar getirilmesi gerekiyor diye düşünüyorum. 

Bu konuda çalışmalar yapan gruplar, bilim insanları ve gönüllü ekipler uğraşlarına devam ediyor. Türkiye özelinde, özellikle sosyal medyadan yayılan yalan haberler ile mücadele eden teyit.org, dogrulukpayi.com ya da destekçisi olmaktan gurur duyduğum yalansavar.org ciddi çalışmalar yapmakta. Bu oluşumları takip etmek ve desteklemek önemli hale geldi teknolojinin ulaştığı bence korkutucu nokta yüzünden.

Hepimize güzel bir seçim olsun, iki oyumuz var hepi topu. İyi yerlere gideceğine emin olalım. Derin yalancıların oyununa gelmeyelim yeter. Sonrasında eğitim sistemimizi de toparlayıp, bilim okuryazarlığımızı geliştireceği hep beraber. İyi haftalar.

Günün Manşetleri için tıklayın
Çok Okunanlar
Furkan Öztürk ve başarısı Çocuğun bulduğu fosil 202 milyon yaşındaymış Holografik bir evrende miyiz? Bilim kurgu filmleri hayatımızın neresinde? Dünyada yaşam nasıl başladı: Genç bilim insanı Furkan Öztürk’ten ‘çığır açıcı keşif’