Yapay zekânın kavramakta, analiz etmekte ve kullanmakta zorlanılacak hız ve büyüklükte bilgi üretmesi, bilgelik düzeyine erişmiş bilgi sahiplerini kavramsal düşünmekten vazgeçirip mistisizme, yani sezgiciliğe yönelmesi muhtemel sonuçlarından biri olabilir.

Yapay zekâ eğitim için tehdit mi?

Geçen hafta Yapay zekâ kime/kimlere nasıl bir risk oluşturuyor diye sormuş, mevcut yapıyı kontrol eden endüstri ile devletin otoritesini sarsan yönüne dikkat çekmeye çalışmıştık. Bu gün eğitime etkilerini irdelemeye çalışacağız. Baştan belirtelim ki yapay zekâ Google gibi bir arama motoru değil: Şirketinizi yönetecek, muhasebenizi tutacak, toprağınızı analiz edecek, sinema filmi yapacak; savaşta komutan, sahada istihbaratçı, sınıfta öğretmen, hastanede doktor kimi durumda işçiniz veya iş ortağınız, kimi durumda patronunuz olacak biri. Dolayısıyla bir bilgi istiyorsanız ona bin bilgi vermek durumundasınız. Buna kullanıcısının tüm kişisel (duygusal, düşünsel, kültürel, fiziksel, biyolojik, mali vb) bilgisi dahil. 

Eğitimde kullanılan yapay zekâ, öğrencisini tanıdığı oranda verimli olabilen öğretmen gibi öğrencisi hakkındaki her bilgiye ihtiyaç duyar. Öğretmen ve eğitim kurumlarının tutamadığı kişisel dosyayı, öğrenci sisteme girdiği andan itibaren istiflemeye başlar ve az yanılma payı ile onun bir sonraki yaşta ve sınıfta nasıl düşünüp karar vereceğini tahmin eder. Yapay zekâ, elde ettiği verilerle zihinsel ve bedensel (görme, duyma vb) engeli olan bireyleri dikkate alan, kişiselleştirilmiş, pedagojinin ilkelerine uygun, her an güncellenebilen müfredat, ders materyali ve öğretim yöntemleri geliştirebilir. Fakat öğrenmeyi hızlandırıp kolaylaştıracak diğer birçok faydalarına rağmen toplanan verilerin eğitim dışı amaçlarla kullanılması ihtimali tüm faydalarını gölgede bırakacak riskler barındırmaktadır. Yapay zekâ teknolojisinin eğitimde kötü amaçlı kullanımı, eleştirel eğitimciler açısından ihtimalin ötesinde apaçık bir gerçektir. Teknolojinin geçmişte ve halihazırdaki kullanımı, iki risk alanına dikkat etmeyi zorunlu kılıyor: Etik dışı kullanım ve eğitim-öğretim faaliyetinin sosyal boyutunun bütünüyle ihmal edilmesi… 

Bugün hepimizin dahil olduğu sosyal ağların borsadaki değerinin ellerindeki veri miktarının karşılığı olduğunu biliyoruz. 1 milyon dolar sermaye ile kurulan veri toplayıcı bir şirketin bir yıl içinde 100 milyar dolara alıcı bulmasının nedeni de veri güvenliği ilkelerine uyulmamasıdır. Veri toplama ve analiz etme kapasitesi dikkate alındığında yapay zekânın, pazarlama ve reklam sektöründen siyaset dünyasına kadar bir sürü ahlaksız ve cömert müşteriler bulacağından emin olabiliriz. Uzun süredir dünyanın en değerli bilgisi tek tek kişilere ait bilgilerdir. Tuvalete gittiğimiz saatin bile bir değeri var. Birileri, anlık belleğimize dahi almadığımız, hiçbir önem atfetmediğimiz bu bilgileri toplumları programlamada kullanıyor. O nedenle eğitimsel amaçlar için toplanan zaman çizelgesine işlenmiş düzenli verilerin güvenliğini etik bir mesele olarak ele almak gerekiyor.  

Yapay zekânın neden olacağı etik ve sosyal problemlerin ayrıntısına girecek yerimiz olmadığı için konuyla ilgili iki yazının linkini paylaşmak istiyorum. Eleştirel Pedagoji ve abece dergilerinin Bahar ve Güz sayılarında yer verdiğimiz makaleden biri (Yapay Zekâ ve Kamu Eğitimi Özelleştirmesinin Teknolojik Dönüşümü, Kenneth J. Saltman) öğrenci verilerinin kâr amacı güden şirketlere satışıyla, ikincisi (Eğitimde Yapay Zekâ Kullanımı: Uygulanabilirlik ve etik hususlar, Michael J. Reiss), faydalarına rağmen ortaya çıkaracağı etik sorunlarla öğrenmenin daha az sosyal hale gelmesiyle ilgili. Kenneth J. Saltman, öğrencilerin ürettiği verilerin ticari bir değeri olduğuna ve bu verilerin, veri üreticisine herhangi bir bedel ödemeden dijital teknoloji şirketleri tarafından çekileceğine dikkat çeker. Michael J. Reiss de fiziksel hareketlerin (tepkiler, mimikler, sesler) biyometrik pedagoji cihazları (görüntüleme, yüz tanıma, dudak okuma vb) ile nasıl toplanıp veriye dönüştürüldüğünü ve birey psikolojisine etkilerini canlı örneklerle izah eder. Adına “Sosyal Ağ” denen her teknolojinin sosyal ilişkiyi pratik insan eylemi olmaktan çıkardığı gibi eğitimde kullanılan her yeni teknoloji de sosyal becerilerin biraz daha ihmal edilmesine yol açtı. Yapay zekâ da öncülleri gibi özellikle mühendislik, tıp ve matematik gibi hızlı; hukuk ve siyaset gibi hazır fikir üretmesi beklenen alanlarda kullanılacaktır. Bu, doğal olarak postmodern kavramının mucidi Jean-François Lyotard’ın dediği gibi “Bilgisayar diline çevrilemeyecek insan/toplum bilgi türlerinin (felsefe, psikoloji, sosyoloji vb) terk edilmesine yol açacaktır.”  

Yapay zekâ, bu teknolojinin hayatına girme yolu bulamayacağı, hele bizim gibi başını rahleye gömmüş toplumlar için büyük riskler barındırmıyor: Sürecin, doğal besinlerin yapay yollarla üretilmiş besinlerin görüntü ve yapay tadına yenilgisine benzer bir şekilde ilerleyeceğini tahmin etmek zor değil. Üretim ve tüketime hız kazandıran dayanıklı standart ürünlerin, ticaretini yapanlarla tüketicilerin ortak tercihi olduğu gibi standart hazır fikirler de üretici ile dışarıdan gelen uyaranları yorumlayıp bilgiye dönüştürme imkânı (zeki) olmayan tüketicisini bir noktada buluşturacaktır. Zengin ya da fakir, kendilerine özgü fikir geliştirme yetisine sahip olmayanlar için yapay zekâ yeni bir risk içermiyor. Hatta onlar için beyin implantı bile sayılabilir. Basit yapay zekâ yazılımlarının zaten tüketimden politik tercihlerine, sosyal ilişkilerinden aşklarına tüm kritik yaşamsal kararlarının tek taraflı belirleyicisi olduğu kesimlerin Genel Yapay Zekâdan endişelenmesine gerek yok. 

Asıl endişe duyması gerekenler, bilgi üreten, düzenleyen ve dağıtan kişi ve kurumlar olmalıdır. Yapay zekânın kavramakta, analiz etmekte ve kullanmakta zorlanılacak hız ve büyüklükte bilgi üretmesi, bilgelik düzeyine erişmiş bilgi sahiplerini kavramsal düşünmekten vazgeçirip mistisizme, yani sezgiciliğe yönelmesi muhtemel sonuçlarından biri olabilir. Rönesans filozoflarından Nicolaus Cusanus, bilginin idrak sınırlarını aşması halinde bilgin kişinin son durağının “Öğrenilmiş Bilgisizlik” olduğunu söyler. Cusanus’la birlikte buna bilinen en iyi örnek, çağının tüm bilgi ve bilme biçimlerini kullandığı halde hâlâ yanıtlayamadığı soruları olduğunu fark ettiğinde yanıtı tanrı olarak veren Descartes’tır. Programlanabilir makineleri yönetmek az fiziksel ve zihinsel beceriyle mümkündü, fakat bir petebayt (1024 terabayt –tahminen yazının icadından günümüze dek üretilen tüm yazılı bilgiler– veri işleyebilen ve insan gibi düşünen makine karşısında insanın kendini Descartes gibi bilgisiz hissetmesi kaçınılmazdır. 

Yapay zekâ-eğitim ilişkisi hakkında söylediklerimiz, insan denetiminde bir teknoloji olduğu ve öyle kalacağı varsayımına dayanıyor. Peki, ya otonomlaşıp insanı yöneten o olursa ne olur? Bu durumda da kullanacağı veriye, yani yapay zekânın eğitim durumuna bakmamız gerekiyor. İnternet ortamında paylaşılan verileri kullanacağına göre ekonomiyi kapitalizm, kültürü postmodernizm olarak algılayıp ona göre strateji geliştirecektir. İnsanın prototipi olmaktan kurtulamadığı sürece verileri egemen ideolojinin lehine çarpıtmaktan da gocunmayacaktır! Washington Post editörleri bir deneyle bunu kanıtlamış; editörler, metin ve görüntü oluşturucu yapay zekâ programlarından ABD Nüfus Sayımı Bürosu anketine göre yüzde 63’ü beyaz, yüzde 27’si siyah olan gıda kartı sahiplerinin görselini istemiş, yapay zekâ da onlara içinde beyazların olmadığı bir fotoğraf seti çıkarıp vermiş. Bu Trumpvari düşüncenin, teknolojisi geliştikçe terk edeceği yapay zekâ kusurlarından biri olduğunu düşünmeyin, uzmanlar bunun, toplumdan makinelere sinmiş önyargı olduğunu, toplum değişmediği sürece değiştirilemeyeceğini söylüyor.