Yapay zekâ ve demokrasi: Sahte videolar tehdidin sadece bir bölümü

CAN ERTUNA
@canertuna


Yapay zekâ ve demokrasiye etkileri üzerine tartışmalar, genellikle seçimler üzerinden yapılan değerlendirmeler üzerinden gerçekleşiyor. Bu konuda “deepfake” olarak anılan sahte videoların kolaylıkla üretilebilmesi, dezenformasyona yönelik içeriklerin hızla üretilip yayılması üzerinden-çok da haksız olmayan- endişe dolu bir yaklaşım hâkim. Oysa internete egemen dev şirketlerin hızla tekelleştiği bu teknolojinin, toplumlarda demokratik işleyiş için farklı tehditler barındırdığına dair başka uyarılara da kulak vermek gerekiyor. Andreas Jungherr’in “Yapay zeka ve demokrasi: Kavramsal bir çerçeve” adlı makalesinde derlediği tartışmalar, popüler mecralarda çok da konu edilmeyen bazı önemli ayrıntıların gündeme getirilmesi açısından faydalı bir başlangıç noktası.

Haber alma hakkı ve yapay zekâ

Öncelikle, demokratik olarak kabul edilen bir sistemde yurttaşların (seçmenlerin) doğru bilgilendirilmesi için kritik önemde olan gazetecilik alanındaki olası dönüşümlere bakılabilir. Jungherr özellikle “haber ekonomisinin” yapay zekâ alanındaki gelişmelerden nasıl etkileneceğini sorguluyor. Büyük bir kolaylıkla otomatik metin, görsel, video üretimi yapabiliyor olmanın, haberi düşük maliyetle yapma arayışındaki vasat üreticilere avantaj sağlayacağını, oluşan rekabet nedeniyle emek yoğun ve masraflı gazetecilik faaliyeti yürütenlerin dezavantajlı konuma düşebileceğini vurguluyor.

Microsoft ve Google yavaş yavaş arama motorlarına yapay zekâ asistanlarını entegre etmeye başladı. Siz bir arama yaptığınızda bir yandan o konudaki internet sitelerini listeliyorlar, bir yandan da kendi yapay zekâ araçlarının derlediği içerikleri sunuyorlar. Haber sitelerinin ana gelir kapılarından biri olan, kullanıcıları arama motorlarından kendi sitelerine yönlendiren trafik böylece akamete uğramaya başladı. Yani biri arama sonuçlarında sizin içeriğinizden çok internet devlerinin yapay zekâ destekli kolaj yanıtlarıyla yetinmeye başlarsa sitenize girmiyor. Böylece trafiğiniz azalıyor, trafik azalınca da reklam gelirini yitiriyorsunuz. Bu durum, zengin kaynaklarıyla arama motorlarının efendileri konumundaki büyük haber sitelerinden çok, platformların bahşettiği reklam geliri üzerinden hayatta kalmaya çalışan bağımsız siteleri etkileyebilir. Ana akımın dışında “farklı olanın” sesi daha da kısılabilir böylelikle.

İfade özgürlüğü ve yapay zekâ

Yurttaşlardan çok iktidar sahiplerine hesap verme konusunda kaygılı internet devlerinin faaliyet gösterdikleri piyasalarda yasalarla uzlaşmak adına içeriklerin filtrelemesi için sergiledikleri çabanın otomasyonu bir diğer sorun. Filtrelemenin yapay zekâ tabanlı algoritmalara devredilmeye başlanması ifade özgürlüğüne ket vurabiliyor.

Gerçekten hangi söylemin zararlı olduğu, bir yorumun ifade özgürlüğü alanından çıkıp nefret söylemi tarafına düşüp düşmediğinin ince ayarı bu sistemler tarafından kaçırılabiliyor (sosyal medya platformlarında bir yanda troller kirli siyasi kampanyalar ya da incelikle yayılan ayrıştırıcı söylem üzerinden rahatlıkla at koştururken, diğer yandan içeriklerinin politik kaygılarla kaldırılmasından, hesabının görünürlüğünün belirsiz bir nedenle düşürülmesinden şikayet eden kullanıcılar seslerinin algoritmalar tarafından kısılmasına karşı çaresiz kalabiliyor).

Güvenli alanda olmak demek genel kabul gören ortalamadan pek de fazla sapmamak demek. Yapay zekanın mevcut işleyişi, ana akım olanın yeniden üretilmesini, sesi zaten kısık duyulan ve uçlarda kalan görüşlerin daha da görülmez duyulmaz olmasını beraberinde getirebiliyor.

Ayrıca mevcut bilgi havuzundan beslenerek yanıtlar üreten, analizler yapan bu sistemlerin, toplumlardaki eşitsizlikleri ön kabul olarak alıp, dezavantajlı gruplara yönelik bilgi ve politika üretiminde yaşanan sorunları daha da derinleştirmesi söz konusu olabilir. Hakkında yeteri kadar çevrimiçi bilgi ve veri bulunmayan kişi ve grupların “görünmezliği” daimî hale gelebilir. Kendileri hakkında internette olumsuz ön yargılar yayılmış olan gruplar (örneğin etnik azınlıklar, farklı ten rengine, farklı inanışa, toplumsal cinsiyet kimliğine sahip olanlar) hakkındaki ayrımcılık yapay zekâ destekli artabilir.

Veriyi elinde tutan kurumlar, yapay zekâyı o verilerle besleyip eğiterek, yaptıkları modellemelerle veriye erişim yoksunluğu yaşayanlara göre ciddi asimetrik üstünlükler kazanabilir. Bunu salt ulusal boyutta düşünmemek de gerekiyor. Dünyanın en değerli metası olan verileri toplayıp, analiz ve tasnif edip satışa koyan Alphabet, Meta, Microsoft, Amazon gibi kuruluşlar, yapay zekâ alanındaki yatırım güçleriyle kamu tarafından denetlenemedikleri ölçüde sadece ticaret değil ifade özgürlüğü alanında da egemenliklerini perçinleyebilirler.

Gelir dağılımı ve yapay zekâ

Ve emek pazarı... Yapay zekâ uygulamalarının birçok rutin işi çalışanların elinden almaya başladığı dönemde yaşanmaya başlanan istihdam krizi kadar, işlerini tehdit altında gören kesimlerin toplu sözleşme ile hak arama çabalarına da ket vurulabilir. Böylece, eğer kapsamlı bir önlem alınmazsa toplumsal eşitsizliklerin daha da derinleşmesi söz konusu olabilir.

Peki yapay zekanın toplumlara ve demokrasiye hiç mi faydası yok? Yukarıda sıralanan tüm sorunların çözümü, kamunun yapay zekâ tekeli haline gelmeye başlayan teknoloji devleriyle başa çıkabilme kapasitesiyle doğru orantılı. Burada düzenleme ve denetlemelerin salt yönetici seçkinlerin değil yurttaşların da faydasını gözetir şekilde tasarlanması gerekiyor.

Doğru kurgulandığında yapay zekânın sağlıktan, eğitime, ekonomiden enerjiye, planlamadan seçim güvenliğine kadar çeşitli alanlarda katkı sunması mümkün. Ancak bunun için dikkat ekonomisi üzerinden baş döndüren kârlar elde eden dev teknoloji şirketlerinin (örneğin Google’ın çatı kuruluşu Alphabet’in sadece 2023’ün son çeyreğindeki net geliri 20 milyar dolardan fazlaydı) dizginlenmesi gerekiyor ki algoritmalar salt kâr değil kamu faydası odaklı da şeffaf bir işleyişe sokulabilsin ve bu kâr, teknolojik gelişmelerden istihdam gibi alanlarda olumsuz etkilenen dezavantajlı gruplara aktarılabilsin.

Bunun için de Özgür Kurtuluş’un açık erişimle ulaşılabilecek “Yapay Zeka ve Sivil Toplum” e-kitabında bahsettiği gibi bu teknoloji salt girişimci, yatırımcı ve yazılımcıların değil aynı zamanda sosyolog, psikolog ve diğer sosyal bilimcilerin de katılımıyla tartışılması gereken bir alan. Elbette teknolojinin dev rant alanından beslenen ve halkla ilişkiler ajansı gibi çalışan gazeteciler, kendilerine sitemin içkin çelişkilerini sorgulamadan medya okuryazarlığı vurgusu yaparak büyük teknolojinin söküklerini dikme görevi verilen akademisyenler ve “tekno iyimserlikten” kazanç sağlayan kıymeti kendinden menkul teknolojistlerin katılımıyla sınırlı kalmamalı bu tartışma.

Yalnızlık, totaliterlik ve yapay zekâ

“Yapay Zekâ’nın Politik Felsefesi” adlı kitabın yazarı Mark Coeckelbergh, düşünür Hannah Arendt’in “organize yalnızlık” ile totaliterlik arasında kurduğu ilişkiyi teknoloji boyutuyla ele alıyor. Yola çıkışı Arendt’in “terör, yalnızca birbirlerine karşı izole edilmiş insanlar üzerinde mutlak bir şekilde hüküm sürebilir" sözü. Bireylerin hakikat ve olgulara karşı artan kayıtsızlıkla birlikte birbirlerine olan güveni de kaybetmelerinde herkesi basmakalıp belirli kategorilere yerleştirerek ayrıştıran ve hoşa giden içerikler tüketmesi üzerine yankı odalarına hapseden algoritma tabanlı platformların bu gücünün yapay zekâ ile daha da artması söz konusu.

Gözlerini akıllı telefon ekranlarından, parmaklarını sonsuz kaydırma deneyiminden ayıramayan bireylerin, kendilerine tasarlanan dijital dünyanın içinde yan yana yalnızlaşmalarına dair çözümü de ancak biraraya gelerek alabilmeleri mümkün. İnternetin dev şirketler tarafından adeta parsellenmesinin demokrasi üzerindeki etkileri yeni yeni tartışılmaya başlanmışken bir de yapay zekâ destekli uygulamaların eşitsizlikleri perçinleyerek demokrasileri daha da zayıflatma riskine karşı düzenleme ve denetleme talep etmek, bunu yaparken de iktidar seçkinlerinin gündem ve vizyonlarıyla yetinmemek gerekiyor.


Önceki ve Sonraki Yazılar
CAN ERTUNA Arşivi
SON YAZILAR