Akılalmaz: Abeba Birhane, algoritmaların ön yargıyı ‘hesap vermeden’ yerleştirdiğini söylüyor.

Abeba Birhane: ‘Bu nesnellik yanılsamasına bağlı bir sürü insan bulursunuz. Bu yanılsama, onların “bilinmeyenden doğan fikirden” bilim yaptıkları bir yanılsamadır.’

İnsanlar ön yargıdan kurtulmayı zor buluyorlar. Peki yapay zekâ (AI) cinsiyet, renk ve inancı göz ardı eden kararlar alırken daha başarılı olabilir mi?

İlk bulgular umut verici olmaktan çok uzak. Bir “CEO”nun hazır görseli için çevrim içi arama yaptığınızda, çoğunlukla beyaz erkeklerin fotoğraflarını içeren satırlarla karşılaşacaksınız. Eğer veri grupları başlangıçta taraflıysa, sonuçlar da eski algıları güçlendirerek bozulacaktır.

Şimdi algoritmalara bırakmaya başladığımız onca alanı düşünün; iş alımında (filtreleme uygulamaları), polis faaliyetlerinde (şüpheli tanımlama), bankacılıkta (kredi onayları) diye uzuyor liste. Ve bu, teknolojinin hâlâ emekleme aşamasında olduğu bir zamanda gerçekleşiyor.

Yapılan testler, en üst düzey performans gösteren yüz tanıma sistemlerinin bile siyahları beyazlardan beş ila 10 kat daha yüksek oranlarda yanlış tanımladığını göstermiştir. Bununla beraber, Londra’da da dahil olmak üzere Metropolitan Polis Teşkilatı tarafından bu yılın başlarında kullanılmaya başlanan böyle bir teknoloji, çoktan halkın kullanımına sunulmakta.

Özellikle çoğunun kadın olduğu bazı veri bilimciler, algoritmik ön yargı hakkında bir süredir uyarmaktalar fakat AI kontrollü bir geleceğe doğru hızlı ilerleyiş devam etmekte.

Hem algoritmaları çevreleyen şeffaflık eksikliğini hem de aynı zamanda ırkçılık ve cinsiyetçiliği artırma kapasitelerini vurgulayan Amerikalı matematikçi Cathy O’Neil, “algoritmalar kod içinde gömülü fikirlerdir.” ifadesini icat etti. Harvard’lı akademisyen Shoshana Zuboff, araştırmasında AI’yi destekleyen ticari dürtüyü ve algoritmik sistemlerin “gözetim kapitalizm“ini güçlendirmek için nasıl kullanıldıklarını vurgulamaktadır.

Başka bir açık sözlü eleştirmen, yakın zamanda AI’yi eğitmek için kullanılan bir Massachusetts Teknoloji Enstitüsü (MIT) görüntü kütüphanesinde ırkçı ve kadın düşmanı terimleri ortaya çıkarmaya yardım eden, Etiyopya doğumlu, University College Dublin’de (UCD) bilişsel bilim insanı olan Abeba Birhane’dir. MIT o zamandan beri veri tabanını geri çekti, bu da uzun sürecek bir savaşın içindeki küçük bir zaferdir.

Akılalmaz’ın bugünkü konuğu UCD’nin Bilgisayar Bilimleri okulundaki Kompleks Yazılım Laboratuvarında ve Bilim Vakfı İrlanda Yazılım Araştırma Merkezi Lero’da doktora adayı olan Birhane.

Eğer algoritmalar bizden daha objektif olacak şekilde programlanabiliyorlarsa niye karar verme sürecini onlara vermeyelim ki?

Abeba Birhane diyor ki: “Bu en yerleşmiş düşüncelerden biridir. Bu, eğer yeterince çalışırsak ve eğer yeterince iyi verimiz veya algoritmalarımız varsa insanlarda olduğundan daha iyi, daha az ön yargılı sonuçlar elde etmiş olacağımız üzerine bir düşünce. Ama bence bu düşünce pek çok açıdan en büyük yanlış kanılardan biridir.”

“Felsefi açıdan sosyal sorunlar hakkında konuştuğunuzda -ki bunlara en iyi çalışanı bulmak için algoritma tasarlama veya suç işleme olasılığı yüksek kişileri tespit etmek için ceza adaleti alanında kullanılan uygulamalar örnek verilebilir- bu uygulamaların her biri bizim dinamik, muğlak, sürekli hareket halinde olan sosyal faaliyetlere bir şekilde biçim verebileceğimizi, onları sonuçlandırabileceğimizi veya onlar için bir çözüm bulabileceğimizi varsayar… ki bu da aşırı indirgemeci düşünceye dayanır.”

“Ancak felsefeyi bir kenara bırakacak olursak, o da etik açıdan oldukça sorunludur. AI modelleri, desen ve benzerlikleri bulmada çok iyidir ve çoğu öngörücü model, tarihi desenlerin kesin referans olarak alındığı tarihsel veriler üzerine kuruludur. Ve biz geçmişin adaletsizlik ve ayrımcı uygulamalarla dolu olduğunu biliyoruz.”

“Dahası, algoritmik sistemlerin sosyal çevreyle bütünleşmesi, genellikle son kullanıcıyı koruma ve ona fayda sağlama arzusundan ziyade zaten güçlü pozisyonlarda olanların hayatını kolaylaştırma ihtiyacından ortaya çıkar.”

Algoritmaların sınırlı görevlerde kullanılması için yapılması gereken bir durum var mı?

“Tamamen küçümseyici olmak ve öngörücü sistemler oluşturmanın hiçbir faydası olmadığını söylemek istemiyorum. Ancak bu, onunla ne yapmaya çalıştığınıza, amacınızın ne olduğuna ve modelinizin neticede kimi güçlendirdiğine bağlıdır.”

“Benim mottom şudur: Bir algoritmik sistem dikkatle incelenmeyip kritik değerlendirmeden geçmedikçe, bu sistemin mevcut durumu sürdürdüğünü, geçmişi tekrar ettiğini, ötekileştirilmiş ve yetersiz hizmet alan bireylere zarar verdiğini varsayabilirsiniz.”

Teknoloji şirketleri, ticari gerekçelerle algoritmalarının nasıl çalıştığını açıklamayı reddeder. Bu mekanizmaları kamu mülkiyetine almalı mıyız yoksa en azından şeffaf hâle mi getirmeliyiz?

“Evet, bazen özel şirketlerin, insanların kamusal alanda uzun zamandır tartıştıkları ve tek bir doğru cevabın olmadığı şeyler hakkında ahlaki ve etik kararlar almaları gerçekten saçma geliyor. ‘Suç faaliyetlerini’ izlemek için yüz tanıma sistemlerini kullanmak ya da kimin sosyal refahı hak ettiğine karar veren bir araç kullanmak bunlara örnek olarak verilebilir.”

“Bunlar süregelmekte olan zorluklar ve bir sonuca bağlanmamış sorunlardır fakat algoritmalarıyla birlikte anılan özel şirketler, onlara kesin olarak ‘çözülebilecek’ matematiksel veya teknik konu olarak bakıyor.”

“Bu şirketler hiçbir sorumluluk ya da kontrol altında tutulmazken, algoritmaları giderek daha fazla yer değiştiriyor veya bunun yerine devam etmekte olan tartışma ve konuşmayı ortadan kaldırmaya devam ediyor. Neden? Çünkü mülkiyet haklarının arkasına saklanıyorlar. Çünkü kod ve verilerini gizli tutma hakkına sahipler. Çünkü benzer kararlar alan hakimler ve devlet organları çok fazla incelemeye tabi tutulacaklardı. Şimdi bu şirketler sosyal ve ahlaki konularda karar vermek yerine, sanki sadece teknik çözüm sağlıyorlarmış gibi yaparak algoritma altında gizli kararlar alıyorlar.”

Bilimde ırk ve cinsiyet ayrımcılığı konusuna karşı farkındalık giderek artıyor. İşler değişmeye mi başlıyor?

“Bu konuda çok değişken görüşlerim var. Bazen çok pozitif hissediyorum. Özellikle çeşitli alanlardaki siyah kadınlardan gelen bir sürü cesaretlendirici çalışma görüyorum.”

“Olumsuz etkilenen insanların çoğu, ırkçılığın olumsuz etkilerini ve algoritmik karar almayı çevreleyen sorunları vurgulamak için işin büyük bir kısmını yapıyorlar gibi görünüyor çünkü eğer bir şey sizi etkilemezse onu ilk başta fark etmeniz çok zordur ve buna bir çözüm bulmakla da ilgilenmezsiniz. Bu yüzden, tutum ve söylemi değiştirmekte olan parlak işler üreten bir sürü topluluk görüyorum. Bu, bana umut veriyor.”

“Diğer yandan, problemin o kadar kökleşmiş olduğunu görüyorum ki biz sadece yüzey kısmı eşeliyoruz. Ayrıca veri kümenizi ilk etapta var olmaması gereken algoritmalara karşı ön yargılı hale getirmek ya da derinlemesine kökleşmiş ırk sorunlarının üstesinden gelmek için ağırlıklı olarak beyaz bir kadın çeşitliliği ve katılım panosunu bir araya getirmek gibi çok fazla indirgemeci ve basit düşünce var.

“Bunlar faydadan çok zarar sağlasalar da bazı durumlarda iyi bir ilk adım olabilirler. Yine de bunun ötesine bakmaya ihtiyacımız var. Tarihsel adaletsizlikleri sorgulamaya ihtiyacımız var. Akademi, teknoloji ve toplumdaki mevcut yapıların diğer insanlara zorluk çıkartırken, mevcut durumdan memnun insanlara nasıl kolaylık sağladığı gibi zor sorular sormaya ihtiyacımız var.

İnsanlardan, ötekileştirilen akademisyenleri kucaklayan ve sahip çıkan bir ortam yaratmak gibi, daha geniş terimlerde düşünmek için örtük ön yargı testleri yapmalarını istemek gibi bireysel çözümlere dayalı düşünmenin ötesine nasıl geçebiliriz?”

Profesyonel bir şekilde konuşacak olursak, ön yargı ve taraflılıktan üstün olduklarını düşünmeyi seven bilim insanlarının belli miktardaki savunuculuğuyla hâlâ karşılaşıyor musunuz?

“Kendi deneyimimden bahsedecek olursam, evet, bu nesnellik yanılsamasına bağlı bir sürü insan bulursunuz. Bu yanılsama, onların “bilinmeyenden doğan fikirden” bilim yaptıkları bir yanılsamadır. Oysa “bilinmeyenden doğan fikir” genellikle bilinmeyenden doğan fikrin kılığına girmiş mevcut durumun görünümüdür.”

“Ne yazık ki, Batı biliminin çoğu, araştırma konumuzdan ayrılıp olayları ilgisiz bir gözlemci olarak uzaktan ölçüp analiz edebileceğimiz bu yanılsamanın temelleri üzerine kurulmuştur. Fakat aynı zamanda, bu tarafsızlık fikrinin bir yanılsama olduğunun farkına varan daha fazla insan buluyorsunuz.”

“Kültürel açıdan konuşacak olursak, toplum, bir bilim insanın neye benzediği konusunda basmakalıp bir görüntüye sahiptir ki bu beyaz laboratuvar önlüğü giymiş bir beyaz erkek görüntüsüdür. Bu da bu görüntüye uymayanların bir bilim insanı veya profesör olarak ciddiye alınma konusunda bir zorlukla karşı karşıya olduğu anlamına gelir.”

“Ama bence, en azından benim camiamdaki akademi dünyasında, giderek daha fazla farkındalık, daha nüanslı anlayışlar ve konuşmalar yer alıyor, bu da bana yine umut ve cesaret veriyor.”

Yazar: Joe Humphreys

Kaynak: The Irish Times

Çeviren: Selin Yegin

Düzenleyen: Asya Selimoğlu