Yapay Zekâ | İyimser olmak için erken (2. Bölüm): Kapitalizm, teknoloji ve Yapay Zekâ

YZ’nin diğer bir kullanım alan�� da işçilerin her türlü şekillerde gözetlenmesi ve denetlenmesi. Dijitalleşmeyle birlikte sizin her yaptığınızı izleyen kameralar ve sizi daha hızlı çalışmaya zorlayan Taylorcu otomatikleşmiş tezgâhlar, yürüme bantları ve hatta çok daha fazlası söz konusu. Dijital araçların erişilebilirlikleri arttıkça kullanımları da artıyor. Bir bakıma ücretli köleliğin 18. yüzyıl köleliğini andıran araçları haline geliyorlar

Yapay Zekâ | İyimser olmak için erken (2. Bölüm): Kapitalizm, teknoloji ve Yapay Zekâ

Kapitalizmin Yapay Zekâ’yı insanları boyunduruk altına almaya yönelik kullanmasına ilişkin çarpıcı örnekleri sürekli duyuyorduk. Ancak dünya COVID-19 salgını yaşarken çok daha görünür oldu. Bu yaşadığımız dönem aslında bize olumlu ve iyimser olarak gösterilen kimi teknolojik gelişmelerin nasıl da kolayca aleyhimize kullanılabileceğini göstermiş oldu.

Örneğin çevrimiçi denetim görevi bir süredir kısmen algoritmalar tarafından yapılıyor. Ancak COVID-19 ile birlikte bu işin daha fazla otomatikleştirilmesi gerekti[1]. Bu otomatikleşmenin şirketler tarafından bir sansür mekanizması olarak nasıl kullanılabileceğine ilişkin çeşitli örneklerle karşılaştık. New Yorker yazarı Paige Williams, Mart ortalarında virüsün yayılmasını önlemeye ilişkin güvenilir bir kılavuz göndermeye çalıştığında, gönderisi Facebook tarafından spam olarak sansürlendi[2]. Sağlık çalışanları için kritik yüz maskesi eksikliğine bir yanıt olarak gönüllüler binlerce ev yapımı maske diktiler ve Facebook üzerinden bağışlamaya çalıştılar, fakat kendilerini “Facebook nezaretinde” buldular[3]. Yazılım onların iyilikseverliğini, bir krizden çıkar sağlama çabasından ayırt edemiyordu, bu yüzden bu gönderiler ve bir sürü başka gönderi yanlışlıkla sansürlendi ve birçok hesap tümüyle askıya alındı[4]. Üstelik bütün bu görevleri üstlenirken de vergi ödemekten kaçınıyorlar[5], bize farklı şekillerde zarar verebilecek teknolojilerde (koronavirüs takip ve protesto gözetleme uygulamaları için, YZ modellerini eğitmek için) kullanmak üzere bizimle ilgili kusurlu veriyi topluyorlar[6].

Bu sosyal medya ve İnternet kullanımımız üzerindeki denetim ve sansür çabalarını gösteren tek bir şirket örneği. Google’nin arama motoru tekeli[7], Facebook’un sosyal medya paylaşım platformları tekeli[8], Amazon’un alışveriş tekeli[9] olduğunu düşündüğümüzde, çevrimiçi yaşamımızın büyük şirketlerin denetiminde olduğunu çarpıcı bir şekilde görüyoruz. Tarihe bakıp büyük teknoloji şirketlerinden IBM’nin Nazilerin gerçekleştirdiği soykırımdaki işlevi[10] ve IBM 360/50’nin Güney Afrika’da Siyah nüfusu izlemeye yönelik olarak polisin bilgi sahibi olmasını güvence altına alacak şekilde Irkçı Apartheid rejiminin korunması için kullanıldığını[11] gördüğümüzde, teknoloji konusuna eleştirel yaklaşmak şart oluyor.

Tekeller bununla da yetinmiyor. Dünyamız COVID-19 sonrası yeni bir refah dönemi tartışmaları yaşıyor. Ancak bu dönem João Carlos Magalhães ve Nick Couldry’ın yazdığı gibi bu süreç özel şirketler tarafından yürütülmek ve nihai amacı daha fazla kâr elde etmek olan bu şirketlerin araçları ve platformları kullanılmak isteniyor[12]. Verileştirmenin şeffaf olmayan ve müdahaleci biçimlerine dayanacaklarını söylerken, salt (zaten gerçekleşen) gözetimin yoğunlaşmasını değil, birbiriyle bağlantılı iki süreci kast ediyorlar: “insan yaşamının nicelleştirme süreçleri aracılığıyla veriye dönüştürülmesi ve veriden farklı türde değerlerin üretilmesi”. Verileştirilmiş refah sistemlerinin, Büyük Veri şirketlerini, devletin ve toplumun temel işlevi açısından gerekli kurumlar olarak pekiştireceğini ve bunun gerçekleşmesiyle neoliberalizmden önceki dünyaya bir dönüşü değil, Nick Couldry ve UIises A. Mejias’ın geçenlerde veri sömürgeciliği[13] olarak adlandırdıkları, yeni bir toplumsal düzenin ortaya çıkışını göreceğimiz öngörüsünde bulunuyorlar.

Refah düzeni için gerekli olarak gösterilen verileştirmenin bir sonucu da yurttaşların kendi geleceklerine karar vermede özgürlüklerinin ellerinden alınıp, bir veri kümesindeki veri noktaları haline gelmeleri olacaktır[14]. Verileştirmeye ilişkin çarpıcı bir örneği günümüzde Çin’de görüyoruz. Gerçek dünyayla etkileşim ve davranışların yorumlanmasına dayalı olarak bireylerin dijital profilleri oluşturuluyor ve bu profiller nicelleştirilerek çok boyutlu bir “toplumsal itibar” inşasında kullanılıyorlar ve tek bir skor hesaplanıyor. Toplumsal kredi sistemi adı verilen bu sistemle bütün yurttaşların ve şirketlerin devletin ülküsüne göre şekillendirilmesi amaçlanıyor[15].

Bu örnekler bize çarpıcı bir gerçeği de gösteriyor. Gün geçtikçe şirketler ve devletler yaşamlarımızı daha fazla denetliyorlar. Bazı durumlarda hükümetin yaptığı görevleri de üstlenmek istiyorlar. Çin örneğinde gördüğümüz üzere bizleri salt birer veri noktasına indirgemek, her kararı bu veri noktası üzerinden vermek istiyorlar. Bu durum, bize dayatıldığı şekilde indirgenmiş insanlar olmamak için ciddi bir şekilde karşı çıkmamız ve mücadele etmemiz gereken karamsar bir gelecek.

Yapay Zekâ ve çalışma yaşamı

Bir başka boyut, tüm teknoloji ürünlerinin kapitalizmin baskıcı niteliğini güçlendirmek için kullanılması gibi, YZ’nin de çalışma hayatımızı gözetlemek ve denetlemek amacıyla kullanılıyor olmasıdır. Bu gözetimin önemli bir boyutu çalışma alanlarında karşımıza çıkıyor. En bilinen örneklerden biri Başvuru Sahibi İzleme Sistemi (Applicant Tracking System) adı verilen bilgisayar tabanlı araçlar veya makine öğrenmesi yöntemleri aracılığıyla bir iş başvurusu için gönderilen özgeçmişleri sınıflandırmak için kullanılan sistemler. Bu sistemlerin kullanımı gün geçtikçe daha fazla artıyor ve çalışma yaşamı sözkonusu olduğunda iş başvurusundan işyerinde çalışmaya kadar geniş bir insan analitiği kullanımı da sözkonusu oluyor. İnsan analitiği özellikle yöneticilerin, işçiler hakkında toplanan veri kümeleri boyunca desenleri saptayabildiği ve karşılaştırabildiği bir sürece dayanan birtakım insan kaynakları (İK) faaliyetlerine verilen isim[16]. Nicelleştirmeyle birlikte büyük veri, algoritmalar ve makine öğrenmesi dijitalleşmiş işe alım başta olmak üzere farklı amaçlarla kullanılıyor. Örneğin yetenekli insanların fark edilmesi, mülakatlar, liderlik tahmini, bireysel işçi performansı, işçilerin sağlık örüntüleri ve diğer işletme yönetimi hususları bu araçlar yardımıyla dijital olarak destekleniyor. Her türlü süreçte karar veren algoritma olduğunda şirketler ve yöneticileri kendilerince sorumluluktan kaçmış ve suçu “tarafsız” olduğu iddia edilen bir sisteme yüklemiş oluyorlar. Bunun işçiler üzerinde yarattığı stresi ve mikro-yönetim sonuçlarını düşünün. Üstelik bu sistemlerin sonuçlarını, sadece girdisini ve çıktısını görebildiğimiz, ancak içsel olarak ne yaptığını bilmediğimiz kapalı bir kutu şeklinde ürettiğini düşündüğümüzde, açıklanabilirlik konusunda yapılabilecek fazla bir şey olmadığını anlayabiliyoruz. Cathy O’Neill Matematiksel Yıkım Silahları kitabında şirketler ve kurumlar tarafından kullanılan bu kapalı kutuların, popüler algoritmaların nasıl da yoksul ve çalışan insanlara zarar vererek seçkinlere yarar sağladığını anlatıyor[17].

YZ’nin diğer bir kullanım alanı da işçilerin her türlü şekillerde gözetlenmesi ve denetlenmesi. Dijitalleşmeyle birlikte sizin her yaptığınızı izleyen kameralar ve sizi daha hızlı çalışmaya zorlayan Taylorcu otomatikleşmiş tezgâhlar, yürüme bantları ve hatta çok daha fazlası söz konusu. Dijital araçların erişilebilirlikleri arttıkça kullanımları da artıyor. Bir bakıma ücretli köleliğin 18. yüzyıl köleliğini andıran araçları haline geliyorlar[18]. Amazon’un sahibi olduğu Whole Foods şirketinin, sendikalaşma faaliyetlerini izlemek için her bir mağazasının sendikalaşma olasılığı için bir skor hesaplayarak, etkileşimli “ısı haritası” kullanması çok çarpıcı bir örnek olarak göze çarpıyor[19] [20]. Her bir çalışanın ve mağazanın sadakat, ciro, sendikaya yakınlık vb. gibi farklı ölçütlerle tahmin yürütülüyor ve sonuçlar Amerika çapında durumu, yüksek olasılıklı yerleri kırmızı olarak gösteren ısı haritasında görselleştiriliyor. Benzer güncel bir tartışma yine Amazon’un işçileri COVID-19 bahanesiyle “sosyal mesafeyi” koruyup korumadıklarına ilişkin YZ’den yararlanan bir “dijital asistan” aracılığıyla izlemesiyle ortaya çıktı[21]. Her ne kadar Amazon bunu hız uyarı radarlarına benzetse de, çoğu kişi Amazon’un işçi düşmanı geçmişi nedeniyle temkinli yaklaşıyor ve yine sendikalaşmak için bir araya gelmeye çalışanları bu bahaneyle izleyeceklerini ve engelleyeceklerini düşünüyorlar.

Daha yoğun bir şekilde işçileri robotlaştıran dijital kullanımlar da gittikçe yaygınlaşıyor. Makineyi biz mi kullanıyoruz yoksa makine bizi mi kullanıyor ayrımının iyice silikleştiği performansa ve ölçüme dayalı nicelleşmiş yaşamlar ortaya çıkıyor. Çarpıcı bir örnek Amazon ikmal merkezi işçilerinde görülebilir. Mesaide: Düşük Ücretli İş Bana Ne Yaptı ve Amerikayı Nasıl Delirtiyor[22] adlı kitabında çalıştığı farklı işleri yazan Emily Guendelsberger, Amazon ikmal merkezinde çalışırken Taylor’ın “tasavvurunun cisimlendiği” dijital bir düzenle karşılaştığını söylüyor[23]. Orada bir “toplayıcı” olarak çalışan Guendelsberger belinde bir tarayıcı tabancası taşımak zorunda bırakılıyor, bu tarayıcı konumunu izliyor, ona raflardan gidip yüz binlerce eşya arasından alması gereken eşyayı, o e��yanın konumunu ve o eşyayı almak için ne kadar süresi olduğunu tam bir kesinlikle söylüyor. Saniyeler geçtikçe geriye doğru sayan bir kayan çubuk onu sürekli uyarıyor. Muazzam boyuttaki tesiste rafı tespit edip, kutuyu inceleyip, eşyanın etiketini okutur okutmaz hemen bir sonraki alması gereken paket görüntüleniyor. Algoritmaların baştan sona hakkımızda her türlü kararı verdiği ve bizi sürekli daha üst düzey bir performansa zorladığı bir yaşama ne denir?

Yapay Zekâ ve yanlılık

Dediğim gibi Yapay Zekâ’nın, özellikle de önemli bir alanı olan Makine Öğrenmesi ve onun alt alanı Derin Öğrenme veriye dayalı olarak yaşamlarımızı şekillendirmek için gittikçe daha fazla kullanılıyor. Bu iki alanın en önemli özelliği, ilgili araçların geliştirilmesi için yöntemlerinin veriye (muazzam miktarda veriye, bu noktada büyük veri ile bir ilişki de ortaya çıkıyor) ihtiyaç duymaları. Bu yöntemlerin karar alma yetenekleri bu veriyle eğitilmeleri sonucunda gelişiyor. Dolayısıyla veride ne varsa onu öğreniyorlar[24]. Elbette bazı makine öğrenmesi sistemleri veriden bağımsız olarak da yanlı olabilir. Yanlılığın nedenleri arasında veriyi (nasıl toplandı ve biçimlendirildi), öznitelikleri (nasıl tasarlandılar), modeli ve mimarisini, amaç fonksiyonunu ve nasıl kurulduğunu sayabiliriz. Tarafsız ve doğru veriye ulaşmak ve toplamak zor, doğru tasarlamak veya doğru tercihlerde bulunmak da yoğun bir çaba gerektiriyor, çünkü bunları etkileyen birçok faktör var. Dolayısıyla doğru/iyi tasarlarız, doğru veri toplarız, doğru tercihlerde bulunuruz diyerek yansız bir sistem üretmek gerçekte neredeyse imkânsızdır. Mehrabi vd.[25] MÖ’deki yanlılık ve adalet üzerine yaptığı incelemede veride olabilen 23 farklı yanlılık türü ve algoritmaların adil olmasını etkileyen 6 farklı ayrımcılık türü listeliyor, sadece bu liste bile bu işin ne kadar da zor olduğunu özetliyor.

Yanlılıkta en önemli nedenin genellikle veri olduğu kabul ediliyor. Çünkü eğitim için kullanılan veri özünde ırkçıysa, ayrımcıysa, cinsiyetçiyse, sonuç olarak eğitilen yöntem de bu özelliklere sahip oluyor. Çünkü eğitim için kullanılan veri yoktan var olmuyor. O verinin mevcut sistemlerden toplanması gerekiyor. Bu mevcut sistemler (farkında olalım veya olmayalım) içerisinde yaşadığımız kapitalist sistemin yaratmış olduğu sınıflı toplumun, kullandığımız dillerin ve hatta bu sistemleri geliştirenlerin yıllardır süregelen ırkçı, ayrımcı, cinsiyetçi eğilimlerini ve yanlılıklarını barındırıyorlar. Üstelik veride oldukça az miktarda bir yanlılık varsa, eğitilen sistemde bu yanlılık daha da büyüyebiliyor.

Örneğin insan dillerinin farklı şekillerde yanlılık ve ayrımcılık içerdiğini biliyoruz, dolayısıyla algoritmalar insan dillerini bir şekilde öğrendiğinde kaçınılmaz bir şekilde bu yanlılıkları da öğreniyorlar[26]. Çünkü eğitilmeleri için kullanılan verinin tam da kendisi bu dillerden geliyor. Dolayısıyla sağlık hizmetleri, adalet hizmetleri, reklamcılık ve birçok toplumsal alana hızlıca ve yoğun bir şekilde bütünleşen YZ’nin yarattığı olumsuz yanlılık örnekleri de gün geçtikçe daha da artıyor ve gündeme geliyor.

Amazon’un otomatik işe alım aracına ilişkin haberlerde bu sorunların oldukça etkileyici bir örneği var. Bu araç “iyi” ve “kötü” adaylar arasında ayrım yapmayı “öğrenmek” için, şirketin önceki işe alım kararlarından oluşan muazzam bir veri külliyatıyla eğitilmişti. Sonuç, belki de bekleneceği üzere, kadınlara karşı ayrımcılık uygulayan bir işe alım aracıydı, hatta içerisinde “kadın” veya “kadınlar” geçen özgeçmişlerin önemini oldukça düşürüyordu. Amazon mühendisleri sorunu düzeltmeye çalıştılar, algoritmayı yanlı tercihlerini hafifleterek ayarlamaya çabaladılar, ancak nihayetinde düzeltilemez sonucuna vararak projeyi ıskartaya çıkarmak zorunda kaldılar[27]. Bu durum bu sorunların iç içe geçmiş doğasını sergiliyor: öncelikli sorun (çoğu benzeri şirkette olduğu gibi) Amazon’da da önemli konumlarda geliştirici, yönetici vb. olarak çalışanlar çoğunlukla beyaz, hetero erkekler. Çünkü bu insanlar yaşamları boyunca belirli bir ayrıcalığa sahip olarak, belirli koşullarda daha iyi eğitim alarak ve çalıştıkları şirketlerde yıllardır mevcut benzeri kişilerin açık ve örtük desteğiyle konumlarını elde etmede bir sıkıntı yaşamıyorlar. Beyaz hetero erkekler; kadınları, eşcinselleri, transları, siyahları (yetersiz buldukları için veya rahatça ırkçı, cinsiyetçi vb. şaka yapamayacakları için olabilir) işe almıyorlar. Böylece adayları tasnif eden sistem Amazon’da eskiden beri süregelen bu ayrımcı işe alım kalıplarını yansıtıyor, bu kalıplar daha sonra otomatik sistemler tarafından güçlendiriliyor. Bu sistemler ayrıca teknoloji sektöründeki mevcut aday havuzunun ve çalışanların ne kadar da asimetrik ve orantısız bir hâle geldiğini görünür kılma işlevi de görmüş oluyor.

Son günlerdeki bir başka çarpıcı örnek Barack Obama’nın düşük çözünürlüklü bir fotoğrafının piksellerden temizlemek için kullanılan bir makine öğrenmesi yöntemine (PULSE tabanlı[28]) girdi olarak verilmesi ve Beyaz bir Obama sonucuyla karşılaşılmasıdır[29] [30] [31]. Bu durum salt Obama’yla sınırlı değil. Bu yöntem başkalarını da “beyazlaştırıyor”. Elbette bu MÖ araştırmacıları ve mühendisleri arasında da sorunu teknik olarak çözme yönünde bir tartışma yarattı. Facebook YZ şefi Yann Le Cunn da tartışmaya “veri yanlıysa, MÖ sistemleri de yanlıdır” şeklinde katıldığında, birçok kişiden doğru verinin haksızlıkları çözmeyeceği veya “adil” veri kümesi gibi bir şeyin pek mümkün olmadığı şeklinde tepkiler aldı. Üstelik Timnit Gebru gibi araştırmacılar yanlılığın verinin ötesine nasıl geçtiğini, kimlerin zarar gördüğünü anlatmaya çalışıyor, araştırmacıların bu gibi yöntemler araştırırken, geliştirirken, veri toplarken, konuşlandırırken, sınarken, kullanırken ötekileştirilmiş topluluklarla ve kişilerle konuşmasını öneriyorlar[32]. Ayrıca toplumsal olarak daha sorumlu ve etiğe dikkat eden araştırmanın nasıl yapılabileceğine ilişkin öğrenceler sunuyorlar[33]. Her şeye rağmen bu örnek bir yandan bize Yann Le Cunn gibi teknik ve araştırma anlamında çok yetkin kişilerin, gerçeklikten nasıl da habersiz ve her şeyi teknik bir şekilde çözebileceğine ilişkin dar bir bakış açısına sahip olduklarını gösteriyor. Her şeyi teknik bir şekilde teknolojiyle çözmek Silikon Vadisi’nin aşırı teknoiyimser alışkanlığı. Vidushi Marda’nın da söylediği gibi[34] bu verilerde bir “çeşitlilik” veya “gelişmiş doğruluk” başarımı çağrısı olmamalı, bu teknolojiyi tasarlayan, geliştiren ve konuşlandıran bireylere ve kurumlara yönelik tekrar değerlendirme çağrısı olmalıdır.

Bu yanlılığa ve ayrımcılığa ilişkin örnekleri arttırmak mümkün[35]. Ancak sorun sadece yöntemlerle ve veriyle de sınırlı olmak zorunda değil. Silikon Vadisi’nin ve bilişim dünyasının ana gövdesini oluşturan kesimin ağırlıklı olarak beyaz hetero erkeklerden oluştuğunu düşündüğümüzde, kendi geliştirdikleri araçların da ayrıcalıklı konumlarını temsil eden ve barındıran araçlar olacağı da kesindir. Ve hatta hem tarihsel olarak hem de günümüzde bazı Yapay Zekâ geliştiricileri ve araştırmacılarının açıkça aşırı sağ eğilimleri taşıdığını bilmek[36], ayrımcı, ırkçı ve cinsiyetçi bir bilişim tarihine sahip olduğumuzu[37] [38] [39] kavramak süreci daha da zorlaştırıyor, çünkü bilişim tarihine işlenmiş olan ayrıcalıklar ve ayrımcılıklar, hem günümüzü hem de üretilen ürünleri etkiliyor.

Örneğin, Silikon Vadisi’ni kuran William Shockley’in en derin tutkusu soy arıtımıydı ve onlarca yılını IQ farklılıkları hakkındaki ırkçı kuramlarını tanıtmak ve beyaz üstünlüğünü desteklemek için harcamıştı[40]. Bilgisayar Bilimcisi ve Bilişsel Bilimci olan, YZ alanının kurucularından biri olarak kabul edilen, Yapay Zeka terimini ilk ortaya koyan ve YZ açısından önemli olan LISP programlama dili ailesini geliştiren John McCarthy 2004 yılında bir denemesinde kadınların bilim ve matematiğe erkeklere göre biyolojik olarak daha az yatkın olduğunu ve sadece teknolojik takviye ile kadınların erkeklerle eşitliğe erişebileceğini öne sürmüştü[41]. Kendisi de soy arıtımı araştırmaları taraftarı olan cinsel suçlardan hüküm giyen Jeffrey Epstein, MIT Medya Lab’ı için önemli miktarda fon sağlamış ve Bilişsel Bilimci ve YZ araştırmacısı olan ve bilgisayar bilimleri alanında önemli katkıları olan Marvin Minsky’nin çalışmalarını desteklemişti[42].

Günümüzde baktığımızda OneZero’da Matt Stroud’ın gözetim firması Banjo’nun kurucusu ve CEO’su Damien Patton’u Ku Klux Klan’ın Dixie Şövalyeleri’nin eski bir üyesi olarak tanımlayan haberiyle[43] ve Huffington Post’tan Luke O’Brien’ın, Clearview AI şirketinin kurucusu Cam-Hoan Ton-That’ın, eski Breitbart yazarı Chuck Johnson, Pizzagate komplo teorisyeni Mike Cernovich ve neo-Nazi bilgisayar korsanı Andrew ‘weev’ Auernheimer gibi aşırı uç sağcılarla ilişkili olduğunu ortaya çıkardığı haberle karşılaşıyoruz[44]. Clearview AI teknolojisinin açıkça ırkçı bir kullanıma göre tasarlandığı düşünülüyor, çünkü Chuck Johnson 2017 yılının Ocak ayında “sınır dışı etme ekiplerinin bütün yasadışı göçmenlerin kimliğini tespit etmesine yönelik algoritma oluşturma” aşamasında yer aldığını duyurmuş ve üzerinde çalıştığı yüz tanıma yazılımının yeteneklerinden övünerek söz etmiş[45].

Bu haberlerin bu kadar şaşırtıcı ve etkili olması, bu şirketlerin devletlerle önemli kurumlara YZ’ye dayalı gözetim sistemleri sağlamasından kaynaklanıyor. Aşırı sağcı birinin ürettiği bir ürün, elbette açıkça ırkçı bir amaçla tasarlanacaktır. Zaten birçok YZ sisteminin ırkçı yanlılık içeren toplumsal eşitsizlik kalıplarını yeniden ürettiği sürekli söylenen ve bilinen bir şey, bu işin bir de aşırı sağcılar tarafından yapılması işin daha da ciddileşmesi anlamına geliyor. Mesela Sarah Myers West, eldeki verilere dayanarak sonraki olası suç ve suçluları öngörmek için kullanılan birçok öngörücü polislik sisteminin güvenilmez veriden yararlandığını söylüyor, AI Now Enstitüsü yazarları da kolluk kuvvetinin yargı için kusurlu, ırksal olarak yanlı ve kimi zaman kanunsuz polislik uygulamaları sırasında üretilen veriyi, ilgili sistemlerin eğitiminde kullandığını ortaya koyuyorlar[46]. Dolayısıyla bu ırksal yanlılığın aslında “suç önleme” analiz sistemlerine özgü olduğu anlamına da geliyor. Sarah Brayne’nin öngörücü polislik üzerine yaptığı bir araştırmaya göre, beyaz olmayan toplumlara yönelik aşırı polislik ve gözetimi kötüleştiren bu veri uygulamaları mevcut eşitsizlik kalıplarını yeniden üretiyor ve kaydediyor[47].

Sarah Myers West’in dediği gibi bu örnekler Yapay Zekâ alanındaki güçlü şahsiyetler içerisindeki sağ kanat ve açıkça ırkçı ve cinsiyetçi politikaların[48] sürekliliğini de gösteriyor. 1960’lardakine göre bugün çeşitliliğin çok daha az olduğu[49] bir sanayi ile karşı karşıyayız. Irkçı[50] ve yanlı[51] varsayımların kodlandığı, mevcut ayrımcı biçimleri, tespit edilmelerini ve azaltılmalarını gittikçe daha da zorlaştıran ve iyice kötüleştiren teknolojilerle baş başayız[52] [53]. Bu gibi sistemlerden en büyük zararı görenleri yoğun bir şekilde ötekileştiren ve dışlayan teknoloji sanayinin, ötekileştirdiği ve dışladığı bireylerin sorunlarını çözmesini beklemek pek gerçekçi değil.

Her ne kadar yanlılığı çözmeye yönelik bilimsel araştırmalar olsa da[54] [55] [56] [57], bu durumun salt bilimsel araştırmayla çözülebileceğini düşünmemek gerekiyor. Kesin olan bu yanlı teknolojilerin kadınlar, translar, non-binary bireyler, beyaz olmayanlar, engelliler, göçmenler vb. ezilen kesimler, ayrıcalığı olmayan kişiler için mevcut eşitsizlikleri daha da derinleştirdiğidir ve çözüm öncelikle bu teknolojilerin kendisine yaşam bulduğu mevcut sistemde aramaktır. Bataklığı kurutmadan, sıtmayla mücadele gerçekçi bir çözüm üretmeyecektir.

Dipnotlar:

[1] Susan Benesch ve Emma Llansó, COVID-19’dan sonra teknoloji şirketlerinin üzerimizdeki kolluk uygulamaları için algoritmaları kullanmalarına izin veremeyiz, Sendika.org, 22 Mayıs 2020 (çev. T. E. Kalaycı)

[2] Paige Williams: “Re @Facebook shutting down legit postings that encourage families/friends to seek sourced, *credible* info: sugg making screenshots, if possible, for documentary purposes. One of mine that got removed, along w/links to @washingtonpost @nytimes @statnews:… https://t.co/0RHL8DwHk2, Twitter, 18 Mart 2020

[3] Mike Isaac, Facebook Hampers Do-It-Yourself Mask Efforts , The New York Times, 5 Nisan 2020

[4] John Kotsier, Facebook Deleting Coronavirus Posts, Leading To Charges Of Censorship, Forbes, 17 Mayıs 2020

[5] Silikon Altılısı (Amazon, Apple, Facebook, Google, Microsoft, Netflix) 2010-2019 yılları arasında 155,3 milyar dolar vergiden kaçındılar. Bkz. Safiya Noble, 2020

[6] Safiya Noble, The Loss Of Public Goods To Big Tech, NOEMA, 1 Temmuz 2020

[7] Ryan Cooper, Google is a monopoly — and it’s crushing the internet, The Week, 21 Nisan 2017

[8] David Kaye, The Republic of Facebook , Just Security, 6 Mayıs 2020

[9] Robinson Meyer, After the Whole Foods Acquisition, Is Amazon a Monopoly?, The Atlantic, 16 Haziran 2017

[10] Edwin Black, IBM and the Holocaust: The Strategic Alliance between Nazi Germany and America’s Most Powerful Corporation, Crown Books, 2001

[11] AI Now Enstitüsü, Teknoloji işini sorgulamak, Sendika.org, 7 Haziran 2020 (çev. T. E. Kalaycı)

[12] João Carlos Magalhães & Nick Couldry, Teknoloji devleri bu krizi refah sistemini sömürgeleştirmek için kullanıyor, Sendika.org, 27 Mayıs 2020 (çev. T. E. Kalaycı)

[13] Nick Couldry ve Ulises A. Mejias, The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism, Stanford University Press, 2019

[14]  Lina Dencik, Anne Kaun, Datafication and the Welfare State | Global Perspectives, Global Perspectives 1(1):12912, 2020

[15] Paul F. Lagner, Lessons from China – The Formation of a Social Credit System: Profiling, Reputation Scoring, Social Engineering, dg.o ’20: The 21st Annual Int. Conf. on Digital Government Research, 2020

[16] Phoebe Moore, Kapitalizmin ayna evresi: Yapay zekâ ve nicelleşmiş işçi, Sendika.org, 4 Mayıs 2020 (çev. T. E. Kalaycı)

[17] Cathy O’Neill, Weapons of Math Destruction, Crown Books, 2016

[18] Esperanza Fonseca, Worker Surveillance Is on the Rise, and Has Its Roots in Centuries of Racism, Truthout, 8 Haziran 2020

[19] Esperanza Fonseca, a.g.y.

[20] Hayley Peterson, Whole Foods tracks unionization risk with heat map, Business Insider, 20 Nisan 2020

[21] James Vincent, Amazon deploys AI ‘distance assistants’ to notify warehouse workers if they get too close, The Verge, 16 Haziran 2020

[22] Emily Guendelsberger, On the Clock – What Low-Wage Work Did to Me and How It Drives America Insane, Little, Brown and Company, 16 Temmuz 2019

[23] Gabriel Winant, Algoritma egemenliğinde yaşam, Sendika.org, 29 Nisan 2020 (çev. T. E. Kalaycı)

[24] Emily Sheng, Kai-Wei Chang, Premkumar Natarajan, Nanyun Peng, The Woman Worked as a Babysitter: On Biases in Language Generation, arXiv:1909.01326v2, 23 Ekim 2019

[25] Ninareh Mehrabi, Fred Morstatter, Nripsuta Saxena, Kristina Lerman, Aram Galstyan, A Survey on Bias and Fairness in Machine Learning, arXiv:1908.09635, 2019

[26] Christopher Groskopf, Bilgisayarlar insan dillerini öğrendiklerinde insan önyargılarını da öğreniyorlar, Sendika.org, 6 Ekim 2016 (çev. T. E. Kalaycı)

[27] AI Now Enstitüsü, Toplumsal cinsiyet, ırk ve iktidar: Yeni bir YZ araştırma gündemi çerçevesi, Sendika.org, 24 Mayıs 2020 (çev. T. E. Kalaycı)

[28] Pulse (Kod Deposu) geliştiricileri bu tartışmadan yayınlarına yanlılık konusunda bir bölüm eklediler.

[29] James Vincent, What a machine learning tool that turns Obama white can (and can’t) tell us about AI bias, The Verge, 23 Haziran 2020

[30] Khari Johnson, AI Weekly: A deep learning pioneer’s teachable moment on AI bias, VentureBeat, 26 Haziran 2020

[31] Sam Charrington, Bias in AI: Taking the Broad View, TWIML, 2 Temmuz 2020

[32] Timnit Gebru on Twitter: “One of the things I say in my tutorial is that you NEED to listen to marginalized communities when you talk about harms of systems, because they are the ones who know how they’ve been harmed. That is part of expertise. Lived experience is part of expertise.… https://t.co/YaD7ueJfnR”

[33] Timnit Gebru, Emily Denton, Tutorial on Fairness Accountability Transparency and Ethics (FATE) in Computer Vision at CVPR 2020, 19 Haziran 2020

[34] Vidushi Marda on Twitter: “In case it needed to be said explicitly – This isn’t a call for “diversity” in datasets or “improved accuracy” in performance – it’s a call for a fundamental reconsideration of the institutions and individuals that design, develop, deploy this tech in the first place.… https://t.co/NXkUgvepHV”

[35] Konuyla ilgili bazı haber ve yazılar (bu listeyi genişletmek mümkün):

[36] Sarah Myers West, Yapay Zekâ ve Aşırı Sağ: Görmezden gelemeyeceğimiz bir tarih, Sendika.org, 21 Mayıs 2020 (çev. T. E. Kalaycı)

[37] Mar Hicks, Programmed Inequality, MIT Press, 2018

[38] Margot Lee Shetterly, Hidden Figures: The American Dream and the Untold Story of the Black Women Mathematicians Who Helped Win the Space Race, William Morrow, 2016

[39] Nathan Ensmenger, The Computer Boys Take Over: Computers, Programmers, and the Politics of Technical Expertise, MIT Press, 2012

[40] Sarah Myers West, a.g.y.

[41] John McCarthy, Technology and the Position of Women, 9 Aralık 2006

[42] Russell Brandom, AI pioneer accused of having sex with trafficking victim on Jeffrey Epstein’s island, The Verge, 9 Ağustos 2019

[43] Matt Stroud, Utah and Indiana Suspend Banjo Contracts After CEO Damien Patton’s KKK Past Is Revealed, OneZero, 29 Nisan 2020

[44] Luke O’Brien, The Far-Right Helped Create The World’s Most Powerful Facial Recognition Technology, HuffPost, 9 Nisan 2020

[45] Sarah Myers West, a.g.y.

[46] Rashida Richardson, Jason Schultz, Kate Crawford, Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice, 94 N.Y.U. L. REV. ONLINE 192, 2019

[47] Sarah Brayne, Big Data Surveillance: The Case of Policing, American Sociological Review 82(5), 2017

[48] Jessie Daniels, Cyber Racism: White Supremacy Online and the New Attack on Civil Rights, Rowman & Littlefield Publishers, 2009

[49] Sarah Myers West, Meredith Whittaker, Kate Crawford, Discriminating Systems Gender, Race, and Power in AI, AI Now Institute, 2019

[50] Ruha Benjamin, Race After Technology, Polity, 2019

[51] Safiya Umoja Noble, Algorithms of Oppression:How Search Engines Reinforce Racism, NYU Press, 2018

[52] Sarah Myers West, a.g.y

[53] AI Now Enstitüsü, Engellilik, yanlılık ve Yapay Zekâ, Sendika.org, 26 Mayıs 2020 (Çev. T. E. Kalaycı)

[54] Andrey Kurenkov, Lessons from the PULSE model and Discussion, The Gradient, 24 Haziran 2020

[55] Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, Adam Kalai, Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings, arXiv:1607.06520, 2016

[56] Tianlu Wang, Xi Victoria Lin, Nazneen Fatema Rajani, Bryan McCann, Vicente Ordonez, Caiming Xiong, Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation, arXiv:2005.00965, 2020

[57] Rik Helwegen, Barteld Braaksma, Fair algorithms in context, CBS Center for

Big Data Statistics, Mayıs 2020

href=”/2020/07/yapay-zeka-ozgurlestirecek-mi-kolelestirecek-mi-591885/

Sendika.Org'u destekle

Okurlarından başka destekçisi yoktur