Yapay zeka geliştirme söz konusu olduğunda Google’ın kesinlikle bir etik sorunu olduğu söylenebilir. Şirket, konuyla ilgili iç tartışmaları susturma konusunda oldukça hevesli davrandı. Google’ın 2017 yılında kurduğu Etik Yapay Zeka ekibinin eski üyesi Margaret Mitchell, aynı ekibin bir üyesi olan Timnit Gebru’nun işten çıkarılmasıyla ilgili bir iç soruşturma yürüttükten sonra görevden alındı
Yapay zekânın gerçek ya da hayali tehlikeleri hakkındaki konuşmalar, büyük bir kısmı üretken [generative] sohbet botlarının büyüyen dünyası tarafından tetiklenen ateşli bir hal aldı. Eleştirmenleri incelerken motivasyonlarına dikkat edilmelidir. Belirli bir duruşu benimsemekten ne kazanıyorlar? “Yapay zekanın manevi babası” olarak görülen Geoffrey Hinton söz konusu olduğunda, yapılan incelemenin çoğu kişiden daha keskin olması gerekir.
Hinton, insan beynini ve daha geniş anlamda insan davranışını taklit eden sinir ağlarını öngören ve bir zamanlar gözden düşmüş olan yapay zeka alanındaki “bağlantıcı” [connectionist] düşünce ekolünden gelmektedir. Bu görüş, makine tarafından yönetilen yapay zekaya, belirli sembollerin ve kuralların korunmasına odaklanan “sembolistler” ile çelişmektedir.
Financial Times’a yazan John Thornhill, bağlantıcı kabilenin diğer üyeleriyle birlikte Hinton’ın yükselişine dikkat çekiyor: “Bilgisayarlar daha güçlü hale geldikçe, veri setlerinin boyutu büyüdükçe ve algoritmalar daha sofistike hale geldikçe, Hinton gibi derin öğrenme araştırmacıları, ana akım yapay zeka topluluğu tarafından artık göz ardı edilemeyecek kadar etkileyici sonuçlar üretebildiler.”
Zamanla derin öğrenme sistemleri moda oldu ve büyük teknoloji dünyası Hinton gibi isimleri arar oldu. Hinton, meslektaşlarıyla birlikte Google, Facebook, Amazon ve Microsoft’un zirvelerinde absürd maaşlar almaya başladı. Hinton Google’da başkan yardımcısı ve üst düzey uzman mühendis olarak görev yaptı.
Hinton’un Google’dan ayrılması ve özellikle de Google Brain[1] ekibinin başındaki rolü, spekülasyon çarkının dönmesine neden oldu. Bir görüşe göre bu ayrılık, yıllardır başarılarına katkıda bulunduğu şirketi eleştirebilmek için gerçekleşti. Hinton’un üretken yapay zeka arabasını itmedeki kendi rolü göz önüne alındığında, bu durum kesinlikle biraz ilginçti. Hinton 2012 yılında, resimlerdeki yaygın nesneleri önemli bir doğrulukla tanımlayabilen, kendi kendini eğiten bir sinir ağına öncülük etti.
Zamanlaması da ilgi çekicidir. Bundan bir ay kadar önce, Yaşamın Geleceği Enstitüsü (Future of Life Institute) tarafından OpenAI’ın GPT-4 ve diğer benzer sistemlerin kötülüğünün ötesinde yapay zekanın korkunç etkileri konusunda uyarıda bulunan bir açık mektup yayımlandı. Bir dizi soru ortaya atıldı: “Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı haberlerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Eninde sonunda sayıca üstün, akıllı, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler mi geliştirmeliyiz? Uygarlığımızın kontrolünü kaybetme riskini göze almalı mıyız?”
Bu tür büyük ölçekli yapay zeka projelerinin geliştirilmesine altı ay ara verilmesi çağrısında bulunulan mektupta, uyarıların değerini bir nebze azaltan bazı isimler yer aldı; sonuçta imzacıların çoğu otomasyon yaratımı, teknolojik eskimeyi ve “uygarlığımızın kontrolünü kaybetmesini” teşvik etmede göz ardı edilemeyecek bir rol oynamıştı. Bu bağlamda, Elon Musk ve Steve Wozniak gibi isimler teknolojik gelişmelere ara verilmesi çağrısında bulunan bir projeye imza attıklarında, dünyanın dört bir yanındaki saçmalık dedektörleri harekete geçmelidir.
Aynı ilkeler Hinton için de geçerli olmalıdır. Belli ki başka meralar arıyor ve bunu yaparken de kendi reklamını yapıyor. Bu, yaratılmasından sorumlu olduğu şeyin hafifçe kınanması şeklini alıyor: “Bu şeyin insanlardan daha akıllı olabileceği fikri… Birkaç kişi buna inandı. Ama çoğu insan bunun çok yanlış olduğunu düşünüyordu. Ben de çok yanlış olduğunu düşünüyordum. […] Açıkçası artık böyle düşünmüyorum.” Onun bunu herkesten daha iyi bilmesi gerektiğini düşünebilirsiniz.
Hinton, Twitter hesabından yaptığı açıklamada, Google’dan kırgın ayrıldığına ya da Google’ın faaliyetlerini karalamak gibi bir niyeti olduğuna dair iddialara son noktayı koydu. “Bugün NYT’de (New York Times) Cade Metz, Google’ı eleştirmek için Google’dan ayrıldığımı ima ediyor. Aslında, bunun Google’ı nasıl etkilediğini düşünmeden yapay zekanın tehlikeleri hakkında konuşabilmek için ayrıldım. Google çok sorumlu davrandı.”
Bu tuhaf akıl yürütme biçimi, yapay zekaya yönelik herhangi bir eleştirinin, bu tür projeleri geliştiren ve bunlardan kâr elde eden şirketlerden bağımsız olarak var olacağını ve Hinton gibi geliştiricileri herhangi bir suç ortaklığı suçlamasından muaf tutacağını öne sürüyor. Hinton’ın yapay zekaya yönelik eleştiri geliştirmekten ya da Google’ın kendi içinde düzenleyici çerçeveler önermekten aciz görünmesi, bu hamlenin samimiyetinin altını oyuyor.
Google DeepMind’ın baş bilim insanı ve başkanı Jeff Dean, uzun süredir birlikte çalıştığı meslektaşının ayrılışına tepki gösterirken, herkesi memnun edecek şekilde suların durulduğunu açıkladı: “Geoff yapay zeka alanında temel atılımlar gerçekleştirdi ve Google’a yaptığı on yıllık katkıları takdirle karşılıyoruz […] Yapay Zeka İlkelerini (AI Principles) yayımlayan ilk şirketlerden biri olarak, yapay zeka konusunda sorumlu bir yaklaşım benimsemeye devam ediyoruz. Ortaya çıkan riskleri anlamak için sürekli öğreniyor ve aynı zamanda cesurca yenilikler yapıyoruz.”
Yapay zeka topluluğundaki birtakım kişiler başka bir şeylerin döndüğünü hissetti. Bilgisayar bilimcisi Roman Yampolskiy, Hinton’un sözlerine yanıt olarak, Yapay Zeka Güvenliği (AI Safety) ile ilgili kaygıların kurum içindeki araştırmalardan bağımsız olmadığını ve olmaması gerektiğini dikkatle söyledi: “Bir yapay zeka araştırmacısı olarak işinizi bırakmak zorunda kalmadan yapay zeka güvenliği ile ilgilenmeyi normalleştirmeliyiz.”
Yapay zeka geliştirme söz konusu olduğunda Google’ın kesinlikle bir etik sorunu olduğu söylenebilir. Şirket, konuyla ilgili iç tartışmaları susturma konusunda oldukça hevesli davrandı. Google’ın 2017 yılında kurduğu Etik Yapay Zeka ekibinin eski üyesi Margaret Mitchell, aynı ekibin bir üyesi olan Timnit Gebru’nun işten çıkarılmasıyla ilgili bir iç soruşturma yürüttükten sonra görevden alındı.
Gebru, devasa miktarlarda veriyle eğitilmiş ve beslenmiş yapay zekanın kullanılmasından kaynaklanan tehlikelere dikkat çeken bir çalışmanın ortak yazarlığını yaptıktan sonra Aralık 2020’de görevden alındı. Hem Gebru hem de Mitchell, alandaki çeşitliliğin göze çarpan eksikliği konusunda da eleştirel bir tutum sergilemişlerdir ve bu alanı “erkekler denizi” [sea of dudes] olarak tanımlamışlardır.
Hinton’ın kendi felsefi ikilemlerine gelince, bunlar sofistike olmaktan uzaktır ve uykusunu kaçırmaları pek olası değildir. Şimdi uyardığı canavarın yaratılmasında oynadığı Frankenstein rolü ne olursa olsun, uykusunun bölünmesi pek olası değil. Hinton New York Times’a yaptığı açıklamada “Kendimi her zamanki bahaneyle avutuyorum: Ben yapmasaydım başkası yapardı” dedi. “Kötü aktörlerin bunu kötü şeyler için kullanmasını nasıl engelleyebileceğinizi görmek zor.”
[1] Google Brain, Google AI altında derin öğrenme yapay zekası üzerine çalışmalar yapan bir bölüm.
Dr. Binoy Kampmark, Cambridge’deki Selwyn College’da İngiliz Milletler Topluluğu bursiyeriydi. Halen RMIT Üniversitesi’nde ders vermektedir.
[countercurrents.org’daki İngilizce orijinalinden Erdoğan Can tarafından Sendika.Org için çevrilmiştir.]
Sendika.Org, yayın hayatına başladığından bu yana işçi sınıfı hareketinin, solun ve genel olarak toplumsal muhalefetin gündemine ilişkin, farklı politik perspektiflerden düşünsel katkılara açık bir tartışma platformu olagelmiştir. Sitemizde yayımlanan yazılar yayın kurulunun politik perspektifiyle uyumluluk göstermeyebilir. Amacımız, mücadelenin gereksinim duyduğu bilimsel ve politik bilginin üretimini zenginleştirecek tüm katkılara, yayın ilkelerimiz çerçevesinde, olabildiğince yer verebilmektir.