Mathias Risse / Çeviri: Selçuk Alev
Bu yazı, Harvard Kennedy School, Carr Center for Human Rights Policy için 2018 yılında yazılmış bildiridir.
Giriş
Yapay zekâ insan hakları için zorluklar doğurur. İnsan haklarının arkasındaki ana fikir insan yaşamının dokunulmazlığıdır, bu daha az himayeye değer öteki yaşam formlarına insanoğlunun hiyerarşik bir üstünlüğünü temel olarak alan üstü örtülü bir varsayımdır. Bu temel varsayımlar, bilindik şekilde canlı olmayan ama yine de duyarlı, önsezileri güçlü, aklen ve belki de eninde sonunda manevi açıdan ve ahlaken insandan üstün oluşumların, varlıkların beklenen ortaya çıkışları üzerinden sorgulanmaktadır. Elbette bu senaryo hiçbir zaman gerçekleşmeyebilir, ne olursa olsun şimdiki anlayışımızın dışında ve geleceğin bir parçası olarak durmaktadır. Ancak, yine de bu sorunu acilen gündeme almamız gerekir. Teknolojinin insan haklarının diğer alanlarına oluşturduğu tehditler zaten ortadadır. Benim burada amacım, bu zorlukları kısa, orta ve uzun vadeli perspektiflere ayırıp incelemektir.[1]
Yapay Zekâ ve İnsan Hakları
Yapay zekâ, bir fikri, bir öneriyi ya da hep birlikte üzerinde düşünülüp taşınılan kararları algoritmalara çevirmek için gelişen ve artan bir eğilimi yansıtarak, gitgide daha çok hayatımızda olmaktadır. “Zekâ” sözcüğü ile gelecekle ilgili öngörülerde bulunma ve karmaşık işleri çözme yeteneğini, becerisini kastediyorum. “Yapay” zekâ, YZ, ev işleri desteğinden, cinsel eşlikçilikten polisliğe, zabıta hizmetlerine ve hatta savaş haline kadar çeşitli görevler, işler üstlenebilecek akıllı telefonlar, tabletler, dizüstü bilgisayarları, insansız hava araçları, sürücüsüz taşıtlar ya da robotlarda makinelerin gösterdiği yetenek ve beceridir.
Algoritmalar, gereksindikleri verilere gerekli hızda erişim sağladıkları sürece, kodlanabilen her şeyi yapabilirler ve belirlenmiş bu gibi görevlerin yerine getirilmesine olanak veren bir plan çerçevesine katılmış olurlar. Bütün bu alanlarda gelişme müthiş olmuştur. Algoritmaların etkililiği “Big Data / Büyük Veri” üzerinden giderek geliştirilmektedir: Bu; örnekleri, modelleri saptayarak bundan sonra ne olacağı konusunda olayı kavramak ve sonuç çıkarmak için “özdevimli öğrenme/ yapay zekâ ile öğrenme” olarak bilinen belirli bir tür Yapay Zekâ’ya olanak sağlayan, dünyadaki tüm insan etkinlikleri ve diğer süreçlerle ilgili muazzam miktardaki verinin elde edilebilirliği ve kullanılabilirliğidir. İnsan önyargısı, yanlılığı algoritmalarda sürdürülse bile, nerede test ederseniz edin, algoritmalar insanlardan daha iyisini yapar: İnsanlar tarafından tasarlanan her sistem, insan önyargısını, yanlılığını yansıtır, algoritmalar da geçmişi yakalayan ve yansıtan verilere dayanır ve bu nedenle, bunu önlemeyi başaramazsak, statükoyu otomatik hale getirmiş olurlar.[2] Fakat algoritmalar istikrarlıdır: İnsanların tersine, aynı problemle iki kez karşılaştıklarında aynı karara varırlar.[3]
Felsefeciler için en çarpıcı olanı, çok çok fazla şeyin gerçeklikten bu kadar kopmuş göründüğü Yapay Zekâ bağlamındaki birçok felsefi tartışmanın tekrar tekrar ortaya çıkmasıdır. Vagon ikilemi problemini[i] ele alalım. Bu problem, yoldan çıkmış bir vagonun, ne yaptıklarına bağlı olarak, öldürmesi muhtemel birkaç kişinin bulunması ihtimalini de kapsayan tercih ve seçimlerle bireyleri karşı karşıya getirip yüzleştirerek, görev temelli etik / deontoloji’ye karşı sonuç odaklı etik / sonuççuluk ile ilgili önsezileri didikler.
Bu kararlar sadece kimin öleceğini değil, aynı zamanda etkilenmemiş olanların diğerlerini kurtarmaya yardımcı olup olmayacaklarını da belirler. Pek çok yüksekokul öğretmeni bu örnekleri kullanmıştır, fakat bu, öğrencilerin, bu örnekleri, konuyla ilgisini sorgulamasına sebep olmuştur, çünkü kimsenin gerçek hayat seçimleri asla bu kadar spesifik olmayacaktır. Ancak (daha yeni ilk ölümlü kazaya yol açan) sürücüsüz taşıtları programlama gereği oluştuğunda, halkın bu konulara yeniden ilgisi ve konunun ivediliği ortaya çıktı.
Diğer bir yandan, felsefeciler aklın doğası üzerine uzun süre kafa patlatmışlar, onu çözmeye çalışmışlardır. Sorulardan biri aklın beyinden fazlası olup olmadığıdır. Başka her ne olursa olsun, beyin de karmaşık, kompleks bir algoritmadır. Fakat beyin böylelikle tam olarak tanımlanmış oluyor mu, yoksa bizi belirgin kılan, farklı kılan şeyi, yani bilinci, atlıyor mu, yok mu sayıyor? Bilinç bir kimse ya da bir şey olmanın niteliksel deneyimidir, o kimse ya da şeyin “o-olmanın-ne-olduğunun-bilinmek”liğidir, denebilir. Akıl beyinden daha fazlası değilse, o zaman Büyük Veri çağındaki algoritmalar çok yakında neredeyse yaptığımız her şeyde bizden üstün olacaktır demektir: Hangi kitaptan hoşlandığımız ya da bundan sonra hangi tatile gideceğimizle ilgili her zaman daha doğru öngörülerde bulunurlar; bizden daha güvenli araba sürerler; beynimiz alarm vermeden önce sağlığımızla ilgili tahminler yaparlar; hangi işleri kabul etmek, nerede yaşamak, ne tür evcil hayvan edinmek, ebeveyn olmamız akla uygun mu değil mi; şu anda beraber olduğumuz kişiyle kalmaya devam etmek akıllıca mı, değil mi gibi konularda sağlam tavsiyeler, fikirler önerirler; bütün bunlar “uygun bir şekilde bizim gibi” insanlardan toplanan olağanüstü çok sayıda büyük verilere dayanır. Daha önce ne sipariş ettiğimizi ya da neleri tıkladığımızı değerlendirerek tercihlerimizi karşılamaya yönelen internet reklamları, gelecek olanın gölgeleridir.
Akıl sadece karmaşık bir algoritma ise, o zaman er geç insanların sahip olduğu aynı ahlaki statüyü belirli makinelere vermekten başka çaremiz kalmayabilir. Hayvanların manevi/ahlaki statüleri ile ilgili sorular, insanlar ile diğer türler arasındaki çok sayıda mantıksal bağdan, devamlılıktan kaynaklanır: Manevi/ahlaki özellikler yönünden onları bizden ne kadar az farklı olarak görebilirsek, Sue Donaldson ve Will Kymlicka’nın Zoopolis’inde [4] olduğu gibi paylaşılmış bir yaşamda onlara o kadar fazla yol arkadaşlarımız olarak davranmamız gerekir. Böyle bir akıl yürütme er geç makinelere de taşınır. Makinelerin, şu an itibariyle, kapama düğmeleri olması dikkatimizi dağıtmamalı. Gelecekteki makineler artık kolayca kapatmaya izin vermeyecek bir şekilde oluşturulabilir ve öyle bir ağ tabanına sahip olabilir. Daha önemlisi, sevgi ve bağlılık ifadesi olan duygular, davranışlar gösterebilirler, hatta kapatılma endişesi taşıyarak bu konuda bir şey yapma isteklisi bile olabilirler. Ya da gelecekteki makineler insan ve robot karışımı sibernetik organizmalar olan, kısmen organik parçalardan oluşmuş sayborglar olabilir ve insanların organları, iyileştirme, güçlendirme için organik olmayan parçalarla modifiye edilebilir. İnsanlar ve insan olmayanlar arasındaki net ayrımlar aşınabilir. Tam da bugünlerde insan embriyolarını depolayabilmemiz gibi, dijitalleştirilmiş bir beyni bilgisayara yüklemek ve hafızaya almak mümkün olduğunda, bireylik ile ilgili düşünceler pekâlâ değişebilir.
Hatta bu olmadan önce bile, yeni nesiller makinelerle birlikte yeni çözümlerle büyüyecektir. Dizüstü bilgisayarlar artık iyi çalışamaz duruma geldiğinde onları kırıp dökme huzursuzluğumuz olmayabilecek. Ama eğer, makinesinin-öğrenme kapasitesi anne-babamızın yaptıklarının çok ötesinde yollarla bize mukayyet olmaya olanak veren bir robot dadı ile büyürsek; robotlara karşı farklı bir tavır ve tutum içine girebiliriz. Beklenenden daha önce 2007’de, Amerikalı bir albay robotik bir kara- mayını-tarama tatbikatını iptal etmiş, neden olarak da robotlardan birinin bacaklarını teker teker kaybettikten sonra sürünerek ilerlemeye devam etmesini insanlık dışı bir operasyon olarak nitelemişti.[5] “Westworld” ya da “The Good Place” adlı bilim kurgu dizileri, etrafımızın makinelerle sarılmasının neye benzediğini ancak onları kesip açarak anlayabileceğimizi öngörür. Hanson Robotics tarafından geliştirilen, görüşmelere, röportajlara katılabilme yeteneğine sahip Sophia adlı insansı robot 2017 Ekim’inde Suudi Arabistan vatandaşı oldu. Daha sonra, Sophia, UNDP – Birleşmiş Milletler Kalkınma Programı’nın ilk İnovasyon Şampiyonu olarak adlandırılıp BM unvanlı yine ilk insan-olmayan figür haline geldi.[6] Gelecekte bunlar tarihsel anlar olarak anılabilir. Evcil hayvan dünyası da çok gerilerde değil. Geçenlerde Jeff Bezos, SpotMini adında, kapıları açabilen, kendini toparlayabilen, bulaşık makinesini bile çalıştırabilen, birçok iş yapabilen robotik bir köpek sahibi oldu. Ve eğer Bezos evde kalıp Amazon’dan alışveriş yapıyor ya da başkanlık tweetleriyle oyalanıyorsa, SpotMini dışarıya çıkma gereğini hiç duymuyor.
Eğer sahiden akıl beyinden fazlasıysa, insansı robotlar dâhil YZ ile baş etmek daha kolay olurdu. Bilinç ve belki de ona refakat eden bir vicdan sahipliği o zaman bizi ayrı tutar ve bir tarafa koyar, koyabilirdi. Niteliksel deneyimin ve böylelikle bilincin nasıl anlamlandırılacağı gerçekten askıda duran, sonuca bağlanmamış bir sorundur. Fakat bilinçle ilgili düşünceler, değerlendirmeler Yapay Zekâ sistemlerinin ahlaki temsilciler olduğu görüşüyle çelişse bile, bu sistemlerin, mülkiyet hakkı, cinayet işleme ve yasal olarak uygulanabilir yollarla sorumlu tutulma gibi hallerde yasal aktör olmalarını imkânsız kılmayacakları anlaşılmaktadır. Ne de olsa, “şirketlere” bilinçsiz bir şekilde bu yollarla muamele etme geçmişimiz vardır.
Şirketlerin sorumluluğu ve onlarla ilgili insanların sorumluluğunu ayırmakta muazzam zorluklar varken, zeki makinelere ilişkin benzer sorunlar da aynen ortaya çıkacaktır.
Saf Zekânın Ahlakı
Bir diğer uzun geçmişi olan ve burada yeni yeni ilgi alanı kazanan sorun da rasyonalite ile ahlak arasındaki bağlantıdır. Bu sorun biz saf zekânın ahlakını merak ettiğimizde ortaya çıkar. “Teknolojik Tekillik” terimi makineler zekâda insanları geçtiği, geride bıraktığı ana gönderme yapar. O zamandan bu yana insanlar kendilerinden daha akıllı bir şey yaratmayı başarmışlardır ve bu yeni tip beyin de “kendisinden” daha akıllı bir şey pekâlâ üretebilir hale gelmiştir ve bu böyle, muhtemelen çok hızlı bir şekilde devam edecektir. Bunun ne kadar süre devam edebileceğine ilişkin sınırlar olacaktır. Fakat bilgisayarların hesaplama gücü son on yıllarda çok çabuk arttığına göre, hangi süper zekânın bu limitlere kadar işlem yapabileceği bizim şu anda kavrayabileceğimizin ötesindedir. Teknolojik tekillik ve süper-zekâ, YZ tartışmalarında bazı katılımcıları adamakıllı çalıştırırken, başkaları da daha baskılayıcı sorunlara nazaran bunu konu dışı bularak onlara yol vermektedir. Doğrusu, hiçbir zaman teknolojik tekillik durumu olmayabilir ya da onlarca veya yüzlerce yıl geçebilir. Yine de son on yılda gerçekleşen yoğun teknolojik gelişmeler bu konuları gündemimize yerleştirmektedir.[7]
Bu durumda felsefecilerin aklına gelen, David Hume ile Immanuel Kant arasındaki, rasyonalitenin değerlerimizi belirleyip belirlemediği ile ilgili tartışmadır. Hume, bilindiği gibi, aklın değerleri belirlemek için hiçbir şey yapmadığını düşünüyordu: Akıl ile, rasyonalite ile ya da zekâ ile donatılmış bir varlığın (bunların uygun bir şekilde benzer olduğunu varsayalım) özellikle insanlara karşı her türlü hedefi, her türlü davranış çeşitliliği olabilir. Eğer öyleyse, bir süper-zekânın (ya da o konu için herhangi bir YZ’nin, ancak sorun bir süper-zekâ için çok sıkıntılıdır) bizi şaşkına çevirecek kadar absürt olabilecekler dâhil, hemen hemen her türden değere bağlılığı olabilir (absürde örnek olarak edebiyatta ara sıra sözü edilen, evrendeki kâğıt kıskacı sayısını maksimuma çıkarmak gibi). Peki, biz nasıl bileceğiz bu gibi düşüncelerin saptırıldığını, gerçekten saptırılıyorsa, böyle bir süper-zekânın büyük ölçekte bizden daha akıllı ve böylece özellikle bizden “farklı” olma şartı ve taahhüdü ile olacağı göz önüne alındığında?
Buna karşıt olarak, ahlakın rasyonaliteden kaynaklandığını, türediğini söyleyen Kantçı görüş vardır. Kant’ın Kategorik İmperatif’i (Koşulsuz Buyruk) tüm rasyonel varlıkların kendi kapasitelerini ve bir başka rasyonel varlığın kapasitelerini hiçbir zaman tamamen ve sadece araçsal bir şekilde kullanmamalarını ister. Özellikle hariç tutulanlar diğer rasyonel varlıklara karşı yersiz ve karşılıksız şiddet ve diğer rasyonel varlıkları aldatma, kandırmadır (ki bunlar Kant’a göre her zaman çok fazla tam ve katışıksız araçsallaştırma örnekleridir). Kategorik İmperatif ile ilgili farklı bir düşünme tarzı bizim her zaman bir genelleme testini geçecek şekilde davranmamızı gerektirir. Belirli bazı eylemler izin verilemez durumuna getirilecektir, çünkü herkes yaptığında, engellenemez, durdurulamaz olacaktır, çalmak ve yalan söylemek gibi… Herkes çaldığında mal mülk sahibi olunmayacak ve herkes yalan söyleme hakkını saklı tuttuğunda da iletişim olmayacaktır. Kant türetiminin ana noktası herhangi bir zeki varlığın öteki zeki varlıkları çiğneyerek, kendisiyle çelişkiye düşecek olmasıdır. Çünkü kabaca söylemek gerekirse, daha ilk başta herhangi bir şeye herhangi bir değer veren sadece bizim rasyonel seçimimizdir ve bu şu anlama gelir ki, herhangi bir şeye değer biçerek biz kapasitemize, değer biçsin diye, değer biçmeye kendimizi adarız. Fakat kendi çıkarlarımızın peşinde diğer rasyonel varlıkları kırıp dökme, onların değer biçme kapasitelerini kırıp döker ki bunlar, ilgili bir biçimde, iyeliklerini kendi içimizde değerlendirmemiz gereken aynı kapasitelerdir. Eğer Kant haklıysa, süper-zekâ ahlaki davranış için doğru rol-model olabilir. İnsan doğasını değiştiremeyeceğimize göre ve eğer insan doğası yargılarında ve değerlere bağlılığında yoğun ölçüde dar görüşlü ise, Taş Devri kafalı, küçük-grup-odaklı DNA’ya sahip insanlar küresel bir bağlamda çalışırken açılan farkı Yapay Zekâ kapayabilir.[8]
Eğer bu tartışma gibi bir şey işe yarayacak olsaydı –kuşkular vardır– süper-zekâ için endişe edecek, kaygılanacak hiçbir şey olmazdı. Muhtemelen, çok daha akıllı makinelerin olduğu bir çağda bu tip tartışmaların mütevazı ve sıradan insanlar için koruma sağlayacağı konusunda “yeteri kadar” rasyonel olurduk. Fakat çağdaş standartlardaki bir sürü felsefeci Kantçı görüşe karşı çıkmış ve aleyhinde olmuşsa, o zaman konu halledilmiş olmaktan uzaktır. Süper-zekânın bakış açısından bu konuların neye benzeyeceğini bilmiyoruz.
Eğer değer tek başına rasyonaliteden türetilemiyorsa bile, tabii ki bir çeşit ahlak iş başındaki süper-zekâya uygun, onun içim elverişli olabilir. Bir de ayrıca, kendini korumayı hedefleyen insanlara ve paylaşılmış otoritenin olmadığı bir doğal durumda belirli özellikleriyle karakterize edilen insanlara ne olacağını öngörmeye çalışan Hobbes-destekçisi yaklaşım vardır.
Hobbes, bu bireylerin sadece salim kafayla düşünerek paylaşılmış değerler doğrultusunda hareket etmeyecek olsalar bile -ki Kantçı bir görüntüde ederlerdi, paylaşılmış bir otorite olmadan hayatın iğrençliğini, berbatlığını çarçabuk yaşayacaklardı diye iddia eder. Rezil ve aşağılık olmaktan uzak bir şekilde, bireyler olarak birbirlerine karşı yer almaya ve çatışmaya kendilerini peşinen, beklenti içinde mecbur hissedeceklerdi. Zaten, kendilerini yardıma istekli ve hazır görseler ve karşı taraf hakkında olumlu düşünseler, onları haklı kabul etseler bile, karşı tarafın aynı şekilde düşüneceğinden emin olamayacaklar ve böylelikle ne kadarın tehlikede olduğuna bakarak ilk çatışan olmanın zorunluluğunu hissedeceklerdi. Tek bir süper-zekâ olmadıkça ya da tüm süper-zekâlar bir şekilde birbirine bağlanmadıkça, belki de böyle bir akıl yürütme bu makineler için de geçerli olacak ve onlar da bir çeşit paylaşılmış otoriteye tâbi olacaklardı. Sonra da Hobbes’un doğal durum tanımı süper-zekâların birbirlerine karşı orijinal durumlarını betimleyecekti. Böyle bir paylaşılmış otoritenin insanlar için yarar sağlayıp sağlamayacağı belli değildir.[9]
Değerlere yerinde tepkilerle ilgili T.M. Scanlon’un düşünceleri belki yardım edebilir.[10] Etrafta ne gözlemlediğine göre uygunsuz tarzlara, hareketlere tepki vermek açısından süper-zekâ “ahlaki” olabilir. İnsan beyninin yeteneklerinin gerçekten şaşkınlık verici olduğunu ve insanlarda tartışmaya açık bir şekilde saygı duyulması gereken kapasiteler oluşturduğunu düşünürsek, o zaman belki insanlardan ve makinelerden oluşmuş karışık bir toplumda korunmayı sağlama ve hatta özgürlüğe kavuşma düzeyini yakalama şansımız olabilir.[11] Hayvanların kapasiteleri de böyledir, ancak bu normal olarak insanların onlara karşı ya da çevreye karşı uygun ve saygılı bir biçimde tepki vermesine yol açmamıştır. Biz, aydınlanmacı insan-merkezciliği gibi bir şey sergilemek yerine, çok sıklıkla doğayı araçsallaştırmış bulunuyoruz. Umarız bir süper-zekâ bu gibi konularda bizden daha iyisini yapar ve bu insan yaşamı farklı bir şekilde korunacaktır anlamına gelir, çünkü o saygıya layıktır. Bunu elbette bilemiyoruz ama kötümser olmamıza da gerek yoktur.
İnsan Hakları ve Değer Uyumu Sorunu
Tüm bu konular, ne zaman kapımıza geleceğini hatta hiç gelip gelmeyeceğini bilmediğimiz yarınların bir parçasının içindedir. Fakat insan hakları bakış açısından bu senaryolar önemlidir çünkü binlerce yıl boyunca inşa ettiğimiz sosyal dünyayı yeni tip varlıklarla paylaşmaya alışmamız gerekiyor. Öteki varlıklar şimdiye kadar hiçbir zaman uzunca bir süre yolumuzu kapatmamış, bize engel olmamış ve umutla bekledikleri en fazla evcil hayvanlar, çiftlik hayvanları, hayvanat bahçesinde sergilenme gibi sembiyotik (ortakyaşar) düzenlemeler olmuştur. Bütün bunlar, bireysel bazda korunmayı hak eder görünen, öteki türlere bahşetmeye pek de istekli olmadığımız, özel olarak insan yaşamı ile ilgili düşüncelere dayalı İHEB’e neden sahip olduğumuzu açıklar. Felsefi yönden ben şahsen bireysel hak ve yetki sahipliği formunu elde eden insanlara, dolayısıyla öteki hayvanlara ve çevreye hemen hemen her şey yapılabilir demeden, özel olarak himaye sağlamanın gerekçeli ve haklı olduğunu düşünüyorum. Ama zeki makineler için her şey baştan aşağı çok farklı olurdu. Hayvanları kontrolümüz altında tutarız çünkü ikinci derecede rol oynayacakları bir çevre yaratırız. Ancak bunu Yapay Zekâ için yapamayabiliriz. İnsan haklarını ihlal edecek kadar akıllı ve güçlü olsalar bile, o insan haklarına saygı duyacak bir şekilde dizayn edilmek zorunda kalacaklardır. Aynı zamanda kendilerinin de uygun bir koruma ile donatılmaları gerekecektir. Er ya da geç, İHEB’in bunlardan bazılarına uygulanmak zorunda kalması olanaksız değildir.[12]
Bu gelişmelerin iyi bir başlangıç yapmalarını sağlama almak için acelemiz var. Geçerli olan zorluk “değer sorunu”dur, saf zekânın ahlakının ne olduğunun git gide önem kazanmasından çok önce ortaya çıkan bir zorluk… Yapay zekâ sistemleri ne kadar kusursuz üretilmiş olursa olsun, onların değerlerinin, bir süper-zekânın bizimkilerden çok farklı değer bağlılıklarının olabileceği olgusundan kaynaklanan karmaşıklığı mümkün olduğunca ihtimal dışı kılmak için, bizimkilerle uyumlu hale getirildiğine emin olmamız gerekir. İnsan haklarını iş kararlarına entegre etmek üzere oluşturan BM İş ve İnsan Hakları Kılavuz İlkeleri’nce de işaret edilen değer sorununu şimdi ele almalıyız. Bu ilkeler Yapay Zekâ için geçerlidir ve YZ’ye uygulanır. Yani şu sorular yöneltilebilir: “En sert olası etkileri nelerdir?”, “En hassas gruplar kimlerdir?” ve “Çareye, çözüme erişimi nasıl sağlayabiliriz?”[13]
YZ topluluğunda değer uyumu sorunu, Isaac Asimov’un, 2058’de basılmış (metinde aynen böyle) bir el kitabındanmış gibi oradan alıntılanan ünlü Üç Robot Yasası’nı formüle ettiği, 1942 tarihli “Döngü” (ya da Kovalama) (Runaround) adlı kısa öyküsünden beri bilinmektedir: 1. Robotlar insanlara zarar veremez ya da eylemsiz kalarak zarar gelmesine göz yumamaz. 2. Robotlar, Birinci Yasa ile çelişmediği sürece insanlar tarafından verilen emirlere itaat etmek zorundadır. 3. Robotlar, Birinci ya da İkinci Yasa ile çelişmediği sürece kendi varlıklarını korumak zorundadır.
Bununla birlikte, bu yasalar uzun süredir çok belirsiz olarak kabul edilmektedir. Şimdiye dek BM İş ve İnsan Hakları İlkeleri’yle ya da İnsan hakları hareketinin herhangi bir bölümüyle hiçbir bağlantı olmadan, yenileriyle değiştirmek için muhtelif çabalar olmuştur. Diğer çabalar arasında, MIT çevresinde kurulmuş, Cambridge, Massachusetts’teki Gelecek Yaşam Enstitüsü’nden (Future of Life Institute) fizikçi Max Tegmart ve Skype kurucu ortağı Jaan Tallinn’in 2017 yılında California’daki Asilomar Konferans Merkezi’nde Yararlı YZ üzerine düzenlediği ve YZ’nin sonraki gelişmelerine yol gösteren ilkelerin ele alındığı konferans vardır. Sonuçta, belirlenen 23 Asilomar İlkesi’nden 13’ü Ahlak ve Değerler başlığı altında listelenmiştir. Öteki konuların arasında, YZ nerede zarara neden olmuşsa niye öyle olduğunun araştırılabilir olması ve nerede bir YZ sistemi adli bir karara karışmışsa, akıl yürütmesinin insan denetçiler tarafından doğrulanabilir ve kanıtlanabilir olması bağlamında, bu ilkelerin ısrarcı olması vardır. Özdevimsel öğrenme uygulayan YZ o kadar hızlı düşünebilir, sonuca varabilir ve böyle bir veri dizisine erişebilir ki, analizleri şaşarsa saptamayı imkânsız kılarak kararları gittikçe artan oranda mantıksız, anlaşılmaz olur gibi kaygılara bu tür ilkeler karşılık verir. İlkeler “yüksek otonom düzeye sahip yapay zekâ sistemleri, amaçları ve davranışları, işlevleri süresince insani değerlerle uyumlu olacak şekilde güvence altına alınarak tasarlanmalıdır” (10. ilke) düşüncesini zorlayarak değer uyumu konusunda da diretirler. Düşünceler 11. ilkede (İnsan Değerleri) açık bir şekilde görülür: “İnsan onuru, haklar, özgürlükler, kültürel farklılıklar” insan değerlerine dâhildir.[14]
İnsan haklarında ısrar etmek, belirli birtakım felsefi tartışmaların çözülmüş olmasını ön gerektirir: Haklar şeklinde evrensel değerler vardır ve biz hangi haklar olduğunu kabaca biliriz. Asilomar İlkeleri’nin açıklık getirdiği gibi, YZ topluluğu içinde insan haklarının güvenilir yollarla tesis edilmiş olduğuna inananlar vardır. Fakat diğerleri bu ilkeleri ahlaki emperyalizm olarak algıladıklarından onlardan kaçınmayı tercih ederler. Onlar değer uyumu sorununun farklı bir şekilde, örneğin kitle kaynak kullanımı yoluyla dünyanın her tarafından bilgi girişi çekmeyi YZ’ye öğreterek çözülmesi gerektiğini düşünürler. Öyleyse bu, bir felsefe sorununun yeni bir geçerlilik kazandığı başka bir durumdur: Felsefi olarak tercih ettiğimiz meta-etik anlayışımız, insan hakları ilkelerini YZ tasarımına katmakta rahat olup olmadığımızla ilgili yargılamaya başlamalıdır.[15]
İnsan haklarının, dünya genelinde çok sayıda insan hakları yerelleşme biçiminin gerçekleşmiş olması gibi bir avantajı da vardır. Bu haklar için küresel destek oldukça büyüktür. Ve yinelersek, BM iş ve İnsan Hakları Kılavuz İlkeleri elimizdedir. Fakat Çin’in önde gelen YZ üreticilerinden biri olacağına ve değer uyumu sorununu insan hakları isteklisi bir ruhla çözmeye pek de yatkın olmayacağına emin olabiliriz. Ama bu, sorunun insan hakları çözümü paralelinde gelişmesi çabalarının başka bir yerde suya düşmesini gerektirmez. Belki, zamanı geldiğinde, insanlarla en iyi nasıl uyum sağlanır sorusuyla ilgili olarak YZ sistemleri fikir alışverişinde bulunabilir. Eğer insanlar, değer uyumu sorununa aynı çözümü geliştirerek, birleşmiş bir şekilde YZ tasarımını ele alırlarsa, bu yardımcı olabilir. Lakin insan hakları ile ilgili küçük düşürücü, aleyhte konuşan kimseler olmaya devam ettiğine göre, az ümit var demektir.
Gelecek, insan hakları topluluğu olmadan gelmesin diye, her olayda olması gereken, insan hakları toplulukları ile YZ toplulukları arasında daha çok etkileşimin bulunmasıdır (YZ topluluğu olmadan böyle bir şeyin meydana gelme riski yoktur). Bu yöndeki önemli bir adım, Uluslararası Af Örgütü’nün insan hakları davalarını takipte YZ araçlarından geniş çaplı faydalanma kararıdır. Bu girişim Genel Sekreter Salil Shetty tarafından başlatılmış olup proje lideri Sherif Elsayed-Ali’dir. Bu aşamada Af Örgütü, insan hakları araştırma-soruşturmalarında yapay zekâ ile öğrenmenin yararları konusunda kılavuzluk etmekte, aynı zamanda özellikle polis faaliyetleri, ceza yargılaması, temel ekonomik ve sosyal hizmetlere erişim gibi konularla ilgili olarak bu öğrenimin kapsamı dâhilindeki ayrımcılık potansiyeline odaklanmaktadır. Af Örgütü, daha genel olarak, çalışma hakkı ve geçimi de içeren otomasyon/ makineleşmenin toplum üzerindeki etkisi konusunda da kaygı duymaktadır. İnsan hakları hareketi ile bu gelişmenin arkasındaki mühendisler arasında, ideal olarak iki tarafa da yarayan, daha çok bağlantı olmalıdır.
Yapay Aptallık ve Şirketlerin Gücü
Düzgün ve doğru bir şekilde geliştirilmeleri gereği olsa bile, geleceğin akıllı makinelerinden daha acil sorunlar vardır. İHEB’deki insan haklarından her biri bir şekilde, teknolojiden etkilenir. Eğer sağlık hizmetlerinden tutun da sigortacılığa, şartlı tahliye kararlarına kadar uzanan alanlarda kullanılan algoritmalar, makine öğrenimleri ırkçılıktan ve cinsiyetçilikten yararlanarak bilgi çektiği için, ırkçı ve cinsiyetçi iseler, ayrımcılık karşıtlığı ve mücadelesi tehdit ediliyor demektir. Konuşma ve ifade özgürlüğü ve bireylerin seçme kararını vereceği herhangi bir özgürlük, hiç olmamış ya da farklı kişilerce gerçekleştirilmiş terör eylemleri dâhil hemen hemen herkesin her şeyi yaparak rol aldığı düzmece video üretimini de içererek bizi girdaba çeken uydurma haberler seliyle dinamitlenmektedir.
Siyasi katılım, internet ve sosyal medyaya daha çok dayalı oldukça, onlar da, çevrimiçi tartışmalara katılan, her zamankinden daha karmaşık ve çokbilmiş internet robotlarını kullanma ihtimalinden, karışıklık çıkarmak için oy sayımında ya da kamu yönetiminde ya da kamu hizmet kuruluşlarında kullanılan araçlarda (hacking) hekleme / bilgisayar korsanlığına kadar, teknolojik gelişmeler tarafından daha çok tehdit edilirler. Nerede YZ varsa orada YA vardır, yapay aptallık. YA, hepimizin çok fazla alışık olduğu zırvalardan/saçmalıklardan çok daha kötü olabilir: Rakiplerin gösterdiği çabalar YZ sayesinde elde edilen kazanımları sadece baltalamakla kalmaz, onları karşıtlarına da çevirir. Seçimlerdeki Rus manipülasyonu bir uyarı alarmıdır; muhtemelen çok daha kötüsü gelecektir. Eğer YZ yeterli şeffaflıkta ve insanların seçim denetim olanakları olmadan kullanılırsa yargısal haklar tehdit altında olabilir. Bir YZ sistemi Avrupa İnsan Hakları Mahkemesi’ndeki yüzlerce davanın sonuçları hakkında öngörülerde bulunmuş, mahkeme kararlarını %79 doğruluk payı ile tahmin etmiştir; bu doğruluk payı yükseldikçe YZ’yi karar vermek için kullanmak cazip hale gelecektir. YZ’nin mahkeme işlerine kullanımı fakirlere yasal danışma ve tavsiye için erişim oluşturulmasına yardımcı olabilir (Af Örgütü’nün, özellikle Hindistan’da, peşinde olduğu projelerden biri); yalnız algoritmalar anlaşılmaz ve esrarengiz tavsiyeler verirse, Kafkaesk bir durum da ortaya çıkabilir.[16]
Güvensizlik ve gizlilik / özel yaşam ile ilgili her türlü hak, sadece dronlar ve robot askerler tarafından değil, insanların etkinliklerinin ve orada bulunmalarının elektronik olarak kaydedildiği bir dünyada bireylerin giderek artan okunabilirliği ve izlenebilirliği üzerinden de baltalanmaktadır. İnsanlar hakkında eldeki ve elde edilebilir verilerin miktarı, özellikle biyometrik (kişiye özgü fiziksel veya davranışsal karakterin ölçümü) sensörler insan sağlığını izleyebildiğinde, büyük ihtimalle sınırsız bir şekilde artacaktır (Bizi duşta muayene edebilir ve verileri iletebilirler, bu bizim kendi iyiliğimize olabilir, çünkü hastalık problem haline gelmeden çok önce teşhis edilebilir). Bu verilerin düpedüz mevcudiyetinden ve pekâlâ özel mülkiyete, ama başkalarına da, ait olabileceğinden kaynaklanarak vatandaşlık ve siyasi haklara yöneltilen çağrılar, itirazlar, sataşmalar olacaktır. YZ sektörünün önde gelen şirketleri petrol şirketlerinin daha önce ve şimdi olduklarından çok daha güçlüdür ve galiba bu yükselişlerinin henüz başlangıcıdır.
Geçmişte, karmaşık toplumlarda statü, önce toprak sahipliği, Sanayi Devrimi’nden sonra da fabrika sahipliği tarafından belirlenirdi. Daha sonra gelen yüksek derecede eşitlikçi yapılar çok kimse için pek başarılı olmadı. Eşit olmayan şekilde verilere sahip olmak da toplumdaki birçok kişi için zararlı sonuçlar doğuracaktır. Apple, Alphabet, Facebook, Tesla gibi şirketlerin gücü kamu yararı ile ilişkilendirilmezse, kendimizi en sonunda, Margaret Atwood’un Antilop ve Flurya (Oryx and Crake), David Foster Wallace’ın Sonsuz Şaka (Infinite Jest) kitaplarında tasvir edildiği gibi, şirketlerin boyunduruğu altına girmiş bir dünyada bulabiliriz. Cambridge – Analytica skandalı[ii] burada bir uyarı alarmıdır ve Mark Zuckerberg’in 10 Nisan 2018’de ABD senatörlerine verdiği ifade, iş modelleri pazarlama verilerine dayanan internet şirketlerinin çalışmaları hakkında kıdemli kanun yapıcı meclis üyelerinin şaşırtıcı boyutlara varan cehaletini ortaya çıkarmıştır. Böylesi bir cehalet, şirketlerin güce doğru yolunu açar. Ya da ilgili bir noktayı şöyle irdeleyelim: Hükümetlerin, siber güvenlik konusunda yardım için özel sektöre ihtiyacı var. Bu işle ilgili uzmanlar akıllı, iyi kazanıyor ama çoğu, hükümetle asla çalışmak istemiyor. Sadece, hükümetin bu konuda aşırı zorlandığını farz ederek onlarla işbirliği yapmanın mümkün olacağını umabiliriz. Eğer bu çabalar başarısız olursa, yalnızca şirketler en yüksek düzeyde siber güvenlik sağlayacaklardır.
Büyük Kopukluk: Teknoloji ve Eşitsizlik
Bu beni son konu başlığıma; “YZ ve Eşitsizlik”e ve o konuyla insan hakları arasındaki bağlantıya getiriyor. Öncelikle, Thomas Piketty’nin, barış zamanı kendi haline bırakılmış kapitalizmin giderek artan ekonomik eşitsizlik meydana getirdiğini öne süren uyarısına kulak vermeli ve önemsemeliyiz. Ekonomiye sahip olanlar, orada sadece çalışanlardan daha fazla yarar sağlarlar. Zamanla, yaşam fırsatları doğum sırasındaki sosyal statüye her zamankinden daha çok dayalı olacaktır.[17] Biz aynı zamanda, gerek teknoloji üretenlerin, gerekse etkisini büyük göstermek için teknolojiyi nasıl kullanacağını bilenlerin daha yüksek ücretleri hak edebildiğini giderek daha çok görmekteyiz. YZ, bir taraftan ötekine, tüm kesimlerde liderlerin etkilerini büyük göstermelerini git gide kolaylaştırarak, bu eğilimleri sadece pekiştirmiş olacaktır. Bu, sırayla YZ üreticilerini devamlı olarak yüksek fiyatlı teknoloji sağlayıcıları haline getirir. Çok yakın geçmişte, Walter Scheidel’den öğrendik ki, tarih boyunca eşitsizlikte kayda değer azalmalar sadece salgın hastalıklar, sosyal çöküntüler, tabii afetler ya da savaş gibi felaketlere karşılık olarak gerçekleşmiştir. Yoksa değişim için etkin siyasi iradeyi toplamak zordur.[18]
19. yüzyıl İngiltere’sinde İlk Luddite (teknoloji karşıtı işçi grupları) Hareketi taraftarları, işleri için kaygılandıklarından dokuma tezgâhlarını kırıp dökerek paramparça ettiler. Ancak, şimdiye kadar her teknolojik yenilik dalgası, tahrip ettiğinden daha çok iş yaratmasıyla sonuçlanmış, teknolojik değişim herkes için iyi olmazken, bir bütün olarak toplum ve insanlık için iyi olmuştur. Mümkündür ki, geliştiren, gözetip denetleyen ya da yenilikçi bir şekilde teknolojiyi kullanan işler gibi yeri doldurulamayacak yaratıcı işkolu ve meslekler de o kadar çok olacaktır ki er ya da geç, işlerini YZ’ye kaptıranları sayıca geçecektir. Fakat bu umuda tutunmaya devam etmek safça olur çünkü bu, insanları rekabetçi yapmak için eğitim sisteminin kökten değişimini ön gerektirir. Bundan farklı olarak, işler paylaşılabilsin diye daha kısa çalışma saatleri gibi iş yaratma kombinasyonları düşünülebilir, fakat o zaman da düzgün ve iyi geçim için daha yüksek ücretler söz konusu olacaktır. Ama öyle ya da böyle, Avrupa ülkeleri için, ABD için olandan daha çok umutlu olabiliriz; teknoloji ve eğitim arasındaki yarışta bu kadar fazla insanın geride kaldığı, evrensel sağlık hizmetlerinin bile tartışmalı ve çekişmeli olmaya devam ettiği, ulusal düzeyde dayanışmanın böylesine kötü bir şekilde kemikleştiği o ABD için…[19] Üretim ve ucuz işgücünde mukayeseli bir üstünlüğe sahip, gelişmekte olan ülkelerin bütün bunlarda nasıl yol alacağı ve başarılı olacağı kimsenin bilmediği noktalardır.
Bu arka plandan önce, YZ’nin toplumlarla arasına, teknolojik olarak genişleyen, milyonlarca kişiyi dışarıda bırakan, piyasa katılımcıları olarak onları ihtiyaç dışı kılan ve böylece siyasi toplumdaki üyeliklerinin anlamını pekâlâ zayıflatabilen bir set çekeceği için endişe etmemiz gerekir. Zenginliğin toprak mülkiyeti ile belirlendiği zamanlarda zenginlerin geri kalanlara ihtiyacı vardı, çünkü toprak mülkiyetinin amacı kira ödetmekti. Zenginliğin fabrika sahipliği ile belirlendiği zamanlarda ise fabrika sahiplerinin geri kalanlara makineleri çalıştırmaları ve mal satın almaları için ihtiyacı vardı. Fakat teknolojik uçurumun kaybedenler tarafında olanlara artık hiç ihtiyaç olmayabilir. F. Scott Fitzgerald 1926 tarihli “Zengin Çocuk” adlı kısa hikâyesinde çok bilinen şu satırları yazdı: “Size çok zenginleri anlatayım. Onlar sizden ve benden farklıdır.” YZ bu sözü çarpıcı bir şekilde doğrulayabilir.
Eninde sonunda, Güney Afrika Apartheid / Irk Ayrımı’ndaki gibi, Bantustanlar (Bantu kökenli zenci Afrikalıların yaşadığı kabile bölgeleri) görebilir ya da belki daha büyük ihtimalle, ötekilerin dışlandığı harika sosyal hizmetler sunan şirketlere ait ayrı işletmelerin ortaya çıkışına şahit olabiliriz. Belki, hemen doğrudan isyan etmesinler diye ötekilere ucu ucuna, ancak yetebilen bir şeyler verilecektir. Katılımcı olarak gerekenden çok daha fazla insan varsa, toplumun dokusu her anlamda çözülebilir. Dünya onlara düzgün ve kabul edilebilir yaşamlar sunabilecek kadar zengin olsa bile, siyasi irade bunu yerine getirmek için orada ayrıcalıklılar arasında olmayabilir, eğer ayrıcalıklı yaşamların şiddet içeren parçalanmalar, yarılmalar gibi korkuları olmadan devam etmelerine olanak veren yollar varsa, evet, olmayabilir. İnsan hakları açısından bunları tümü gerçekten kötü haberdir. Bunun gibi senaryolar, insan yaşamında algoritmaların sürekli artan mevcudiyeti gibi daha acil ve hazır sorunlara oranla, gelecekte daha uzaktır, fakat herhalde gelecekte bir süper-zekânın gelmesi gibi bu da o kadar uzak değildir. Muhtemelen, İHEB’in önümüzdeki 70 yılı içinde, giderek artan eşitsizliklerden kaynaklanan zorluklar gelip çatacaktır.
ABD, YZ dâhil küresel teknolojinin dağıtım merkezidir, fakat gerçekte, tüm nüfusun YZ’den yararlanması için sürdürülen çabalara yardımcı olacak ülke çapındaki dayanışma konusunda, diyelim ki, Avrupalı uluslardan çok daha az pratiğe sahiptir. ABD’deki sosyal hareketlilik dehşet verecek derecede düşüktür. Araştırmalar, hukuk, muhasebecilik, tıp gibi geleneksel olarak güvenli meslekler dâhil tüm işlerin %50’ye varan oranda otomasyona şimdi duyarlı olduğunu göstermektedir.[20] Ya da Aşırı Yoksulluk ve İnsan Hakları üzerine BM Özel Sözcüsü Philip Alston’un 2017 yılındaki ABD’ye resmi ziyaretinde söylediği gibi:
Otomasyon ve robotlaşma, daha şimdiden, çok sayıda orta-yaşlı işçinin bir zamanlar güvende olduklarına inandıkları işlerinden çıkarılmalarına ve işsiz kalmalarına neden olmaktadır. 21. yüzyılın ekonomisinde nüfusun yalnızca çok küçük bir yüzdesi kendi kontrolleri dışındaki şanssızlıklar sonucu yoksulluğa düşme ihtimalinden muaftır.[21]
Sadece yaygın bir şekilde paylaşılabiliyorsa, teknolojik değişimle birlikte ilerlememiz gerektiğini sık sık duyarız.[22] Az önce söz edildiği gibi, eşitsizliğe karşı köklü önlemler yalnızca derinlemesine sıkıntılı zamanlara, başka türlü yaşamak istemeyeceğimiz zamanlara rastlar. Son on yıllarda eşitsizlikteki artışlar kadar hırsı, kindarlığı ve son derece yüksek normal empati eksikliğinin canlı örneği olan bir adamın seçilmesi de, zenginliğin, bolluğun ABD’de yayılması için gösterilen her türlü çabanın adına, konferanslarda ve siyasi olaylarda kulağa ne kadar hoş geldiğine bakmaksızın, pek hayra alamet değildir.
Eşitsizlikteki bu artışlar için, insan hakları üzerindeki etkileri nedeniyle de endişe duymalıyız. Neyin tehlikede olduğunu abartmak zordur. Marx, “Yahudi Sorunu Üzerine” adlı çalışmasında tamamen haklar açısından düşünülen, tasarlanan özgürleşmenin sevimsiz olduğuna işaret ederken, haklıydı. Hak-temelli idealler üzerine inşa edilmiş bir toplum çok fazla fırsat kaçırır, haklarını kaybeder. Son 70 yıl boyunca, insan hakları hareketi, insan haklarının parçası olması gereken daha büyük bir konuyu vurgulamayı sıkça ihmal etmiştir: “Yerel ve küresel, dağıtıcı adalet.” YZ, Aydınlanma’nın tüm mirasını en sonunda tehlikeye atabilir, çünkü bireysellik aslında Büyük Veri ve makine öğrenimi çağında giderek artan bir kuşatma altındadır. Aynısını şu nedenle de yapabilir; burada tehdit edilen şey, aynı zamanda, sanayileşme ile başlatılan ve geliştirilen teknolojik olanaklar ve fışkıran Aydınlanma ruhu sayesinde imkân kazanan dağıtıcı ve sosyal adalet üzerine modern düşüncede yansıtılan ve bir bütün olarak toplumu ilgilendiren bir tür sorun olduğuna göre de, yapabilir. Daha moral yükseltici bir yerde bitirmek isterdim ve aslında “çok geç“ olduğunu da düşünmüyorum. Fakat olasıdır ki giderek artan eşitsizlik, yeteri kadar insan bunların bugünün ‘şiddetle acil’ konuları arasına dâhil edildiğini görmedikçe, YZ ile kombinasyon halinde İHEB’in önündeki 70 yılda başının derdi olacaktır.
[1] Yapay Zekâ ile ilgili giriş niteliğinde tartışmalar için, bkz. Frankish and Ramsey, The Cambridge Handbook of Artificial Intelligence; Kaplan, Artificial Intelligence; Boden, AI. Teknoloji felsefesi üzerine, burada tartışılacak olanların ötesinde bir arka plan için, bkz. Kaplan, Readings in the Philosophy of Technology; Scharff and Dusek, Philosophy of Technology; Ihde, Philosophy of Technology; Verbeek, What Things Do. Ayrıca bkz. Jasanoff, The Ethics of Invention. Özellikle felsefe ve yapay zekâ konusunda, bkz. Carter, Minds and Computers.
İnsanlar ve makineler arasındaki ilişkinin nasıl evrimleştiğine dair erken bir tartışma için bkz. Wiener, The Human Use of Human Beings. Bu kitap ilk olarak 1950’de yayınlandı.
[2] Bkz. 2017 yılı Daniel Kahneman konuşması: https://www.youtube.com/watch?v=z1N96In7GUc. Konu hakkında, ayrıca bkz. Julia Angwin, “Machine Bias.” Makine öğrenmesinde tarafsızlık hakkında, ayrıca bkz. Binns, “Fairness in Machine Learning: Lessons from Political Philosophy”; Mittelstadt et al., “The Ethics of Algorithms”; Osoba and Welser, An Intelligence in Our Image.
[3] Büyük Veri hakkında, bkz. Mayer-Schönberger and Cukier, Big Data. Makine öğrenmesi hakkında, bkz. Domingos, The Master Algorithm. Algoritmaların haksız, açgözlü ve başka türlü sapkın şekillerde nasıl kullanılabileceği hakkında, bkz. O’Neil, Weapons of Math Destruction. Bu algoritmalar birçok yararlı şey yapabilmelerinin yanı sıra elbette sosyal bilimin, bireylerin ve toplumların yaşamlarını iyileştirme potansiyelinin büyük kısmının da arkasındadır, bkz. Trout, The Empathy Gap.
[4] Donaldson and Kymlicka, Zoopolis.
[5] Wallach and Allen, Moral Machines, 55.
[6] https://en.wikipedia.org/wiki/Sophia_(robot)
[7] Chalmers, “The Singularity: A Philosophical Analysis”; Bostrom, Superintelligence; Eden et al., Singularity Hypotheses.
[8] Petersen, “Superintelligence as Superethical”; Chalmers, “The Singularity: A Philosophical Analysis.” Ayrıca bkz. 2017 yılındaki Daniel Kahneman konuşması: https://www.youtube.com/watch?v=z1N96In7GUc
[9] Hobbes hakkındaki görüş için bkz. 2016 yılındaki Peter Railton konuşması:
[10] Scanlon, “What Is Morality?”
[11]Ne tür karma toplumların benzer olabileceği ile ilgili spekülasyonlar için, bkz. Tegmark, Life 3.0, chapter 5.
[12] Margaret Boden, makinelerin asla ahlaki ve dolayısıyla sorumlu ajanlar olamayacağını savunuyor; ayrıca, robot/makine hayat arkadaşları veya hastabakıcılarla desteklenmenin insan onuruna karşı olduğunu düşünüyor. Bkz. https://www.youtube.com/watch?v=KVp33Dwe7qA (Teknolojinin insan etkileşimi üzerindeki etkisi için, ayrıca bkz. Turkle, Alone Together.). Diğerleri, bazı YZ türlerinin ahlaki haklara sahip olduğunu ya da birtakım ahlaki değerlendirmeleri hak ettiğini iddia eder; konuyla ilgili Matthew Liao ve Eric Schwitzgebel’in görüşleri için, bkz. https://www.youtube.com/watch?v=X-uFetzOrsg
[13] Ruggie, Just Business.
[14] https://futureoflife.org/ai-principles/ Değer uyumu hakkında ayrıca bkz. https://futureoflife.org/2017/02/03/align-artificial-intelligence-with-human-values/
[15] Makinelerin gerçekte nasıl değer elde edebileceği hakkında bkz. Bostrom, Superintelligence, bölüm 12-13; Wallach and Allen, Moral Machines.
[16] http://www.bbc.com/news/technology-37727387
[17] Piketty, Capital in the Twenty-First Century.
[18] Scheidel, Great Leveler.
[19] Goldin and Katz, the Race between Education and Technology.
[20] https://rightsinfo.org/rise-artificial-intelligence-threat-human-rights/
[21] http://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=22533&LangID=E
Teknolojik bölünme için bkz. https://www.politico.com/agenda/story/2018/02/07/technology-interview-mit-david-autor-000629 Ayrıca bkz. http://harvardpolitics.com/world/automation/ YZ ve işin geleceği hakkında, ayrıca bkz. Brynjolfsson and McAfee, The Second Machine Age; Kaplan, Humans Need Not Apply.
[22] Örneğin, bu etkinlikte: http://futureofwork.mit.edu/
[i] Vagon açmazı ya da vagon ikilemi olarak bilinen paradoks. Detaylı bilgi için bkz. https://qisep.wordpress.com/2017/06/12/vagon-cikmazina-dair/
[ii] Facebook–Cambridge Analytica veri ihlali, Cambridge Analytica’nın 2014 yılında toplamaya başladığı, yaklaşık 50 milyon Facebook kullanıcısının kişisel olarak tanımlanabilir bilgilerinin toplandığı bir veri ihlalidir. Daha fazla bilgi için: https://webrazzi.com/2018/03/22/cambridge-analytica-hikayesi-facebook-ve-buyuk-veri/
Kaynakça:
Binns, Reuben. “Fairness in Machine Learning: Lessons from Political Philosophy.” Proceedings of Machine Learning Research 81 (2018): 1–11.
Boden, Margaret A. AI: Its Nature and Future. 1 edition. Oxford, United Kingdom: Oxford University Press, 2016.
Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Reprint edition. Oxford, United Kingdom; New York, NY: Oxford University Press, 2016.
Brynjolfsson, Erik, and Andrew McAfee. The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. 1st edition. New York London: W. W. Norton & Company, 2016.
Carter, Matt. Minds and Computers: An Introduction to the Philosophy of Artificial Intelligence. 1st edition. Edinburgh: Edinburgh University Press, 2007.
Chalmers, David J. “The Singularity: A Philosophical Analysis.” Journal of Consciousness Studies 17, no. 9–10 (2010): 7–65.
Domingos, Pedro. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Reprint edition. Basic Books, 2018.
Donaldson, Sue, and Will Kymlicka. Zoopolis: A Political Theory of Animal Rights. 1 edition. Oxford ; New York: Oxford University Press, 2013.
Eden, Amnon H., James H. Moor, Johnny H. Soraker, and Eric Steinhart, eds. Singularity Hypotheses: A Scientific and Philosophical Assessment. 2012 edition. New York: Springer, 2013.
Frankish, Keith, and William M. Ramsey, eds. The Cambridge Handbook of Artificial Intelligence. Cambridge, UK: Cambridge University Press, 2014.
Goldin, Claudia, and Lawrence Katz. The Race Between Education and Technology. Cambridge, Mass.: Belknap, 2008.
Ihde, Don. Philosophy of Technology: An Introduction. 1st edition. New York: Paragon House, 1998.
Jasanoff, Sheila. The Ethics of Invention: Technology and the Human Future. New York: W. W. Norton & Company, 2016.
Julia Angwin, Jeff Larson. “Machine Bias.” Text/html. ProPublica, May 23, 2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Kaplan, David M., ed. Readings in the Philosophy of Technology. 2nd edition. Lanham: Rowman & Littlefield Publishers, 2009.
Kaplan, Jerry. Artificial Intelligence: What Everyone Needs to Know. 1st edition. New York, NY, United States of America: Oxford University Press, 2016.
Kaplan, Jerry, Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence. Reprint edition. New Haven: Yale University Press, 2016.
Mayer-Schönberger, Viktor, and Kenneth Cukier. Big Data: A Revolution That Will Transform How We Live, Work, and Think. Reprint edition. Boston: Eamon Dolan/Mariner Books, 2014.
Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, and Luciano Floridi. “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society 3, no. 2 (December 2016): 205395171667967. https://doi.org/10.1177/2053951716679679.
O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Reprint edition. New York: Broadway Books, 2017.
Osoba, Osonde A., and William Welser. An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence. Santa Monica, Calif: RAND Corporation, 2017.
Petersen, Steve. “Superintelligence as Superethical.” In Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, edited by Patrick Lin, Keith Abney, and Ryan Jenkins, 1st edition, 322–37. New York, NY: Oxford University Press, 2017.
Piketty, Thomas. Capital in the Twenty-First Century. Cambridge: Belknap, 2014.
Ruggie, John Gerard. Just Business: Multinational Corporations and Human Rights. 1st edition. New York: W. W. Norton & Company, 2013.
Scanlon, T. M. “What Is Morality?” In The Harvard Sampler: Liberal Education for the Twenty-First Century, edited by Jennifer M Shephard, Stephen Michael Kosslyn, and Evelynn Maxine Hammonds. Cambridge, Mass., 2011.
Scharff, Robert C., and Val Dusek, eds. Philosophy of Technology: The Technological Condition: An Anthology. 2nd edition. Malden, MA: Wiley-Blackwell, 2014.
Scheidel, Walter. Great Leveler: Violence and the History of Inequality from the Stone Age to the Twenty-First Century. Princeton, NJ: Princeton University Press, 2017.
Tegmark, Max. Life 3.0: Being Human in the Age of Artificial Intelligence. New York: Knopf, 2017.
Trout, J. D. The Empathy Gap: Building Bridges to the Good Life and the Good Society. New York, N.Y: Viking Adult, 2009.
Turkle, Sherry. Alone Together: Why We Expect More from Technology and Less from Each Other. Expanded, Revised edition. Basic Books, 2017.
Verbeek, Peter-Paul. What Things Do: Philosophical Reflections on Technology, Agency, and Design. Illustrated edition. University Park, Pa: Penn State University Press, 2005.
Wallach, Wendell, and Colin Allen. Moral Machines: Teaching Robots Right from Wrong. 1 edition. Oxford: Oxford University Press, 2010.
Wiener, Norbert. The Human Use Of Human Beings: Cybernetics And Society. Revised edition. New York, N.Y: Da Capo Press, 1988.