İnsan Hakları ve Yapay Zekâ: Acilen Gerekli Bir Gündem

Mathias Risse / Çeviri: Selçuk Alev

Bu
yazı, Harvard Kennedy School, Carr Center for Human Rights Policy için 2018
yılında yazılmış bildiridir.

Giriş

Yapay zekâ insan
hakları için zorluklar doğurur. İnsan haklarının arkasındaki ana fikir insan
yaşamının dokunulmazlığıdır, bu daha az himayeye değer öteki yaşam formlarına
insanoğlunun hiyerarşik bir üstünlüğünü temel olarak alan üstü örtülü bir
varsayımdır. Bu temel varsayımlar, bilindik şekilde canlı olmayan ama yine de
duyarlı, önsezileri güçlü, aklen ve belki de eninde sonunda manevi açıdan ve
ahlaken insandan üstün oluşumların, varlıkların beklenen ortaya çıkışları
üzerinden sorgulanmaktadır. Elbette bu senaryo hiçbir zaman gerçekleşmeyebilir,
ne olursa olsun şimdiki anlayışımızın dışında ve geleceğin bir parçası olarak
durmaktadır. Ancak, yine de bu sorunu acilen gündeme almamız gerekir. Teknolojinin
insan haklarının diğer alanlarına oluşturduğu tehditler zaten ortadadır. Benim
burada amacım, bu zorlukları kısa, orta ve uzun vadeli perspektiflere ayırıp
incelemektir.[1]

Yapay Zekâ ve İnsan
Hakları

Yapay zekâ, bir fikri,
bir öneriyi ya da hep birlikte üzerinde düşünülüp taşınılan kararları
algoritmalara çevirmek için gelişen ve artan bir eğilimi yansıtarak, gitgide
daha çok hayatımızda olmaktadır. “Zekâ” sözcüğü ile gelecekle ilgili
öngörülerde bulunma ve karmaşık işleri çözme yeteneğini, becerisini
kastediyorum. “Yapay” zekâ, YZ, ev işleri desteğinden, cinsel eşlikçilikten
polisliğe, zabıta hizmetlerine ve hatta savaş haline kadar çeşitli görevler,
işler üstlenebilecek akıllı telefonlar, tabletler, dizüstü bilgisayarları,
insansız hava araçları, sürücüsüz taşıtlar ya da robotlarda makinelerin
gösterdiği yetenek ve beceridir.

Algoritmalar,
gereksindikleri verilere gerekli hızda erişim sağladıkları sürece, kodlanabilen
her şeyi yapabilirler ve belirlenmiş bu gibi görevlerin yerine getirilmesine
olanak veren bir plan çerçevesine katılmış olurlar. Bütün bu alanlarda gelişme
müthiş olmuştur. Algoritmaların etkililiği “Big Data / Büyük Veri” üzerinden
giderek geliştirilmektedir: Bu; örnekleri, modelleri saptayarak bundan sonra ne
olacağı konusunda olayı kavramak ve sonuç çıkarmak için “özdevimli öğrenme/
yapay zekâ ile öğrenme” olarak bilinen belirli bir tür Yapay Zekâ’ya olanak
sağlayan, dünyadaki tüm insan etkinlikleri ve diğer süreçlerle ilgili muazzam miktardaki
verinin elde edilebilirliği ve kullanılabilirliğidir. İnsan önyargısı,
yanlılığı algoritmalarda sürdürülse bile, nerede test ederseniz edin,
algoritmalar insanlardan daha iyisini yapar: İnsanlar tarafından tasarlanan her
sistem, insan önyargısını, yanlılığını yansıtır, algoritmalar da geçmişi
yakalayan ve yansıtan verilere dayanır ve bu nedenle, bunu önlemeyi
başaramazsak, statükoyu otomatik hale getirmiş olurlar.[2]
Fakat algoritmalar istikrarlıdır: İnsanların tersine, aynı problemle iki kez
karşılaştıklarında aynı karara varırlar.[3]

Felsefeciler için en
çarpıcı olanı, çok çok fazla şeyin gerçeklikten bu kadar kopmuş göründüğü Yapay
Zekâ bağlamındaki birçok felsefi tartışmanın tekrar tekrar ortaya çıkmasıdır.
Vagon ikilemi problemini[i] ele alalım. Bu problem,
yoldan çıkmış bir vagonun, ne yaptıklarına bağlı olarak, öldürmesi muhtemel
birkaç kişinin bulunması ihtimalini de kapsayan tercih ve seçimlerle bireyleri
karşı karşıya getirip yüzleştirerek, görev temelli etik / deontoloji’ye karşı
sonuç odaklı etik / sonuççuluk ile ilgili önsezileri didikler.

Bu kararlar sadece
kimin öleceğini değil, aynı zamanda etkilenmemiş olanların diğerlerini
kurtarmaya yardımcı olup olmayacaklarını da belirler. Pek çok yüksekokul
öğretmeni bu örnekleri kullanmıştır, fakat bu, öğrencilerin, bu örnekleri,
konuyla ilgisini sorgulamasına sebep olmuştur, çünkü kimsenin gerçek hayat
seçimleri asla bu kadar spesifik olmayacaktır. Ancak (daha yeni ilk ölümlü
kazaya yol açan) sürücüsüz taşıtları programlama gereği oluştuğunda, halkın bu
konulara yeniden ilgisi ve konunun ivediliği ortaya çıktı.

Diğer bir yandan,
felsefeciler aklın doğası üzerine uzun süre kafa patlatmışlar, onu çözmeye
çalışmışlardır. Sorulardan biri aklın beyinden fazlası olup olmadığıdır. Başka
her ne olursa olsun, beyin de karmaşık, kompleks bir algoritmadır. Fakat beyin
böylelikle tam olarak tanımlanmış oluyor mu, yoksa bizi belirgin kılan, farklı
kılan şeyi, yani bilinci, atlıyor mu, yok mu sayıyor? Bilinç bir kimse ya da
bir şey olmanın niteliksel deneyimidir, o kimse ya da şeyin
“o-olmanın-ne-olduğunun-bilinmek”liğidir, denebilir. Akıl beyinden daha fazlası
değilse, o zaman Büyük Veri çağındaki algoritmalar çok yakında neredeyse
yaptığımız her şeyde bizden üstün olacaktır demektir: Hangi kitaptan
hoşlandığımız ya da bundan sonra hangi tatile gideceğimizle ilgili her zaman
daha doğru öngörülerde bulunurlar; bizden daha güvenli araba sürerler; beynimiz
alarm vermeden önce sağlığımızla ilgili tahminler yaparlar; hangi işleri kabul
etmek, nerede yaşamak, ne tür evcil hayvan edinmek, ebeveyn olmamız akla uygun
mu değil mi; şu anda beraber olduğumuz kişiyle kalmaya devam etmek akıllıca mı,
değil mi gibi konularda sağlam tavsiyeler, fikirler önerirler; bütün bunlar
“uygun bir şekilde bizim gibi” insanlardan toplanan olağanüstü çok sayıda büyük
verilere dayanır. Daha önce ne sipariş ettiğimizi ya da neleri tıkladığımızı
değerlendirerek tercihlerimizi karşılamaya yönelen internet reklamları, gelecek
olanın gölgeleridir.

Akıl sadece karmaşık
bir algoritma ise, o zaman er geç insanların sahip olduğu aynı ahlaki statüyü
belirli makinelere vermekten başka çaremiz kalmayabilir. Hayvanların
manevi/ahlaki statüleri ile ilgili sorular, insanlar ile diğer türler
arasındaki çok sayıda mantıksal bağdan, devamlılıktan kaynaklanır:
Manevi/ahlaki özellikler yönünden onları bizden ne kadar az farklı olarak görebilirsek,
Sue Donaldson ve Will Kymlicka’nın Zoopolis’inde[4]
olduğu gibi paylaşılmış bir yaşamda onlara o kadar fazla yol arkadaşlarımız
olarak davranmamız gerekir. Böyle bir akıl yürütme er geç makinelere de
taşınır. Makinelerin, şu an itibariyle, kapama düğmeleri olması dikkatimizi
dağıtmamalı. Gelecekteki makineler artık kolayca kapatmaya izin vermeyecek bir
şekilde oluşturulabilir ve öyle bir ağ tabanına sahip olabilir. Daha önemlisi,
sevgi ve bağlılık ifadesi olan duygular, davranışlar gösterebilirler, hatta
kapatılma endişesi taşıyarak bu konuda bir şey yapma isteklisi bile
olabilirler. Ya da gelecekteki makineler insan ve robot karışımı sibernetik
organizmalar olan, kısmen organik parçalardan oluşmuş sayborglar olabilir ve insanların
organları, iyileştirme, güçlendirme için organik olmayan parçalarla modifiye
edilebilir. İnsanlar ve insan olmayanlar arasındaki net ayrımlar aşınabilir.
Tam da bugünlerde insan embriyolarını depolayabilmemiz gibi, dijitalleştirilmiş
bir beyni bilgisayara yüklemek ve hafızaya almak mümkün olduğunda, bireylik ile
ilgili düşünceler pekâlâ değişebilir.

Hatta bu olmadan önce bile,
yeni nesiller makinelerle birlikte yeni çözümlerle büyüyecektir. Dizüstü
bilgisayarlar artık iyi çalışamaz duruma geldiğinde onları kırıp dökme
huzursuzluğumuz olmayabilecek. Ama eğer, makinesinin-öğrenme kapasitesi
anne-babamızın yaptıklarının çok ötesinde yollarla bize mukayyet olmaya olanak
veren bir robot dadı ile büyürsek; robotlara karşı farklı bir tavır ve tutum
içine girebiliriz. Beklenenden daha önce 2007’de, Amerikalı bir albay robotik
bir kara- mayını-tarama tatbikatını iptal etmiş, neden olarak da robotlardan
birinin bacaklarını teker teker kaybettikten sonra sürünerek ilerlemeye devam
etmesini insanlık dışı bir operasyon olarak nitelemişti.[5]
“Westworld” ya da “The Good Place” adlı bilim kurgu dizileri, etrafımızın
makinelerle sarılmasının neye benzediğini ancak onları kesip açarak
anlayabileceğimizi öngörür. Hanson Robotics tarafından geliştirilen,
görüşmelere, röportajlara katılabilme yeteneğine sahip Sophia adlı insansı
robot 2017 Ekim’inde Suudi Arabistan vatandaşı oldu. Daha sonra, Sophia, UNDP –
Birleşmiş Milletler Kalkınma Programı’nın ilk İnovasyon Şampiyonu olarak
adlandırılıp BM unvanlı yine ilk insan-olmayan figür haline geldi.[6]
Gelecekte bunlar tarihsel anlar olarak anılabilir. Evcil hayvan dünyası da çok
gerilerde değil. Geçenlerde Jeff Bezos, SpotMini adında, kapıları açabilen,
kendini toparlayabilen, bulaşık makinesini bile çalıştırabilen, birçok iş
yapabilen robotik bir köpek sahibi oldu. Ve eğer Bezos evde kalıp Amazon’dan
alışveriş yapıyor ya da başkanlık tweetleriyle oyalanıyorsa, SpotMini dışarıya
çıkma gereğini hiç duymuyor.

Eğer sahiden akıl
beyinden fazlasıysa, insansı robotlar dâhil YZ ile baş etmek daha kolay olurdu.
Bilinç ve belki de ona refakat eden bir vicdan sahipliği o zaman bizi ayrı
tutar ve bir tarafa koyar, koyabilirdi. Niteliksel deneyimin ve böylelikle
bilincin nasıl anlamlandırılacağı gerçekten askıda duran, sonuca bağlanmamış
bir sorundur. Fakat bilinçle ilgili düşünceler, değerlendirmeler Yapay Zekâ
sistemlerinin ahlaki temsilciler olduğu görüşüyle çelişse bile, bu sistemlerin,
mülkiyet hakkı, cinayet işleme ve yasal olarak uygulanabilir yollarla sorumlu
tutulma gibi hallerde yasal aktör olmalarını imkânsız kılmayacakları
anlaşılmaktadır. Ne de olsa, “şirketlere” bilinçsiz bir şekilde bu yollarla
muamele etme geçmişimiz vardır.

Şirketlerin sorumluluğu
ve onlarla ilgili insanların sorumluluğunu ayırmakta muazzam zorluklar varken,
zeki makinelere ilişkin benzer sorunlar da aynen ortaya çıkacaktır.

Saf Zekânın Ahlakı

Bir diğer uzun geçmişi
olan ve burada yeni yeni ilgi alanı kazanan sorun da rasyonalite ile ahlak
arasındaki bağlantıdır. Bu sorun biz saf zekânın ahlakını merak ettiğimizde
ortaya çıkar. “Teknolojik Tekillik” terimi makineler zekâda insanları geçtiği,
geride bıraktığı ana gönderme yapar. O zamandan bu yana insanlar kendilerinden
daha akıllı bir şey yaratmayı başarmışlardır ve bu yeni tip beyin de
“kendisinden” daha akıllı bir şey pekâlâ üretebilir hale gelmiştir ve bu böyle,
muhtemelen çok hızlı bir şekilde devam edecektir. Bunun ne kadar süre devam
edebileceğine ilişkin sınırlar olacaktır. Fakat bilgisayarların hesaplama gücü son on yıllarda çok çabuk arttığına göre, hangi süper
zekânın bu limitlere kadar işlem yapabileceği bizim şu anda kavrayabileceğimizin
ötesindedir. Teknolojik tekillik ve süper-zekâ, YZ tartışmalarında bazı
katılımcıları adamakıllı çalıştırırken, başkaları da daha baskılayıcı sorunlara
nazaran bunu konu dışı bularak onlara yol vermektedir. Doğrusu, hiçbir zaman
teknolojik tekillik durumu olmayabilir ya da onlarca veya yüzlerce yıl
geçebilir. Yine de son on yılda gerçekleşen yoğun teknolojik gelişmeler bu
konuları gündemimize yerleştirmektedir.[7]

Bu durumda
felsefecilerin aklına gelen, David Hume ile Immanuel Kant arasındaki, rasyonalitenin
değerlerimizi belirleyip belirlemediği ile ilgili tartışmadır. Hume, bilindiği
gibi, aklın değerleri belirlemek için hiçbir şey yapmadığını düşünüyordu: Akıl
ile, rasyonalite ile ya da zekâ ile donatılmış bir varlığın (bunların uygun bir
şekilde benzer olduğunu varsayalım) özellikle insanlara karşı her türlü hedefi,
her türlü davranış çeşitliliği olabilir. Eğer öyleyse, bir süper-zekânın (ya da
o konu için herhangi bir YZ’nin, ancak sorun bir süper-zekâ için çok
sıkıntılıdır) bizi şaşkına çevirecek kadar absürt olabilecekler dâhil, hemen
hemen her türden değere bağlılığı olabilir (absürde örnek olarak edebiyatta ara
sıra sözü edilen, evrendeki kâğıt kıskacı sayısını maksimuma çıkarmak gibi).
Peki, biz nasıl bileceğiz bu gibi düşüncelerin saptırıldığını, gerçekten
saptırılıyorsa, böyle bir süper-zekânın büyük ölçekte bizden daha akıllı ve
böylece özellikle bizden “farklı” olma şartı ve taahhüdü ile olacağı göz önüne
alındığında?

Buna karşıt olarak,
ahlakın rasyonaliteden kaynaklandığını, türediğini söyleyen Kantçı görüş
vardır. Kant’ın Kategorik İmperatif’i (Koşulsuz Buyruk) tüm rasyonel
varlıkların kendi kapasitelerini ve bir başka rasyonel varlığın kapasitelerini
hiçbir zaman tamamen ve sadece araçsal bir şekilde kullanmamalarını ister.
Özellikle hariç tutulanlar diğer rasyonel varlıklara karşı yersiz ve
karşılıksız şiddet ve diğer rasyonel varlıkları aldatma, kandırmadır (ki bunlar
Kant’a göre her zaman çok fazla tam ve katışıksız araçsallaştırma
örnekleridir). Kategorik İmperatif ile ilgili farklı bir düşünme tarzı bizim
her zaman bir genelleme testini geçecek şekilde davranmamızı gerektirir.
Belirli bazı eylemler izin verilemez durumuna getirilecektir, çünkü herkes
yaptığında, engellenemez, durdurulamaz olacaktır, çalmak ve yalan söylemek gibi…
Herkes çaldığında mal mülk sahibi olunmayacak ve herkes yalan söyleme hakkını
saklı tuttuğunda da iletişim olmayacaktır. Kant türetiminin ana noktası
herhangi bir zeki varlığın öteki zeki varlıkları çiğneyerek, kendisiyle
çelişkiye düşecek olmasıdır. Çünkü kabaca söylemek gerekirse, daha ilk başta
herhangi bir şeye herhangi bir değer veren sadece bizim rasyonel seçimimizdir
ve bu şu anlama gelir ki, herhangi bir şeye değer biçerek biz kapasitemize,
değer biçsin diye, değer biçmeye kendimizi adarız. Fakat kendi çıkarlarımızın
peşinde diğer rasyonel varlıkları kırıp dökme, onların değer biçme
kapasitelerini kırıp döker ki bunlar, ilgili bir biçimde, iyeliklerini kendi
içimizde değerlendirmemiz gereken aynı kapasitelerdir. Eğer Kant haklıysa,
süper-zekâ ahlaki davranış için doğru rol-model olabilir. İnsan doğasını
değiştiremeyeceğimize göre ve eğer insan doğası yargılarında ve değerlere
bağlılığında yoğun ölçüde dar görüşlü ise, Taş Devri kafalı, küçük-grup-odaklı
DNA’ya sahip insanlar küresel bir bağlamda çalışırken açılan farkı Yapay Zekâ
kapayabilir.[8]

Eğer bu tartışma gibi
bir şey işe yarayacak olsaydı –kuşkular vardır– 
süper-zekâ için endişe edecek, kaygılanacak hiçbir şey olmazdı.
Muhtemelen, çok daha akıllı makinelerin olduğu bir çağda bu tip tartışmaların
mütevazı ve sıradan insanlar için koruma sağlayacağı konusunda “yeteri kadar”
rasyonel olurduk. Fakat çağdaş standartlardaki bir sürü felsefeci Kantçı görüşe
karşı çıkmış ve aleyhinde olmuşsa, o zaman konu halledilmiş olmaktan uzaktır.
Süper-zekânın bakış açısından bu konuların neye benzeyeceğini bilmiyoruz.

Eğer değer tek başına
rasyonaliteden türetilemiyorsa bile, tabii ki bir çeşit ahlak iş başındaki
süper-zekâya uygun, onun içim elverişli olabilir. Bir de ayrıca, kendini
korumayı hedefleyen insanlara ve paylaşılmış otoritenin olmadığı bir doğal
durumda belirli özellikleriyle karakterize edilen insanlara ne olacağını
öngörmeye çalışan Hobbes-destekçisi yaklaşım vardır.

Hobbes, bu bireylerin
sadece salim kafayla düşünerek paylaşılmış değerler doğrultusunda hareket
etmeyecek olsalar bile -ki Kantçı bir görüntüde ederlerdi, paylaşılmış bir
otorite olmadan hayatın iğrençliğini, berbatlığını çarçabuk yaşayacaklardı diye
iddia eder. Rezil ve aşağılık olmaktan uzak bir şekilde, bireyler olarak
birbirlerine karşı yer almaya ve çatışmaya kendilerini peşinen, beklenti içinde
mecbur hissedeceklerdi. Zaten, kendilerini yardıma istekli ve hazır görseler ve
karşı taraf hakkında olumlu düşünseler, onları haklı kabul etseler bile, karşı
tarafın aynı şekilde düşüneceğinden emin olamayacaklar ve böylelikle ne kadarın
tehlikede olduğuna bakarak ilk çatışan olmanın zorunluluğunu hissedeceklerdi.
Tek bir süper-zekâ olmadıkça ya da tüm süper-zekâlar bir şekilde birbirine
bağlanmadıkça, belki de böyle bir akıl yürütme bu makineler için de geçerli
olacak ve onlar da bir çeşit paylaşılmış otoriteye tâbi olacaklardı. Sonra da
Hobbes’un doğal durum tanımı süper-zekâların birbirlerine karşı orijinal
durumlarını betimleyecekti. Böyle bir paylaşılmış otoritenin insanlar için
yarar sağlayıp sağlamayacağı belli değildir.[9]

Değerlere yerinde
tepkilerle ilgili T.M. Scanlon’un düşünceleri belki yardım edebilir.[10]
Etrafta ne gözlemlediğine göre uygunsuz tarzlara, hareketlere tepki vermek
açısından süper-zekâ “ahlaki” olabilir. İnsan beyninin yeteneklerinin gerçekten
şaşkınlık verici olduğunu ve insanlarda tartışmaya açık bir şekilde saygı
duyulması gereken kapasiteler oluşturduğunu düşünürsek, o zaman belki
insanlardan ve makinelerden oluşmuş karışık bir toplumda korunmayı sağlama ve
hatta özgürlüğe kavuşma düzeyini yakalama şansımız olabilir.[11]
Hayvanların kapasiteleri de böyledir, ancak bu normal olarak insanların onlara
karşı ya da çevreye karşı uygun ve saygılı bir biçimde tepki vermesine yol
açmamıştır. Biz, aydınlanmacı insan-merkezciliği gibi bir şey sergilemek
yerine, çok sıklıkla doğayı araçsallaştırmış bulunuyoruz. Umarız bir süper-zekâ
bu gibi konularda bizden daha iyisini yapar ve bu insan yaşamı farklı bir
şekilde korunacaktır anlamına gelir, çünkü o saygıya layıktır. Bunu elbette bilemiyoruz
ama kötümser olmamıza da gerek yoktur.

İnsan Hakları ve Değer
Uyumu Sorunu

Tüm bu konular, ne
zaman kapımıza geleceğini hatta hiç gelip gelmeyeceğini bilmediğimiz yarınların
bir parçasının içindedir. Fakat insan hakları bakış açısından bu senaryolar
önemlidir çünkü binlerce yıl boyunca inşa ettiğimiz sosyal dünyayı yeni tip
varlıklarla paylaşmaya alışmamız gerekiyor. Öteki varlıklar şimdiye kadar
hiçbir zaman uzunca bir süre yolumuzu kapatmamış, bize engel olmamış ve umutla
bekledikleri en fazla evcil hayvanlar, çiftlik hayvanları, hayvanat bahçesinde sergilenme
gibi sembiyotik (ortakyaşar) düzenlemeler olmuştur. Bütün bunlar, bireysel
bazda korunmayı hak eder görünen, öteki türlere bahşetmeye pek de istekli
olmadığımız, özel olarak insan yaşamı ile ilgili düşüncelere dayalı İHEB’e
neden sahip olduğumuzu açıklar. Felsefi yönden ben şahsen bireysel hak ve yetki
sahipliği formunu elde eden insanlara, dolayısıyla öteki hayvanlara ve çevreye
hemen hemen her şey yapılabilir demeden, özel olarak himaye sağlamanın
gerekçeli ve haklı olduğunu düşünüyorum. Ama zeki makineler için her şey baştan
aşağı çok farklı olurdu. Hayvanları kontrolümüz altında tutarız çünkü ikinci
derecede rol oynayacakları bir çevre yaratırız. Ancak bunu Yapay Zekâ için
yapamayabiliriz. İnsan haklarını ihlal edecek kadar akıllı ve güçlü olsalar
bile, o insan haklarına saygı duyacak bir şekilde dizayn edilmek zorunda
kalacaklardır. Aynı zamanda kendilerinin de uygun bir koruma ile donatılmaları
gerekecektir. Er ya da geç, İHEB’in bunlardan bazılarına uygulanmak zorunda
kalması olanaksız değildir.[12]

Bu gelişmelerin iyi bir
başlangıç yapmalarını sağlama almak için acelemiz var. Geçerli olan zorluk
“değer sorunu”dur, saf zekânın ahlakının ne olduğunun git gide önem
kazanmasından çok önce ortaya çıkan bir zorluk… Yapay zekâ sistemleri ne kadar
kusursuz üretilmiş olursa olsun, onların değerlerinin, bir süper-zekânın
bizimkilerden çok farklı değer bağlılıklarının olabileceği olgusundan
kaynaklanan karmaşıklığı mümkün olduğunca ihtimal dışı kılmak için,
bizimkilerle uyumlu hale getirildiğine emin olmamız gerekir. İnsan haklarını iş
kararlarına entegre etmek üzere oluşturan BM İş ve İnsan Hakları Kılavuz
İlkeleri’nce de işaret edilen değer sorununu şimdi ele almalıyız. Bu ilkeler
Yapay Zekâ için geçerlidir ve YZ’ye uygulanır. Yani şu sorular yöneltilebilir:
“En sert olası etkileri nelerdir?”, “En hassas gruplar kimlerdir?” ve “Çareye,
çözüme erişimi nasıl sağlayabiliriz?”[13]

YZ topluluğunda değer
uyumu sorunu, Isaac Asimov’un, 2058’de basılmış (metinde aynen böyle) bir el
kitabındanmış gibi oradan alıntılanan ünlü Üç Robot Yasası’nı formüle ettiği,
1942 tarihli “Döngü” (ya da Kovalama) (Runaround) adlı kısa öyküsünden beri
bilinmektedir: 1. Robotlar insanlara zarar veremez ya da eylemsiz kalarak zarar
gelmesine göz yumamaz. 2. Robotlar, Birinci Yasa ile çelişmediği sürece
insanlar tarafından verilen emirlere itaat etmek zorundadır. 3. Robotlar,
Birinci ya da İkinci Yasa ile çelişmediği sürece kendi varlıklarını korumak
zorundadır.

Bununla birlikte, bu
yasalar uzun süredir çok belirsiz olarak kabul edilmektedir. Şimdiye dek BM İş
ve İnsan Hakları İlkeleri’yle ya da İnsan hakları hareketinin herhangi bir
bölümüyle hiçbir bağlantı olmadan, yenileriyle değiştirmek için muhtelif
çabalar olmuştur. Diğer çabalar arasında, MIT çevresinde kurulmuş, Cambridge, Massachusetts’teki
Gelecek Yaşam Enstitüsü’nden (Future of Life Institute) fizikçi Max Tegmart ve
Skype kurucu ortağı Jaan Tallinn’in 2017 yılında California’daki Asilomar
Konferans Merkezi’nde Yararlı YZ üzerine düzenlediği ve YZ’nin sonraki
gelişmelerine yol gösteren ilkelerin ele alındığı konferans vardır. Sonuçta, belirlenen
23 Asilomar İlkesi’nden 13’ü Ahlak ve Değerler başlığı altında listelenmiştir.
Öteki konuların arasında, YZ nerede zarara neden olmuşsa niye öyle olduğunun
araştırılabilir olması ve nerede bir YZ sistemi adli bir karara karışmışsa,
akıl yürütmesinin insan denetçiler tarafından doğrulanabilir ve kanıtlanabilir
olması bağlamında, bu ilkelerin ısrarcı olması vardır. Özdevimsel öğrenme
uygulayan YZ o kadar hızlı düşünebilir, sonuca varabilir ve böyle bir veri
dizisine erişebilir ki, analizleri şaşarsa saptamayı imkânsız kılarak kararları
gittikçe artan oranda mantıksız, anlaşılmaz olur gibi kaygılara bu tür ilkeler
karşılık verir. İlkeler “yüksek otonom düzeye sahip yapay zekâ sistemleri,
amaçları ve davranışları, işlevleri süresince insani değerlerle uyumlu olacak
şekilde güvence altına alınarak tasarlanmalıdır” (10. ilke) düşüncesini zorlayarak
değer uyumu konusunda da diretirler. Düşünceler 11. ilkede (İnsan Değerleri)
açık bir şekilde görülür: “İnsan onuru, haklar, özgürlükler, kültürel farklılıklar”
insan değerlerine dâhildir.[14]

İnsan haklarında ısrar
etmek, belirli birtakım felsefi tartışmaların çözülmüş olmasını ön gerektirir:
Haklar şeklinde evrensel değerler vardır ve biz hangi haklar olduğunu kabaca
biliriz. Asilomar İlkeleri’nin açıklık getirdiği gibi, YZ topluluğu içinde
insan haklarının güvenilir yollarla tesis edilmiş olduğuna inananlar vardır.
Fakat diğerleri bu ilkeleri ahlaki emperyalizm olarak algıladıklarından onlardan
kaçınmayı tercih ederler. Onlar değer uyumu sorununun farklı bir şekilde,
örneğin kitle kaynak kullanımı yoluyla dünyanın her tarafından bilgi girişi
çekmeyi YZ’ye öğreterek çözülmesi gerektiğini düşünürler. Öyleyse bu, bir
felsefe sorununun yeni bir geçerlilik kazandığı başka bir durumdur: Felsefi
olarak tercih ettiğimiz meta-etik anlayışımız, insan hakları ilkelerini YZ
tasarımına katmakta rahat olup olmadığımızla ilgili yargılamaya başlamalıdır.[15]

İnsan haklarının, dünya
genelinde çok sayıda insan hakları yerelleşme biçiminin gerçekleşmiş olması
gibi bir avantajı da vardır. Bu haklar için küresel destek oldukça büyüktür. Ve
yinelersek, BM iş ve İnsan Hakları Kılavuz İlkeleri elimizdedir. Fakat Çin’in
önde gelen YZ üreticilerinden biri olacağına ve değer uyumu sorununu insan
hakları isteklisi bir ruhla çözmeye pek de yatkın olmayacağına emin olabiliriz.
Ama bu, sorunun insan hakları çözümü paralelinde gelişmesi çabalarının başka
bir yerde suya düşmesini gerektirmez. Belki, zamanı geldiğinde, insanlarla en
iyi nasıl uyum sağlanır sorusuyla ilgili olarak YZ sistemleri fikir
alışverişinde bulunabilir. Eğer insanlar, değer uyumu sorununa aynı çözümü
geliştirerek, birleşmiş bir şekilde YZ tasarımını ele alırlarsa, bu yardımcı
olabilir. Lakin insan hakları ile ilgili küçük düşürücü, aleyhte konuşan
kimseler olmaya devam ettiğine göre, az ümit var demektir.

Gelecek, insan hakları
topluluğu olmadan gelmesin diye, her olayda olması gereken, insan hakları
toplulukları ile YZ toplulukları arasında daha çok etkileşimin bulunmasıdır (YZ
topluluğu olmadan böyle bir şeyin meydana gelme riski yoktur). Bu yöndeki
önemli bir adım, Uluslararası Af Örgütü’nün insan hakları davalarını takipte YZ
araçlarından geniş çaplı faydalanma kararıdır. Bu girişim Genel Sekreter Salil
Shetty tarafından başlatılmış olup proje lideri Sherif Elsayed-Ali’dir. Bu
aşamada Af Örgütü, insan hakları araştırma-soruşturmalarında yapay zekâ ile
öğrenmenin yararları konusunda kılavuzluk etmekte, aynı zamanda özellikle polis
faaliyetleri, ceza yargılaması, temel ekonomik ve sosyal hizmetlere erişim gibi
konularla ilgili olarak bu öğrenimin kapsamı dâhilindeki ayrımcılık
potansiyeline odaklanmaktadır. Af Örgütü, daha genel olarak, çalışma hakkı ve
geçimi de içeren otomasyon/ makineleşmenin toplum üzerindeki etkisi konusunda
da kaygı duymaktadır. İnsan hakları hareketi ile bu gelişmenin arkasındaki
mühendisler arasında, ideal olarak iki tarafa da yarayan, daha çok bağlantı
olmalıdır.

Yapay Aptallık ve
Şirketlerin Gücü

Düzgün ve doğru bir
şekilde geliştirilmeleri gereği olsa bile, geleceğin akıllı makinelerinden daha
acil sorunlar vardır. İHEB’deki insan haklarından her biri bir şekilde,
teknolojiden etkilenir. Eğer sağlık hizmetlerinden tutun da sigortacılığa,
şartlı tahliye kararlarına kadar uzanan alanlarda kullanılan algoritmalar,
makine öğrenimleri ırkçılıktan ve cinsiyetçilikten yararlanarak bilgi çektiği
için, ırkçı ve cinsiyetçi iseler, ayrımcılık karşıtlığı ve mücadelesi tehdit
ediliyor demektir. Konuşma ve ifade özgürlüğü ve bireylerin seçme kararını
vereceği herhangi bir özgürlük, hiç olmamış ya da farklı kişilerce
gerçekleştirilmiş terör eylemleri dâhil hemen hemen herkesin her şeyi yaparak
rol aldığı düzmece video üretimini de içererek bizi girdaba çeken uydurma
haberler seliyle dinamitlenmektedir.

Siyasi katılım,
internet ve sosyal medyaya daha çok dayalı oldukça, onlar da, çevrimiçi
tartışmalara katılan, her zamankinden daha karmaşık ve çokbilmiş internet
robotlarını kullanma ihtimalinden, karışıklık çıkarmak için oy sayımında ya da
kamu yönetiminde ya da kamu hizmet kuruluşlarında kullanılan araçlarda
(hacking) hekleme / bilgisayar korsanlığına kadar, teknolojik gelişmeler
tarafından daha çok tehdit edilirler. Nerede YZ varsa orada YA vardır, yapay
aptallık
. YA, hepimizin çok fazla alışık olduğu zırvalardan/saçmalıklardan
çok daha kötü olabilir: Rakiplerin gösterdiği çabalar YZ sayesinde elde edilen
kazanımları sadece baltalamakla kalmaz, onları karşıtlarına da çevirir.
Seçimlerdeki Rus manipülasyonu bir uyarı alarmıdır; muhtemelen çok daha kötüsü
gelecektir. Eğer YZ yeterli şeffaflıkta ve insanların seçim denetim olanakları
olmadan kullanılırsa yargısal haklar tehdit altında olabilir. Bir YZ sistemi
Avrupa İnsan Hakları Mahkemesi’ndeki yüzlerce davanın sonuçları hakkında
öngörülerde bulunmuş, mahkeme kararlarını %79 doğruluk payı ile tahmin
etmiştir; bu doğruluk payı yükseldikçe YZ’yi karar vermek için kullanmak cazip
hale gelecektir. YZ’nin mahkeme işlerine kullanımı fakirlere yasal danışma ve
tavsiye için erişim oluşturulmasına yardımcı olabilir (Af Örgütü’nün, özellikle
Hindistan’da, peşinde olduğu projelerden biri); yalnız algoritmalar anlaşılmaz
ve esrarengiz tavsiyeler verirse, Kafkaesk bir durum da ortaya çıkabilir.[16]

Güvensizlik ve gizlilik
/ özel yaşam ile ilgili her türlü hak, sadece dronlar ve robot askerler
tarafından değil, insanların etkinliklerinin ve orada bulunmalarının elektronik
olarak kaydedildiği bir dünyada bireylerin giderek artan okunabilirliği ve
izlenebilirliği üzerinden de baltalanmaktadır. İnsanlar hakkında eldeki ve elde
edilebilir verilerin miktarı, özellikle biyometrik (kişiye özgü fiziksel veya
davranışsal karakterin ölçümü) sensörler insan sağlığını izleyebildiğinde,
büyük ihtimalle sınırsız bir şekilde artacaktır (Bizi duşta muayene edebilir ve
verileri iletebilirler, bu bizim kendi iyiliğimize olabilir, çünkü hastalık
problem haline gelmeden çok önce teşhis edilebilir). Bu verilerin düpedüz
mevcudiyetinden ve pekâlâ özel mülkiyete, ama başkalarına da, ait
olabileceğinden kaynaklanarak vatandaşlık ve siyasi haklara yöneltilen
çağrılar, itirazlar, sataşmalar olacaktır. YZ sektörünün önde gelen şirketleri
petrol şirketlerinin daha önce ve şimdi olduklarından çok daha güçlüdür ve
galiba bu yükselişlerinin henüz başlangıcıdır.

Geçmişte, karmaşık
toplumlarda statü, önce toprak sahipliği, Sanayi Devrimi’nden sonra da fabrika
sahipliği tarafından belirlenirdi. Daha sonra gelen yüksek derecede eşitlikçi
yapılar çok kimse için pek başarılı olmadı. Eşit olmayan şekilde verilere sahip
olmak da toplumdaki birçok kişi için zararlı sonuçlar doğuracaktır. Apple,
Alphabet, Facebook, Tesla gibi şirketlerin gücü kamu yararı ile
ilişkilendirilmezse, kendimizi en sonunda, Margaret Atwood’un Antilop ve Flurya
(Oryx and Crake), David Foster Wallace’ın Sonsuz Şaka (Infinite Jest)
kitaplarında tasvir edildiği gibi, şirketlerin boyunduruğu altına girmiş bir
dünyada bulabiliriz. Cambridge – Analytica skandalı[ii]
burada bir uyarı alarmıdır ve Mark Zuckerberg’in 10 Nisan 2018’de ABD
senatörlerine verdiği ifade, iş modelleri pazarlama verilerine dayanan internet
şirketlerinin çalışmaları hakkında kıdemli kanun yapıcı meclis üyelerinin
şaşırtıcı boyutlara varan cehaletini ortaya çıkarmıştır. Böylesi bir cehalet,
şirketlerin güce doğru yolunu açar. Ya da ilgili bir noktayı şöyle irdeleyelim:
Hükümetlerin, siber güvenlik konusunda yardım için özel sektöre ihtiyacı var.
Bu işle ilgili uzmanlar akıllı, iyi kazanıyor ama çoğu, hükümetle asla çalışmak
istemiyor. Sadece, hükümetin bu konuda aşırı zorlandığını farz ederek onlarla
işbirliği yapmanın mümkün olacağını umabiliriz. Eğer bu çabalar başarısız
olursa, yalnızca şirketler en yüksek düzeyde siber güvenlik sağlayacaklardır.

Büyük Kopukluk:
Teknoloji ve Eşitsizlik

Bu beni son konu
başlığıma; “YZ ve Eşitsizlik”e ve o konuyla insan hakları arasındaki bağlantıya
getiriyor. Öncelikle, Thomas Piketty’nin, barış zamanı kendi haline bırakılmış
kapitalizmin giderek artan ekonomik eşitsizlik meydana getirdiğini öne süren
uyarısına kulak vermeli ve önemsemeliyiz. Ekonomiye sahip olanlar, orada sadece
çalışanlardan daha fazla yarar sağlarlar. Zamanla, yaşam fırsatları doğum
sırasındaki sosyal statüye her zamankinden daha çok dayalı olacaktır.[17]
Biz aynı zamanda, gerek teknoloji üretenlerin, gerekse etkisini büyük göstermek
için teknolojiyi nasıl kullanacağını bilenlerin daha yüksek ücretleri hak
edebildiğini giderek daha çok görmekteyiz. YZ, bir taraftan ötekine, tüm
kesimlerde liderlerin etkilerini büyük göstermelerini git gide kolaylaştırarak,
bu eğilimleri sadece pekiştirmiş olacaktır. Bu, sırayla YZ üreticilerini
devamlı olarak yüksek fiyatlı teknoloji sağlayıcıları haline getirir. Çok yakın
geçmişte, Walter Scheidel’den öğrendik ki, tarih boyunca eşitsizlikte kayda değer
azalmalar sadece salgın hastalıklar, sosyal çöküntüler, tabii afetler ya da
savaş gibi felaketlere karşılık olarak gerçekleşmiştir. Yoksa değişim için
etkin siyasi iradeyi toplamak zordur.[18]

19. yüzyıl
İngiltere’sinde İlk Luddite (teknoloji karşıtı işçi grupları) Hareketi
taraftarları, işleri için kaygılandıklarından dokuma tezgâhlarını kırıp dökerek
paramparça ettiler. Ancak, şimdiye kadar her teknolojik yenilik dalgası, tahrip
ettiğinden daha çok iş yaratmasıyla sonuçlanmış, teknolojik değişim herkes için
iyi olmazken, bir bütün olarak toplum ve insanlık için iyi olmuştur. Mümkündür
ki, geliştiren, gözetip denetleyen ya da yenilikçi bir şekilde teknolojiyi
kullanan işler gibi yeri doldurulamayacak yaratıcı işkolu ve meslekler de o
kadar çok olacaktır ki er ya da geç, işlerini YZ’ye kaptıranları sayıca
geçecektir. Fakat bu umuda tutunmaya devam etmek safça olur çünkü bu, insanları
rekabetçi yapmak için eğitim sisteminin kökten değişimini ön gerektirir. Bundan
farklı olarak, işler paylaşılabilsin diye daha kısa çalışma saatleri gibi iş
yaratma kombinasyonları düşünülebilir, fakat o zaman da düzgün ve iyi geçim
için daha yüksek ücretler söz konusu olacaktır. Ama öyle ya da böyle, Avrupa
ülkeleri için, ABD için olandan daha çok umutlu olabiliriz; teknoloji ve eğitim
arasındaki yarışta bu kadar fazla insanın geride kaldığı, evrensel sağlık
hizmetlerinin bile tartışmalı ve çekişmeli olmaya devam ettiği, ulusal düzeyde
dayanışmanın böylesine kötü bir şekilde kemikleştiği o ABD için…[19]
Üretim ve ucuz işgücünde mukayeseli bir üstünlüğe sahip, gelişmekte olan
ülkelerin bütün bunlarda nasıl yol alacağı ve başarılı olacağı kimsenin
bilmediği noktalardır.

Bu arka plandan önce,
YZ’nin toplumlarla arasına, teknolojik olarak genişleyen, milyonlarca kişiyi
dışarıda bırakan, piyasa katılımcıları olarak onları ihtiyaç dışı kılan ve
böylece siyasi toplumdaki üyeliklerinin anlamını pekâlâ zayıflatabilen bir set
çekeceği için endişe etmemiz gerekir. Zenginliğin toprak mülkiyeti ile
belirlendiği zamanlarda zenginlerin geri kalanlara ihtiyacı vardı, çünkü toprak
mülkiyetinin amacı kira ödetmekti. Zenginliğin fabrika sahipliği ile
belirlendiği zamanlarda ise fabrika sahiplerinin geri kalanlara makineleri
çalıştırmaları ve mal satın almaları için ihtiyacı vardı. Fakat teknolojik
uçurumun kaybedenler tarafında olanlara artık hiç ihtiyaç olmayabilir. F. Scott
Fitzgerald 1926 tarihli “Zengin Çocuk” adlı kısa hikâyesinde çok bilinen şu
satırları yazdı: “Size çok zenginleri anlatayım. Onlar sizden ve benden
farklıdır.” YZ bu sözü çarpıcı bir şekilde doğrulayabilir.

Eninde sonunda, Güney
Afrika Apartheid / Irk Ayrımı’ndaki gibi, Bantustanlar (Bantu kökenli zenci
Afrikalıların yaşadığı kabile bölgeleri) görebilir ya da belki daha büyük
ihtimalle, ötekilerin dışlandığı harika sosyal hizmetler sunan şirketlere ait
ayrı işletmelerin ortaya çıkışına şahit olabiliriz. Belki, hemen doğrudan isyan
etmesinler diye ötekilere ucu ucuna, ancak yetebilen bir şeyler verilecektir.
Katılımcı olarak gerekenden çok daha fazla insan varsa, toplumun dokusu her
anlamda çözülebilir. Dünya onlara düzgün ve kabul edilebilir yaşamlar
sunabilecek kadar zengin olsa bile, siyasi irade bunu yerine getirmek için
orada ayrıcalıklılar arasında olmayabilir, eğer ayrıcalıklı yaşamların şiddet
içeren parçalanmalar, yarılmalar gibi korkuları olmadan devam etmelerine olanak
veren yollar varsa, evet, olmayabilir. İnsan hakları açısından bunları tümü
gerçekten kötü haberdir. Bunun gibi senaryolar, insan yaşamında algoritmaların
sürekli artan mevcudiyeti gibi daha acil ve hazır sorunlara oranla, gelecekte
daha uzaktır, fakat herhalde gelecekte bir süper-zekânın gelmesi gibi bu da o
kadar uzak değildir. Muhtemelen, İHEB’in önümüzdeki 70 yılı içinde, giderek
artan eşitsizliklerden kaynaklanan zorluklar gelip çatacaktır.

ABD, YZ dâhil küresel
teknolojinin dağıtım merkezidir, fakat gerçekte, tüm nüfusun YZ’den
yararlanması için sürdürülen çabalara yardımcı olacak ülke çapındaki dayanışma
konusunda, diyelim ki, Avrupalı uluslardan çok daha az pratiğe sahiptir.
ABD’deki sosyal hareketlilik dehşet verecek derecede düşüktür. Araştırmalar,
hukuk, muhasebecilik, tıp gibi geleneksel olarak güvenli meslekler dâhil tüm
işlerin %50’ye varan oranda otomasyona şimdi duyarlı olduğunu göstermektedir.[20]
Ya da Aşırı Yoksulluk ve İnsan Hakları üzerine BM Özel Sözcüsü Philip Alston’un
2017 yılındaki ABD’ye resmi ziyaretinde söylediği gibi:

Otomasyon ve
robotlaşma, daha şimdiden, çok sayıda orta-yaşlı işçinin bir zamanlar güvende
olduklarına inandıkları işlerinden çıkarılmalarına ve işsiz kalmalarına neden
olmaktadır. 21. yüzyılın ekonomisinde nüfusun yalnızca çok küçük bir yüzdesi
kendi kontrolleri dışındaki şanssızlıklar sonucu yoksulluğa düşme ihtimalinden
muaftır.[21]

Sadece yaygın bir
şekilde paylaşılabiliyorsa, teknolojik değişimle birlikte ilerlememiz
gerektiğini sık sık duyarız.[22]
Az önce söz edildiği gibi, eşitsizliğe karşı köklü önlemler yalnızca
derinlemesine sıkıntılı zamanlara, başka türlü yaşamak istemeyeceğimiz zamanlara
rastlar. Son on yıllarda eşitsizlikteki artışlar kadar hırsı, kindarlığı ve son
derece yüksek normal empati eksikliğinin canlı örneği olan bir adamın seçilmesi
de, zenginliğin, bolluğun ABD’de yayılması için gösterilen her türlü çabanın
adına, konferanslarda ve siyasi olaylarda kulağa ne kadar hoş geldiğine bakmaksızın,
pek hayra alamet değildir.

Eşitsizlikteki bu
artışlar için, insan hakları üzerindeki etkileri nedeniyle de endişe
duymalıyız. Neyin tehlikede olduğunu abartmak zordur. Marx, “Yahudi Sorunu
Üzerine” adlı çalışmasında tamamen haklar açısından düşünülen, tasarlanan
özgürleşmenin sevimsiz olduğuna işaret ederken, haklıydı. Hak-temelli idealler
üzerine inşa edilmiş bir toplum çok fazla fırsat kaçırır, haklarını kaybeder.
Son 70 yıl boyunca, insan hakları hareketi, insan haklarının parçası olması
gereken daha büyük bir konuyu vurgulamayı sıkça ihmal etmiştir: “Yerel ve
küresel,  dağıtıcı adalet.” YZ,
Aydınlanma’nın tüm mirasını en sonunda tehlikeye atabilir, çünkü bireysellik
aslında Büyük Veri ve makine öğrenimi çağında giderek artan bir kuşatma
altındadır. Aynısını şu nedenle de yapabilir; burada tehdit edilen şey, aynı
zamanda, sanayileşme ile başlatılan ve geliştirilen teknolojik olanaklar ve
fışkıran Aydınlanma ruhu sayesinde imkân kazanan dağıtıcı ve sosyal adalet
üzerine modern düşüncede yansıtılan ve bir bütün olarak toplumu ilgilendiren
bir tür sorun olduğuna göre de, yapabilir. Daha moral yükseltici bir yerde
bitirmek isterdim ve aslında “çok geç“ olduğunu da düşünmüyorum. Fakat olasıdır
ki giderek artan eşitsizlik, yeteri kadar insan bunların bugünün ‘şiddetle
acil’ konuları arasına dâhil edildiğini görmedikçe, YZ ile kombinasyon halinde
İHEB’in önündeki 70 yılda başının derdi olacaktır.

Son Notlar:


[1] Yapay
Zekâ ile ilgili giriş niteliğinde tartışmalar için, bkz. Frankish and Ramsey, The
Cambridge Handbook of Artificial Intelligence
; Kaplan, Artificial
Intelligence
; Boden, AI. Teknoloji felsefesi üzerine, burada tartışılacak
olanların ötesinde bir arka plan için, bkz. Kaplan, Readings in the
Philosophy of Technology
; Scharff and Dusek, Philosophy of Technology;
Ihde, Philosophy of Technology; Verbeek, What Things Do. Ayrıca bkz.
Jasanoff, The Ethics of Invention. Özellikle felsefe ve yapay zekâ
konusunda, bkz. Carter, Minds and Computers.

İnsanlar ve makineler arasındaki ilişkinin nasıl evrimleştiğine
dair erken bir tartışma için bkz. Wiener, The Human Use of Human Beings.
Bu kitap ilk olarak 1950’de yayınlandı.

[2] Bkz.
2017 yılı Daniel Kahneman konuşması: https://www.youtube.com/watch?v=z1N96In7GUc.
 Konu hakkında, ayrıca bkz. Julia Angwin,
“Machine Bias.” Makine öğrenmesinde tarafsızlık hakkında, ayrıca bkz. Binns,
“Fairness in Machine Learning: Lessons from Political Philosophy”; Mittelstadt
et al., “The Ethics of Algorithms”; Osoba and Welser, An Intelligence in Our
Image

[3] Büyük
Veri hakkında, bkz. Mayer-Schönberger and Cukier, Big Data. Makine
öğrenmesi hakkında, bkz. Domingos, The Master Algorithm. Algoritmaların
haksız, açgözlü ve başka türlü sapkın şekillerde nasıl kullanılabileceği
hakkında, bkz. O’Neil, Weapons of Math Destruction. Bu algoritmalar
birçok yararlı şey yapabilmelerinin yanı sıra elbette sosyal bilimin,
bireylerin ve toplumların yaşamlarını iyileştirme potansiyelinin büyük kısmının
da arkasındadır, bkz. Trout, The Empathy Gap

[4] Donaldson and Kymlicka, Zoopolis.

[5] Wallach and Allen, Moral Machines, 55.

[6] https://en.wikipedia.org/wiki/Sophia_(robot)

[7] Chalmers, “The Singularity: A Philosophical Analysis”;
Bostrom, Superintelligence; Eden et al., Singularity Hypotheses.

[8] Petersen, “Superintelligence as Superethical”; Chalmers,
“The Singularity: A Philosophical Analysis.” Ayrıca bkz. 2017 yılındaki Daniel
Kahneman konuşması: https://www.youtube.com/watch?v=z1N96In7GUc

[9] Hobbes
hakkındaki görüş için bkz. 2016 yılındaki Peter
Railton konuşması:

[10] Scanlon, “What Is Morality?”

[11]Ne tür karma toplumların benzer olabileceği ile ilgili
spekülasyonlar için, bkz. Tegmark, Life 3.0, chapter 5.

[12] Margaret Boden, makinelerin asla ahlaki ve dolayısıyla sorumlu
ajanlar olamayacağını savunuyor; ayrıca, robot/makine hayat arkadaşları veya
hastabakıcılarla desteklenmenin insan onuruna karşı olduğunu düşünüyor. Bkz.
https://www.youtube.com/watch?v=KVp33Dwe7qA (Teknolojinin insan etkileşimi
üzerindeki etkisi için, ayrıca bkz. Turkle, Alone Together.). Diğerleri,
bazı YZ türlerinin ahlaki haklara sahip olduğunu ya da birtakım ahlaki
değerlendirmeleri hak ettiğini iddia eder; konuyla ilgili Matthew Liao ve Eric
Schwitzgebel’in görüşleri için, bkz. https://www.youtube.com/watch?v=X-uFetzOrsg

[13] Ruggie, Just Business.

[14] https://futureoflife.org/ai-principles/ Değer uyumu hakkında ayrıca bkz. https://futureoflife.org/2017/02/03/align-artificial-intelligence-with-human-values/

[15] Makinelerin gerçekte nasıl değer elde edebileceği hakkında
bkz. Bostrom, Superintelligence, bölüm 12-13; Wallach and Allen, Moral
Machines
.

[16] http://www.bbc.com/news/technology-37727387

[17] Piketty, Capital in the Twenty-First Century.

[18] Scheidel, Great Leveler.

[19] Goldin and Katz, the Race between Education and
Technology
.

[20] https://rightsinfo.org/rise-artificial-intelligence-threat-human-rights/

[21] http://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=22533&LangID=E

Teknolojik bölünme için bkz.
https://www.politico.com/agenda/story/2018/02/07/technology-interview-mit-david-autor-000629
Ayrıca bkz. http://harvardpolitics.com/world/automation/ YZ ve işin geleceği
hakkında, ayrıca bkz. Brynjolfsson and McAfee, The Second Machine Age;
Kaplan, Humans Need Not Apply.

[22] Örneğin, bu etkinlikte: http://futureofwork.mit.edu/


[i]
Vagon açmazı ya da vagon ikilemi olarak bilinen paradoks. Detaylı bilgi için
bkz. https://qisep.wordpress.com/2017/06/12/vagon-cikmazina-dair/

[ii] Facebook–Cambridge Analytica veri
ihlali, Cambridge Analytica’nın 2014 yılında toplamaya başladığı, yaklaşık 50
milyon Facebook kullanıcısının kişisel olarak tanımlanabilir bilgilerinin
toplandığı bir veri ihlalidir. Daha fazla bilgi için: https://webrazzi.com/2018/03/22/cambridge-analytica-hikayesi-facebook-ve-buyuk-veri/  

Kaynakça:

Binns,
Reuben. “Fairness in Machine Learning: Lessons from Political Philosophy.”
Proceedings of Machine Learning Research 81 (2018): 1–11.

Boden,
Margaret A. AI: Its Nature and Future. 1 edition. Oxford, United Kingdom:
Oxford University Press, 2016.

Bostrom,
Nick. Superintelligence: Paths, Dangers, Strategies. Reprint edition. Oxford,
United Kingdom; New York, NY: Oxford University Press, 2016.

Brynjolfsson,
Erik, and Andrew McAfee. The Second Machine Age: Work, Progress, and Prosperity
in a Time of Brilliant Technologies. 1st edition. New York London: W. W. Norton
& Company, 2016.

Carter,
Matt. Minds and Computers: An Introduction to the Philosophy of Artificial
Intelligence. 1st edition. Edinburgh: Edinburgh University Press, 2007.

Chalmers,
David J. “The Singularity: A Philosophical Analysis.” Journal of Consciousness
Studies 17, no. 9–10 (2010): 7–65.

Domingos,
Pedro. The Master Algorithm: How the Quest for the Ultimate Learning Machine
Will Remake Our World. Reprint edition. Basic Books, 2018.

Donaldson,
Sue, and Will Kymlicka. Zoopolis: A Political Theory of Animal Rights. 1
edition. Oxford ; New York: Oxford University Press, 2013.

Eden, Amnon
H., James H. Moor, Johnny H. Soraker, and Eric Steinhart, eds. Singularity
Hypotheses: A Scientific and Philosophical Assessment. 2012 edition. New York:
Springer, 2013.

Frankish,
Keith, and William M. Ramsey, eds. The Cambridge Handbook of Artificial
Intelligence. Cambridge, UK: Cambridge University Press, 2014.

Goldin,
Claudia, and Lawrence Katz. The Race Between Education and Technology.
Cambridge, Mass.: Belknap, 2008.

Ihde, Don.
Philosophy of Technology: An Introduction. 1st edition. New York: Paragon
House, 1998.

Jasanoff,
Sheila. The Ethics of Invention: Technology and the Human Future. New York: W.
W. Norton & Company, 2016.

Julia
Angwin, Jeff Larson. “Machine Bias.” Text/html. ProPublica, May 23, 2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Kaplan,
David M., ed. Readings in the Philosophy of Technology. 2nd edition. Lanham:
Rowman & Littlefield Publishers, 2009.

Kaplan,
Jerry. Artificial Intelligence: What Everyone Needs to Know. 1st edition. New
York, NY, United States of America: Oxford University Press, 2016.

Kaplan,
Jerry, Humans Need Not Apply: A Guide to Wealth and Work in the Age of
Artificial Intelligence. Reprint edition. New Haven: Yale University Press,
2016.

Mayer-Schönberger,
Viktor, and Kenneth Cukier. Big Data: A Revolution That Will Transform How We
Live, Work, and Think. Reprint edition. Boston: Eamon Dolan/Mariner Books,
2014.

Mittelstadt,
Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, and Luciano
Floridi. “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society
3, no. 2 (December 2016): 205395171667967.
https://doi.org/10.1177/2053951716679679.

O’Neil,
Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and
Threatens Democracy. Reprint edition. New York: Broadway Books, 2017.

Osoba,
Osonde A., and William Welser. An Intelligence in Our Image: The Risks of Bias
and Errors in Artificial Intelligence. Santa Monica, Calif: RAND Corporation,
2017.

Petersen,
Steve. “Superintelligence as Superethical.” In Robot Ethics 2.0: From
Autonomous Cars to Artificial Intelligence, edited by Patrick Lin, Keith Abney,
and Ryan Jenkins, 1st edition, 322–37. New York, NY: Oxford University Press,
2017.

Piketty,
Thomas. Capital in the Twenty-First Century. Cambridge: Belknap, 2014.

Ruggie, John
Gerard. Just Business: Multinational Corporations and Human Rights. 1st
edition. New York: W. W. Norton & Company, 2013.

Scanlon, T.
M. “What Is Morality?” In The Harvard Sampler: Liberal Education for the
Twenty-First Century, edited by Jennifer M Shephard, Stephen Michael Kosslyn,
and Evelynn Maxine Hammonds. Cambridge, Mass., 2011.

Scharff,
Robert C., and Val Dusek, eds. Philosophy of Technology: The Technological
Condition: An Anthology. 2nd edition. Malden, MA: Wiley-Blackwell, 2014.

Scheidel,
Walter. Great Leveler: Violence and the History of Inequality from the Stone
Age to the Twenty-First Century. Princeton, NJ: Princeton University Press,
2017.

Tegmark,
Max. Life 3.0: Being Human in the Age of Artificial Intelligence. New York:
Knopf, 2017.

Trout, J. D.
The Empathy Gap: Building Bridges to the Good Life and the Good Society. New
York, N.Y: Viking Adult, 2009.

Turkle,
Sherry. Alone Together: Why We Expect More from Technology and Less from Each
Other. Expanded, Revised edition. Basic Books, 2017.

Verbeek,
Peter-Paul. What Things Do: Philosophical Reflections on Technology, Agency,
and Design. Illustrated edition. University Park, Pa: Penn State University
Press, 2005.

Wallach,
Wendell, and Colin Allen. Moral Machines: Teaching Robots Right from Wrong. 1
edition. Oxford: Oxford University Press, 2010.

Wiener,
Norbert. The Human Use Of Human Beings: Cybernetics And Society. Revised
edition. New York, N.Y: Da Capo Press, 1988.