• Haziran 21, 2023

Gelecekteki robotlara kimin ahlakı programlanacak?

Gelecekteki robotlara kimin ahlakı programlanacak?

Gelecekteki robotlar birçok açıdan bizi şaşırtabilir niteliklere sahip olacak. Bunlar kişisel robotlar ya da otonom arabalar da olsa yapay zeka önemli bir ölçüde hayatımızın karar mekanizmasında yer alacak.

Yapay zekaya ortak bir etik aşılamak mümkün mü gelecekteki robotlar nasıl şekillenecek bilmiyoruz ancak bunun için herkesin robotların davranışları ile ilgili söz sahibi olması ve oy kullanması gerekirdi. Ancak değerler ve ahlak gerçekten çoğunluğun ne istediğiyle mi ilgili yoksa salt bir gerçek bulunabilir mi? Hepimiz ahlaki kararlar alırken kendimize göre değerlendiririz ve yapay zekanın bu doğrultuda davranması pek de mümkün değil gibi görünüyor.

Yaptıklarımız ile ilgili sorumluluk almayı çocuk yaşlardan itibaren öğreniyoruz. Hepimiz kendi değerlerimize göre hareket ediyor ve gerektiğinde onların tüm sonuçlarına göğüs geriyoruz. Dünyayı bu denli dinamik ve canlı kılan da tam olarak bu. Etik üzerine çalışmak da bu yüzden uçsuz bucaksız bir alan sunuyor. Çünkü nerede olursanız olun orada kişi sayısı kadar cevapla karşılaşırsınız. Hatta ve hatta iki filozofa bir problem verirseniz üç cevap alacağınızın söylenmesi de buna güzel bir örnektir.

Etik, oldukça karmaşık ve düzensiz bir disiplindir. Çoğu zaman kafa karıştırıcı ve pek çok soruyu beraberinde getiren bir araştırma alanı. Ancak teknoloji ve yapay zeka dünyası buna kıyasla çok daha sınırlı. Eğer programlama alanı küçük bir çocuk olsaydı çok az sayıda boya kalemi ile satırları düzgün bir şekilde renklendirmeyi başarırdı. Oysa etik bir çocuk olsaydı duvar rengarenk ve saçma sapan karalamalarda dolu olabilirdi. Siz buna fikirlerin dansı da diyebilirsiniz…

Dolayısıyla otomatik robotların cevaplamaları için kimin ahlaki görüşünü tercih edeceğimiz oldukça önemlidir. Kimin cevaplarını seçeceğimizi şimdiden iyi düşünmeliyiz.

…ne yapardın?

Konu ile ilgili elimizdeki en büyük verilerden birisi 2018 yılında yapılan Ahlak Makinesi Deneyi. 233 ülke ve bölgede yapılan ve 40 milyon kanıttan oluşan bu deneyde, popüler tramvay sorusu soruldu. Bu soru karar mekanizmasında yer alıp yalnızca bir kişinin ölmesini sağlamayı mı yoksa pasif halde kalıp birden fazla kişinin ölmesine sebep olmayı mı tercih ettiğinizi soran ünlü bir problem. Ekip, senaryoyu daha da spesifik hale getirdi ve; yaş, cinsiyet, meslek ve sağlık koşulları gibi farklı parametreleri de ekledi.

Cevaplar şaşırtıcı olmayacak şekilde çoğu insanın insanları hayvanlara, birçok insanın da gençleri daha yaşlılara tercih ettiği görüldü. Ayrıca erkeklerdense kadınları, doktorlardansa sporcuları ve fit olmayanlara nazaran sağlıklı görünenleri tercih etme eğilimi de vardı. Bu bulgular yeterince ilginçti ancak çalışma sonucunda üç yazarın da önerdiği şey, etik kararların demokratikleşmesi ve geleceğin robotları için ortak bir temel oluşturulması gerektiğiydi.

gelecekteki robotlar
Değerlerin demokratikleştirilmesi

Değerlerin demokratikleşmesi demek herkes için uygun bir ortak payda bulunması demek. Ancak burada karşımıza iki sorun çıkıyor. Birincisi insanlarda da olduğu gibi niyetlerin eylemlerden çoğunlukla farklı olması, yani aradaki bu çelişkiyi nasıl anlayacağımız büyük bir sorun. Hangimiz spor salonuna bir sene üye olduktan sonra bir süre gidip -en iyi ihtimalle- sonra bırakmadı ki? İşte bazı durumlarda o an gelene kadar ne yapacağımızı bilemeyebiliriz bu nedenle ne söylediğimiz ve ne yaptığımızın aynı olması tamamen bir bilinmezlik olarak karşımızda.

İkincisi ise değerlerin ve etiğin ortak bir noktada buluşulması gereken bir olgu olup olmadığı. Çünkü iyi olan insan kötülerin içinde de iyi olmaya devam edecektir. Yani iyilik bir eylemden ziyade bir içten geliştir diyebiliriz. Birçoğumuz bunu dinlere bağlar, birçoğu etiğe ya da ahlaka bağlayabilir. Ancak bugün çoğumuz doğruya ya da yanlışa karar verirken içimizdeki sesi dinleriz ve çoğunluğun bu konusundaki düşüncesini ilk planda göz ardı ederiz. Yani doğru ve yanlış çoğunluğun belirlediği şey olmayabilir.

Etik bir yapay zeka oluşturmak

Yukarıda da bahsettiğimiz üzere tramvay problemi gibi sorularda verilen bireysel yanıtların etik konusunda bir belirleyici olması çok mümkün değil. Çünkü bu cevaplar oldukça özel ve etik bununla ilgili değil. Etik seçimler, karşılaştığımız durumları ölçebilmek için değerleri ve genel ilkelere bağlıdır. Günlük kararları yönlendirmek içinse yine kurallara ihtiyacımız var.

Makinelerin hayatımıza daha çok entegre olmasıyla birlikte yapay zekanın ortaya çıkarttığı birçok felsefi sorun göze çarpıyor. Bu da onların ilerleyen zamanlarda

daha fazla etik kararlarla karşı karşıya kalacağının bir göstergesi. Eğer herhangi bir gün birçok seçim yapmak zorunda kalıyorsanız bunlar kendi değerleriniz doğrultusunda yaptığınız ve size özel seçimler olacaktır. Otobüste yaşlılara yer verir misiniz? Yoksa siz gün boyunca onlardan daha fazla mı yorulduğunuzu düşünüyorsunuz? İşte burada seçim ve etik tamamen sizinle ilgili.

Mükemmel ahlaklı vatandaş yoktur ve doğru ve yanlış söz konusu olduğunda neredeyse her şey gri alandadır. Tüm bunların ortak paydasında nasıl mı buluşacağız? Ya da gelecekteki robotlar ve yapay zekanın etiği kime göre programlanacak? Bunlar hala büyük bir soru işareti ancak belki de onlar kendi ahlaki değerlerini kendileri belirleyecek ve cesur yeni dünya için bir başlangıç olacak, ne dersiniz?