Artık Bilim Kurgu Değil
Katil Robotlar Cepheye Hazır
Yapay zeka ile düşmanlarını tanıyan robotlar kimi ülkeler tarafından üretilmeye başlandı bile. Amaç çatışmalarda insan kaybını önlemek, maliyeti düşürmek ve daha etkili askeri operasyonlar gerçekleştirmek. İnsan tarafından yönlendiren katil drone’ların aksine, otonom olma özelliğine sahip katil robotların kimi hedef alacaklarına kendileri karar verecek. Bu robotlar insan müdahalesi olmadan görevlerini yerine getirebilecek. Katil robotlar barut ve nükleer silahın bulunmasından sonra savaş teknikleri açısından üçüncü devrim olarak görülüyor.
Bilim dünyasından önemli isimler katil robotların insanlık için büyük bir tehdit oluşturduğu ve bunun yapay zeka üzerinden silahlanma yarışına yol açabileceği görüşünde. Katil robot yapımına karşı çıkan bazı sivil toplum kuruluşları kampanya başlattı. Uluslararası Robot Silahların Kontrol Altına Alınması adlı komite söz konusu robotların kullanımını düzenleyen bir anlaşma yapılmasını talep ediyor.
Silah taşıyan insan hava araçları uzun süredir kullanımda. Buna küçük çaplı drone’lar da eklendi. Geçtiğimiz aylarda Venezuela Devlet Başkanı Nicolas Maduro’ya bir törende konuşma sırasında bomba yüklü drone ile saldırı düzenlenmişti. Söz konusu saldırı birçok alanda kullanılan bu insansız araçların yeni nesil terör aracı olup olmadığına yönelik soru işaretlerini de beraberinde getirdi. Terör uzmanlarının 2014 yılından beri olası saldırı araçları arasında yer verdiği dronelar, özellikle dünya genelinde düzenlediği terör saldırılarıyla tepki toplayan Irak Şam Islam-i Devleti (İŞİD) tarafından el bombası atma ile gözetim ve keşiflerde etkili bir şekilde kullanılıyor.Örgütün ayrıca Irak’ta ve Suriye’de 100 dolar ile bin dolar arasında değişen fiyatlara satılan bu yeni nesil teknoloji aracının geliştirilmesi için yoğun çaba sarf ettiği biliniyor.
Terör örgütleri tarafından kötüye kullanılması konusunda endişe taşıyan bazı Birleşmiş Milletler (BM) üyesi ülkeler, ulaşılması oldukça kolay ve ucuz olan bu araçların ithalat ve pazarlamasına özel bir düzenleme getirilmesini istiyor. Rusya Ocak 2018’de Suriye’de askerlerini konuşlandırdığı bölgelerde on tane drone’nun saldırısına uğradığını açıklamıştı.
Kamuoyunda “katil robotlar” olarak bilinen otonom silahların teknolojik altyapısında önemli ilerlemeler kaydedildi. Gelinen noktada otonom silahların öldürme kararını hangi hukuki kriterlere ve etik ölçütlere göre vereceği tartışılıyor. Diğer yandan da Birleşmiş Milletler öldürme özelliğine sahip olan otonom silahların yasaklanmasını gündemde tutmaya devam ediyor. “Katil askeri robotlara” öldürme izni verilmesi durumunda bunun bir felaket senaryosunun hayata geçirilmesi anlamına geleceğine dikkat çeken Uluslararası Af Örgütü ise BM’den bu teknolojinin yasaklamasını istiyor.
Af Örgütü’nün yapay zeka ve insan hakları danışmanı Rasha Abdul Rahim bu kapsamda yaptığı uyarıda, “Katil robotlar artık bilim kurguların bir parçası değil. Yapay zekayla çalışan dronelardan kendi hedeflerini seçebilen otomatik silahlara varıncaya kadar ortaya çıkan bütün teknolojik gelişmeler uluslararası hukuku geride bıraktı.” ifadelerini kullandı...
Uluslararası Kızılhaç Komitesi “otonom silah sistemlerini” hedefini özerk olarak arayan ve kendi başına belirlediği hedefe saldırıp tahrip edebilen sistemler olarak tanımlıyor. Buradaki “özerklik” ifadesi söz konusu öldürücü sistemin insan müdahalesi olmadan işlemesi anlamına geliyor. İşte tam bu noktada etik alan ile teknolojik alan arasında devasa bir açmaz ortaya çıkıyor. Zira şu sorunun yanıtı henüz tam olarak verilemiyor: “Otonom silahlar eğer düşmanı yok etmek yerine sivilleri öldürürse ne olacak?”
Robotlara “insan hakları çipi” mi takılacak?
Bu sorunun yanıtı kolayca verilemiyor. Zira robotların “uluslararası sözleşmeler çipi”, “devletler arası hukuk çipi” ya da “insan hakları çipi” bulunmadığı gibi, bu alana ait verileri yazılıma dayalı bir algoritmayla ve “makine öğrenmesi” süreçleriyle söz konusu silah sistemlerine edindirmenin bir yolu olup olmadığı da henüz bilinmiyor.
Yapay zeka ve robotik kodlamada kaydedilen olağan üstü gelişmeler sayesinde otonom silah sistemlerine dikkate değer oranda özerklik yeteneği kazandırıldı. Öğrenebilen makineler tıpkı insan beynindeki nöronlar arası iletişim ağına benzer bir alt yapıyla kendi deneyimlerini analiz ederek, nöral ağ algoritması tabanında taktik ve strateji geliştirebiliyor.
Asıl tehlike hangi sistemden kaynaklanıyor?
Silah sanayisinin halihazırdaki otonom silah altyapısından istifade ederek daha hızlı ve etkin sistemler geliştirmesi sayesinde askerlerin savaş durumunda karşı karşıya kaldığı ölümcül riskler en aza indirgenmiş oluyor. Pek çok ülkenin ordusu da bu hedefe bir an önce varılmasını bekliyor. Hukuk ve etik uzmanları da zaten kendi başına mayın araması yapıp tahrip eden robotları değil, bilakis hedefini kendi başına tespit ederek insan öldürebilecek kabiliyete sahip robotları hedef alıyor.
Birleşmiş Milletler, otonom silahlar konusunu 2014 yılından bu yana düzenli olarak görüşüyor. “Belirli Konvansiyonel Silahlar Sözleşmesi” (CCV) kapsamında yürütülen görüşmelere 75 ülkenin temsilcileri haricinde bilim insanları ve sivil toplum kuruluşu temsilcileri katılıyor. “
Ölümcül Otonom Silah Sistemleri” bu yıl da gündemin başlıca maddesi olarak öne çıkıyor. Şimdilik senaristlerin filmlerde işlediği “katil drone” konusunun yakın gelecekte gündemin ana maddelerinden biri olması bekleniyor.
Dünya üçe bölündü, İsrail önden yürüyor
Öte yandan özerk silah teknolojilerinin dünyayı üç ayrı cepheye böldüğünü de hatırlatmak gerekiyor. Bazı kesimler bu silahların her türüne karşı çıkarken, diğer kesimdekiler otonom silahları sorgusuz sualsiz onaylıyor. Bir de Almanya ve Fransa başta gelmek üzere “orta yolu tercih eden” ülkeler bulunuyor.
Amerika Birleşik Devletleri, Rusya, İsrail ve İngiltere özerk silahların yasaklanmasına kesin bir dille karşı çıkıyor. Örneğin son dönemde Gazze’deki protestoculara göz yaşartıcı gaz atmak için yarı otonom dronelar kullanan Israil de dahil olmak üzere bazı ülkeler şimdiden yapay zeka destekli silah sistemlerini kullanıyor. Bu ülkeler aynı zamanda yapay zekanın askeri amaçlar doğrultusunda kullanılmasına büyük kaynak ayıran ülkelerin başında yer alıyor.
Hangi ülkeler otonom silahlara karşı çıkıyor?
Dünya genelinde 26 ülke ve 230 uluslararası kuruluş otonom silahlara karşı çıkarken, ABD merkezli Future of Life Enstitüsü tarafından başlatılan kampanyaya destek veren ünlülerin sayısı üç bini geçti.
Aralarında Tesla’nın kurucusu Musk, Skype kurucu ortağı Tallinn ve yapay zeka araştırmacısı Stuart Russell gibi ünlü isimlerin yer aldığı binlerce teknoloji öncüsü, ölümcül otonom
silahların kullanılmasına ve geliştirilmesine karşı uyarıda bulundu