İnsan denetimi, yapay zeka savaş makineleri için yeterli değil.

İnsanlar, makine sistemlerine ve onların sonuçlarına aşırı güveniyorlar ve gerçek insanları sadece bir ekrandaki nesneler olarak görme riskini artırıyorlar. Yapay zeka (AI) daha güçlü hale geldikçe - hatta savaşta kullanılıyor - hükümetlerin, teknoloji şirketlerinin ve uluslararası kuruluşların bunun güvenli olduğundan emin olmaları için acil bir ihtiyaç var. Ve AI güvenliği konusundaki çoğu anlaşmanın ortak bir teması, teknolojinin insan denetimine ihtiyacı olduğudur. Teoride, insanlar kötüye kullanıma ve olası hallüsinasyonlara (AI'nın yanlış bilgi üretmesi durumu) karşı koruyucu olarak işlev görebilirler. Bu, örneğin teknolojinin ürettiği içeriği (çıktıları) inceleyen bir insanın görevlendirilmesini içerebilir. Ancak, birçok araştırma ve askeri AI kullanımına dair birçok gerçek yaşam örneği göstermektedir ki, insanların bilgisayar sistemleri üzerinde etkili bir kontrol sağlaması fikrine yönelik zorluklar vardır. AI için düzenlemeler oluşturmak için yapılan çabaların çoğu, insan denetimini ve katılımını teşvik eden dil içermektedir. Örneğin, AB'nin AI yasası, biyometrik teknoloji kullanan yüksek riskli AI sistemlerinin - örneğin, retina tarayıcı gibi kişileri otomatik olarak tanımlayan sistemlerin - en az iki insan tarafından ayrı ayrı doğrulanıp onaylanması gerektiğini belirtmektedir ve bu insanlar gerekli yeterliliğe, eğitime ve yetkiye sahip olmalıdır. Askeri alanda, İngiltere hükümeti, Şubat 2024'te AI'nin silah sistemlerindeki önemini kabul ederek parlamentonun AI hakkında bir raporuna verdiği yanıta insan denetiminin önemini vurgulamıştır. Rapor, insanlar için uygun eğitimin sağlanması yoluyla "anlamlı insan kontrolü"nu vurgular. Ayrıca, insan sorumluluğu kavramını vurgular ve örneğin silahlı hava dronlarının eylemleri konusunda karar verme sürecinin makineler üzerine kaydırılamayacağını söyler. Bu prensip bugüne kadar büyük ölçüde korunmuştur. Askeri dronlar şu anda insan operatörler ve komutanlık zinciri tarafından kontrol ediliyor ve bir silahlı uçak tarafından alınan eylemlerden sorumludurlar. Ancak, AI, dronları ve kullandıkları bilgisayar sistemlerini daha yetenekli ve otonom hale getirme potansiyeline sahiptir. Bu, hedef belirleme sistemlerini de içerir. Bu sistemlerde, AI tarafından yönlendirilen yazılım, düşman savaşçılarını seçip kilitleyerek, insana silahlarla bir saldırıya onay vermesine olanak tanır. Henüz yaygın olarak düşünülmese de, Gazze'deki savaşın bu tür teknolojilerin zaten kullanıldığını gösterdiği görünüyor. İsrail-Filistin yayını +972 dergisi, İsrail'in kullanıdığı Lavanta adlı bir sistemden bahsetti. Bu, raporlara göre, coğrafi olarak belirlenen hedeflerin konumunu takip eden bir AI tabanlı hedef önerme sistemidir. 2017 yılında, ABD ordusu, AI'yi silah sistemlerine entegre etmeyi amaçlayan Maven adlı bir proje tasarladı. Yıllar geçtikçe, bu bir hedef belirleme sistemi haline geldi. Raporlara göre, silah platformları için hedef önerme sürecini büyük ölçüde artırdı. AI etiği üzerine akademik çalışmalardan gelen önerilere uygun olarak, hedef belirleme mekanizmalarının çıktılarına insanların gözetimde bulunması, karar verme döngüsünün kritik bir parçası olarak kademe kademe gerçekleştirilmektedir. Bununla birlikte, insanların bilgisayar sistemleriyle nasıl çalıştığı konusundaki psikoloji üzerine yapılan çalışmaların dikkate alınması gereken önemli konuları ele aldığını unutmamak gerekir. 2006 yılında yayınlanan bir akademik makalede, ABD'li akademisyen Mary Cummings, insanların makine sistemlerine ve sonuçlarına aşırı güvenme eğiliminde olduklarını - otomasyon yanlısı olarak adlandırılan bir fenomeni - özetlemiştir.