e-toplum 30 ARALIK 2013 / 08:06

Katil robotlara karşıtlık artıyor

“Ölümcül Özerk Robotlar” (Lethal Autonomous Robotics) denilen insansız hava araçları, “insan eli” değmeden kendi başına karar verip, yazılımındaki hedefi “bulup” imha ediyor. Afganistan ve Pakistan’da malum güçlere karşı sıkça kullanılan bu “otomatik” ölüm makineleri, hedefi bulup yok etse bile, çevreye de zarar veriyor. Gereksiz ölümlere yol açıyor. Hedefi yanlış saptadığı da oluyor.
Bu tür robotlar görsel çözümlemeyi otomatik yapıyor. Sadece yazılımla hareket eden bu robotlar, M2M iletişimle, başka İHA’larla “konuşuyor.” Bulut bilişim kullanarak, insana gerek kalmadan, ateş açma “kararını” kendisi alıyor. Bunlarda kullanılan yapay zeka, belli bir senaryo uyarınca, belli hedeflere otomatik saldırı yaptırıyor.
Bu uygulamaya, ABD başta olmak üzere çeşitli ülkelerde sivil itiraz kampanyası, sonunda BM Genel Kurulu’na kadar yükseldi. 117 ülke, bu konuda resmi müzakerelere başlama kararı aldı. Bir STK olayından, uluslararası bir platforma dönüşen girişim, savunma sanayiinin, yenilikçiliğin önünü açtığını, ama ortaya nasıl silahlar çıkarttığını tekrar gösterdi.
BM İnsan Hakları Komisyonu’na göre, “ileri yapay zekalı özerk robotların kullanımı dünya çapında yasaklanmalı.” Papa’ya göre, “Önceden programlanmış bir teknik sistem, ölüm-kalım konusunda ahlaki bir hüküm veremez.”
Pakistan ve Afganistan’da ABD’nin bu harekâtını izleyen Araştırmacı Gazeteciler Bürosu’na (Bureau of Investigative Reporters) göre 2004-Kasım 2013 arasında 329’u Obama döneminde, toplam 380 saldırı yapıldı. 3,642 kişi öldü. 951’i sivil, 200’ü çocuktu. 1,556’sı yaralı.
ETİKETLER : Sayı:952
YORUMLAR
Turker Canbazoglu 03 OCAK 2014 / 10:13 0 0
Kendi kendine karar veren diye , insanları katleden bir teknoloji olamaz. Olursa da ortaya ABD'nin uyguladığı garabet oratay çıkar. Bu teknoloji sayesinde Pakistan'da çok sayıda masum sivil vatandaş katledilmiştir. Ondan sonra pardon diyerek işin içinden çıkılamaz. İnsan hayatı bu kadar ucuz olmasa gerek.
Kanımca hiç bir zaman kendi kendine karar veren ve o kararı eyleme geçiren bir teknolojik ürün olamaz, olmamalıdır. Çünkü riskleri çok fazla. Yanılma payları çok fazla.