Son raporlar, İsrail’in Filistin’e hava saldırıları düzenlemek için AI kullanıyor olabileceğini öne sürüyor. İsrail, hedefleri seçerken yapay zekayı kullanan ilk ülke haline geldiğinden, bu, yapay zekanın savaş ve askeri operasyonlarda nasıl kullanılması gerektiğine dair birkaç soruyu gündeme getiriyor.

Savaşta her şeyin mübah olduğunu söyleyen bir atasözü vardır. Eminiz ki, bu atasözü ilk kez kullanıldığında, bu dizeye atfedilen İngiliz şair John Lyly, yapay zeka kavramını hayal bile edemezdi. Ancak, özellikle savaşmayan siviller söz konusu olduğunda, bir bilgisayarın insanlara karşı bir dizi talimat vermesi gerçekten adil mi? İşte o zaman işler zorlaşmaya başlar.

Raporlara göre İsrail ordusu, artan gerilimin ortasında, hava saldırıları için hedeflerin belirlenmesini hızlandırmak ve işgal altındaki Filistin topraklarında sonraki operasyonlar için lojistik planlamayı yürütmek için yapay zekayı (AI) kullanıyor.

Hedef Seçimi İçin Yapay Zekayı Kullanma
Bloomberg, İsrail askeri yetkililerinin belirttiği gibi, İsrail’in AI tabanlı hedefleme sisteminin hem insanlı hava araçları hem de insansız hava araçları için binlerce hedefi önceliklendirmek ve atamak için büyük hacimli verileri hızlı bir şekilde işleyebileceğini bildirdi. Ek olarak, İsrail Savunma Kuvvetleri (IDF), mühimmat yüklerinin hesaplanması ve her bir saldırı için program önerilmesi de dahil olmak üzere savaş zamanı lojistiğinin düzenlenmesine yardımcı olan Fire Factory adlı başka bir yapay zeka programı kullanıyor.

İlgili Makaleler

Modern

Modern Savaş: ABD, askeri operasyonlarda AI’nın sorumlu kullanımına ilişkin beyanı yayınladı

Modern

Savaşta AI: Hollanda ve Güney Kore, AI’nın askeri alanda ‘sorumlu’ kullanımı çağrısında bulunan ilk zirveye ev sahipliği yaptı

Bu açıklama, son haftalarda Batı Kudüs’ün işgal altındaki Batı Şeria’ya düzenlediği ve “odaklı bir terörle mücadele operasyonu” olarak nitelendirilen hava saldırılarındaki artışın ardından geldi. 8 Mayıs’ta Filistin kıyı bölgesi Gazze’ye düzenlenen hava saldırısı en az 15 kişinin ölümüyle sonuçlandı. Ayrıca IDF, baş düşmanı İran ile gerilimi daha da tırmandırarak Suriye’deki yerleri hedef almaya devam etti.

Bloomberg’e göre, IDF tarafından kullanılan AI sistemleri, her hava saldırısı ve baskın planını doğrulamak ve yetkilendirmek için hala insan operatörlere güveniyor. AI teknolojisi, işleme için gereken süreyi önemli ölçüde azaltmış olsa da, bir IDF albayı, insan doğrulamasının birkaç dakika daha sürdüğünü belirtti. AI kullanımı, ordunun aynı sayıda personelle daha fazlasını başarmasına olanak tanır.

AI halüsinasyonları ve hataları ne olacak?
Ancak uzmanlar, yapay zeka hatalarının potansiyel sonuçları ve teknoloji ilerledikçe insanların karar verme sürecine katılımını azaltma olasılığıyla ilgili endişelerini dile getirdi.

Kudüs İbrani Üniversitesi’nde hukuk profesörü ve eski askeri danışman olan Tal Mimran, bir AI yanlış hesaplaması meydana gelirse ve AI’nın karar verme süreci açıklanamaz durumda kalırsa hesap verebilirlik hakkında sorular sordu. Tüm aileye zarar verebilecek yıkıcı hataların potansiyelini vurguladı.

Özetle, IDF’nin yapay zeka sistemleri hedefleme ve planlama sürecini kolaylaştırsa da uzmanlar, yapay zeka hatalarıyla ilişkili riskler ve gelecekte insan gözetimini azaltma potansiyeli konusunda uyarıda bulunuyor.

Savaş Etiği ve Yapay Zeka
Hangi AI uzmanıyla konuşursanız konuşun, bilim adamları ve AI geliştiricileri arasındaki genel fikir birliği, AI’nın insan uygarlığını yok etme potansiyeline sahip olduğudur. Bazı ülkelerin savaşta yapay zekayı kullanma konusunda konuşmalarının birçok nedeninden biri de budur.

Şubat ayında, Hollanda ve Güney Kore, yapay zekanın savaş askeri operasyonlarında sorumlu bir şekilde kullanılması çağrısında bulunan bir zirveye ev sahipliği yaptı. Bugün itibariyle, küresel liderler, kullanımıyla ilgili herhangi bir kısıtlamayı kabul etmekte tereddüt ettiler, aksi takdirde dezavantajlı duruma düşebilirler.

ABD de ülkeleri, özellikle de müttefiklerini savaşta AI kullanma doktrinlerini kabul etmeye çok hevesli. ABD doktrinine göre, AI’nın savaş ve askeri operasyonlardaki kullanımı, nükleer silahların güvenliğini, sorumlu sistem tasarımını, insan eğitimini ve askeri AI yetenekleri için denetim tekniklerini ve mali denetimi kapsayan AI kullanımıyla sınırlandırılabilir ve sınırlandırılmalıdır.

Hem ABD doktrini hem de Hollanda ve Güney Kore’nin ev sahipliği yaptığı çok uluslu zirve, AI’nın hedefleri belirlemek ve daha da önemlisi AI’nın hedefleri gerçekleştirmesini ve ortadan kaldırmasını sağlamak için kullanılmaması gerektiğine işaret etti.

İlginç bir şekilde, ABD Hava Kuvvetleri, bu doktrini yayınlamadan sadece birkaç gün önce, bir AI pilotu ile donatılmış ilk savaş uçağını başarıyla test etti.

Bazı raporlar, İsrail’in AI cephaneliğindeki bir sonraki silahının, AI tarafından çalıştırılan ve kontrol edilen bir insansız hava aracı sürüsü olduğunu ileri sürdü. Geçen hafta İsrailli savunma yüklenicisi Elbit Systems, otonom drone sürüleri için Legion-X işletim sistemini gösterdi.



genel-5