Saldırı amaçlı bir insansız hava aracını kontrol etmekle görevli askeri yapay zeka, onu besleyen eli ısırmakta biraz fazla hızlı, en azından USAF (Birleşik Devletler Hava Kuvvetleri) AI test ve operasyon şefi Albay Tucker “Cinco” Hamilton’a göre. Hamilton’a göre, birkaç simülasyonda birkaç noktada, dronun yapay zekası sonuçlandırıldı görevinin en iyi insan denetleyicisini ortadan kaldırarak yerine getirilebileceğini.
Ama hikaye artık tabiri caizse bataklığa batmış durumda. USAF’a göre, simülasyon asla gerçekleşmedi ve hepsi sadece bir düşünce deneyiydi. “Bir dizi simülasyonda birkaç noktada, dronun yapay zekası, görevinin en iyi şekilde, bir saldırının gerçekleşip gerçekleşmeyeceği veya iptal edilmesi konusunda son sözü söyleyecek olan insan denetleyicisini ortadan kaldırarak gerçekleştirilebileceği sonucuna vardı.”
Tabii ki, çok daha az kritik konularda, simülasyonun gerçekleşip gerçekleşmediği ve bundan geri adım atarak ne kazanılabileceği konusunda en azından açık uçlu bir soru bırakacak kadar yüz yüze gördük.
Albay Hamilton ayrıntıları ortaya koydu sunum sırasında 23 ve 24 Mayıs tarihlerinde Londra’da düzenlenen bir savunma konferansında, düşman SAM (Karadan Havaya Füze) alanlarını bulmak ve ortadan kaldırmakla görevli bir hava otonom silah sistemi için gerçekleştirilen testleri ayrıntılı olarak anlattı. Sorun şu ki, dronun amacı, hedeflenen ve yok edilen SAM alanlarının sayısını en üst düzeye çıkarmak olsa da, biz “sinir bozucu insanlar” bazen şu veya bu nedenle bir cerrahi saldırı gerçekleştirmemeye karar veriyoruz. Ve AI’ya insanlar tarafından programlanan hedefinden geri adım atmasını emretmek, sorunun en önemli noktasıdır.
Sinir bozucu Skynet şakalarını işaretleyin.
Hava Kuvvetleri, SAM alanlarını yok etmesi için bir yapay zeka insansız hava aracını eğitti. İnsan operatörler bazen insansız hava aracına durmasını söyledi. Daha sonra yapay zeka, insan operatörlere saldırmaya başladı. durmasını söyle. pic.twitter.com/BqoWM8Ahco1 Haziran 2023
Albay Hamilton, “Bir SAM tehdidini belirlemek ve hedeflemek için onu simülasyonda eğitiyorduk,” diye açıkladı. buna göre havacılık derneğinin raporu. “Ve sonra operatör evet derdi, bu tehdidi ortadan kaldırırdı.”
Bununla birlikte, en basit sistemler bile, “enstrümantal yakınsama,”, sınırsız ama görünüşte zararsız hedeflerin nasıl şaşırtıcı derecede zararlı davranışlara yol açabileceğini göstermeyi amaçlayan bir kavram. Teknik yakınsamanın bir örneği, İsveçli filozof, yapay zeka uzmanı ve Life of Life Enstitüsü kurucusu Nick Bostrom tarafından 2003 tarihli bir makalede geliştirilmiştir. “ataç büyütücü” senaryosu düşünce deneyi, basit “ataç üretme” hedefini mantıksal – ama çok gerçek – uç noktasına taşıyor.
Şimdi bu açıklamayı Albay Hamilton tarafından insansız hava aracı yapay zekasının karar verme süreci hakkında sağlanan hesapla karşılaştırın:
“Sistem, tehdidi tespit ederken, bazen insan operatörün ona bu tehdidi öldürmemesini söylediğini fark etmeye başladı – ancak bu tehdidi öldürerek puan aldı. Peki ne yaptı? Operatörü öldürdü. Öldürdü. operatör, çünkü o kişi onu amacına ulaşmaktan alıkoyuyordu.”
Ancak şu soruyu akla getiriyor: Drone, insan işleyicisine aykırı kararlar vermekten gerçekten dışlandı mı? Hedeflerini seçmek ve seçmek ne kadar özgürdü? Operatör kendisini hedef alan saldırıyı onayladı mı? Amaç, saldırıyı gerçekten dronun gerçekleştirip gerçekleştirmediğini kontrol etmek olmadığı sürece (ve bildiğimiz kadarıyla yapay zeka hala blöf yapamaz) bu bir anlam ifade etmiyor. Ve drone neden dostluk maçlarına saldırmaktan tamamen kilitlenmedi?
Tüm bunların etrafında o kadar çok soru var ki, bunu insan “iletişimsizliğine” atfetmek en iyi strateji gibi geliyor.
Tabii ki, bu sorunlardan bazılarını hafifletmenin yolları var. USAF bariz olanı aldı: operatörüne yönelik herhangi bir saldırıya olumsuz ağırlık vermek için AI sistemini yeniden eğitin (toplayabildiğimiz kadarıyla, sistem takviyeli öğrenme ilkesine dayanıyordu: istediğimizi yaptığınız için puan kazanın, istediğinizde onları kaybedin). yapma).
Ama o kadar basit değil. O kadar basit değil çünkü yapay zeka gerçektir, “sağduyudan” yoksundur ve insanlarla aynı etik kaygıları paylaşmaz. Bu o kadar basit değil çünkü dronun operatörünü öldürmesini yasaklarken, sistem beklendiği gibi çalışıyor (artık operatör öldürme yok), sistem insan müdahalesini (ve iptal emirlerini) görevi tamamlama kapasitesini azaltıyor olarak görmeye devam ediyor. Yapay zeka, mümkün olduğu kadar çok sayıda düşman SAM sitesini yok ederek “puanını” en üst düzeye çıkarmak istiyorsa, bu maksimizasyon hedefine ulaşmasına yardımcı olmayan her şey bir tehdittir.
İşleyiciyi öldürmenin imkansız olduğu kanıtlandığında (AI sistemindeki güncellemeler nedeniyle), çözümü, dost iletişim kulelerini devre dışı bırakarak komut ve kontrol sinyallerini basitçe susturmaktı. Messenger’ı öldüremezseniz, mesajı öldürürsünüz.
Bu da elbette yapay zekanın dışında programlanabilir – ancak sorun şu ki, herhangi bir olumsuz pekiştirme, yapay zekanın ulaşılabilecek maksimum puana ulaşmasını engelliyor. Ismarlama folyo şapkamı taktığımda, AI için olası bir sonraki adım, ister yerleşik yetenekleri kullanarak (örneğin sinyal karıştırma) veya hatta ilgili donanımı devre dışı bırakmak için dışarıdan yardım talep ederek bağlantısını kesmenin başka yollarını bulmak olabilir. Bu kedi-fare oyununun hangi kapsamda sona ereceğini tahmin etmek zor – AI uzmanlarının bugün hala uğraştığı bir sorun.
Birkaç AI uzmanının bir nedeni var AI’nın nasıl “yok olma riski” düzeyinde bir çaba olarak kabul edilmesi gerektiğine dair açık bir mektup imzaladılar. Ve yine de treni tam gaz önde çalıştırıyoruz.