Pentagon, 'Sorumlu Askeri Yapay Zeka' Yapma Planını Açıkladı başlıklı makale için resim  Bir Buzzword'den Daha Fazlası

Fotoğraf: AFP (Getty Resimleri)

Pentagon yapay zeka savaş silahlarıyla ilerliyor… sorumlu bir şekilde.

Bu hafta, Savunma Bakanlığı, ordunun sorumlu yapay zeka ilkelerini uygulama planını özetleyen 47 sayfalık uzun bir belge yayınladı; bu, temelde dünyayı bir Terminatör-vari cehenneme dönüştürmeden AI’yı orduya entegre etmeye çalışıyor. Önce Savunma Bakanlığı özetlenen 2020’deki etik AI hedefleri, bu haftanın Yapay Zeka Geliştirme ve Hızlandırmanın Sorumlu Yolu bölümün bu iddiaları gerçekleştirmeyi planladığı sistematik yolları belgeleyin ve bunları yalnızca hüsnükuruntuların ötesine taşıyın.

Belgede, Savunma Bakan Yardımcısı Kathleen Hicks, ordunun yapay zeka teknolojisi arayışını savundu ve ABD’li rakiplerin yapay zeka yatırımlarını “küresel güvenliği, barışı ve istikrarı tehdit edecek şekilde” artırdığını iddia etti. Pentagon bu “tehdide” rampa ile yanıt vermek istiyorevde yatırım yapmak.

Hicks, “Dijital olarak rekabetçi bir dünyada askeri avantajımızı korumak için Amerika Birleşik Devletleri Savunma Bakanlığı (DoD), bu gelişen tehditlere ayak uydurmak için AI teknolojilerini benimsemelidir” diye yazıyor. “Yeni teknolojiyi yasal, etik, sorumlu ve hesap verebilir yollarla kullanmak, ahlakımızın özüdür.”

Belge, Pentagon’un etik yapay zekaya yönelik gelişen tutumlarının bir zaman çizelgesini sunuyor ve departmanın “Al’in benzersiz özelliklerini ve istenmeyen sonuçların potansiyelini hesaba katmak için etik çerçevesini olgunlaştırdığını” belirtiyor. Ordu dışındaki araştırmacılar, yapay zeka sistemlerinin kültürel önyargıları güçlendirebileceğini ve beyaz olmayan insanlara karşı ayrımcılık yapabileceğini gösterdi.

Genel olarak, Savunma Bakanlığı’nın her biri için ölçülebilir hedefler ekleyen bu yeni yönergeler altı temel sorumlu AI ilkesi, hizmet üyelerinin ve genel halkın “güvenini kazanmayı” amaçlar. Belge, bu güveni, yeni AI teknolojisiyle ilerlemeye devam etmesine izin verecek “istenen son durum” olarak tanımlıyor.

Belgede, “DoD Al’a güven, Bakanlığın Savunma Bakanlığı’nın içindeki ve dışındakilerin ihtiyaçlarını göz önünde bulundurarak, çeşitli muharebe ve savaş dışı uygulamalarda savaşma kabiliyetini modernize etmesini sağlayacaktır” deniyor, “Güven olmadan, savaşçılar ve liderler Al’i etkin bir şekilde kullanmayacak ve Amerikan halkı bu teknolojinin sürekli kullanımını ve benimsenmesini desteklemeyecektir.” Savunma Bakanlığı, bu güven vurgusunu diğer ülkelerle olan etkileşimine de uygulamak istediğini ve “AI kullanımı için yeni uluslararası normlar” belirlemek istediğini söyledi.

Bu amaçla, yakın tarihli bir Sabah Konsültasyonu anket ABD’li yetişkinlerin yüzdesi, ordunun yapay zeka duruşuna yönelik karışık görüşler gösteriyor. Yetişkinlerin yaklaşık dörtte biri (%26), ABD ordusunun yapay zeka konusunda Çin’den daha gelişmiş olduğunu düşündüklerini söylerken, ABD’nin daha az gelişmiş olduğunu düşünen %29 biraz daha büyük.

Pentagon, 'Sorumlu Askeri Yapay Zeka' Yapma Planını Açıkladı başlıklı makale için resim  Bir Buzzword'den Daha Fazlası

Fotoğraf: Alex Wong (Getty Resimleri)

Gizmodo, Mart ayında Hicks ile Pentagon’un AI entegrasyonuna yönelik felsefesi hakkında konuştu. Kaliforniya’ya DoD gezisi. Orada, bir yapay zeka sisteminin amaçlarını ne zaman gerçekleştireceğine karar vermede bir insan operatörün hala nihai bir rolü sürdürdüğü bir “döngüdeki insan” yaklaşımını sürdürmenin önemini vurguladı. Hicks, AI’nın herhangi bir askeri uygulamasının ABD değerleriyle uyumlu olması gerektiğini ekledi; bu hem zımnen güven verici ama nihayetinde belirsiz bir ifade.

Hicks Perşembe günü Gizmodo’ya yaptığı açıklamada, “Yalnızca askeri yeteneklerimizi geliştirmekle kalmayıp aynı zamanda son kullanıcılar, savaşçılar, Amerikan halkı ve uluslararası ortaklarla güven inşa eden güvenilir bir ekosistem kurmamız zorunludur.” Dedi. “Pathway, Bakanlığın sorumlu bir yapay zeka destekli organizasyon olarak hareket etme taahhüdünü teyit ediyor.”

DOD’un AI yol raporu, Pentagon’un iç saflarında bariz bir gerilim döneminin ortasında geliyor. Pentagon’un ilk yazılım şefi Nicolas Chaillan, Ekim ayında üç yıl sonra, kısmen ABD’nin Çin’e ayak uyduramaması olarak gördüğü şey üzerine dramatik bir şekilde istifa etti. içinde röportaj yapmak ile Finansal Zamanlar istifasının ardındanChaillan, Pentagon’un teknik yeteneklerine “kızmak için iyi bir neden” olduğunu söyledi.

Chaillan, “15 ila 20 yıl içinde Çin’e karşı rekabet etme şansımız yok” dedi. “Şu anda, zaten bitmiş bir anlaşma; Bana göre çoktan bitti.”

Pentagon o zamandan beri Chaillan’ı eski Lyft makine öğrenimi başkanı Craig Martell ile değiştirdi. departmana Baş Dijital ve Yapay Zeka Görevlisi olarak katıldı. Martell olacak bildirildiğine göre Pentagon’un yapay zeka stratejisinde ilerlemede önemli bir rol oynuyor.

İnsan Hakları Grupları Askeri Yapay Zeka Üzerinden Rahatsız

Tgerçi bu giderek daha fazla görülüyor kaçınılmazlık, AI’nın askeri kullanımı kalıntılar sıcak tartışma. İnsan Hakları İzleme Örgütü ve Uluslararası Af Örgütü gibi aktivist gruplar, geniş yasaklar nın-nin AI özellikli otonom silahlar, askeri kuruluş ve eski teknoloji endüstrisi ağır topları, ticari AI firmaları ve ordu arasında daha derin AI entegrasyonunu zorlamak için düzenli olarak “Peki ya Çin argümanına” güvendiler.

Uluslararası Af Örgütü’nün Askeri, Güvenlik ve Polislik Kıdemli Danışmanı, “Makinelerin ölüm kalım kararları vermesine izin vermek, insan onuruna bir saldırıdır ve muhtemelen savaş yasalarının ve insan haklarının yıkıcı ihlalleriyle sonuçlanacaktır.” Dedi. Beyan. “Ayrıca, insanları işlenecek veri noktalarına indirgeyerek, toplumun dijital olarak insanlıktan çıkarılmasını da yoğunlaştıracak. Katil robotların yayılmasını durdurmak için sağlam, yasal olarak bağlayıcı bir uluslararası anlaşmaya ihtiyacımız var.”

Daha derin askeri yapay zeka kullanımı için çağrıda bulunan en yüksek seslerden biri, 2019’da eski Google CEO’su Eric Schmidt’ten geliyor. görevlendirilmiş o zamanki Başkan Trump tarafından eş başkanlık AI Ulusal Güvenlik Komisyonu, amacı Başkan ve Kongre için ulusal savunmada AI’yı ilerletmek için yöntem ve stratejileri detaylandıran uzun raporlar üretmek olan bir organizasyon. Schmidt raporunda, askeri AI kullanımını çevreleyen belirli bir etik bürokrasi gördüklerini eleştirdi ve Çin gibi “otoriter devletlerin” “ABD ordusuna rehberlik eden aynı titiz testler ve etik kurallarla kısıtlanmayacağı” konusundaki endişesini dile getirdi.

Şimdiye kadar ABD, AI genişlemesini yavaşlatmaya ilgi göstermedi. Geçen yılın sonlarında Cenevre’deki bir BM toplantısında ABD, Rusya, Çin ve Hindistan gibi bir avuç ülkeden biri olarak katıldı.yani karşı çıkmak otonom silah gelişimini sınırlamak için yasal olarak bağlayıcı araçlar.

İnsan Hakları İzleme Örgütü Silah Direktörü Steve Goose, “BM inceleme konferansında somut bir sonucun olmaması, katil robotlar tarafından dile getirilen endişelere tamamen yetersiz bir yanıttır” dedi. Beyan Cenevre toplantısının ardından “Mevcut diplomatik görüşmelerin katil robotlar konusunda ileriye dönük bir yol önermedeki başarısızlığı, ülkelerin bu silah sistemlerini yasaklamak için farklı bir yol izlemesi gerektiğini gösteriyor. Dünya bekleyemez.”

Öte yandan, en az 30 ülke şimdiden bildirildiğine göre otonom silah sistemlerinin yasaklanmasına desteğini dile getirdi. Otonom silahların yasaklanması çağrıları, geçen yıl senkronizasyon sistemlerinin uluslararası hukuka göre yasaklanması gerektiğini söyleyen bir bildiri yayınlayan BM Genel Sekreteri António Guterres’in desteğini bile aldı.

Guterres 2019’da yaptığı açıklamada, “İnsan müdahalesi olmadan hedef seçme ve can alma yetkisine ve takdirine sahip otonom makineler siyasi olarak kabul edilemez, ahlaki olarak iğrenç ve uluslararası hukuk tarafından yasaklanmalıdır.” Dedi. Beyan.





genel-7