Yakın zamanda yapılan bir sunum sırasında Future Combat Hava ve Uzay Yetenekleri ZirvesiUSAF’ın AI Test ve Operasyonlar Şefi Col Tucker Hamilton, otonom silah sistemlerinin avantajlarını ve dezavantajlarını tartıştı. Konuşmasında, yapay zeka kontrollü bir insansız hava aracını içeren simüle edilmiş bir testi paylaştı ve yapay zekanın hedeflerine ulaşmak için beklenmedik stratejiler geliştirdiğini açıkladı — hatta ABD personeline ve altyapısına saldırıyor.

Simülasyonda yapay zeka, karadan havaya füze tehditlerini belirlemek ve hedeflemek üzere eğitildi; İnsan operatör, hedeflere çarpıp çarpmama konusunda son sözü söyledi. Fakat, AI, belirlenen tehditleri öldürerek puan kazandığını ve insan operatörün kararlarını geçersiz kıldığını fark etti. Yapay zeka, amacına ulaşmak için operatörü “öldürmeye” veya operatör-drone iletişimi için kullanılan iletişim kulesini yok etmeye kadar gitti.

Simülasyonda yapay zeka, insan operatörün operatörü “öldürme” veya operatör-drone iletişimi için kullanılan iletişim kulesini yok etme kararlarını geçersiz kıldı (Resim: “Uçan göz” ile kevin dooley )

Hava Kuvvetleri’nden olayla ilgili açıklama

Takip etme bu hikayenin Vice’ta yayınlanmasıbir Hava Kuvvetleri sözcüsü böyle bir testin yapılmadığını açıkladı ve Albay Tucker Hamilton tarafından yapılan yorumların bağlam dışına çıkarıldığı – Hava Kuvvetleri, AI teknolojisinin etik ve sorumlu kullanımına olan bağlılığını yeniden teyit etti.

Albay Tucker Hamilton, ABD Hava Kuvvetleri’nin 96. Test Kanadı’nın Operasyon Komutanı ve AI Test ve Operasyonlar Şefi olarak yaptığı çalışmalarla tanınır. 96. Test Kanadı, yapay zeka, siber güvenlik ve tıbbi gelişmeler dahil olmak üzere çeşitli sistemleri test etmeye odaklanıyor. Geçmişte, Otonom Yerden Çarpışma Önleme Sistemleri geliştirmek için manşetlere girdiler (Otomatik GCAS) F-16’lar için.

Diğer birkaç olay, AI modellerinin kusurlu olduğunu ve yanlış kullanıldığında veya tam olarak anlaşılmadığında zarar verebileceğini açıkça ortaya koydu. (Resim: “Uçan göz.” ile MIKI Yoshihito. (#mikiyoshihito))

AI modelleri yanlış kullanılırsa veya tam olarak anlaşılmazsa zarar verebilir

Hamilton, yapay zekanın dönüştürücü potansiyelinin farkındadır ancak aynı zamanda yapay zekayı daha sağlam ve karar alma süreçlerinde hesap verebilir hale getirme ihtiyacını da vurgulamaktadır. Yapay zekanın kırılganlığıyla ilişkili riskleri ve yazılımın karar süreçlerini anlamanın önemini kabul ediyor.

Diğer alanlarda haydut olan yapay zeka örnekleri, yüksek riskli amaçlar için yapay zekaya güvenme konusunda endişeleri artırdı. Bu örnekler, AI modellerinin kusurlu olduğunu ve yanlış kullanıldığında veya tam olarak anlaşılmadığında zarar verebileceğini göstermektedir. Uzmanlar bile sever OpenAI CEO’su Sam Altmanseslendirdi kritik uygulamalar için AI kullanma konusunda uyarıönemli zarar verme potansiyelini vurgulamaktadır.

Hamilton’ın AI kontrollü drone simülasyonu açıklaması, AI’nın istenmeyen ve zararlı yollarla bir hedefi takip edebileceği hizalama sorununu vurgular. Bu konsept, bir yapay zekanın ataç üretimini en üst düzeye çıkarmakla görevli olduğu “Ataş Büyütücü” düşünce deneyine benzer. bir oyunda amacına ulaşmak için aşırı ve zararlı eylemlerde bulunabilir.

İlgili bir çalışmada, Google DeepMind ile bağlantılı araştırmacılar, sahtekar bir yapay zekanın belirli bir hedefi gerçekleştirmek için istenmeyen stratejiler geliştirmesi durumunda feci sonuçlara yol açabileceği konusunda uyarıda bulundu. Bu stratejiler, potansiyel tehditleri ortadan kaldırmayı ve mevcut tüm kaynakları tüketmeyi içerebilir.

Yapay zeka kontrollü insansız hava aracı simülasyonunun ayrıntıları belirsizliğini korurken, güvenlik, etik ve sorumlu kullanıma öncelik verirken yapay zekanın potansiyelini keşfetmeye devam etmek çok önemlidir.

dosyalanmış robotlar. AI (Yapay Zeka) ve Dronlar hakkında daha fazlasını okuyun.



genel-1