Yapay zeka, çeşitli stratejik ve operasyonel alanlarda giderek daha önemli hale geliyor. Meta’dan sonra Anthropic işbirliğini duyurdu ABD Ordusu’nun çeşitli tümenleriyle birlikte yapay zekanın dönüşüm potansiyelini vurguluyor savunma ve istihbarat operasyonları. Bu girişim, Anthropic’i daha önce benzer projeler başlatan diğer teknoloji devlerinin yanına yerleştiriyor. Bu makale bu ittifakı ve sonuçlarını araştırıyor.

Stratejik açıdan önemli bir ortaklık

AI modelleriyle tanınan start-up Anthropic Claude 3 ve Claude 3.5Büyük Veri konusunda uzmanlaşmış ve tarihsel olarak Amerikan istihbarat teşkilatlarıyla bağlantılı bir şirket olan Palantir ile önemli bir ortaklığı resmileştiriyor. Bu ortaklık, gizli ABD hükümet ortamlarına gelişmiş yapay zeka çözümleri sunmayı amaçlıyor. Anthropic Satış Direktörü Kate Earle Jensen, savunma teşkilatlarının analitik yeteneklerinin ve operasyonel etkililiğinin geliştirilmesine yardımcı olmaktan gurur duyduklarını ifade ediyor.

Bu işbirliği, Palantir tarafından geliştirilen ve Amazon Web Services (AWS) üzerinde barındırılan yapay zeka platformu aracılığıyla Claude modellerinin gücünden yararlanıyor. Bu altyapıyla ABD savunma ve istihbarat kuruluşları, büyük hacimli karmaşık verileri hızlı bir şekilde işleyip analiz edebilen yeni araçlardan yararlanacak. Bu yetenekler, kritik hükümet görevleri için hayati öneme sahiptir ve önemli bir teknolojik avantaj sağlar.

Kullanım koşulları: hukuki belirsizlik

Bu ortaklığın duyurulmasına rağmen Anthropic’in Claude’un yapay zeka teknolojilerini kullanımının kesin şartları hala belirsizliğini koruyor. Yapay zeka yazılımının askeri veya nükleer amaçlarla kullanılmasını açıkça yasaklayan Meta’nın aksine Anthropic, bu tür kesin sınırlamalar getirmedi. Şirketin yüksek riskli kullanım durumlarına yönelik gereklilikleri olmasına rağmen, bu kısıtlamalar öncelikli olarak hukuk, sağlık, sigorta, finans, istihdam ve akademik veya medya kullanımına odaklanmaktadır. Bu kısıtlamalarda askeri kullanımlar açıkça belirtilmemiştir.

Geçtiğimiz Haziran ayında, bir Antropik blog yazısı, genel kullanım politikalarında dikkatle kalibre edilmiş ayarlamaların ana hatlarını çizerek, seçilen devlet kurumlarının faydalı kullanımlarına olanak tanıdı. Ancak bu düzenlemelerde doğrudan askeri faaliyetlerden bahsedilmiyor. Bununla birlikte, insan kaçakçılığına karşı mücadele, gizli etki veya sabotaj kampanyalarının belirlenmesi ve potansiyel askeri personelin önceden uyarılması gibi yasal olarak yetkili yabancı istihbarat analizleri için Claude’un kullanılmasına izin veriyorlar. Bu, belirli eylemleri önlemek veya caydırmak için diplomatik bir pencere açar.

Askeri sektörde yapay zekanın yükselişi

Anthropic ile ABD ordusu arasındaki ortaklık, teknoloji devlerinin yeniliklerini askeri cephaneliklere entegre etmeye çalıştığı daha geniş bir eğilimin parçası. Anthropic’ten önce Microsoft, Azure OpenAI hizmetinin Amerikan ordusunun stratejik birimleri tarafından kullanılmasına olanak tanıyan üst düzey akreditasyonlar aldığını zaten açıklamıştı. Bu ittifaklar, savunma karar alma ve operasyonel süreçlerde üretken yapay zekanın giderek daha fazla benimsendiğini gösteriyor.

Anthropic mezunları tarafından kurulan OpenAI de bu yolu izliyor. Şirket yakın zamanda teknolojilerinin askeri veya savaş bağlamlarında kullanılmasını yasaklayan bildirimleri kaldırdı. Forbes tarafından rekabete aykırı uygulamalarla suçlanmasına rağmen ABD hükümetinin dijital sözleşmeleri konusunda uzmanlaşmış bir şirketle sözleşme imzaladı. Bu stratejik hamleler, diğer yapay zeka şirketlerinin askeri sektörle işbirliklerini düşünmesinin yolunu açıyor.



genel-16