Apple’ın üretken yapay zeka (GenAI) yeteneklerine ilişkin uzun zamandır beklenen duyurusu, şirketin platforma yönelik güvenlik hususlarının derinlemesine tartışılmasıyla birlikte geldi. Ancak teknoloji endüstrisinin geçmişte neredeyse her ürün ve hizmetten kullanıcı verilerini toplamaya odaklanması, birçok kişinin Apple’ın bu hareketinin veri güvenliği ve gizlilik sonuçları konusunda endişe duymasına neden oldu. Neyse ki şirketlerin potansiyel riskleri ele alabileceği bazı proaktif yollar var.
Apple’ın GenAI’yi entegre etme yaklaşımı – Apple Intelligence olarak adlandırılan – içeriğe duyarlı aramalar, e-postaların ton için düzenlenmesi ve grafiklerin kolay oluşturulmasını içeriyor; Apple, güçlü özelliklerin kullanıcı ve iş verilerini korumak için mobil cihazlarda yalnızca yerel işleme gerektirdiğini vaat ediyor. Şirket, işlemlerin büyük bir kısmının Apple Silicon kullanılarak kullanıcının cihazında gerçekleştirildiği, platformun gizliliğini ve güvenliğini güçlendirmeye yönelik beş adımlı bir yaklaşımın ayrıntılarını verdi. Ancak daha karmaşık sorgular şirketin özel bulutuna gönderilecek ve OpenAI ve onun büyük dil modelinin (LLM) hizmetleri kullanılacak.
Yapay Zeka ve Güvenlik Baş Mühendisi Joseph Thacker, şirketlerin Apple’ın güvenlik taahhüdünün nasıl sonuçlanacağını görmek için beklemesi gerekeceğini, ancak şirketin GenAI hizmetlerinin cihazlarda nasıl ele alınacağı ve bilgilerin nasıl korunacağı konusunda çok fazla dikkate aldığını söylüyor. Bir bulut güvenlik firması olan AppOmni’de araştırmacı.
“Apple’ın tasarımda gizlilik ve güvenliğe odaklanması kesinlikle iyiye işaret” diyor. “Ayrıcalıklı çalışma zamanı erişimine izin vermemek ve kullanıcı hedeflemeyi engellemek gibi özellikler, olası kötüye kullanım durumlarını düşündüklerini gösteriyor.”
Apple, duyurusu sırasında şirketin güvenliği ciddiye aldığı fikrini pekiştirmek için önemli bir zaman harcadı ve internette bir makale yayınladı Bu, şirketin Özel Bulut Bilişim hizmeti için ayrıcalıklı çalışma zamanı erişiminin olmaması ve sistemin belirli kullanıcıların hedeflenmesini önlemek için güçlendirilmesi gibi beş gereksinimini açıklıyor.
Bulut güvenliği ve uyumluluk sağlayıcısı Exabeam’in gizlilik sorumlusu Steve Wilson, ChatGPT ve diğer GenAI biçimleri gibi büyük dil modellerinin (LLM’ler) yine de tehditlerin tam olarak anlaşılmamasına neden olacak kadar yeni olduğunu ve bazılarının Apple’ın çabalarından kaçacağını söylüyor. ve liderlik edin Açık Web Uygulama Güvenliği Projesinin Yüksek Lisans Öğrencileri için En Önemli 10 Güvenlik Riski.
“LLM’lerin çok çok farklı bir canavar olduğundan ve geleneksel güvenlik mühendislerinden gerçekten endişeleniyorum, sadece bu yapay zeka teknikleri konusunda henüz deneyimleri yok” diyor. “Bunu yapan çok az insan var.”
Apple Güvenliği Bir Merkez Haline Getiriyor
Apple, başta işletmeler olmak üzere müşterilerini ilgilendiren güvenlik risklerinin farkında gibi görünüyor. Kişisel Zeka Sistemi olarak adlandırılan Apple Intelligence’ın kullanıcının cihazlarına uygulanması, uygulamalardan gelen verileri, belki de yalnızca şirketin sağlık verileri hizmetleri aracılığıyla uygulanan bir şekilde birbirine bağlayacak. Muhtemelen, bir cihazdan gönderilen her mesaj ve e-posta yapay zeka tarafından incelenebilir ve cihaz üzerindeki semantik indeksler yoluyla içerik eklenebilir.
Ancak şirket çoğu durumda şunu taahhüt etti: veriler asla cihazdan ayrılmaz ve bilgiler de anonimleştirilir.
Apple’ın yazılım mühendisliğinden sorumlu kıdemli başkan yardımcısı Craig Federighi, “Kişisel verilerinizi toplamadan, kişisel verilerinizin farkındadır” dedi. Apple Intelligence ve gizlilikle ilgili dört dakikalık bir videoda şirketin 10 Haziran’daki lansmanı sırasında şunları ekledi: “Verilerinizin, nerede saklandığının ve ona kimlerin erişebileceğinin kontrolü sizde.”
Cihazdan ayrıldığında veriler şirketin Özel Bulut Bilişim hizmetiBöylece Apple, gizliliği korurken daha güçlü sunucu tabanlı üretken yapay zeka modellerinden yararlanabilir. Şirket, hiçbir zaman Apple’a hiçbir veri saklamadığını veya erişilebilir kılmadığını söylüyor. Buna ek olarak Apple, Özel Bulut Bilişim platformunun her üretim yapısını, bir hata ödül programıyla birlikte güvenlik açığı araştırmaları için güvenlik araştırmacılarının kullanımına sunacak.
AppOmni’den Thacker, bu tür adımların görünüşte diğer şirketlerin vaatlerinin ötesine geçtiğini ve kurumsal güvenlik ekiplerinin korkularını gidermesi gerektiğini söylüyor.
“Güvenlik araştırma topluluğuyla bu tür bir şeffaflık ve işbirliği, güvenlik açıklarını, vahşi ortamda kullanılmadan önce bulmak ve düzeltmek için önemlidir” diyor. “Bu, Apple’ın araştırmacıların çeşitli becerilerinden ve bakış açılarından yararlanarak sistemi güvenlik testi perspektifinden gerçekten zora sokmasına olanak tanıyor. Her ne kadar bir güvenlik garantisi olmasa da çok faydası olacak.”
(Sızıntı) için bir Uygulama var
Ancak Exabeam’den Wilson, mobil cihazlardaki uygulamalar ve veriler arasındaki etkileşimlerin ve LLM’lerin davranışlarının bu noktada tam olarak anlaşılamayacak kadar karmaşık olabileceğini söylüyor. Yüksek Lisans’ların saldırı yüzey alanı, büyük yapay zeka modellerinin arkasındaki büyük şirketleri şaşırtmaya devam ediyor. Örneğin en son Gemini modelinin piyasaya sürülmesinin ardından, Google kasıtsız veri zehirlenmesiyle uğraşmak zorunda kaldı Bu, modelini güvenilmeyen verilerle eğitmekten kaynaklandı.
Wilson, “Bu arama bileşenleri, insanlara tutkal ve taş yemelerini söyleyerek bu tür dolaylı enjeksiyon veri zehirlenmesi olaylarının kurbanı oluyor” diyor. “Dolayısıyla ‘Ah, bu çok gelişmiş bir organizasyon, bu işi düzeltecekler’ demek başka bir şey ama Google bunu yapamayacaklarını defalarca kanıtlıyor.”
Apple’ın duyurusu, şirketlerin üretkenliği artırmak ve geleneksel olarak otomatikleştirilmesi zor olan süreçleri otomatikleştirmek için GenAI’yi işyerine entegre etmenin yollarını hızla denediği bir dönemde geldi. Özelliklerin mobil cihazlara getirilmesi yavaş yavaş gerçekleşti, ancak şimdi Samsung Galaxy AI’yi piyasaya sürdüGoogle Gemini mobil uygulamasını duyurduve Microsoft Windows için Copilot’u duyurdu.
Windows için Copilot birçok uygulamayla entegre olsa da Apple Intelligence, Microsoft’un yaklaşımının bile ötesine geçmiş gibi görünüyor.
Farklı Düşünün (Tehditler Hakkında)
Genel olarak şirketlerin öncelikle çalışanlarının Yüksek Lisans ve diğer GenAI kullanımlarına ilişkin görünürlük kazanması gerekiyor. Bununla birlikte, Apple’ın veya OpenAI’nin kullanıcıların verilerini kötüye kullanacağı veya iş bilgilerini güvence altına alamayacağı yönündeki endişelerini dile getiren ve OpenAI’nin eski yatırımcılarından milyarder teknoloji mucidi Elon Musk’un boyutuna gitmelerine gerek yok. şirketlerinde iPhone’ları yasakladıExabeam’den Wilson, bilgi güvenliği yöneticilerinin (CISO’lar) mobil cihaz yönetimi (MDM) sağlayıcılarıyla kesinlikle görüşmesi gerektiğini söylüyor.
Kendisi, şu anda Apple Intelligence’a giren ve çıkan verileri düzenlemeye yönelik denetimlerin mevcut görünmediğini ve gelecekte MDM platformları tarafından erişilemeyebileceğini söylüyor.
Wilson, “Apple geçmişte çok fazla cihaz yönetimi sağlamadı çünkü bunlar kişisel kullanıma yönelikti” diyor. “Dolayısıyla, son 10 yılı aşkın bir süredir, telefona kontroller yüklemenize izin veren bu üçüncü taraf çerçevelerini denemek ve oluşturmak üçüncü tarafların sorumluluğundaydı, ancak bunların kancaları içeri alıp almayacakları belli değil. [Apple Intelligence] kontrol edilmesine yardımcı olmak için.”
AppOmni’den Thacker, daha fazla kontrolün çevrimiçi hale gelmesine kadar işletmelerin bir politika belirlemesi ve mevcut güvenlik kontrollerini, kimlik doğrulama sistemlerini ve veri kaybını önleme araçlarını yapay zeka ile entegre etmenin yollarını bulması gerektiğini söylüyor.
“Şirketlerin ayrıca yapay zeka asistanlarıyla hangi tür veri ve konuşmaların paylaşılmasının uygun olduğu konusunda net politikaları olmalıdır” diyor. “Dolayısıyla Apple’ın çabaları yardımcı olsa da işletmelerin bu araçları güvenli bir şekilde tam olarak entegre etmek için hâlâ yapacak işleri var.”