Daha önce verilen uyarıları yansıtan Apple, artık çalışanlarının bilgisayar kullanmasını yasaklayan sayısı giderek artan işletmeler arasında yer alıyor. OpenAI’nin ChatGPT’si ve veri gizliliğini korumak amacıyla diğer benzer bulut tabanlı üretici yapay zeka hizmetleri. bu Wall Street Gazetesi Apple’ın ayrıca personelin kullanımını yasakladığını bildiriyor GitHub’ın Yardımcı Pilotu bazı geliştiricilerin yazılım yazmaya yardımcı olmak için kullandıkları araç.

A güncel araştırma Mac geliştiricilerinin %39’unun bu teknolojiyi kullandığını tespit etti.

Kapsamlı bir yasak neden mantıklı?

Yasak aşırı görünse de, şirketin bu hizmetlerin kullanımıyla ilgili olarak güvenlik uzmanlarından gelen uyarılara dikkat ettiğini gösteriyor. Endişe, kullanımlarının hassas veya gizli verilerin ifşasına yol açabileceğidir. Samsung, bu yılın başlarında personelin ChatGPT’ye gizli kaynak kodu yüklediğini keşfettiğinde araçları yasakladı.

Güvenlik uzmanları sorunun çok farkındadır. Orange Cyberdefense’de kıdemli güvenlik araştırmacısı Wicus Ross uyarır:

“Yapay zeka destekli sohbet robotları, geliştiricileri tarafından eğitilip daha da geliştirilirken, personelin kendilerine girilen verilere erişmesi söz konusu değil. Ve insanların genellikle bir işletmenin güvenlik duruşunun en zayıf unsuru olduğu düşünülürse, bu, risk tesadüfi olsa bile bilgileri bir dizi tehdide açık hale getirir.”

OpenAI, kurumsal müşterilere hizmetin daha gizli (ve çalıştırması pahalı) kendi kendine barındırılan bir sürümünü satsa da, genel kullanım sözleşmesi kapsamında veri gizliliğine çok az saygı gösterilmesi riski vardır.

Bu, gizli kod ve dahili belgeler açısından kötüdür, ancak sıkı bir şekilde denetlenen sektörlerden, bankacılıktan, sağlıktan ve başka yerlerden gelen bilgileri işlerken son derece tehlikelidir. ChatGPT sorgularının yapıldığı en az bir olay gördük. ilgisiz kullanıcılara maruz.

Sorunuz veriye dönüşür -bunun sahibi kimdir ve onlara güvenebilir misiniz?

Apple’ın kararı aşırı tepki gibi görünse de, kuruluşların personeli hangi verileri paylaştıklarına karşı dikkatli olmaları konusunda ikna etmesi çok önemlidir. Sorun şu ki, verileri işlemek için bulut tabanlı bir hizmet kullanıldığında, bilgilerin derecelendirme, değerlendirme ve hatta gelecekte kullanım için hizmet tarafından saklanması çok muhtemeldir.

Özünde, bu türden bir hizmete sorduğunuz sorular, gelecekteki yanıtlar için veri noktaları haline gelir. Bulut tabanlı bir hizmete sağlanan bilgilere, insanlar tarafından şirket içinden veya dışarıdan saldırı yoluyla erişilebilir. Bunun olduğunu zaten gördük. OpenAI, ChatGPT’yi şu şekilde çevrimdışı duruma getirmek zorunda kaldı: bu yılın başlarında bir veri ihlali.

tavsiye Birleşik Krallık Ulusal Siber Güvenlik Araştırma Merkezi (NCSC) riskin doğasını açıklar. Sorguların hizmet sağlayıcı tarafından görüleceğini, saklanacağını ve bir noktada hizmeti geliştirmek için “neredeyse kesinlikle” kullanılacağını belirtir.

Bu bağlamda, bir hizmetin kullanım koşulları ve gizlilik politikası hassas bir sorgu yapmadan önce derinlemesine incelenmelidir. Diğer zorluk ise, bir soru sorulduğunda onun da veriye dönüşmesidir.

NCSC’nin açıkladığı gibi: “Daha fazla kuruluş LLM ürettikçe artan başka bir risk, çevrimiçi depolanan sorguların saldırıya uğraması, sızdırılması veya daha büyük olasılıkla yanlışlıkla herkesin erişimine açılmasıdır. Bu, potansiyel olarak kullanıcıyı tanımlayabilecek bilgileri içerebilir.”

Ve yarın sorularınızın sahibi kim olacak?

Yapay zeka endüstrisinde konsolidasyon hızlanırken başka bir risk katmanı daha var. Salı günü bir kullanıcı, kurumsal güvenlik protokollerinin tüm gereksinimlerini karşılayan, doğrulanmış, güvenli bir LLM hizmeti hakkında hassas bir soru sorabilir, ancak bu hizmet, sonraki hafta daha zayıf politikalara sahip bir üçüncü tarafça satın alınabilir.

Bu alıcı, daha sonra hizmete daha önce sağlanan hassas kurumsal verileri de ele geçirecek, ancak bunları daha az etkili bir şekilde koruyacaktır.

Bu endişeler dile getirilmiyor çünkü güvenlik uzmanları onları bir tür ateşli rüyalarda görmüşler; zaten gördüğümüz olayları yansıtıyorlar. Örneğin, yakın tarihli bir rapor, API anahtarları ve kimlik bilgileri gibi 10 milyondan fazla gizli öğenin çalındığını ortaya çıkardı. geçen yıl GitHub gibi halka açık depolarda açığa çıktı.

Çoğu zaman, bu tür gizli veriler, bu tür hizmetler kullanılarak kişisel hesaplar aracılığıyla paylaşılır; toyotaSamsung ve muhtemelen ChatGPT kullanım yasağı verilen Apple.

Bunu akılda tutarak, takip ettiğim çoğu güvenlik uzmanı, kullanıcıları ChatGPT gibi kamu hizmetlerine yapılan sorgulara hassas/gizli bilgileri dahil etmemeleri konusunda uyarma konusunda birleşmiş durumda.

Kullanıcılar, halka açıldığı takdirde sorunlara yol açabilecek sorular asla sormamalıdır ve herhangi bir büyük şirketin verilerini güvence altına almaya çalışması bağlamında, en azından şimdilik, genel bir kullanım yasağı açık ara en kolay çözümdür.

Üretken kenara gidecek

Her zaman böyle olmayacak.

İleriye yönelik en mantıklı yol, uç cihazda barındırılabilen küçük LLM sistemlerine doğrudur. Stanford Üniversitesi zaten bir tane yapabildiğinden bunun mümkün olduğunu biliyoruz. bir Google Pixel telefonda çalıştırın. Bu, bir noktada, telefonun kendisiyle birlikte verilen benzer bir teknolojiyi kullanacakları için, hiç kimsenin yakın zamanda tanıtılan ChatGPT uygulamasını bir iPhone’da kullanmayacağını tahmin etmeyi makul kılıyor.

Ancak bulut tabanlı LLM hizmetlerini kullanan herkes için en önemli nokta, güvenliğin garanti edilmediği ve gizli veya hassas verileri onlarla asla paylaşmamanız gerektiğidir. Bağlantılı bir çağda uç işleme ve gizlilik korumasının değerinin bir kanıtıdır.

lütfen beni takip et Mastodonveya bana katılın AppleHolic’in barı ve ızgarası Ve Elma Tartışmalar MeWe’deki gruplar.

Telif hakkı © 2023 IDG Communications, Inc.



genel-13