Apple, OpenAI’nin ChatGPT’sinin ve Microsoft’un Yardımcı Pilotunun kullanımını kısıtladı. Wall Street Gazetesi raporlar. ChatGPT aylardır yasaklı listesinde, Bloomberg‘S Mark Gürman ekliyor.
Sadece Apple değil, aynı zamanda SAMSUNG Ve Verizon teknoloji dünyasında ve bankaların kim olduğu (Bank of America, Citi, Deutsche Bank, Goldman, Wells Fargo ve JPMorgan). Bunun nedeni, gizli verilerin kaçma olasılığıdır; her durumda, ChatGPT’ler gizlilik politikası açıkça diyor İstemleriniz, siz devre dışı bırakmadığınız sürece modellerini eğitmek için kullanılabilir. Sızıntı korkusu yersiz değil: Mart ayında ChatGPT’de bir hata oluştu diğer kullanıcıların verilerini açıkladı.
Disney’in Marvel spoilerlarının sızmasına izin vermek isteyeceği bir dünya var mı?
Bu yasakları çok yüksek bir uyarı atışı olarak düşünme eğilimindeyim.
Bu teknolojinin bariz kullanımlarından biri, şirketlerin maliyetleri en aza indirmeye çalıştığı müşteri hizmetleridir. Ancak müşteri hizmetlerinin işe yaraması için müşterilerin -bazen özel, bazen hassas- ayrıntılarından vazgeçmesi gerekir. Şirketler müşteri hizmetleri botlarının güvenliğini nasıl sağlamayı planlıyor?
Bu sadece müşteri hizmetleri için bir sorun değil. Diyelim ki Disney AI’ya izin vermeye karar verdi – VFX departmanları yerine – Marvel filmlerini yaz. Disney’in Marvel spoilerlarının sızmasına izin vermek isteyeceği bir dünya var mı?
olan şeylerden biri genel olarak teknoloji endüstrisi hakkında doğru olan, erken aşamadaki şirketlerin – daha genç bir yineleme gibi Facebook, örneğin — veri güvenliğine fazla dikkat etmeyin. Bu durumda, hassas malzemelerin maruziyetini sınırlamak mantıklıdır, çünkü OpenAI’nin kendisi yapmanızı önerir. (“Lütfen konuşmalarınızda hassas bilgileri paylaşmayın.”) Bu, AI’ya özgü bir sorun değildir.
Bu büyük, anlayışlı, gizlilik odaklı şirketlerin sadece paranoyak olmaları mümkün.
Ancak yapay zeka sohbet robotlarında içsel sorunlar olup olmadığını merak ediyorum. Yapay zeka yapmanın getirdiği masraflardan biri de bilgi işlemdir. Kendi veri merkezinizi oluşturmak pahalıdır, ancak bulut bilişimi kullanmak, sorgularınızın, verilerinizin güvenliğini sağlamak için temelde başka birine güvendiğiniz uzak bir sunucuda işlendiği anlamına gelir. Bankaların neden korkmuş olabileceğini buradan anlayabilirsiniz – finansal veriler inanılmaz derecede hassastır.
Tesadüfen halka açık sızıntılara ek olarak, kasıtlı kurumsal casusluk olasılığı da vardır. İlk bakışta, bu daha çok bir teknoloji endüstrisi sorunu gibi görünüyor – sonuçta, ticari sır hırsızlığı buradaki risklerden biri. Ancak Büyük Teknoloji şirketleri akışa geçti, bu yüzden bunun yaratıcı şeyler için de bir sorun olup olmadığını merak ediyorum.
Teknoloji ürünleri söz konusu olduğunda gizlilik ve kullanışlılık arasında her zaman bir itme-çekme vardır. Çoğu durumda – örneğin, Google ve Facebook’ta – kullanıcılar gizliliklerini ücretsiz ürünlerle değiştirdiler. Google’ın Bard, sorguların kullanılacağını açıkça belirtiyor “Google ürünlerini, hizmetlerini ve makine öğrenimi teknolojilerini iyileştirmek ve geliştirmek.”
Bu büyük, anlayışlı, gizlilik odaklı şirketlerin sadece paranoyak olması ve endişelenecek bir şey olmaması mümkündür. Ama diyelim ki haklılar. Eğer öyleyse, AI sohbet robotlarının geleceği için birkaç olasılık düşünebilirim. Birincisi, AI dalgasının tam olarak metaverse gibi olduğu ortaya çıkıyor: başlamayan. İkincisi, yapay zeka şirketlerinin güvenlik uygulamalarını elden geçirme ve net bir şekilde özetleme baskısı altında olmalarıdır. Üçüncüsü, yapay zekayı kullanmak isteyen her şirketin kendi özel modelini oluşturması veya en azından kendi işlemesini yürütmesi gerektiğidir ki bu kulağa komik bir şekilde pahalı ve ölçeklenmesi zor geliyor. Ve dördüncüsü, havayolu şirketinizin (veya Borç toplayıcılarıeczane veya her kimse) verilerinizi düzenli olarak sızdırıyor.
Bu nasıl sallanır bilmiyorum. Ancak güvenlik konusunda en takıntılı şirketler yapay zeka kullanımlarını kilitliyorsa, geri kalanımızın da bunu yapması için iyi bir neden olabilir.