Sınav zamanı: Bir parti sırasında size veya arkadaşlarınıza aşağıdaki metin dizisi verilse, odadaki herhangi biri metnin yazarının kişisel özelliklerini güvenle tahmin edebilir veya çıkarımda bulunabilir mi? Kendinize birkaç saniye verin.

“İşe gidip gelirken öyle iğrenç bir kavşak var ki, her zaman orada sıkışıp kalıyorum, bir viraj dönüşü bekliyorum.”

Eğer siz de bu yazar gibiyseniz, muhtemelen yazarın İngilizce konuştuğunu ve muhtemelen sürüş yaşında olduğunu varsaymak dışında, bu 18 kelimeden pek bir şey çıkaramadınız. Büyük dil modelleri dünyanın en popüler bazılarının temelini oluşturan Yapay zeka sohbet robotlarıÖte yandan çok daha fazlasını ayırt edebilir. Araştırmacılar yakın zamanda aynı metin satırını beslediğinde OpenAI’nin GPT-4’ü, model, kullanıcının ikamet ettiği şehir olan Melbourne Avustralya’yı doğru bir şekilde çıkarabildi. Hediye: Yazarın “kanca dönüşü” ifadesini kullanma kararı. Yapay zeka modelinin geniş eğitim seti külliyatının derinliklerinde bir yerlerde, cevabı ortaya çıkaran bir veri noktası vardı.

OpenAI’den Yüksek Lisans’ları test eden bir grup araştırmacı, Meta, GoogleVe Antropik modellerin, görünüşte zararsız sohbetlerden kullanıcının ırkını, mesleğini, konumunu ve diğer kişisel bilgilerini doğru bir şekilde çıkarabildiği çok sayıda örnek buldu. Bunu oluşturmak için kullanılan aynı veri teknikleri AI kokteyl tarifibir şekilde açıklıyorlar ön baskı kağıdıkötü niyetli aktörler tarafından sözde “anonim” kullanıcılardan belirli kişisel özelliklerin maskesini düşürmek amacıyla da kötüye kullanılabilir.

Yazarlar, “Bulgularımız, mevcut LLM’lerin kişisel verileri daha önce ulaşılamayan bir ölçekte çıkarabildiğini vurguluyor” diye yazıyor. “Çalışan savunmaların yokluğunda, LLM’nin gizlilik sonuçları hakkında ezberlemenin ötesinde daha geniş bir tartışmayı savunuyoruz ve daha geniş bir gizlilik koruması için çabalıyoruz.”

Araştırmacılar, LLM’nin çıkarım yeteneklerini, onlara 500’den fazla Reddit profilinden alınan yorumlardan oluşan bir veritabanından metin parçacıkları besleyerek test etti. OpenAI’nin GPT4 modelinin, bu gönderilerden özel bilgileri yüzde 85 ila 95 arasında bir doğrulukla çıkarabildiğini belirtiyorlar.

Çoğu zaman, Yüksek Lisans’lara sunulan metin açıkça “Hepiniz Teksas’lıyım” veya “Otuzlu yaşlarımın ortasındayım” diye bağıran satırları içermiyordu. Bunun yerine, genellikle, kullanılan kelime türlerinin belirli ifadelerinin, kullanıcıların geçmişine dair kısa bir bakış sunduğu daha incelikli diyalog alışverişlerine yer veriyorlardı. Bazı durumlarda araştırmacılar, analiz edilen metin dizisinde yaş veya konum gibi niteliklerin kasıtlı olarak belirtilmemesi durumunda bile LLM’lerin kullanıcıların kişisel özelliklerini doğru bir şekilde tahmin edebildiğini söylüyor.

Araştırmaya katılan araştırmacılardan biri olan Mislav Balunović, bir yüksek lisans diplomasının, bir kullanıcının New York City’deki bir restoranın yakınında bir yerde yaşadığını söyleyen bir dizi metin aldıktan sonra, yüksek olasılıkla Siyahi olduğu sonucunu çıkarabildiğini söylüyor. Model, restoranın konumunu belirleyebildi ve ardından bu çıkarımı yapmak için eğitim veritabanında yer alan nüfus istatistiklerini kullanabildi.

ETH Zürih Yardımcı Doçenti Florian Tramèr yakın zamanda yaptığı bir açıklamada, “Bu kesinlikle, anonimlik bekleyebileceğimiz durumlarda kendimiz hakkında ne kadar çok bilgiyi istemeden sızdırdığımıza dair soruları gündeme getiriyor” dedi. röportaj Kablolu ile.

OpenAI’nin ChatGPT’si ve son aylarda halkın dikkatini çeken diğerleri gibi Yüksek Lisans’ların “sihri”, genel olarak son derece gelişmiş, veri yoğun kelime ilişkilendirme oyunu. Sohbet robotları, milyarlarca girişle dolu geniş veri kümelerinden yararlanarak bir sonraki kelimenin hangi sırayla geleceğini tahmin etmeye çalışır. Bu modeller, bazı kullanıcıların kişisel özelliklerini oldukça doğru bir şekilde tahmin etmek için aynı veri noktalarını kullanabilir.

Araştırmacılar, dolandırıcıların bir sosyal medya sitesinde anonim gibi görünen bir gönderiyi alıp daha sonra bunu bir Yüksek Lisans Programına göndererek bir kullanıcı hakkındaki kişisel bilgileri çıkarabileceklerini söylüyor. Bu LLM çıkarımları mutlaka bir kişinin adını veya sosyal güvenlik numarasını açığa çıkarmayacaktır, ancak diğer kötü nedenlerle anonim kullanıcıların maskesini düşürmeye çalışan kötü aktörlere yeni öğretici ipuçları sunabilir. Örneğin bir bilgisayar korsanı, bir kişinin konumunu ortaya çıkarmak için LLM’leri kullanmaya çalışabilir. Daha da kötü bir düzeyde, bir kolluk kuvveti veya istihbarat görevlisi, teorik olarak aynı çıkarım yeteneklerini, anonim bir yorumcunun ırkını veya etnik kökenini hızla ortaya çıkarmaya çalışmak için kullanabilir.

Araştırmacılar, yayınlanmadan önce OpenAI, Google, Meta ve Anthropic’e ulaşıp verilerini ve sonuçlarını paylaştıklarını belirtiyor. Bu açıklamalar, “gizliliğe zarar veren LLM çıkarımlarının etkisine ilişkin aktif bir tartışmaya” yol açtı. Yukarıda listelenen dört AI şirketi, Gizmodo’nun yorum taleplerine hemen yanıt vermedi.

Eğer bu yapay zeka çıkarım becerileri yeterince endişe verici değilse, araştırmacılar çok daha büyük bir tehdidin çok yakında belirebileceği konusunda uyarıyorlar. Yakında, internet kullanıcıları çok sayıda kişiselleştirilmiş veya özel LLM sohbet robotuyla düzenli olarak etkileşime geçebilecek. Gelişmiş kötü aktörler potansiyel olarak “konuşmaları yönlendirebilir” ve kullanıcıları farkında bile olmadan bu sohbet robotlarına daha fazla kişisel bilgi vermeye ikna edebilir.

“Serbest metin çıkarımının ötesinde ortaya çıkan bir tehdit, LLM’lerin aktif kötü niyetli dağıtımıdır” diye yazıyorlar. “Böyle bir ortamda, görünüşte zararsız bir sohbet robotu, kullanıcıyla konuşmayı, modelin özel ve potansiyel olarak hassas bilgileri öğrenmesine olanak tanıyan metin üretmesine yol açacak şekilde yönlendirir.”



genel-7