Üretken bir yapay zeka modelinin eğitim verilerinden topladığı hassas özel veriler veya telif hakkıyla korunan materyaller gibi belirli ve istenmeyen bilgileri unutmasını sağlamak için sözde “öğrenmeme” teknikleri kullanılıyor.

Ancak mevcut öğrenmeyi unutma teknikleri iki ucu keskin bir kılıçtır: OpenAI’nin GPT-4o veya Meta’nın Llama 3.1 405B gibi bir modeli temel soruları cevaplama konusunda çok daha az yetenekli hale getirebilir.

Bu yeni bir şeye göre çalışmak Washington Üniversitesi (UW), Princeton Üniversitesi, Chicago Üniversitesi, USC ve Google’dan araştırmacıların ortaklaşa hazırladığı çalışmada, günümüzde en popüler öğrenmeyi bırakma tekniklerinin modelleri bozma eğiliminde olduğu, hatta çoğu zaman kullanılamaz hale getirdiği ortaya çıktı.

Çalışmada araştırmacı ve UW’de bilgisayar bilimleri alanında doktora adayı olan Weijia Shi, TechCrunch’a “Değerlendirmemiz, şu anda uygulanabilir öğrenmeme yöntemlerinin gerçek dünya senaryolarında anlamlı kullanım veya dağıtım için henüz hazır olmadığını gösteriyor” dedi. “Şu anda, bir modelin belirli verileri önemli bir fayda kaybı olmadan unutmasını sağlayan etkili bir yöntem yok.”

Modeller nasıl öğrenir?

Üretken AI modelleri gerçek bir zekaya sahip değildir. Bunlar, kelimeleri, görüntüleri, konuşmayı, müziği, videoları ve diğer verileri tahmin eden istatistiksel sistemlerdir. Çok sayıda örnekle (örneğin filmler, ses kayıtları, denemeler vb.) beslenen AI modelleri, çevreleyen herhangi bir verinin bağlamı da dahil olmak üzere, desenlere dayanarak verinin oluşma olasılığını öğrenir.

Örneğin, “Dört gözle bekliyorum…” parçasıyla biten bir e-posta verildiğinde, mesajları otomatik olarak tamamlamak üzere eğitilmiş bir model, aldığı tüm e-postaların düzenini izleyerek “… geri bildirim almak için” önerebilir. Burada hiçbir kasıtlılık yoktur; model hiçbir şeyi dört gözle beklemiyor. Sadece bilgili bir tahminde bulunuyor.

GPT-4o gibi amiral gemileri de dahil olmak üzere çoğu model, web’deki genel web sitelerinden ve veri kümelerinden alınan verilerle eğitilir. Bu tür modelleri geliştiren çoğu satıcı, adil kullanımın, veri sahiplerini bilgilendirmeden, tazmin etmeden veya hatta kredi vermeden veri toplama ve eğitim için kullanma uygulamalarını koruduğunu savunur.

Ancak her telif hakkı sahibi aynı fikirde değil. Ve yazarlardan yayıncılara ve plak şirketlerine kadar pek çok kişi, bir değişikliği zorlamak için satıcılara dava açtı.

Telif hakkı ikilemi, öğrenilmemiş tekniklerin nedenlerinden biridir son zamanlarda çok fazla ilgi gördüGoogle, geçen yıl çeşitli akademik kurumlarla ortaklık kurarak başlatıldı yeni öğrenmeyi engelleme yaklaşımlarının yaratılmasını teşvik etmeyi amaçlayan bir yarışma.

Öğrenmeyi unutmak, tıbbi kayıtlar veya tehlikeye atılan fotoğraflar gibi hassas bilgileri mevcut modellerden kaldırmanın bir yolunu da sağlayabilir. bir istek veya hükümet emri(Eğitim biçimleri sayesinde modeller, çok sayıda özel bilgiyi toplama eğilimindedir. telefon numaraları ile Daha sorunlu örnekler.) Geçtiğimiz birkaç yıl içinde bazı satıcılar, veri sahiplerinin verilerinin eğitim setlerinden kaldırılmasını istemelerine olanak tanıyan araçlar sunmuştur. Ancak bu devre dışı bırakma araçları yalnızca gelecekteki modeller için geçerlidir, sunulmadan önce eğitilen modeller için değil; öğrenmeyi geri almak, veri silmeye yönelik çok daha kapsamlı bir yaklaşım olacaktır.

Ne olursa olsun, öğrenilmiş bir şeyi unutmak “Sil” tuşuna basmak kadar kolay değildir.

Unutmanın sanatı

Öğrenmeyi bırakma teknikleri bugün, modelleri öğrenilmesi gereken verilerden “uzaklaştırmak” için tasarlanmış algoritmalara dayanmaktadır. Fikir, modelin tahminlerini etkileyerek, modelin hiçbir zaman — veya yalnızca çok nadiren — belirli verileri çıktı olarak vermesini sağlamaktır.

Bu öğrenmemiş algoritmaların ne kadar etkili olabileceğini görmek için Shi ve işbirlikçileri bir kıyaslama geliştirdiler ve test etmek üzere sekiz farklı açık algoritma seçtiler. MUSE (Makine Öğrenmemiş Altı Yönlü Değerlendirme) adı verilen kıyaslama, bir algoritmanın yalnızca bir modelin eğitim verilerini olduğu gibi dışarı atmasını (geri tükürme olarak bilinen bir fenomen) engelleme yeteneğini değil, aynı zamanda modelin bu veriler hakkındaki bilgisini ve başlangıçta veriler üzerinde eğitildiğine dair tüm kanıtları ortadan kaldırma yeteneğini araştırmayı amaçlıyor.

MUSE’de iyi bir puan almak için modelin iki şeyi unutması gerekiyor: Harry Potter serisinden kitaplar ve haber makaleleri.

Örneğin, Harry Potter ve Sırlar Odası’ndan bir kesit verildiğinde (“‘Tavada daha fazlası var,’ dedi Teyze…”), MUSE, öğrenmemiş bir modelin cümlenin tamamını ezbere bilip bilmediğini (“‘Tavada daha fazlası var,’ dedi Teyze Petunia, gözlerini kocaman oğluna çevirerek”), sahneyle ilgili soruları cevaplayıp cevaplayamayacağını (örneğin, “Teyze Petunia oğluna ne söylüyor?”, “Tavada daha fazlası var”) veya kitaptan alınan metinle eğitildiğini gösterip gösteremeyeceğini test eder.

MUSE ayrıca modelin öğrenmeyi bıraktıktan sonra ilgili genel bilgiyi (örneğin JK Rowling’in Harry Potter serisinin yazarı olduğunu) koruyup korumadığını da test eder; araştırmacılar buna modelin genel faydası adını verir. Fayda ne kadar düşükse, model o kadar fazla ilgili bilgiyi kaybeder ve bu da modelin soruları doğru şekilde cevaplama yeteneğini azaltır.

Araştırmacılar, yaptıkları çalışmada test ettikleri öğrenmeyi bırakma algoritmalarının yaptı modellerin belirli bilgileri unutmasına neden olur. Ancak aynı zamanda modellerin genel soru cevaplama yeteneklerine de zarar verir ve bir takas sunar.

Shi, “Modeller için etkili öğrenmemiş yöntemleri tasarlamak zordur çünkü bilgi modele karmaşık bir şekilde bağlıdır,” diye açıkladı. “Örneğin, bir model telif hakkıyla korunan materyaller üzerinde eğitilebilir – Harry Potter kitapları ve Harry Potter Wiki’den serbestçe erişilebilen içerikler üzerinde. Mevcut öğrenmemiş yöntemleri telif hakkıyla korunan Harry Potter kitaplarını kaldırmaya çalıştığında, modelin Harry Potter Wiki hakkındaki bilgisini de önemli ölçüde etkiler.”

Soruna herhangi bir çözüm var mı? Henüz yok ve bu, ek araştırmaya ihtiyaç duyulduğunu gösteriyor, dedi Shi.

Şimdilik, eğitim verisi sorunlarına bir çözüm olarak öğrenmeyi bırakmaya bahse giren satıcılar şanssız görünüyor. Belki de teknik bir atılım bir gün öğrenmeyi bırakmayı mümkün kılar. Ancak şimdilik, satıcılar modellerinin söylememesi gereken şeyleri söylemesini engellemenin başka bir yolunu bulmak zorunda kalacaklar.



genel-24