OpenAI, ChatGPT ve AI modelleri tarafından oluşturulan içeriği tespit etmek için bazı yeni araçlar geliştirdi, ancak henüz bunları dağıtmayacak. Şirket, AI tarafından üretilen metnin üzerine bir tür filigran yerleştirmenin bir yolunu buldu. Bu gömülü gösterge, AI’nın ne zaman içerik yazdığını tahmin etme amacına ulaşabilir. Ancak OpenAI, modellerini iyi niyetli amaçlar için kullananlara zarar verebileceği için bunu bir özellik olarak sunmaktan çekiniyor.
OpenAI’nin yeni yöntemi, ChatGPT tarafından oluşturulan metne ince işaretler yerleştirebilen algoritmalar kullanacaktır. Çıplak gözle görülmese de, araç metnin ChatGPT’den geldiğini işaret eden belirli bir sözcük ve ifade biçimi kullanacaktır. OpenAI’nin de belirttiği gibi, bunun bir sektör olarak üretken AI’da bir nimet olabileceğine dair bariz nedenler vardır. Filigranlama, yanlış bilgiyle mücadelede, içerik oluşturmada şeffaflığı sağlamada ve dijital iletişimlerin bütünlüğünü korumada kritik bir rol oynayabilir. Ayrıca, OpenAI’nin AI tarafından oluşturulan görüntüleri için halihazırda kullandığı bir taktiğe de benzer. DALL-E 3 metinden görüntüye modeli, düzenleme yoluyla kaldırma girişimlerinden bile geçebilen görünmez dijital filigranlar dahil olmak üzere AI kökenlerini açıklayan meta verilerle görseller üretir.
Ancak kelimeler görsellerle aynı şey değildir. En iyi koşullarda bile OpenAI, yapay zeka tarafından oluşturulan metni yeniden ifade etmek ve filigranı etkili bir şekilde ortadan kaldırmak için gereken tek şeyin üçüncü taraf bir araç olduğunu kabul etti. Ve OpenAI’nin yeni yaklaşımı birçok durumda işe yarayabilirken, şirket sınırlarını ve hatta her durumda başarılı bir filigran kullanmanın neden her zaman istenmeyebileceğini vurgulamaktan kaçınmadı.
“Yerelleştirilmiş kurcalamalara, örneğin parafraza karşı oldukça doğru ve etkili olsa da, çeviri sistemleri kullanma, başka bir üretken modelle yeniden ifade etme veya modelden her kelimenin arasına özel bir karakter eklemesini isteme ve sonra bu karakteri silme gibi küresel kurcalamalara karşı daha az dayanıklıdır – bu da kötü niyetli kişiler tarafından atlatılmasını kolaylaştırır,” diye açıkladı OpenAI bir blog yazısında. postalamak“Değerlendirdiğimiz bir diğer önemli risk ise araştırmamızın, metin filigranlama yönteminin bazı grupları orantısız bir şekilde etkileme potansiyeline sahip olduğunu göstermesidir.”
AI Yazarlık Damgası
OpenAI, bu tür AI filigranlarının yayınlanmasının olumsuz sonuçlarının herhangi bir olumlu etkiden daha ağır basacağından endişe ediyor. Şirket, özellikle üretkenlik görevleri için ChatGPT kullananları gösterdi, ancak bu, kim olduklarına ve bunları nasıl kullandıklarına bakılmaksızın, üretken AI araçlarına güvenen kullanıcıların doğrudan damgalanmasına veya eleştirilmesine bile yol açabilir.
Bu, çeviri kullanan ve farklı bir dilde içerik oluşturan ChatGPT’nin İngilizce olmayan kullanıcılarını orantısız bir şekilde etkileyebilir. Filigranların varlığı, bu kullanıcılar için engeller yaratabilir ve çok dilli bağlamlarda AI tarafından üretilen içeriğin etkinliğini ve kabulünü azaltabilir. Kullanıcılardan gelebilecek olası tepki, içeriklerinin AI tarafından üretildiği kolayca tespit edilebileceğini bilmeleri durumunda aracı terk etmelerine yol açabilir.
Dikkat çekici bir şekilde, bu OpenAI’nin ilk çalışması değil AI metin dedektörü akın. Ancak şirket sonunda önceki dedektörü kapatmak sadece altı ayda ve daha sonra bu tür araçların genel olarak etkisiz olduğunu ve bir öğretmenin ChatGPT kullanma kılavuzunda böyle bir seçeneğin olmamasının nedenini açıkladı. Yine de güncelleme, insanları AI metin oluşturucularından uzaklaştıran sorunlara neden olmadan AI metnini tespit etmenin mükemmel bir yolu için araştırmanın henüz bitmediğini gösteriyor.