ChatGPT yaratıcısı OpenAI, başta sosyal medya olmak üzere dijital platformlarda içerik denetleme sürecini otomatikleştirmek için GPT-4 büyük dil modelinin (LLM) geliştirilmesi üzerinde çalışıyor.

OpenAI, GPT-4’ün uzun içerik politikası belgelerindeki kuralları ve nüansları yorumlama yeteneğinin yanı sıra politika güncellemelerine anında uyum sağlama yeteneğinin kullanımını araştırıyor. Blog yazısı.

Şirket, “Bunun, AI’nın çevrimiçi trafiği platforma özgü politikaya göre yönetmeye yardımcı olabileceği ve çok sayıda insan moderatörün zihinsel yükünü hafifletebileceği dijital platformların geleceği hakkında daha olumlu bir vizyon sunduğuna inanıyoruz” dedi. OpenAI’nin API’sine erişimi olan kullanıcılar kendi moderasyon sistemlerini uygulayabilir.

Şirket, tamamen manuel ve zaman alıcı olan mevcut içerik denetleme uygulamasının aksine, OpenAI’nin GPT-4 büyük dil modelinin saatler içinde özel içerik ilkeleri oluşturmak için kullanılabileceğini söyledi.

Bunu yapmak için, veri bilimcileri ve mühendisler, verileri etiketlemek için politika uzmanları tarafından hazırlanmış bir politika kılavuzunu ve bu tür politika ihlallerinin gerçek hayattan örneklerini içeren veri kümelerini kullanabilirler.

AI içerik denetimini test etmeye yardımcı olacak insanlar

“Ardından, GPT-4 politikayı okur ve yanıtları görmeden aynı veri kümesine etiketler atar. Politika uzmanları, GPT-4’ün yargıları ile bir insanınkiler arasındaki tutarsızlıkları inceleyerek GPT-4’ten bir mantık yürütmesini isteyebilir. etiketlerinin arkasında, politika tanımlarındaki belirsizliği analiz edin, karışıklığı giderin ve buna göre politikada daha fazla açıklama sağlayın” dedi.

Büyük dil modeli tatmin edici sonuçlar üretmeden önce bu adımların veri bilimcileri ve mühendisler tarafından tekrarlanabileceğini de sözlerine ekledi ve yinelemeli sürecin, politikanın konuşlandırılmasını ve geniş ölçekte içerik denetlemeyi sağlayan, sınıflandırıcılara çevrilen rafine içerik politikaları sağladığını açıkladı.

OpenAI’ye göre, GPT-4’ü kullanmanın içerik denetlemeye yönelik mevcut manuel yaklaşıma göre diğer avantajları arasında tutarsız etiketlemede azalma ve daha hızlı geri bildirim döngüsü yer alıyor.

“İnsanlar politikaları farklı yorumlayabilir veya bazı moderatörlerin yeni politika değişikliklerini sindirmesi daha uzun sürebilir ve bu da tutarsız etiketlere yol açabilir. Buna karşılık, LLM’ler ifadelerdeki ayrıntılı farklılıklara karşı hassastır ve kullanıcılara tutarlı bir içerik deneyimi sunmak için politika güncellemelerine anında uyum sağlayabilir. ” dedi şirket.

Şirkete göre yeni yaklaşım, modeli eğitme açısından da daha az çaba gerektiriyor.

Ayrıca OpenAI, bu yaklaşımın sözde yaklaşımdan farklı olduğunu iddia ediyor. anayasal AI, bu durumda içerik denetimi, modelin neyin güvenli olduğuna ilişkin içselleştirilmiş yargısına bağlıdır. Anthropic dahil olmak üzere çeşitli şirketler, modellerini önyargı ve hatasız olacak şekilde eğitirken anayasal bir yapay zeka yaklaşımı benimsemiştir.

Yine de OpenAI, eğitim sırasında istenmeyen önyargıların içerik denetleme modellerine sızabileceği konusunda uyardı.

“Herhangi bir AI uygulamasında olduğu gibi, sonuçların ve çıktının dikkatli bir şekilde izlenmesi, doğrulanması ve insanları döngüde tutarak rafine edilmesi gerekecek” dedi.

Endüstri uzmanları, OpenAI’nin içerik denetleme yaklaşımının potansiyele sahip olduğunu düşünüyor. AI hizmetleri şirketi Rapyd.AI’nin yönetici ortağı Tobias Zwingmann, “GPT-4 süper yetenekli bir model ve OpenAI, ona zararlı şeyler yaptırmaya çalışan hiç bitmeyen bir kullanıcı akışına sahip. Bu harika bir eğitim verisi” dedi.

OpenAI’nin geniş dil modeli, içerik denetimi için başarılı bir şekilde kullanılabilirse, şirket için milyarlarca dolarlık bir pazar açacaktır.

Küresel içerik denetleme hizmetleri pazarı, bir Allied Market Research’ten rapor2021’de 8,5 milyar dolar değerindeydi ve 2022’den 2031’e kadar yıllık %12,2 bileşik büyüme oranıyla büyüyerek 2031’de 26,3 milyar dolara ulaşacağı tahmin ediliyor.

Telif hakkı © 2023 IDG Communications, Inc.



genel-12