Meta, yapay olarak üretilen görüntüleri tanımlamak için araçlar geliştirmeye çalışıyor. üretken yapay zeka Şirket Salı günü yaptığı açıklamada, Facebook, Instagram ve Threads gibi sosyal medya platformlarında geniş ölçekte sistemler bulunduğunu söyledi.

“…bir içerik parçasının yapay zeka kullanılarak oluşturulduğunu belirten ortak teknik standartlara uyum sağlamak için endüstri ortaklarıyla birlikte çalışıyoruz. Bu sinyalleri tespit edebilmek, kullanıcıların Facebook, Instagram ve Threads’te paylaştığı yapay zeka tarafından oluşturulan görselleri etiketlememizi mümkün kılacak.” Meta’nın küresel ilişkiler başkanı Nick Clegg, bir yazısında şöyle yazdı: Blog yazısı.

Clegg, “Şu anda bu özelliği geliştiriyoruz ve önümüzdeki aylarda her uygulamanın desteklediği tüm dillerde etiket uygulamaya başlayacağız” diye ekledi.

Google, OpenAI, Adobe, Shutterstock gibi şirketlerin yapay zeka tarafından oluşturulan görsellerini etiketleme hamlesi Yolculuk ortası2024’te ABD, AB, Hindistan ve Güney Afrika da dahil olmak üzere pek çok ülkede birden fazla seçimin yapılacağı göz önüne alındığında, bu durum önem taşıyor.

Clegg, bu yıl ayrıca Meta’nın, kullanıcıların yapay zeka tarafından oluşturulan içeriği nasıl oluşturduğu ve paylaştığı ve netizenlerin ne tür şeffaflığı değerli bulduğu hakkında daha fazla bilgi edineceğini söyledi.

Clegg’in seçimlerle ilgili açıklaması, New York Times ve The Observer tarafından 2018’de ortaya çıkarılan ve en az 50 milyon kullanıcının Facebook verilerinin ele geçirildiği Cambridge Analytica skandalını hatırlatıyor.

Geçtiğimiz ay, ChatGPT yapımcısı OpenAI, Demokratların başkan adayı Kongre üyesi Dean Phillips’i taklit eden bir bot yaratan iki geliştiriciyi askıya aldı ve bu, şirketin yapay zekanın kötüye kullanımına karşı ilk eylemi oldu.

Yapay zeka tarafından oluşturulan ses ve video için etiket yok

Clegg’e göre Meta, kendi yapay zeka özelliğiyle oluşturulan görüntüleri zaten işaretliyor. görünür işaretleyiciler Ve görünmez filigranlar. Bu görünmez filigranlar görüntünün meta verilerinin içine gömülür.

Clegg, bu filigranların birleşiminin diğer platformların yapay zeka tarafından oluşturulan görüntüleri tanımlamasını kolaylaştırdığını söyledi.

Meta aynı zamanda AI tarafından oluşturulan görüntülerin aşağıdaki gibi forumlar aracılığıyla tanımlanmasına yönelik ortak standartlar geliştirmek üzere diğer şirketlerle birlikte çalışıyor. Yapay zeka konusunda ortaklık (PAI), diye ekledi Clegg.

Ancak kendisi, birçok şirketin oluşturulan görüntüleri tanımlamaya yardımcı olacak sinyalleri dahil etmeye başlamasına rağmen aynı politikanın oluşturulan ses ve videoya uygulanmadığını da belirtti.

Oluşturulan ses ve videoyla ilgili tanımlama politikalarının yokluğunda Clegg, Meta’nın, insanların AI tarafından oluşturulan video veya sesi paylaştıklarında şirketin buna bir etiket ekleyebilmesi için ifşa etmesi için bir özellik eklediğini söyledi.

Clegg, şunları yazdı: “İnsanların, dijital olarak oluşturulmuş veya değiştirilmiş, fotogerçekçi bir video veya gerçekçi ses veren bir sese sahip organik içerik yayınladıklarında bu açıklama ve etiketleme aracını kullanmalarını zorunlu kılacağız ve bunu yapmazlarsa ceza uygulayabiliriz.” blog.

Daha fazla düşmanca zorluk gelecek

Meta, geliştirilmekte olan araç ve standartların, oluşturulan içeriğin etiketlenmesi konusunda mümkün olan en ileri düzeyde olmasına rağmen, kötü aktörlerin hala görünmez işaretleri ortadan kaldıracak yollar bulabileceğini kabul etti.

Şirket, bu tür kötü aktörleri durdurmak için, içerikte görünmez işaretler olmasa bile şirketin yapay zeka tarafından oluşturulan içeriği otomatik olarak tespit etmesine yardımcı olabilecek sınıflandırıcılar geliştirme üzerinde çalıştığını söyledi.

“Aynı zamanda görünmez filigranların kaldırılmasını veya değiştirilmesini zorlaştırmanın yollarını arıyoruz. Örneğin, Meta’nın Yapay Zeka Araştırma laboratuvarı FAIR yakın zamanda geliştirmekte olduğumuz görünmez bir filigran teknolojisine ilişkin araştırmayı paylaştı. Kararlı İmza” diye yazdı Clegg.

Üst düzey yönetici, Kararlı İmza’nın, bazı görüntü oluşturucu türleri için filigranlama mekanizmasını doğrudan görüntü oluşturma sürecine entegre ettiğini, bunun açık kaynaklı modeller için değerli olabileceğini ve dolayısıyla filigranın devre dışı bırakılamayacağını açıkladı.

Geçmişte şirket, nefret söylemini ve politikasını ihlal eden diğer içerik biçimlerini tespit edip kaldırmak için daha önce de yapay zeka sistemlerini kullanmıştı.

Meta, 2023’ün üçüncü çeyreği itibarıyla yapay zeka sistemlerinin Facebook’ta nefret söylemi yaygınlığını yalnızca %0,01-0,02’ye düşürmeye yardımcı olduğunu iddia ediyor.

Meta, zararlı içeriği daha hızlı kaldırmak için üretken yapay zekayı kullanmayı planlıyor. “Testlere başladık büyük dil modelleri (LLM’ler) Bir içeriğin politikalarımızı ihlal edip etmediğini belirlemeye yardımcı olmak için onları ‘Topluluk Standartlarımız’ konusunda eğiterek. Bu ilk testler, Yüksek Lisans’ların mevcut makine öğrenimi modellerinden daha iyi performans gösterebileceğini gösteriyor.” diye yazdı Clegg.

Clegg, bu LLM’lerin aynı zamanda incelemecilerin şirketin politikalarını ihlal etmediğinden oldukça emin oldukları belirli durumlarda şirketin içeriği inceleme kuyruklarından kaldırmasına da yardımcı olduğunu ekledi.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13