Ofcom, Yapay Zeka içerik denetleme girişimleri için potansiyel bir destek olarak Çevrimiçi Güvenlik Yasası’nın dijital koruma gereksinimlerini karşılamak için otomasyon kullanımını araştırıyor.

İngiliz medya düzenleyicisi, yakın zamanda oluşturulan ve özellikle çocuklar için çevrimiçi güvenliği zorunlu kılan yasayı uygulamakla görevlendirildi.

Ofcom Cuma günü yaptığı açıklamada, “Yapay zekanın yasa dışı içeriği ve çocuklara yönelik zararları tespit etmek için nasıl kullanılabileceği konusunda ek teklifler geliştirme planlarının sinyalini vereceğini” söyledi.

İletişim gözlemcisi, insanların zararlı içeriği görmesini önlemek için otomatik tespit araçlarının nasıl kullanılabileceği konusunda “bu yılın sonlarında” bir istişare başlatacağını söyledi.

Geçtiğimiz Ekim ayında yasalaşan Çevrimiçi Güvenlik Yasası uyarınca, içerik barındıran platformların zorbalık ve intiharı veya kendine zarar vermeyi teşvik eden içerik gibi materyalleri engellemek için katı önlemler alması gerekiyor.

Yapay zekanın bir araç olarak keşfedilmesi, içerik denetleme oyununda büyüyen yapay zeka girişimleri pazarı için bir fırsat sunuyor.

Bunların arasında, bir fotoğrafın veya videonun zararlı içerik içerip içermediğini tespit etmek ve insan denetimini taklit etmek için makine öğrenimi teknolojisi geliştiren Londra merkezli bir girişim olan Unitary AI da yer alıyor.

Şirket, geçen yıl Mart 2023’te 6,7 milyon £ ve Ekim’de 12 milyon £ tutarında önemli miktarda nakit topladı.

En son turda şirket, her gün birden fazla dilde altı milyon videoyu analiz ettiğini söyledi.

Unitary’nin kurucu ortağı ve CEO’su Sasha Haco, “Birleşik Krallık’ın çevrimiçi güvenliği artırmada lider olmaya devam ettiğini görmek harika ve bu istişare ileriye doğru atılan bir adımı temsil ediyor” dedi. UKTN.

“Yapay zekadaki hızlı ilerleme, çevrimiçi zararlarla mücadelede yeni olanakların kilidini açıyor ve yapay zekanın sonuçta gelecekteki tüm çözümleri destekleyeceğine ve çevrimiçi platformlar için Güven ve Güvenlik uygulamalarını tamamen dönüştüreceğine inanıyoruz.”

Surrey merkezli rakip Arwen AI da benzer şekilde nefret söylemini önlemek için sosyal medyada otomatikleştirilmiş teknolojiyi kullanıyor.

Arwen, spam, küfür, hakaret ve nefret söylemi gibi potansiyel olarak zarar verici içeriğin çeşitli biçimlerini tespit etmek için tasarlanmış düzinelerce algoritma geliştirdi.

Otomasyon, içerik denetimi için çok daha ölçeklenebilir bir yaklaşım olsa da sistemler, yanlış pozitifler olarak bilinen içeriği hatalı bir şekilde politikaları ihlal eden olarak tanımlayabilir.

Devamını oku: Ofcom, Çevrimiçi Güvenlik Yasasını uygulamak için Büyük Teknoloji personelini işe alıyor



genel-11