Google, bu hafta Google I/O geliştirici konferansında yapay zeka modellerinde derin sahte ve sorunlu çıktılar yoluyla yanlış bilgilerin yayılmasını engellemek için daha güçlü güvenlik önlemleri de dahil olmak üzere yapay zeka ile ilgili bir dizi duyuru yaptı.

Şirket, yapay zeka tarafından oluşturulan video ve metinlere görünmez filigranların eklenmesini sağlamak için SynthID filigran teknolojileri serisini genişletti. Bu şekilde belgeler orijinal kaynaklarına kadar takip edilebilir. SynthID zaten filigranları yapay zeka tarafından oluşturulan görüntülere ve sese uyguluyor.

Google I/O’dan Google’ın kıdemli başkan yardımcısı James Manyika, “Modellerimizin kötüye kullanılmasını önlemek için yeni araçlar geliştiriyoruz” dedi.

Yapay zekanın çeşitli içerik türlerini oluşturmak için giderek daha fazla kullanılması nedeniyle, yapay zeka tarafından oluşturulan içeriğe filigran eklemek önem kazanıyor. Deepfake video ve ses zaten yanlış bilgi yaymak ve iş e-postalarının gizliliğini ihlal etmek için kullanılıyor.

Google ayrıca I/O’da gerçekçi videolar üreten Veo ve gerçekçi görüntüler üreten Imagen 3 olmak üzere iki yeni AI modelini de duyurdu. Manyika, sahteleri kolayca tespit etmek ve yanlış bilgilerin yayılmasını önlemek için her iki modelde de yeni filigranlama tekniklerinin uygulanacağını söyledi. Örneğin, VideoFX’te Veo tarafından oluşturulan tüm videolar SynthID tarafından filigranlanacaktır.

Manyika, “Bu alanda zarar ve kötüye kullanım potansiyeli de dahil olmak üzere birçok araştırma yapıyoruz” dedi.

SynthID filigranı ile AI modeli, oluşturulan çıktıya bir metin bloğu veya görünmez bir istatistiksel model olabilen bir filigran ekler. Daha sonra metnin yapay zeka tarafından mı oluşturulduğunu yoksa başka bir kaynaktan mı geldiğini görmek amacıyla filigran modelinin benzersizliğini belirlemek için bir puanlama sistemi kullanıyor. Google açık kaynak kullanıyor SynthID metin filigranı diğer satıcılara.

Google bir blog yazısında şöyle yazdı: “Metin filigranı için SynthID, bir dil modeli daha uzun yanıtlar ürettiğinde ve çeşitli şekillerde – örneğin bir makale, tiyatro senaryosu veya bir e-postanın varyasyonlarını oluşturması istendiğinde en iyi şekilde çalışır.”

Şirket, I/O’da ayrıca yapay zeka destekli kırmızı ekip oluşturma teknikleriyle yapay zeka modellerini nasıl koruduğunu da belirtti. Yapay zeka ajanları, kırmızı takım yeteneklerini geliştirmek ve genişletmek için birbirleriyle rekabet edecek şekilde eğitilir. Bu rakip tekniğin arkasındaki temel amaç sorunlu çıktıları azaltmaktır.

Manyika, “Kendi modellerimizi test ediyoruz ve zayıf yönleri tespit ederek onları kırmaya çalışıyoruz” dedi. “Yapay zeka sorumluluğunu oluşturmak, hem riskleri ele almak hem de insanların ve toplumun faydalarını en üst düzeye çıkarmak anlamına gelir.”



siber-1