Bir görüntünün AI deepfake olup olmadığını kontrol etmek ne kadar zor? Amazon, bugün duyurduğu yeni yapay zeka sanat oluşturucusu Titan için kendi filigran sistemiyle bir tür cevaba sahip olduğunu iddia ediyor. Tabii ki bu o kadar kolay değil. Modeli kullanan her işletme, kullanıcıların internette buldukları görselin aslında başka bir yapay zeka deepfake’i olup olmadığını nasıl kontrol edebileceklerini özetlemek zorunda kalacak.
Amazon çok fazla teklif vermedi – ya da aslında hiç teklif etmedi –detaylar hakkında Titan’ın bırakın eğitim verilerini, yetenekleriyle. Amazon Web Services’in makine öğreniminden sorumlu başkan yardımcısı Swami Sivasubramanian, şirketin re:Invent konferansında katılımcılara, şirketin “gerçekçi” bir iguana görüntüsü oluşturabileceğini, görüntünün arka planını değiştirebileceğini ve görüntünün sınırlarını genişletmek için üretken bir dolgu türü aracı kullanabileceğini söyledi. . Bu daha önce görmediğimiz bir şey değil ancak model, AWS müşterileriyle sınırlıdır. Ana kaya platformu. İşletmelerin kendi platformlarına entegre olmaları için temel bir modeldir.
Bulut hizmeti sağlayan dev, diğer birçok şirket gibi, bir görüntünün yapay zeka tarafından oluşturulup oluşturulmadığını anlama sorumluluğunu bireysel kullanıcılara yüklüyor. Şirket, bu yeni yapay zeka görüntü oluşturucunun, model aracılığıyla oluşturulan her görüntüye “görünmez bir filigran” koyacağını söyledi. Bu, “Yapay zeka tarafından oluşturulan görüntüleri tanımlamak için gizli bir mekanizma sağlayarak yanlış bilgilerin yayılmasını azaltmaya yardımcı olmak için tasarlandı.”
Bunun ne tür bir filigran olduğu veya dışarıdan kullanıcıların görüntüyü nasıl tanımlayabileceği hemen belli değil. Google DeepMind gibi diğer şirketler de sahip olduklarını iddia etti Yapay zeka tarafından oluşturulan bir görüntünün piksellerini bozmanın yollarını buldu Değiştirilemez bir filigran oluşturmak için. Gizmodo açıklama almak için Amazon’a ulaştı ancak hemen bir yanıt alamadık.
AWS’nin üretken yapay zeka başkan yardımcısı Vasi Philomin şunları söyledi: Sınır filigranın “kırpılamaz veya sıkıştırılamaz” olmasına rağmen görüntü kalitesini etkilemediğini. Görünüşe göre bu sadece bir meta veri etiketi değil. Adobe meta veri etiketlerini kullanır Firefly modeliyle oluşturulan bir görüntünün yapay zeka olup olmadığını belirtmek için. Bir görselin meta veri etiketi içerip içermediğini öğrenmek için kullanıcıların ayrı bir siteye gitmesini gerektirir.
Bir görselin yapay zeka olup olmadığını anlamak için kullanıcıların ayrı bir API’ye bağlanması gerekecek. Kullanıcılara bu AI tarama teknolojisine nasıl erişeceklerini anlatmak, modeli kullanan her bir şirketin sorumluluğunda olacaktır.
Basitçe söylemek gerekirse, özellikle her şirketin kendi yapay zekası için ayrı bir filigran sistemi oluşturduğu göz önüne alındığında, hangi görüntülerin yapay zeka olduğunu anlamak inanılmaz derecede can sıkıcı olacak.
Amazon’un yapay zeka modelleri şu ana kadar piyasaya sürülen büyük şirketler arasında en kapalı modeller olabilir. Salı günü şirket “Q”yu açıkladı. işletmeler için özelleştirilebilir bir chatbot, ancak temel modelleri veya eğitim verileri hakkında hiçbir fikrimiz yok. İçinde Blog yazısıÖnde gelen AI çip üreticisi Nvidia, Amazon’un kendi teknolojisini kullandığını söyledi. NeMo çerçevesi yeni modeli eğitmek için. NeMo, yeni yapay zekanın gelişimini hızlandırmayı amaçlayan önceden eğitilmiş modeller içeriyor ancak bu, yeni yapay zeka sanat oluşturucusuna ne tür içeriğin dahil edildiğine dair pek fazla ipucu sunmuyor.
Şirketin bu yapay zekaya nelerin dahil olduğu hakkında fazla konuşmak istememesinin bir nedeni var. Yapay zeka sanat yaratıcıları üretenlerin, yapay zeka eğitimi için çalışmalarını izinsiz kullandıklarını iddia ederek diğer şirketleri eleştiren ve hatta dava açan çok sayıda sanatçı var. Amazon, teknoloji devinin dil modeli kodlama yapay zekasını kullanan şirketleri koruma sözü verdi. Kod Fısıltısı eğer birisi dava açmaya çalışırsa. Çarşamba günü, Sivasubramanian katılımcılara tazminat politikasının Titan modeli için de geçerli olacağını söyledi.
AWS, Titan modelinin “verilerdeki zararlı içeriği tespit edip kaldırarak, uygunsuz kullanıcı girişlerini reddederek ve model çıktılarını filtreleyerek yapay zekanın sorumlu kullanımı için yerleşik desteğe” sahip olduğunu iddia ediyor. Bunun anlamı, test etme şansı bulamadan havada kalmasıdır. Re:Invent konferansında duyurulan tüm yapay zeka gibi, model, ödeme yapan kurumsal müşteriler dışında sıkı bir şekilde kilitlendi.