OpenAI’nin Baş Teknoloji Sorumlusu Mira Murati yakın zamanda The Wall Street Journal ile bir araya gelerek yakında çıkacak olan metinden videoya dönüştürme oluşturucusu Sora hakkında ilginç ayrıntıları ortaya çıkardı.

Röportaj, yapay zeka motorunun üreteceği içerik türünden uygulamaya konulan güvenlik önlemlerine kadar geniş bir yelpazedeki konuları kapsıyor. Yanlış bilgilerle mücadele etmek şirket için önemli bir konudur. Murati, teknolojinin kötüye kullanılmamasını sağlamak için Sora’da birden fazla güvenlik korkuluğuna sahip olacağını belirtiyor. Ekibin “küresel seçimleri etkileyebilecek” bir şeyi yayınlamaktan çekineceğini söyledi. Makaleye göreSora, Dall-E ile aynı hızlı politikaları izleyecek, yani Amerika Birleşik Devletleri Başkanı gibi “kamuya mal olmuş kişilerin imajlarını” yaratmayı reddedecek.

Filigranlar da eklenecek. Sağ alt köşede bunun AI çekimi olduğunu belirten şeffaf bir OpenAI logosu bulunabilir. Murati, bir başka gösterge olarak içerik kaynağını da benimseyebileceklerini ekliyor. Bu, dijital medyanın kökenleri hakkında bilgi vermek için meta verileri kullanır. Bunların hepsi iyi ve güzel ama yeterli olmayabilir. Geçen yıl bir grup araştırmacı, OpenAI’ye ait olanlar da dahil olmak üzere “mevcut görüntü filigran korumalarını” kırmayı başardı. Umarım daha zor bir şey bulurlar.

Üretken özellikler

Sora’nın geleceği hakkında konuşmaya başladıklarında işler ilginçleşir. Öncelikle geliştiricilerin, videoları daha gerçekçi hale getirmek için “sonunda” videolara ses ekleme planları var. Düzenleme araçları da programda yer alıyor ve çevrimiçi içerik oluşturuculara yapay zekanın birçok hatasını düzeltmeleri için bir yol sunuyor.

Sora ne kadar gelişmiş olsa da pek çok hata yapıyor. Parçadaki öne çıkan örneklerden biri, motordan bir robotun bir kadının kamerasını çaldığı bir video oluşturmasını isteyen bir video istemi etrafında dönüyor. Bunun yerine klipte kadının kısmen robota dönüştüğü görülüyor. Murati, yapay zekanın “süreklilik konusunda oldukça iyi olduğunu” belirterek iyileştirme için yer olduğunu kabul ediyor. [but] mükemmel değil”.

Çıplaklık masadan kalkmıyor. Murati, OpenAI’nin ne tür çıplak içeriğe izin verileceğini belirlemek için “sanatçılarla” birlikte çalıştığını söylüyor. Görünüşe göre ekip, rıza dışı derin sahtekarlıklar gibi şeyleri yasaklarken “sanatsal” çıplaklığa izin vermekte sorun görmüyor. Doğal olarak OpenAI, ürünlerinin yaratıcılığı teşvik eden bir platform olarak görülmesini istese de olası bir tartışmanın merkezi olmaktan kaçınmak istiyor.

Devam eden testler

Sora’yı eğitmek için kullanılan veriler sorulduğunda Murati biraz kaçamak cevap verdi.

Yapay zekayı öğretmek için “kamuya açık veya lisans verileri” dışında neyin kullanıldığını bilmediğini iddia ederek başladı. Dahası, Murati YouTube, Facebook veya Instagram’daki videoların eğitimin bir parçası olup olmadığından emin değildi. Ancak daha sonra Shutterstock’taki medyanın gerçekten kullanıldığını itiraf etti. İki şirket, eğer farkında değilseniz, bir ortaklığın olması Bu da Murati’nin bunu neden kaynak olarak onaylamaya istekli olduğunu açıklayabilir.

Murati, Sora’nın yıl sonuna kadar “kesinlikle” piyasaya çıkacağını belirtiyor. Kesin bir tarih vermedi ancak önümüzdeki aylarda gerçekleşebilir. Şimdilik geliştiriciler, herhangi bir “güvenlik açığı, önyargı ve diğer zararlı sonuçları” bulmak için motorun güvenlik testlerini yapıyor.

Bir gün Sora’yı denemeyi düşünüyorsanız düzenleme yazılımını nasıl kullanacağınızı öğrenmenizi öneririz. Unutmayın, birçok hata yapar ve lansman sırasında da bunu yapmaya devam edebilir. Öneriler için TechRadar’ın 2024’ün en iyi video düzenleme yazılımına göz atın.

Bunları da beğenebilirsin



genel-6