Londra’daki üst düzey bir yapay zeka firmasının güvenlik şefi, platformların tüketicileri nasıl güvende tuttuğunun daha fazla incelendiği bir ortamda üretken yapay zeka işletmelerinin etik sorunları tek başına çözmeye bırakılmaması gerektiğini söyledi.

Şubat ayında ses üretimi şirketi ElevenLabs’a katılan Aleksandra Pedraszewska, ticari motivasyonların bireysel şirketlerin etik karar verme sürecini engelleyebileceğini öne sürdü.

Şöyle söyledi: “Sanırım en önemlisi kendimi görmüyorum veya bir teknoloji şirketinde herhangi bir güvenlik görevinde çalışan hiç kimsenin herhangi bir etik sorunu çözmesi gerektiğini düşünmüyorum. Bu, şirket içinde mevcut olabilecek ticari motivasyonların etkisi olmadan, belirli sorunlara odaklanan kuruluşlara vermemiz gereken bir şeydir.

“ElevenLabs’ın yapay zeka güvenlik fonksiyonunun ardındaki temel amaç, halihazırda kolayca bulunabilen ve bariz hiçbir şeyi kaçırmadığınızdan emin olmak için hemen devreye alınabilecek tüm çözümleri benimsemektir. Bu, herhangi bir üretken yapay zeka şirketi için kolay olmalı: İçerik denetimi söz konusu olduğunda ve sorunlu bir şekilde davranan kötü aktörlerin davranışlarının nasıl işaretleneceğini anlamak söz konusu olduğunda zaten pek çok güvenilir çözüm var.

“Asıl amacımın, eksik kalmadığımızdan emin olmak, mevcut ve akademik araştırmalardan gelen çözümleri uygulamamak, bazı konuları çok daha iyi anlayan akademik araştırmacılarla çalışmak olduğunu düşünmek isterim. Her ne kadar bu ürünlerden bazılarıyla günlük olarak çalışıyor olsak da aklımıza politika ve etik soruları geliyor.”

Pedraszewska, yapay zeka işlerine yönelik geliştirilmiş düzenleme konusunun gündemin üst sıralarında yer aldığı San Francisco’daki TechCrunch Disrupt konferansında açıklamalarda bulundu.

Bu sözler, Character.AI tarafından geliştirilen bir chatbotun geliştirildiği iddialarının ardından geldi. genç bir çocuğun intiharından sorumlu.

On dört yaşındaki Sewell Setzer’in ebeveyni, şirketi, oğlunun bir chatbot ile uygunsuz bir ilişki geliştirmesini ve bu durumun aileden uzaklaşmasına neden olmasını önlemek için uygun güvenlik önlemlerini uygulamamakla suçladı.

Character.AI, devam eden dava hakkında yorum yapmadığını ancak “kullanıcılarımızdan birinin trajik kaybından dolayı kalbinin kırıldığını” söyledi.

En iyi yapay zeka firmaları, son aylarda güvenlik kaygıları nedeniyle üst düzey liderlerin ayrıldığına da tanık oldu.

OpenAI baş teknoloji sorumlusu Mira Murati aniden istifa etti Eylül ayında, şirketin yapay zekanın varoluşsal tehlikelerine odaklanan “süper hizalama” ekibine liderlik eden araştırma başkanı Bob McGrew, araştırma başkan yardımcısı Barret Zoph ve baş bilim adamı Ilya Sutskever’in daha önce ayrılmasının ardından. Ocak istifayı gördüm Google’da yeni yapay zeka ürünlerini sorumlu yapay zeka geliştirme kurallarına uygunluk açısından inceleyen bir ekibin başkanı.

ElevenLabs, 80 milyon dolarlık bir finansman turuyla Sequoia Capital gibi şirketlerin ilgisini çektikten sonra Ocak ayında tek boynuzlu at statüsüne ulaştı.

Ağustos ayında şirket, ElevenLabs’ın 20 Londra personeli için yeni üs olacak Soho’nun Wardour Caddesi’nde yeni bir ofis açtı ve İngiltere’nin başkentindeki çalışan sayısını altı ay içinde iki katına çıkarmayı planlıyor.

Metinden konuşmaya ses için insan sesini taklit edebilen ElevenLabs, “önümüzdeki yıllarda” Londra ekibinin 100 kişiye çıkmasını beklediğini söyledi.

Pedraszewska, şirketin seslendirme topluluğuyla çalışmaya öncelik verdiğini ve kişisel verileri modelleri eğitmek için kullanılan tüm seslendirme sanatçılarının çalışmaları için uygun şekilde ücretlendirilmesini sağladığını ekledi. Firma, kuruluşundan bu yana seslendirme sanatçılarına 1 milyon dolardan fazla para harcadı.

Ücretsiz Kayıt Ol

Günlük güncellemeleri alın ve reklamların azaltıldığı bir deneyimin keyfini çıkarın.





Zaten bir hesabınız var mı? Giriş yapmak



genel-11