Yapay zeka topluluğundaki yüzlerce kişi Yapay zeka tarafından oluşturulan taklitlerin veya derin sahtekarlıkların sıkı bir şekilde düzenlenmesi çağrısında bulunan açık bir mektubu imzaladı. Bunun gerçek mevzuatı teşvik etmesi pek mümkün olmasa da (Meclis’in yeni görev gücüne rağmen), uzmanların bu tartışmalı konuya nasıl eğileceğine dair bir öncü görevi görüyor.

Yayınlandığı sırada yapay zeka alanından ve yakınında bulunan 500’den fazla kişi tarafından imzalanan mektupta, “Deepfake’lerin toplum için büyüyen bir tehdit olduğu ve hükümetlerin deepfake’lerin yayılmasını durdurmak için tedarik zinciri boyunca yükümlülükler getirmesi gerektiği” belirtiliyor.

Gösterilen rakamların gerçek ya da kurgu olup olmadığına bakılmaksızın, derin sahte çocuk cinsel istismarı materyallerinin (CSAM, diğer adıyla çocuk pornografisi) tamamen suç sayılması çağrısında bulunuyorlar. Birisinin zararlı deepfake içerikleri oluşturduğu veya yaydığı her durumda cezai yaptırımlar uygulanır. Geliştiricilere, ilk etapta kendi ürünleri kullanılarak zararlı deepfake’lerin yapılmasını engellemeleri, eğer önleyici tedbirleri yetersizse cezalar vermeleri isteniyor.

Mektubun en önemli imzacıları arasında şunlar yer alıyor:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russel
  • Andrew Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcus
  • Ören Etzioni
  • Genevieve Smith
  • Yoshua Bengio
  • Dan Hendrycks
  • Tim Wu

Ayrıca dünyanın dört bir yanından ve birçok disiplinden yüzlerce akademisyen de mevcut. Merak ediyorsanız, OpenAI’den bir kişi, Google Deepmind’den bir çift imzaladı ve bu haberin yazıldığı sırada Anthropic, Amazon, Apple veya Microsoft’tan (pozisyonu standart dışı olan Lanier hariç) hiçbiri imzaladı. İlginç bir şekilde bunlar mektupta “Önemliliğe” göre sıralanıyor.

Bu, bu tür önlemlere yönelik ilk çağrı olmaktan çok uzaktır; Aslında bu ayın başlarında resmi olarak teklif edilmeden önce AB’de yıllardır tartışılıyorlardı. Belki de bu araştırmacıları, yaratıcıları ve yöneticileri konuşmaya teşvik eden şey AB’nin müzakere etme ve bunları takip etme istekliliğidir.

Veya belki de KOSA’nın kabule doğru yavaş ilerlemesi ve bu tür istismarlara karşı koruma eksikliğidir.

Ya da belki de (daha önce gördüğümüz gibi) seçimi etkileyebilecek veya saf insanların paralarını çalabilecek, yapay zeka tarafından oluşturulan dolandırıcılık çağrıları tehdididir.

Ya da belki de dünkü görev gücünün, bazı yapay zeka tabanlı tehditlerin neler olabileceği ve bunların yasal olarak nasıl kısıtlanabileceği hakkında bir rapor yazmaktan başka belirli bir gündem olmadan duyurulmasıdır.

Gördüğünüz gibi, yapay zeka topluluğundakilerin burada kollarını sallayıp “belki de bir şeyler yapmalıyız?” demeleri için pek çok neden var.

Herhangi birinin bu mektubu dikkate alıp almayacağı herkesin tahminidir; herkesi yapay zeka gelişimini “durdurmaya” çağıran kötü şöhretli mektubu kimse gerçekten dikkate almadı, ancak elbette bu mektup biraz daha pratik. Yasa koyucular konuyu ele almaya karar verirlerse, ki kongrenin keskin bir şekilde bölünmüş olduğu bir seçim yılı olduğu göz önüne alındığında bu beklenmedik bir olaydır, yapay zekanın dünya çapındaki akademik ve kalkınma topluluğunun sıcaklığını ölçmek için bu listeden yararlanacaklardır.



genel-24