Yediler Grubu (G7) ülkelerinin liderleri Cumartesi günü yapay zekayı (AI) kontrol altında tutmak için teknik standartların oluşturulması çağrısında bulundu ve AI’nın güvenlik ve güvenlik gözetimini geride bıraktığını söyledi.

Japonya’nın Hiroşima kentinde bir araya gelen liderler, ulusların ortak bir vizyon ve güvenilir yapay zeka hedefi üzerinde bir araya gelin, bu çözümler değişiklik gösterse bile. Ancak yapay zeka gibi dijital teknolojilere yönelik herhangi bir çözüm, “ortak demokratik değerlerimizle uyumlu” olmalıdır. bir açıklamada söyledi.

ABD, Japonya, Almanya, İngiltere, Fransa, İtalya, Kanada ve AB’yi içeren G7, güvenilir yapay zeka yaratma çabalarının “yönetişim, telif hakları dahil fikri mülkiyet haklarının korunması, şeffaflığın teşviki, [and] dezenformasyon da dahil olmak üzere yabancı bilgi manipülasyonuna tepki.

G7 liderleri, “Ülkeler ve sektörler arasında giderek daha fazla öne çıkan üretken AI’nın fırsatlarını ve zorluklarını derhal değerlendirmemiz gerektiğinin farkındayız” dedi. Daha spesifik olarak, olası üretken AI çözümlerini ele almak için yıl sonuna kadar bir G7 çalışma grubunun oluşturulması çağrısında bulundular.

G7 zirvesi, geçen ay üyelerin “riske dayalı” yapay zeka kuralları talep ettiği bir “dijital bakanlar” toplantısını takip etti.

AI tehditleri çoktur

Gartner Research’te başkan yardımcısı ve seçkin bir analist olan Avivah Litan’a göre yapay zeka, insanlık için bir dizi tehdit oluşturuyor, bu nedenle insanlara hizmet etmeye devam etmesini sağlamak önemlidir, tersi değil.

Gündelik tehditler arasında, üretici yapay zeka modellerinde onları öngörülemez hale getiren şeffaflık eksikliği yer alır; Litan, satıcılar bile “dahili olarak nasıl çalıştıklarına dair her şeyi anlamıyor” dedi. geçen hafta bir blog yazısı. Ayrıca, doğrulanabilir veri yönetimi veya koruma güvencesi olmadığı için, üretken yapay zeka fikri mülkiyet ve telif hakkı yasalarını ihlal ederek içeriği istediği zaman çalabilir ve yeniden üretebilir.

Ek olarak, sohbet robotları ve diğer AI tabanlı araçlar, çıktıları yalnızca veri girişi kadar iyi olduğundan ve bu alım süreci genellikle internete bağlı olduğundan, yanlış veya uydurma “halüsinasyonlar” üretebilir. Litan, sonucun dezenformasyon, “yanlış bilgi” ve yanlış bilgi olduğunu belirtti.

Düzenleyiciler, yapay zeka modeli satıcılarının sistemlerinde kullanılan içerik, yazılım ve diğer dijital varlıkların kaynağını doğrulamak için standartları kullanması gereken zaman çerçevelerini belirlemelidir. Şuradaki standartlara bakın: C2PA, scitt.io, IETF örnekler için,” dedi Litan.

“Sadece harekete geçmemiz ve yakında harekete geçmemiz gerekiyor” dedi.

Litan, MIT fizikçisi, kozmolog ve makine öğrenimi araştırmacısı Max Tegmark ve sözde “Yapay zekanın vaftiz babası” Geoffrey Hinton gibi yapay zeka uzmanlarının bile insanlığa yönelik varoluşsal tehdide uygulanabilir bir çözüm bulamadıklarını söyledi.

Bu ayın başlarında MIT’de düzenlenen bir AI konferansında Hinton, AI kendi kendine öğrenebildiği için zamanla katlanarak daha akıllı hale geleceği ve kendi kendine düşünmeye başlayacağı konusunda uyardı. Bu gerçekleştiğinde, Hinton’un kaçınılmaz olduğuna inandığı şeyi – insanların yok oluşunu – durduracak çok az şey var.

“Bunlar, Machiavelli’nin şimdiye kadar yazdığı her yerde ve her yerde yazılan tüm romanları okuyarak bizden öğrenmiş olacak. [about] İnsanları nasıl manipüle edeceğiniz, ”dedi Hinton, bir Soru-Cevap alışverişi sırasında kalabalık bir evde. “Ve eğer bizden çok daha akıllılarsa, bizi manipüle etmekte çok iyi olacaklar. Neler olduğunu anlamayacaksın. ‘Bezelye mi yoksa karnabahar mı istersin’ diye sorulan ve ikisine de sahip olmak zorunda olmadığının farkında olmayan iki yaşında bir çocuk gibi olacaksın. Ve manipüle edilmesi o kadar kolay olacaksın.”

Avrupa yapay zekayı yavaşlatmak için harekete geçiyor

G7 bildirisi, Avrupa Birliği’nin tasarım ve dağıtım açısından ChatGPT, DALL-E ve Midjourney gibi üretken araçlarda hüküm sürecek olan AI Yasası’nın AB yasası ve temel haklarla uyumlu hale getirilmesi konusunda anlaşmaya varmasının ardından geldi. AI üreticilerinin sistemlerini geliştirmek için kullanılan telif hakkıyla korunan materyalleri ifşa etme ihtiyacı.

Avrupa Komisyonu Başkanı Ursula von der Leyen Cuma günü yaptığı açıklamada, “Yapay zeka sistemlerinin kaynağı ne olursa olsun doğru, güvenilir, güvenli ve ayrımcı olmamasını istiyoruz” dedi.

Bu ayın başlarında Beyaz Saray, güvenlik ve mahremiyete yönelik AI kurallarını da açıkladı. Biden Yönetiminin son çabası, bir tür sorumlu yeniliği teşvik etmeye yönelik önceki girişimlere dayanıyordu, ancak Kongre bugüne kadar yapay zekayı düzenleyecek herhangi bir yasa çıkarmadı. Geçen Ekim ayında yönetim bir açıklama yaptı. “AI Haklar Bildirgesi” için taslak yanı sıra bir AI Risk Yönetimi Çerçevesi; daha yakın bir zamanda, Ulusal Yapay Zeka Araştırma Kaynağını ayağa kaldırmak için bir yol haritası için bastırdı.

Bununla birlikte, Litan’a göre önlemlerin yasal dişleri yok “ve şu anda ihtiyacımız olan şeyler değiller”.

Amerika Birleşik Devletleri, AI kurallarının geliştirilmesinde bir nevi takipçi olmuştur. Çin, dünyaya yayılmada öncülük etti AI yönetişimi için çeşitli girişimlerancak bu girişimlerin çoğu vatandaşların mahremiyetiyle ilgilidir ve mutlaka güvenlikle ilgili değildir.

Litan daha önceki bir röportajda, “ABD düzenleyicilerinden güvenli, adil ve sorumlu yapay zekanın geliştirilmesi konusunda net yönergelere ihtiyacımız var” dedi. “AB’de Yapay Zeka Yasası ile geliştirildiğini gördüğümüz gibi anlamlı düzenlemelere ihtiyacımız var. Her şeyi bir anda mükemmelleştirmeseler de, en azından ilerliyorlar ve yinelemeye istekliler. ABD düzenleyicilerinin oyunlarını ve hızlarını artırmaları gerekiyor.”

Mart ayında, Apple’ın kurucu ortağı ve baş mühendisi Steve Wozniak, SpaceX CEO’su Elon Musk, yüzlerce yapay zeka uzmanı ve binlerce başka kişi, daha güçlü yapay zeka sistemlerinin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektuba isimlerini koydular. toplum için riskler. Bir ay sonra AB milletvekilleri, yapay zekanın beklenenden daha hızlı geliştiğini söyleyerek dünya liderlerini yapay zeka teknolojilerini kontrol etmenin yollarını bulmaya çağırdı.

AI’dan Sam Altman’ı AI’da açın: ‘gerginim’

Geçen hafta, ABD Senatosu iki ayrı oturum düzenledi ve bu oturumlarda ifade veren üyeler ve uzmanlar, AI’yı güvenlik, mahremiyet ve telif hakları için açık ve mevcut bir tehlike olarak gördüklerini söylediler. ChatGPT gibi üretici yapay zeka teknolojisi, bazen kontrol edilmeyen çok sayıda kaynaktan veri ve bilgi alabilir ve kullanır.

ChatGPT yaratıcısı OpenAI’nin CEO’su Sam Altman’a IBM yöneticisi Christina Montgomery ve New York Üniversitesi fahri profesörü Gary Marcus katıldı ve sohbet robotlarının sunduğu tehditler ve fırsatlar hakkında Senato önünde ifade verdi. Altman, “En büyük endişe duyduğum alanlardan biri” dedi. “Bu modellerin manipüle etme, ikna etme ve bire bir etkileşimli dezenformasyon sağlama konusundaki daha genel yetenekleri – gelecek yıl bir seçimle karşı karşıya kalacağımız ve bu modellerin daha iyiye gittiği göz önüne alındığında, bence bu önemli bir endişe alanı. ”

Altman, düzenlemenin “akıllıca” olacağını çünkü insanların bir yapay zeka sistemiyle mi konuştuklarını veya bir sohbet robotu tarafından oluşturulan içeriğe (resimler, videolar veya belgeler) bakıp bakmadıklarını bilmeleri gerektiğini söyledi. “Bahsettiğimiz bu tür yeteneklere sahip olabilecek bir model sağlayan bir şirketten açıklama açısından neler beklendiğiyle ilgili kurallara ve yönergelere de ihtiyacımız olacağını düşünüyorum. Bu nedenle, bu konuda gerginim.”

Altman, ABD hükümetinin üç noktalı bir AI gözetim planı hazırlamasını önerdi:

  • Büyük yapay zeka modellerini lisanslamak ve hükümet standartlarını karşılamayanları iptal etmekle görevli bir devlet kurumu oluşturun.
  • Tehlikeli olup olmadıklarını değerlendirme becerisini içeren geniş dil modeli (LLM) güvenlik standartları oluşturun. LLM’ler, “kendi kendini kopyalayamamak”, hile yapmak ve kendi başlarına hareket etmeye başlamak gibi güvenlik testlerini geçmek zorunda kalacaklardı.
  • Bağımsız uzmanlar tarafından denetlenen bağımsız bir yapay zeka denetim çerçevesi oluşturun.

Senato ayrıca, “filigran” kullanımının, kullanıcıların sohbet botlarından üretilen içeriğin nereden geldiğini belirlemesine yardımcı olabileceğine dair ifadeler de duydu. Tennessee Üniversitesi’ndeki AI Tennessee Initiative’in direktörü Lynne Parker, AI içerik oluşturucularının içeriğe meta veri kırıntıları eklemesini zorunlu tutmanın, kullanıcıların içeriğin kaynağını daha iyi anlamasını sağlayacağını söyledi.

Senato, yapay zeka içeriğine filigran eklenmesi konusunda gelecekte bir duruşma yapmayı planlıyor.

Telif hakkı © 2023 IDG Communications, Inc.



genel-13