Birleşik Krallık’ın yapay zeka güvenliği zirvesi için dünyanın bazı kurumsal ve siyasi liderlerini Bletchley Park’ta aynı odada topladığı gün, 70’ten fazla imza sahibi yapay zeka gelişimine daha açık bir yaklaşım çağrısında bulunan bir mektuba adını koydu.

Mektupta “Yapay zeka yönetiminde kritik bir kavşaktayız” ifadesi yer alıyor. Mozilla’nın yayınladığı, notlar. “Yapay zeka sistemlerinin mevcut ve gelecekteki zararlarını azaltmak için açıklığı, şeffaflığı ve geniş erişimi benimsememiz gerekiyor. Bunun küresel bir öncelik olması gerekiyor.”

Geçtiğimiz birkaç on yıl boyunca daha geniş yazılım alanında olup bitenlere benzer şekilde, gelişen yapay zeka devriminin ana zemini açık ve özel mülkiyet arasındaydı ve her birinin artıları ve eksileri vardı. Hafta sonu, Facebook’un ana şirketi Meta’nın baş yapay zeka bilimcisi Yann LeCun X’e götürdüm OpenAI ve Google’ın DeepMind’ı da dahil olmak üzere bazı şirketlerin, açık AI Ar-Ge’sine karşı lobi yaparak “AI endüstrisinin düzenleyici açıdan ele geçirilmesini” sağlama çabalarını kınamak.

LeCun, “Korku çığırtkan kampanyalarınız başarılı olursa, bunlar *kaçınılmaz olarak* sizin ve benim felaket olarak tanımlayacağımız bir sonuçla sonuçlanacak: az sayıda şirket yapay zekayı kontrol edecek” diye yazdı.

Ve bu, Başkan Biden’ın idari emri ve bu hafta İngiltere’nin ev sahipliği yaptığı Yapay Zeka Güvenliği Zirvesi gibi artan yönetişim çabalarına nüfuz etmeye devam eden bir tema. Bir yandan büyük yapay zeka şirketlerinin başkanları, açık kaynaklı yapay zekanın kötü aktörler tarafından daha kolay kimyasal silahlar oluşturmak için manipüle edilebileceğini savunarak yapay zekanın oluşturduğu varoluşsal tehditler konusunda uyarıda bulunurken, diğer yandan karşı argümanlar öne sürüyor bu tür korkutmaların amacının kontrolün birkaç korumacı şirketin elinde yoğunlaşmasına yardımcı olmak olduğunu söylüyor.

Tescilli kontrol

Gerçek muhtemelen bundan biraz daha ayrıntılıdır, ancak bu arka planda düzinelerce insan bugün daha fazla açıklık çağrısında bulunarak adını bir açık mektuba koydu.

Mektupta “Evet, açık olarak sunulan modeller riskler ve güvenlik açıklarıyla birlikte gelir; yapay zeka modelleri kötü niyetli aktörler tarafından kötüye kullanılabilir veya yetersiz donanıma sahip geliştiriciler tarafından konuşlandırılabilir” deniyor. “Ancak, aynı şeyin özel teknolojiler için de geçerli olduğunu ve artan kamu erişiminin ve incelemesinin teknolojiyi daha tehlikeli değil, daha güvenli hale getirdiğini defalarca gördük. Temel yapay zeka modellerinin sıkı ve özel kontrolünün bizi toplum çapındaki zararlardan korumanın tek yolu olduğu fikri en iyi ihtimalle naif, en kötü ihtimalle tehlikelidir.

Meta’ya 10 yıl önce katılan değerli yapay zeka araştırmacısı LeCun, Google Brain ve Coursera kurucu ortağı Andrew Ng, Hugging Face kurucu ortağı ve CTO’su da dahil olmak üzere diğer birçok önemli ismin yanı sıra kendi adını da mektuba ekledi. Julien Chaumond ve ünlü teknoloji uzmanı Brian Behlendorf Linux Vakfı’ndan.

Mektup özellikle, daha fazla bağımsız araştırma ve işbirliğinin sağlanması, kamu incelemesinin ve hesap verebilirliğin arttırılması ve yapay zeka alanına yeni girenlerin girişindeki engellerin azaltılması dahil olmak üzere, açıklığın güvenli yapay zeka gelişimine yardımcı olabileceği üç ana alanı tanımlıyor.

Mektupta, “Tarih bize, hızla yanlış türde bir düzenlemeye yönelmenin, rekabete ve yeniliğe zarar verecek şekilde güç yoğunlaşmasına yol açabileceğini gösteriyor” diye belirtiliyor. “Açık modeller açık bir tartışmaya ışık tutabilir ve politika oluşturmayı geliştirebilir. Eğer hedeflerimiz emniyet, güvenlik ve hesap verebilirlik ise, açıklık ve şeffaflık bizi bu noktaya ulaştıracak temel unsurlardır.”





genel-24