Yüzlerce teknoloji endüstrisi lideri, akademisyen ve diğer kamuya mal olmuş kişiler imzaladı açık mektup yapay zeka (AI) evriminin bir yok olma olayına yol açabileceği konusunda uyarıda bulunmak ve teknolojiyi kontrol etmenin en önemli küresel öncelik olması gerektiğini söylemek.

San Francisco merkezli tarafından yayınlanan bildiride, “Yapay zekadan kaynaklanan yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.” Yapay Zeka Güvenliği Merkezi.

Mektuptaki kısa ifade, yaratıcılarının artık dünyayı uyarmak için bir araya geldiği teknoloji için neredeyse bir mea culpa gibi.

İronik bir şekilde, mektubun başındaki en önde gelen imza sahipleri arasında, son derece popüler üretken yapay zeka sohbet robotu ChatGPT’yi yaratan şirket olan OpenAI CEO’su Sam Altman ve OpenAI’nin en büyük yatırımcısı Microsoft’un CTO’su Kevin Scott yer alıyor. Bir dizi OpenAI kurucusu ve yöneticisine Google’ın AI araştırma laboratuvarından yöneticiler, mühendisler ve bilim adamları da katıldı. Derin Düşünce.

Son 40 yılda teknolojiye yaptığı katkılardan dolayı yapay zekanın babası olarak kabul edilen Geoffrey Hinton da bugünkü mektubu imzaladı. Bu ayın başlarında MIT’de bir Soru-Cevap sırasında Hinton, insanların yapay zekanın gelişiminde geçici bir aşamadan başka bir şey olmadığını söyleyecek kadar ileri gitti. Ayrıca 70’lerde ve 80’lerde yapay sinir ağlarının nasıl yapılacağına dair araştırma yapmanın son derece makul olduğunu söyledi. Ancak günümüz teknolojisi, sanki genetik mühendisleri boz ayıları geliştirmeye karar vermiş, onların İngilizce konuşmalarını ve “IQ’larını 210’a” yükseltmelerini sağlamıştır.

Ancak Hinton, yapay zeka yaratmada etkili olduğu için pişmanlık duymadığını söyledi. “Gerçekten öngörülebilir değildi – bu aşaması öngörülebilir değildi. Yakın zamana kadar, bu varoluşsal krizin çok uzak olduğunu düşünüyordum. Hinton, “Yani, yaptığım şeyden gerçekten pişmanlık duymuyorum” dedi.

Bu ayın başlarında, Yediler Grubu (G7) ülkelerinin liderleri yapay zekayı (AI) kontrol altında tutmak için teknik standartların oluşturulması çağrısında bulunarak, AI’nın güvenlik ve güvenlik gözetimini geride bıraktığını söyledi. OpenAI’den Altman’ın ifadesini de içeren bu ayın başlarında ABD Senatosu oturumları, AI evriminden kaynaklanan birçok açık ve mevcut tehlikeyi de gösterdi.

“Yapay Zeka Güvenliği Merkezi tarafından imzalanan açıklama gerçekten uğursuz ve teknoloji endüstrisinde emsali yok. Teknoloji girişimcilerinin, üzerinde çalıştıkları teknolojinin kontrol edilmezse insan ırkını yok edebileceğini halka söylediklerini ne zaman duydunuz? Gartner’da başkan yardımcısı ve seçkin bir analist olan Avivah Litan, dedi. “Yine de rekabetçi baskılar nedeniyle üzerinde çalışmaya devam ediyorlar.”

Litan, nesli tükenmek üzere olan bir üçüncül olsa da, işletmelerin AI kullanımından kaynaklanan “kısa vadeli ve yakın” risklerle karşı karşıya olduğuna da dikkat çekti. “Yanlış bilgi ve dezenformasyon risklerini ve son on yılda sosyal medya ve çevrimiçi ticarette gördüğümüzden çok daha hızlı ölçeklenen siber saldırılar veya toplumsal manipülasyonlar içeriyorlar” dedi. “Bu kısa vadeli riskler, kontrol edilmezse kolayca kontrolden çıkabilir.”

Yapay zekanın ortaya çıkardığı kısa vadeli riskler, korkuluklar ve teknik çözümlerle ele alınabilir ve hafifletilebilir. Uzun vadeli varoluşsal risklerin uluslararası hükümet işbirliği ve düzenlemesi yoluyla ele alınabileceğini belirtti.

Litan, “Hükümetler çok yavaş ilerliyor, ancak teknik yenilikler ve çözümler – mümkün olduğunda – beklediğiniz gibi ışık hızında ilerliyor” dedi. “Öyleyse, ileride ne olduğunu kimse tahmin edemez.”

Bugünün mektubu, Future of Life Enstitüsü tarafından Mart ayında yayınlanan benzer bir mektubu takip ediyor. O mektupApple’ın kurucu ortağı Steve Wozniak, SpaceX CEO’su Elon Musk ve yaklaşık 32.000 kişi tarafından imzalanan , daha iyi kontrollerin devreye alınmasına izin vermek için ChatGPT’nin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulundu.

Mart mektubu, son derece yetenekli AI sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve izlenmesi çağrısında bulundu; gerçek ile sentetik olanı ayırt etmeye ve model sızıntılarını izlemeye yardımcı olmak için kaynak ve filigran sistemleri; sağlam bir denetim ve belgelendirme ekosistemi; AI kaynaklı zarar sorumluluğu; teknik AI güvenlik araştırması için güçlü kamu finansmanı; ve AI’nın neden olacağı dramatik ekonomik ve politik kesintilerle (özellikle demokraside) başa çıkmak için iyi kaynaklara sahip kurumlar.

Yapay Zeka Güvenliği Merkezi direktörü Dan Hendrycks şunları yazdı: bir takip tweet dizisi bugün “AI gelişiminin birçok yönden ters gidebileceğini, tıpkı pandemilerin kötü yönetimden, zayıf halk sağlığı sistemlerinden, vahşi yaşamdan vb. Böylece bu risk kaynaklarını toplu olarak keşfedebiliriz.”

Hendrycks de alıntı yaptı Robert Oppenheimer, teorik fizikçi ve atom bombasının babası: “Dünyanın eskisi gibi olmayacağını biliyorduk.” Bununla birlikte Hendrycks, atom bombasının, dünyanın karşı karşıya olduğu tiranlığı II. Dünya Savaşı’nın Mihver güçlerinin egemenliğinden durdurmak için yaratıldığından bahsetmedi.

Yapay Zeka Güvenliği Merkezi, misyonu “Yapay zekanın güvenli bir şekilde geliştirilmesini ve dağıtılmasını sağlamak” olan, San Francisco merkezli, kar amacı gütmeyen bir araştırma kuruluşudur.

Grubun web sayfasında, “Yapay zekanın, onu güvenli bir şekilde geliştirip kullanabilmemiz koşuluyla, dünyaya derinden fayda sağlama potansiyeline sahip olduğuna inanıyoruz” ifadesi yer alıyor.

Telif hakkı © 2023 IDG Communications, Inc.





genel-13