Resim: Yuichiro Chino/Getty Images.
Yapay zeka, teknolojiyle etkileşim şeklimizde devrim yaratmaya devam ediyor ve geleceğimiz üzerinde inanılmaz bir etkiye sahip olacağı inkar edilemez. Yapay zekanın kontrol edilmediği takdirde oldukça ciddi riskler doğurduğu da inkar edilemez.
OpenAI tarafından bir araya getirilen yeni bir uzman ekibinin devreye girdiği yer burasıdır.
Yapay zeka çalışmasını izleyin
“Felaket” riskleri olarak adlandırdığı risklerle mücadeleye yardımcı olmak için tasarlanan OpenAI’nin Hazırlık adlı uzman ekibi, çeşitli risk faktörlerine dayalı olarak mevcut ve gelecekteki yapay zeka modellerini değerlendirmeyi planlıyor. Özellikle kişiselleştirilmiş iknayı (yani alıcının duymak istediği şeye uyarlanmış içerik), küresel siber güvenliği, otonom kopyalama ve adaptasyonu (kendini değiştiren bir yapay zeka) ve hatta kimyasal, biyolojik, radyolojik ve nükleer saldırılar gibi yok olma tehditlerini izleyecektir. .
Yapay zeka tarafından başlatılan bir nükleer savaşın biraz abartılı olduğunu düşünüyor olabilirsiniz. Ancak bu yılın başlarında, aralarında Google DeepMind CEO’su Demis Hassabis’in de bulunduğu bir grup üst düzey yapay zeka araştırmacısı, mühendisi ve CEO’sunun, ciddi bir uyarı yayınladı : “Pandemi ve nükleer savaş gibi toplumsal risklerin yanı sıra, yok olma riskinin yapay zeka aracılığıyla azaltılması küresel bir öncelik olmalıdır. »
Yapay zeka nasıl nükleer savaşa neden olabilir?
Bugün bilgisayarlar her yerde bulunuyor ve askeri saldırıların ne zaman, nerede ve nasıl gerçekleşeceğini belirlemeye yardımcı oluyor. Yapay zeka, henüz işin içinde değilse bile gelecekte yer alacak. Ancak bu teknoloji, halüsinasyonlara yatkın olmasının yanı sıra, bir insanın bu tür kararlar verebilecek bir felsefesine de sahip değildir. Kısacası, bir insan durumun böyle olmadığını düşünürken yapay zeka, nükleer saldırı zamanının geldiğine karar verebilir.
“Şu anda en gelişmiş modellerde mevcut olan yetenekleri aşan son teknolojiye sahip yapay zeka modelleri, tüm insanlığa fayda sağlama potansiyeline sahip olacak. Ancak aynı zamanda giderek daha büyük riskler de oluşturacaklar” diye uyarıyor OpenAI.
Hazırlıklı olmanın rolü
Yapay zekanın kontrol edilmesine yardımcı olmak için OpenAI ekibi üç ana soruya odaklanacak:
- Kötüye kullanılırsa, bugün sahip olduğumuz ve gelecekte oluşturulacak son teknolojiye sahip yapay zeka sistemleri ne kadar tehlikeli olabilir?
- Son teknolojiye sahip yapay zeka modelleri ele geçirilirse, kötü niyetli bir aktör bunlarla tam olarak ne yapabilir?
- En son teknolojiye sahip yapay zeka sistemlerinin tehlikeli yeteneklerini izlemek, değerlendirmek, tahmin etmek ve bunlara karşı koruma sağlamak için nasıl bir çerçeve oluşturabiliriz?
Bu ekip, MIT Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü ve MIT Yapay Zeka Politika Forumu eş direktörü Aleksander Madry tarafından yönetiliyor.
OpenAI, araştırmasını genişletmek için ayrıca “Yapay Zeka Hazırlık Mücadelesi” Felaketlere yol açabilecek suiistimalleri önlemek için. Şirket, OpenAI teknolojilerinin olası ancak felaketle sonuçlanabilecek şekilde kötüye kullanımını yayınlayan en iyi 10 başvuruya 25.000 $’a kadar API kredisi teklif ediyor.
Kaynak : ZDNet.com