Ne bilmek istiyorsun
- Bir yapay zeka araştırmacısı, p(doom)’a göre yapay zekanın insanlığı yok etme olasılığının %99,9 olduğunu iddia ediyor.
- Araştırmacı, sürekli güvenlik makinesinin yapay zekanın kontrolden çıkıp insanlığa son vermesini önlemeye yardımcı olabileceğini söylüyor.
- OpenAI’den bir kişi, şirketin AGI konusunda heyecanlı olduğunu ve güvenlik süreçleri yerine parlak ürünlere öncelik vererek bu başarıya ulaşmak için pervasızca yarıştığını söylüyor.
Yapay zeka ile en önemli teknolojik atılımın eşiğindeyiz, ancak çeşitli engeller bu kadar yükseklere çıkmamıza izin verebilir. Örneğin OpenAI, ChatGPT operasyonlarını sürdürmek için her gün 700.000 ABD dolarını ayırıyor. Bu, yapay zeka ilerlemelerine güç sağlamak için gereken elektrik ve soğutma için gereken su miktarının üstüne çıkıyor.
Teknolojinin etrafındaki gizlilik ve güvenlik, kullanıcıların büyük çoğunluğunu endişelendiriyor. Microsoft’un Windows Geri Çağırma özelliği gibi kabul edilen, tartışmalı yapay zeka destekli özellikler, ilgili kullanıcılar tarafından “gizlilik kabusu” ve “bilgisayar korsanlarının cenneti” olarak adlandırılıyor. NVIDIA CEO’su Jensen Huang, ileri teknolojinin hangi yöne doğru gittiğini söylemek imkansız olsa da, bir sonraki yapay zeka dalgasının sürücüsüz arabaları ve insansı robotları içereceğini söylüyor.
Ancak teknolojinin kontrolden çıkmasını önlemeye yönelik korkuluklar ve düzenleme önlemleri en iyi ihtimalle zayıf kalıyor. OpenAI CEO’su Sam Altman, yapay zekanın ilerlemesini durduracak “büyük bir kırmızı düğmenin olmadığını” kabul ediyor. Ne yazık ki yapay zekanın insanlardan daha akıllı hale gelmesi, işlerimizi devralması ve sonunda insanlığın sona ermesi, yapılan endişelerden ve tahminlerden bazılarıdır.
Bir yapay zeka araştırmacısı, yapay zekanın insanlığı yok etme olasılığının %99,9 olduğunu söylerken, Elon Musk iyimser bir tavırla bu olasılığı %20’ye indiriyor ve yine de araştırılması gerektiğini söylüyor.
Yapay zekanın insanlığı yok etme olasılığı neden bu kadar yüksek?
Bir süredir AI trendlerini takip ediyorum. Ve teknoloji önemli sektörlerde büyük zirvelere ulaşmış ve çığır açmış olsa da, bir şey aşikar — kötü, iyiden daha ağır basıyor.
P(doom) değerlerinin listesi itibaren r/SohbetGPT
Yapay zeka araştırmacısı Roman Yampolskiy ortaya çıktı Fridman’ın podcast’i Yapay zekanın insanlığa yönelik potansiyel riskini geniş bir röportajda tartışmak için. Yampolskiy, insanların gelecek yüzyılda sıfır hata içeren karmaşık yazılımlar geliştirmediği sürece yapay zekanın insanlığı sona erdirme ihtimalinin çok yüksek olduğunu söylüyor. Ancak, tüm modellerin istismar edildiği ve karakterlerini bozup yapmamaları gereken şeyleri yapmaya kandırıldığı için şüpheci:
“Zaten hatalar yaptılar. Kazalar yaşadık, jailbreak’lendiler. Bugün geliştiricilerin amaçlamadığı bir şeyi yapmada kimsenin başarılı olamadığı tek bir büyük dil modeli olduğunu sanmıyorum.”
Yapay zeka araştırmacısı, yapay zekanın insanlığı sona erdirmesini önleyecek ve insanlığı kontrol altına alacak sürekli bir güvenlik makinesinin geliştirilmesini öneriyor. Yampolskiy, yeni nesil yapay zeka modelleri tüm güvenlik kontrollerini geçse bile teknolojinin gelişmeye devam ettiğini ve böylece daha akıllı hale geldiğini ve karmaşık görev ve durumlarla başa çıkmada daha iyi olduğunu söylüyor.
OpenAI içeriden biri, yapay zekanın kaçınılmaz kıyamete yol açacağını söylüyor
Ayrı bir raporda eski OpenAI yönetişim araştırmacısı Daniel Kokotajlo, Yampolskiy’in düşüncelerini yineliyor. Kokotajio, yapay zekanın insanlığı sona erdirme şansının %70 olduğunu iddia ediyor Fütürizm). Yukarıda yer alan listeye göre, yapay zeka ortamındaki her büyük oyuncunun ve paydaşın farklı p(doom) değerlerine sahip olduğu açıktır. Bağlam açısından p(doom), yapay zekanın insanlığın sonuna yol açma olasılığını belirlemek için kullanılan bir denklemdir.
“OpenAI, AGI inşa etmek konusunda gerçekten heyecanlı ve orada ilk olmak için pervasızca yarışıyorlar,” dedi Kokotajio. Birçok OpenAI yöneticisi şirketten ayrılırken, süper hizalama lideri Jan Leike, ChatGPT üreticisinin güvenlik önlemleri ve kültürden çok parlak ürünlere öncelik verdiğini belirtti.
NYT tarafından görülen bir e-postada Kokotajio, “Dünya hazır değil ve biz de hazır değiliz” diye yazdı. “Ve ne olursa olsun ileriye doğru acele ettiğimizden ve eylemlerimizi rasyonelleştirdiğimizden endişeleniyorum.”