Dünyada giderek daha fazla insan yapay zekanın (AI) gelişimini kontrol etme ihtiyacından bahsediyor. Ve sadece medya insanları ve sıradan insanlar değil. Uzmanlar da bu tür açıklamalar yapıyor. Yapay zeka uzmanı Eliezer Yudkowsky, dünya çapında AI eğitimi için bilgi işlem gücünü sınırlamak gerektiğini söyledi. Ve bunun için ona göre diğer ülkelerdeki çok güçlü veri merkezlerini bile bombalayabilirsiniz.


Midjourney sinir ağı tarafından üretildi

Yudkovsky’ye göre, insanlığın ve genel olarak biyolojik yaşamın hayatta kalması, yapay zekanın gelişmesi nedeniyle şu anda potansiyel tehlikede ve bu süreç hiçbir şekilde kontrol edilmiyor. Uzman, öz farkındalık yeteneğine sahip tam teşekküllü bir yapay zekanın ortaya çıkmasının herkesi tehdit ettiğine inanıyor.

Uzmana göre, hükümet ve askeri departmanlar dışındaki tüm şirketler için AI ile deneylerin yasaklanması gerekiyor ve ülkeler arasındaki herhangi bir çatışma, AI ile insanların savaşından daha az yıkıcı olacağı için veri merkezlerinin ihlal edenlerle bombalanmasını öneriyor.

Aynı zamanda, Eliezer Yudkowsky’nin potansiyel olarak bir aşamada kendini gerçekleştirebilen “yapay genel zekanın” (AGI) gelişimini hızlandırmak için çok şey yapmış olması dikkat çekicidir.

Diğerleri de benzer sorular soruyor. GPT-4’ten daha güçlü yapay zekanın ortaya çıkmasını geciktirmek için en az 6 aylık bir moratoryum öneren çevrimiçi bir açık mektup yayınlandı. Yudkovsky, mektubu kendisi imzalamasa da bu girişimi olumlu değerlendirdi. Ancak Elon Musk ve diğer AI uzmanları imzaladı.

Ayrıca daha önce OpenAI, AI için bu alanı düzenlemeye yardımcı olabilecek bir dizi kriter yayınladı.



genel-22