Bugün insanlar tarihimizdeki belki de en güçlü teknolojiyi geliştiriyorlar: yapay zeka. AI’nın toplumsal zararları – ayrımcılık, demokrasiye yönelik tehditler ve etkinin yoğunlaşması dahil – zaten iyi belgelenmiştir. Yine de önde gelen yapay zeka şirketleri, bu riskleri insanlık tarihinde görmediğimiz bir hızda artıracak, giderek daha güçlü hale gelen yapay zeka sistemleri oluşturmak için bir silahlanma yarışında.

Liderlerimiz yapay zeka gelişimini ve buna bağlı riskleri nasıl kontrol altına alıp kontrol edecekleriyle uğraşırken, düzenlemelerin ve standartların insanlığın geçmişte yeniliklerden faydalanmasına nasıl izin verdiğini düşünmeleri gerekir. Düzenleme ve yenilik bir arada var olabilir ve özellikle insan hayatı söz konusu olduğunda, bunların olması zorunludur.

Nükleer teknoloji uyarıcı bir hikaye sunuyor. Her ne kadar nükleer enerji insan ölümleri açısından petrolden 600 kat daha güvenli ve muazzam çıktı kapasitesine sahip, çok az ülke buna dokunacak çünkü halk önce ailenin yanlış üyesiyle tanıştı.

Nükleer teknolojiyle atom ve hidrojen bombaları şeklinde tanıştık. İnsanlığın insanlık tarihinde ilk kez insan uygarlığını sona erdirebilecek bir teknoloji geliştirdiğini temsil eden bu silahlar, güvenlik ve kontrol yerine hız ve yeniliğe öncelik veren bir silahlanma yarışının ürünüydü. Çernobil ve Fukuşima’daki nükleer felaketlere yol açmasıyla ünlü olan yeterli güvenlik mühendisliği ve risk yönetimindeki müteakip başarısızlıklar, nükleer enerjinin yaygın kabul görme şansını yok etti.

Nükleer enerjiye ilişkin genel risk değerlendirmesinin son derece olumlu olmaya devam etmesine ve dünyayı bunun uygulanabilirliğine ikna etmek için on yıllarca süren çabalara rağmen, ‘nükleer’ kelimesi kusurlu olmaya devam ediyor. Bir teknoloji başlangıç ​​aşamasında zarar verdiğinde, toplumsal algı ve düzenleyici aşırı tepki, teknolojinin potansiyel faydasını kalıcı olarak azaltabilir. Nükleer enerjiyle ilgili bir avuç erken yanlış adım nedeniyle, onun temiz, güvenli gücünden yararlanamadık ve karbon nötrlüğü ve enerji istikrarı boş bir hayal olmaya devam ediyor.

Ancak bazı sektörlerde bunu doğru anladık. Biyoteknoloji, hızlı hareket etmeye teşvik edilen bir alandır: hastalar, tedavisi veya tedavisi olmayan hastalıklar nedeniyle her gün acı çekiyor ve ölüyor. Yine de bu araştırmanın ahlakı, ‘hızlı hareket etmek ve bir şeyleri bozmak’ değil, mümkün olduğu kadar hızlı ve güvenli bir şekilde yenilik yapmaktır. Bu alandaki inovasyonun hız sınırı, toplumun ve bireylerin refahını sağlayan bir yasaklar, yönetmelikler, etik ve normlar sistemi tarafından belirlenir. Aynı zamanda, endüstriyi bir felakete karşı geri tepme nedeniyle sakat kalmaktan da korur.

Soğuk Savaş sırasında Biyolojik Silahlar Konvansiyonu’nda biyolojik silahları yasaklarken, karşıt süper güçler bir araya gelip bu silahların yaratılmasının kimsenin çıkarına olmadığı konusunda anlaşabildiler. Liderler, bu kontrol edilemeyen ancak oldukça erişilebilir teknolojilerin bir silahlanma yarışını kazanma mekanizması olarak değil, insanlığın kendisine yönelik bir tehdit olarak ele alınması gerektiğini gördüler.

Biyolojik silahlanma yarışındaki bu duraklama, araştırmanın sorumlu bir hızda gelişmesine olanak sağladı ve bilim adamları ve düzenleyiciler, insanlara zarar verebilecek herhangi bir yeni yenilik için katı standartlar uygulayabildiler. Bu düzenlemeler yenilik pahasına gelmedi. Aksine, bilim camiası temiz enerjiden tarıma kadar uzanan uygulamalarla bir biyo-ekonomi kurmuştur. COVID-19 salgını sırasında biyologlar, yeni bir teknoloji türü olan mRNA’yı insanlık tarihinde görülmemiş bir hızda güvenli ve etkili bir aşıya çevirdiler. Bireylere ve topluma önemli zararlar söz konusu olduğunda, düzenleme ilerlemeyi engellemez; bunu sağlar.

Yapay zeka araştırmacıları arasında yakın zamanda yapılan bir anket şunu ortaya çıkardı: Yüzde 36’sı yapay zekanın nükleer düzeyde bir felakete neden olabileceğini düşünüyor. Buna rağmen, hükümetin tepkisi ve düzenlemeye yönelik hareket en iyi ihtimalle durgun oldu. Bu hız, ChatGPT’nin şu anda 100 milyonu aşan kullanıcı sayısıyla teknolojinin benimsenmesindeki artışla boy ölçüşemez.

Hızla artan AI risklerinin bu manzarası, 1800 CEO ve 1500 profesör, kısa süre önce altı aylık bir ara verilmesini isteyen bir mektubu imzalayacak daha da güçlü yapay zeka geliştirmeye ve acilen düzenleme ve risk azaltma sürecine başlamaya. Bu duraklama, küresel topluluğa yapay zekanın halihazırda neden olduğu zararları azaltması ve toplumumuz üzerindeki potansiyel olarak yıkıcı ve geri döndürülemez etkileri önlemesi için zaman verecektir.

Yapay zekanın potansiyel zararlarının risk değerlendirmesi için çalışırken, pozitif potansiyelin kaybı hesaba dahil edilmelidir. AI’yı sorumlu bir şekilde geliştirmek için şimdi adımlar atarsak, teknolojiden inanılmaz faydalar sağlayabiliriz.

Örneğin, yapay zekanın ilaç keşfini ve geliştirmeyi dönüştürdüğünü, sağlık hizmetlerinin kalitesini ve maliyetini iyileştirdiğini ve doktorlara ve tıbbi tedaviye erişimi artırdığını gördük. Google’ın DeepMind’ı, AI’nın uzun süredir insan zihninden kaçan biyolojideki temel sorunları çözme yeteneğine sahip olduğunu gösterdi. Ve Araştırmalar, AI’nın BM Sürdürülebilir Kalkınma Hedeflerinin her birine ulaşılmasını hızlandırabileceğini göstermiştir.insanlığı gelişmiş sağlık, eşitlik, refah ve barışın olduğu bir geleceğe doğru taşımak.

Bu, güvenli ve sorumlu AI gelişimini sağlamak için küresel topluluğun – elli yıl önce Biyolojik Silahlar Sözleşmesinde yaptığımız gibi – bir araya geldiği bir andır. Bir an önce harekete geçmezsek, yapay zeka ve onunla birlikte mevcut toplumumuzla parlak bir geleceği mahvedebiliriz.

Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.

Emilia Javorsky, MD, MPH, bir hekim-bilim insanı ve Future of Life Enstitüsü’nde yakın zamanda açık mektuplar yayınlayan Çok Paydaşlı Etkileşimler Direktörüdür. AI’nın insanlık için “yok olma riski” oluşturduğu uyarısı ve savunan bir AI geliştirmede altı aylık duraklama.



genel-7