YORUM

Skynet kendinin farkına varıyor kurguydu. Buna rağmen, kıyamet korkularını körükleyen raporlar yapay zeka (AI) yükselişte görünüyor. Yapay zeka ile ilgili yayınlanan içgörülerin sorumlu bir şekilde ele alınması ve raporlanması gerekiyor. Anket bulgularını, insan olmayan düşmanların getirdiği kıyamet sonu oyununu çağrıştıracak şekilde sergilemek hepimize kötülük etmektir. Terminatör filmler.

Bu yılın başlarında, bir hükümet çapında eylem planı ve raporu Yapay zekanın beraberinde felaket riskleri getirebileceği bir analize dayanarak yayınlandı ve yapay zekanın “insan türü için yok olma düzeyinde bir tehdit” oluşturduğunu belirtti. Rapor ayrıca, teknoloji şirketlerinin kendi kendini düzenlemede başarısız olması ve/veya yapay zekanın gücünü kontrol altına almak için hükümetle birlikte çalışmaması durumunda, yapay zekanın oluşturduğu ulusal güvenlik tehdidinin muhtemelen artacağını da ortaya koyuyor.

Bu bulguları göz önünde bulundurarak, anket sonuçlarının bilimsel analizlere dayanmadığını ve yayınlanan raporların her zaman AI’nın temel teknolojisinin kapsamlı bir şekilde anlaşılmasıyla desteklenmediğini belirtmek önemlidir. AI ile ilgili endişeleri destekleyecek somut kanıtlardan yoksun olan AI’ya odaklanan raporlar, bilgilendirici olmaktan çok kışkırtıcı olarak görülebilir. Dahası, bu tür raporlamalar AI düzenlemesinden sorumlu hükümet kuruluşlarına sağlandığında özellikle zararlı olabilir.

Varsayımın ötesinde, yapay zeka ile ilgili tehlikelere dair aşırı derecede kanıt eksikliği mevcut ve teknolojik ilerlemeye sınırlamalar önermek veya uygulamak çözüm değil.

Bu raporda, “İnsanların %80’i AI’nın düzenlenmediği takdirde tehlikeli olabileceğini düşünüyor” gibi yorumlar, ülkemizin anlamadığımız şeylerden korkma kültürel önyargısını kullanarak endişe alevlerini körüklüyor. Bu tür felaket tellallığı dikkat çekebilir ve manşetlere çıkabilir, ancak destekleyici kanıtların yokluğunda olumlu bir amaca hizmet etmez.

Şu anda, gelecekteki AI modellerinin insan odaklı felaket niyetiyle eşleşebilecek veya eşleşmeyebilecek otonom yetenekler geliştireceğini gösteren hiçbir işaret yok. AI’nın son derece yıkıcı bir teknoloji olmaya devam edeceği bir sır olmasa da, bu mutlaka insanlık için yıkıcı olacağı anlamına gelmez. Dahası, gelişmiş biyoloji, kimya ve/veya siber silahlar geliştirmek için yardımcı bir araç olarak AI, yeni ABD politikalarının veya yasalarının uygulanmasıyla çözülecek bir şey değildir. Aksine, bu tür adımların bir AI silahlanma yarışının kaybeden tarafında olmamızı garantilemesi daha olasıdır.

Bir Tehdit Oluşturan Yapay Zeka, Ona Karşı Savunma Yapan Yapay Zekayla Aynıdır

Zarar vermek isteyen diğer ülkeler veya bağımsız kuruluşlar, ABD’nin ulaşamayacağı yıkıcı yapay zeka tabanlı yetenekler geliştirebilirler. Sınırlarımızın ötesindeki güçler yapay zekayı bize karşı kullanmayı planlıyorsa, örneğin biyolojik silahlar yaratabilen yapay zekanın, bu tehdide karşı en iyi savunmamızı sağlayacak yapay zekayla aynı olduğunu unutmamak önemlidir. Ek olarak hastalıklara yönelik tedavilerin, toksinlere yönelik tedavilerin geliştirilmesi ve kendi siber sektör yeteneklerimizin geliştirilmesi, ilerleyen yapay zeka teknolojisinin eşit sonuçlarıdır ve gelecekte yapay zeka araçlarının kötü niyetli kullanımıyla mücadelede bir ön koşul olacaktır.

İş liderleri ve organizasyonlar, hem AI’nın geliştirilmesi hem de kullanımıyla ilgili düzenlemelerin uygulanmasını proaktif olarak izlemelidir. Ayrıca, AI’nın yaygın olduğu sektörlerde etik uygulamasına odaklanmak ve sadece modellerin nasıl ilerlediğine odaklanmak da kritik öneme sahiptir. Örneğin, AB’de, veri kümelerindeki doğal önyargılar konusundaki endişeleri gidermek için ev sigortası için AI araçlarının kullanımında kısıtlamalar vardır ve bu da eşitsiz karar almaya olanak tanıyabilir. Diğer alanlarda, AI analizi ve karar almanın iş alımı ve işe alıma nasıl uygulandığıyla ilgili güvenlik önlemleri oluşturmak için “döngüde insan” gereksinimleri kullanılır.

Hangi Düzeyde Bilgi İşlemin Güvensiz Yapay Zeka Oluşturacağını Tahmin Etmenin Yolu Yok

Time’ın bildirdiğine göreYukarıda adı geçen rapor – Gladstone’un çalışması – Kongre’nin “belirli bir bilgi işlem gücü seviyesinden fazlasını kullanan yapay zeka modellerini eğitmeyi” yasa dışı hale getirmesi gerektiğini ve eşiğin “federal bir yapay zeka kurumu tarafından belirlenmesi gerektiğini” tavsiye etti. Örnek olarak rapor, ajansın eşiği “OpenAI’nin GPT-4 ve Google’ın Gemini gibi mevcut son teknoloji modellerini eğitmek için kullanılan bilgi işlem gücü seviyelerinin hemen üzerinde” belirleyebileceğini öne sürdü.

Bununla birlikte, ABD’nin yapay zekanın nasıl düzenlenmesi gerektiğine dair bir yol haritası oluşturması gerektiği açık olsa da, potansiyel olarak güvenli olmayan yapay zeka modelleri oluşturmak için hangi seviyede bilgi işlemin gerekli olacağını tahmin etmenin bir yolu yok. Herhangi birini ayarlama Yapay zeka ilerlemesine bir eşik koymak için bilgi işlem sınırı hem keyfi hem de teknoloji endüstrisine ilişkin sınırlı bilgiye dayalı olacaktır.

Daha da önemlisi, böyle bir adımı destekleyecek kanıtın yokluğunda değişimi bastırmaya yönelik sert bir adım zararlıdır. Endüstriler zaman içinde değişiyor ve dönüşüyor ve yapay zeka gelişmeye devam ettikçe bu dönüşüme gerçek zamanlı olarak tanık oluyoruz. Şimdilik durum böyle, TerminatörSarah ve John Connor geri çekilebilirler.



siber-1