Google'ın dünya çapındaki hükümetler için 'AI düzenlemeleri' konusunda bu üç önerisi var

Bu yıllar Google G/Ç hepsine odaklanılmıştı AIve şirket, yapay zekanın büyümesinin nasıl önemli bir teknoloji kayması olduğundan bahsetti. Şirket, yapay zeka modellerindeki mevcut gelişmelerin yalnızca yeni yerler keşfetmek, doğru kelimeleri bulmak veya bilgiyle etkileşim kurmakla sınırlı olmadığını söyledi.

Ancak bu ilerlemelerle birlikte dünya çapındaki hükümetler incelemeye giriyor. Dünyanın dört bir yanındaki hükümetler yapay zeka için temel kurallardan bahsederken, İtalya gizlilik endişeleri nedeniyle ChatGPT’yi yasaklayan ilk ülkelerden biriydi ve şimdi ülke hükümeti yapay zekanın ülkede kullanımını düzenlemeye çalışıyor.

Google, görünüşte politika oluşturmaya yardımcı olmayı amaçlayan yapay zeka için politika önerileri içeren bir teknik inceleme yayınladı. Belge, hükümetleri üç temel alana odaklanmaya teşvik ediyor: fırsatların kilidini açmak, sorumluluğu teşvik etmek ve güvenliği artırmak.

Fırsatları ortaya çıkarmak için yapay zekanın ekonomik potansiyelini en üst düzeye çıkarmak
Yapay zekanın ekonomilerde benimsenmesi, onu benimseyenlere daha yavaş rakipler karşısında avantaj sağlayarak önemli bir büyümeye yol açacaktır. Google, yapay zekanın çeşitli sektörlerde karmaşık ve değerli ürün ve hizmetlerin üretimini geliştirirken aynı zamanda demografik zorluklara rağmen üretkenliği artırma potansiyeline sahip olduğuna inanıyor. Küçük işletmeler yenilik yapmak ve büyümek için yapay zeka destekli ürün ve hizmetlerden yararlanabilirken, çalışanlar daha tatmin edici ve rutin olmayan görevlere odaklanabilir.

Ancak Google, yapay zekanın ekonomik faydalarını tam olarak gerçekleştirmek ve iş gücü kesintilerini en aza indirmek için politika yapıcıların yenilikçiliğe ve rekabet edebilirliğe yatırım yapması, sorumlu yapay zeka inovasyonunu teşvik eden yasal çerçeveler oluşturması ve iş gücünü yapay zeka tarafından yönlendirilen iş geçişlerine hazırlaması gerektiğini söyledi. Şirket, hükümetlerin ulusal laboratuvarlar ve araştırma kurumları aracılığıyla temel yapay zeka araştırmalarına öncelik vermesi, kişisel bilgileri koruyan ve sınırlar arasında güvenilir veri akışı sağlayan gizlilik yasaları da dahil olmak üzere sorumlu yapay zeka geliştirmeyi destekleyen politikalar uygulaması ve sürekli eğitimi, beceri kazandırma programlarını, yetenek hareketliliğini kolaylaştırması gerektiğini tavsiye ediyor. ve işin geleceği hakkında araştırma.

AI’yı sorumlu kılmak
Yapay zeka (AI), insanların hastalıklardan iklim değişikliğine kadar çok çeşitli sorunları çözmelerine yardımcı olma potansiyeline sahiptir. Ancak, geliştirilip sorumlu bir şekilde kullanılmazsa, AI sistemleri yanlış bilgilendirme ve ayrımcılık gibi mevcut toplumsal sorunları daha da kötüleştirebilir. Yapay zekaya güvenmeden, işletmeler ve tüketiciler onu kullanmakta tereddüt edebilir ve faydalarını kaçırabilir.

Bu zorlukların üstesinden gelmek için yönetişime çok paydaşlı bir yaklaşım gereklidir. Paydaşlar, yapay zekanın hem potansiyel faydalarını hem de zorluklarını anlamalı ve teknik yenilikler ile ortak standartlar geliştirmek için birlikte çalışmalıdır. Orantılı, riske dayalı düzenlemeler, yapay zeka teknolojilerinin sorumlu bir şekilde geliştirilmesini ve devreye alınmasını da sağlayabilir. Uluslararası uyum ve işbirliği, demokratik değerleri yansıtan ve parçalanmayı önleyen politikalar geliştirmek için çok önemlidir. Örneğin, önde gelen şirketler, başarılı Terörizmle Mücadele için Küresel İnternet Forumu’nu (GIFCT) temel alarak bir Yapay Zeka Üzerine Küresel Forum (GFAI) oluşturabilir.

Kötü aktörlerin yapay zekadan yararlanmasını önleme
Yapay Zekanın (AI), küresel güvenlik ve istikrar için önemli etkileri vardır. Üretken yapay zeka, yanlış bilgilerin ve manipüle edilmiş medyanın oluşturulmasına, tespit edilmesine ve izlenmesine yardımcı olabilir. Yapay zeka tabanlı güvenlik araştırması, gelişmiş güvenlik operasyonlarına ve tehdit istihbaratına yol açarken, yapay zeka kaynaklı açıklardan yararlanmalar, düşmanlar tarafından daha karmaşık siber saldırılara da izin verebilir.

Yapay zekanın daha büyük fayda için kullanılmasını sağlamak için, yapay zekanın kötü niyetli kullanımını önlemek için teknik ve ticari korkuluklar yerleştirilmelidir. Ek olarak, yapay zekanın potansiyel faydalarını en üst düzeye çıkarırken kötü aktörleri ele almak için birlikte çalışmalıyız. Hükümetler, güvenlik riskleri olarak kabul edilen yapay zeka destekli yazılım uygulamaları için ve ayrıca küresel güvenliği tehdit edebilecek şekillerde yapay zeka ile ilgili araştırma ve geliştirmeyi destekleyen belirli kuruluşlar için yeni nesil ticaret kontrol politikalarını uygulamayı düşünmelidir. Hükümetler, akademi, sivil toplum ve şirketler dahil tüm paydaşların, giderek daha güçlü hale gelen yapay zeka sistemlerinin etkilerini ve gelişmiş yapay zekayı insani değerlerle nasıl uyumlu hale getirebileceğimizi daha iyi anlaması gerekiyor.

Güvenlik işbirliğine dayalı bir çabadır ve bu alandaki ilerleme, ortak araştırma, sınıfının en iyisi veri yönetişiminin benimsenmesi, yapay zeka güvenlik açıkları hakkında bilgi paylaşmak için kamu-özel forumları ve daha fazlası şeklinde işbirliği gerektirir.

“Daha önce de söylediğimiz gibi, AI düzenleme yapamayacak kadar önemli ve iyi düzenleme yapamayacak kadar önemli. Singapur’un Yapay Zeka Doğrulama çerçevesinden Birleşik Krallık’ın yapay zeka düzenlemesine yönelik yenilikçilik yanlısı yaklaşımına ve Amerika’nın Ulusal Standartlar ve Teknoloji Enstitüsü’nün Yapay Zeka Risk Yönetimi Çerçevesine kadar, dünyanın dört bir yanındaki hükümetlerin bu yeni teknolojiler için doğru politika çerçevelerini ciddi şekilde ele aldığını görmek bizi teşvik ediyor. çabalarını desteklemeyi dört gözle bekliyoruz” dedi. Kent YürüteçBaşkanı Küresel ilişkiler Google’da.

FacebooktwitterLinkedin



makalenin sonu



genel-9