Biden yönetimi bugün açıklandı çok yüksek hızlarda ilerleyen ve endüstri uzmanları arasında alarm zillerini çalan üretken yapay zeka (AI) etrafındaki riskleri ele almak için yeni bir çaba.

Başkan Yardımcısı Kamala Harris ve diğer yönetim yetkililerinin bugün Google, Microsoft, popüler ChatGPT sohbet robotunun yaratıcısı OpenAI ve yapay zeka girişimi Anthropic’in CEO’larıyla bir araya gelmesi planlanıyor. Yönetim yetkilileri, teknoloji daha güçlü hale geldikçe ve bağımsız karar verme yeteneğine sahip oldukça, bu şirketlerin yapay zeka ürünlerinin güvenli olmasını sağlama ve ABD vatandaşlarının mahremiyetini koruma konusunda sahip oldukları “temel sorumluluğu” tartışmayı planlıyor.

Beyaz Saray yaptığı açıklamada, “AI, zamanımızın en güçlü teknolojilerinden biridir, ancak sunduğu fırsatları değerlendirmek için önce risklerini azaltmalıyız” dedi. “Başkan Biden, yapay zeka söz konusu olduğunda, toplumumuzu, güvenliğimizi ve ekonomimizi korurken kamu yararına hizmet eden sorumlu inovasyonu destekleyerek insanları ve toplulukları merkeze yerleştirmemiz gerektiği konusunda netti.”

Bu yeni çaba, Biden yönetiminin bir tür sorumlu yeniliği teşvik etmeye yönelik önceki girişimlerine dayanıyor, ancak Kongre bugüne kadar yapay zekada hüküm sürecek herhangi bir yasa çıkarmadı. Ekim ayında yönetim bir açıklama yaptı. sözde bir “AI Bildirgesi” için plan yanı sıra bir AI Risk Yönetimi Çerçevesi; daha yakın zamanlarda, Ulusal Yapay Zeka Araştırma Kaynağını ayağa kaldırmak için bir yol haritası için bastırdı.

Tedbirlerin yasal dişleri yok; Gartner Research’ün başkan yardımcısı ve seçkin analistlerinden biri olan Avivah Litan’a göre bunlar sadece daha fazla rehberlik, çalışma ve araştırma “ve şu anda ihtiyacımız olan şey değiller”.

“ABD düzenleyicilerinden güvenli, adil ve sorumlu yapay zeka geliştirme konusunda net yönergelere ihtiyacımız var” dedi. “AB’de Yapay Zeka Yasası ile geliştirildiğini gördüğümüz gibi anlamlı düzenlemelere ihtiyacımız var. Her şeyi bir anda mükemmelleştirmeseler de, en azından ilerliyorlar ve yinelemeye istekliler. ABD düzenleyicilerinin oyunlarını ve hızlarını artırmaları gerekiyor.”

Mart ayında, Senato Çoğunluk Lideri Chuck Schumer, D-NY, Üretken yapay zekayla ilgili kurallar için planlar duyuruldu ChatGPT’nin popülaritesi arttıkça. Schumer, AI teknolojilerini içeren artan şeffaflık ve hesap verebilirlik çağrısında bulundu.

Amerika Birleşik Devletleri, yapay zeka kurallarının izlenmesinde takipçi olmuştur. Bu haftanın başlarında, Avrupa Birliği, diğer şeylerin yanı sıra, üretken AI araçları üreticilerinin içerik oluşturmak için platformlar tarafından kullanılan herhangi bir telif hakkıyla korunan materyali yayınlamasını gerektirecek bir dizi kural önerisi olan AI Yasasını açıkladı. Çin, dünyaya yayılmada öncülük etti AI yönetişimi için çeşitli girişimlerancak bu girişimlerin çoğu vatandaşların mahremiyetiyle ilgilidir ve mutlaka güvenlikle ilgili değildir.

Beyaz Saray girişimlerine, Ulusal Bilim Vakfı’nın yapay zekaya ayrılmış yedi yeni araştırma merkezi oluşturmak için 140 milyon dolar harcama planı da dahildir.

Yönetim ayrıca, sorumlu ifşa ilkelerine uygun olarak AI sistemlerinin kamuya açık bir değerlendirmesine katılmak için Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI ve Stability AI dahil olmak üzere “önde gelen AI geliştiricilerinden bağımsız bir taahhüt” aldığını söyledi. DEFCON 31’deki AI Köyü’nde Scale AI tarafından geliştirilen bir değerlendirme platformunda.

“Bu, modellerin Biden-Harris Yönetiminin Yapay Zeka Haklar Beyannamesi ve Yapay Zeka Risk Yönetimi Çerçevesi Planında belirtilen ilke ve uygulamalarla nasıl uyumlu olduğunu keşfetmek için bu modellerin binlerce topluluk ortağı ve yapay zeka uzmanı tarafından kapsamlı bir şekilde değerlendirilmesine olanak tanıyacak.” Beyaz Saray dedi.

Kurumsal AI uygulama satıcısının CEO’su Tom Siebel C3 AI ve CRM yazılım sağlayıcısı Siebel Systems’in kurucusu, bu hafta yapay zeka satıcılarının kendi ürünlerini düzenleyebilecekleri bir durum olduğunu, ancak kapitalist, rekabetçi bir sistemde teknolojiyi dizginlemeye istekli olmalarının pek olası olmadığını söyledi.

Siebel, “Korkarım orada çok iyi bir sicilimiz yok; yani, ayrıntılar için Facebook’a bakın” dedi. MIT Technology Review’un EmTech konferansı. “Kendi kendini düzenlemenin işe yarayacağına inanmak isterim ama güç yozlaştırır ve mutlak güç kesinlikle yozlaştırır.”

Beyaz Saray duyurusu, onbinlerce teknoloji uzmanı, bilim insanı, eğitimci ve diğerlerinin, OpenAI’nin şu anda GPT-4 büyük dil modeli (LLM) üzerinde çalışan ChatGPT’nin daha fazla geliştirilmesini altı aylığına durdurması çağrısında bulunan bir dilekçeye isimlerini koymasının ardından geldi. algoritma.

Teknoloji uzmanları, yapay zekanın çevrimiçi aramalar gibi görevleri iyileştirmekten, basit istemlerden gerçekçi nesir ve kod yazılımları oluşturabilmeye ve video ve fotoğraflar oluşturabilmeye (hepsi gerçek görüntülerden neredeyse ayırt edilemez) hızlı yükselişi karşısında alarma geçiyor.

Bu haftanın başlarında, uzayda son 50 yılı aşkın süredir yaptığı çalışmalar nedeniyle “Yapay zekanın vaftiz babası” olarak bilinen Geoffrey Hinton, Google’da mühendislik görevlisi olarak istifa ettiğini duyurdu. İstifasının ardından bir mektup gönderdi. New York Times yapay zekanın yarattığı varoluşsal tehditler üzerine.

Dün, Hinton EmTech konferansında konuştu ve sonuçların ne kadar vahim olduğunu ve endüstriler ve hükümetler zaten AI savaşını kazanmak için rekabet ettikleri için ne kadar az şey yapılabileceğini açıkladı.

“Sanki bazı genetik mühendisleri, boz ayıları iyileştireceğiz; IQ’ları 65 olan onları zaten geliştirdik ve artık İngilizce konuşabiliyorlar ve her türlü şey için çok faydalılar. Ancak IQ’yu 210’a çıkarabileceğimizi düşünüyoruz” dedi.

AI kendi kendine öğrenebilir ve zamanla katlanarak daha akıllı hale gelir. Sonunda, insan yönlendirmesine ihtiyaç duymak yerine, kendisi için düşünmeye başlayacaktır. Bu bir kez gerçekleştiğinde, Hinton’un kaçınılmaz olduğuna inandığı şeyi, yani insanların yok oluşunu durdurmak için yapılabilecek çok az şey var.

“Bunlar, Machiavelli’nin şimdiye kadar yazdığı tüm romanları ve yazdığı her şeyi okuyarak bizden öğrenmiş olacak. [about] insanlar nasıl manipüle edilir” dedi. “Ve eğer bizden çok daha akıllılarsa, bizi manipüle etmekte çok iyi olacaklar. Neler olduğunu anlamayacaksın. ‘Bezelye mi yoksa karnabahar mı istersin’ diye sorulan ve ikisine de sahip olmak zorunda olmadığının farkında olmayan iki yaşında bir çocuk gibi olacaksın. Ve manipüle edilmesi o kadar kolay olacaksın.”

Hinton, “tek umudunun” ABD ve Çin gibi rakip hükümetlerin yapay zekanın dizginsiz bir saltanata sahip olmasına izin vermenin herkes için kötü olduğu konusunda hemfikir olabilmesi olduğunu söyledi. Hinton, “Varoluşsal tehdit konusunda hepimiz aynı gemideyiz, bu yüzden onu durdurmak için hepimiz işbirliği yapabilmeliyiz,” dedi.

MIT etkinliğindeki diğerleri de aynı fikirdeydi. Siebel, AI’yı sanayi devrimini getiren buhar makinesinin icadından daha güçlü ve tehlikeli olarak tanımladı.

Siebel, AI’nın yakında insanlar tarafından zaten oluşturulmuş herhangi bir içeriği – haber raporları, fotoğraflar, videolar – algılamadan taklit edebileceğini ve bu gerçekleştiğinde, neyin gerçek neyin sahte olduğunu belirlemenin kolay bir yolu olmayacağını söyledi.

“Ve bunun zararlı sonuçları sadece dehşet verici. Siebel, “Orwellci bir geleceği, burada olabileceklere kıyasla Cennet Bahçesi gibi gösteriyor,” dedi. “Özgür ve açık demokratik bir toplumu sürdürmek çok zor olabilir. Bunun tartışılması gerekiyor. Akademide tartışılması gerekiyor. Hükümette tartışılması gerekiyor.”

Makine öğrenimi uygulaması satıcısı Hugging Face’in baş etik bilimcisi Margaret Mitchell, ChatGPT gibi üretken yapay zeka uygulamalarının olumlu kullanımlar için geliştirilebileceğini, ancak herhangi bir güçlü teknolojinin kötü amaçlar için de kullanılabileceğini söyledi.

“Buna ikili kullanım deniyor,” dedi. “Ortaya çıkardığınız herhangi bir teknolojinin çift kullanımlı olmayacağını garanti etmenin bir yolu olup olmadığını bilmiyorum.”

Uluslararası hukuk firmasının ortağı Regina Sam Penti İpler ve Gri LLP, MIT konferansına katılanlara üretken yapay zeka oluşturan şirketlerin ve ürünleri satın alan ve kullanan kuruluşların yasal sorumluluğa sahip olduğunu söyledi. Ancak bugüne kadarki çoğu dava, büyük dil modeli (LLM) geliştiricilerini hedef aldı.

Penti’ye göre üretken yapay zeka ile ilgili sorunların çoğu veri kullanımı etrafında toplanıyor.

Penti, “Yani, etkili bir şekilde, bu sistemleri oluşturuyorsanız, muhtemelen bazı sorumluluklarla karşı karşıya kalacaksınız” dedi. “Özellikle büyük miktarda veri kullanıyorsanız. Verileri kendiniz mi kullanıyorsunuz, yoksa bir sağlayıcıdan mı alıyorsunuz, fark etmez.”

Telif hakkı © 2023 IDG Communications, Inc.



genel-13