1.100’den fazla teknoloji uzmanı, lider ve bilim adamı, ChatGPT’den daha güçlü yapay zeka (AI) ile büyük ölçekli deneyler yapan laboratuvarlara karşı, teknolojinin insanlık için büyük bir tehdit oluşturduğunu söyleyerek bir uyarı yayınladı.

bir açık mektup tarafından yayınlandı Geleceğin Yaşam Enstitüsüİnsanlığa yönelik küresel felaket ve varoluşsal riskleri azaltma misyonuna sahip kâr amacı gütmeyen bir kuruluş olan Apple’ın kurucu ortağı Steve Wozniak ve SpaceX ve Tesla CEO’su Elon Musk, AI’nın “kapsamlı araştırmaların gösterdiği gibi toplum ve insanlık için derin riskler” oluşturduğu konusunda diğer imzacılara katıldı. ve en iyi yapay zeka laboratuvarları tarafından kabul edildi.”

Dilekçe, popüler ChatGPT doğal dil işleme sohbet robotuna güç veren büyük dil modeli (LLM) olan GPT-4 gibi üretken yapay zeka platformlarına yapılan yükseltmelerde altı aylık bir duraklama çağrısında bulundu. Mektup, kısmen, bilim kurgu filmlerinde yapay sinir ağları tarafından yaratılanları anımsatan distopik bir geleceği tasvir ediyordu. Terminatör Ve matris. Mektup, gelişmiş yapay zekanın “uygarlığımızın kontrolünü kaybetmesine” yol açıp açamayacağını anlamlı bir şekilde sorguluyor.

Mektup ayrıca yapay zekanın “özellikle demokrasiye yönelik” siyasi aksamaları konusunda da uyarıda bulunuyor: İnsan gibi davranan sohbet robotları, sosyal medyayı ve diğer ağları propaganda ve gerçek dışı bilgilerle doldurabilir. Ve AI’nın “yerine getirenler de dahil olmak üzere tüm işleri otomatikleştirebileceği” konusunda uyardı.

Mektup, teknoloji topluluğunu değil, sivil liderleri AI konuşlandırmalarının genişliğiyle ilgili kararların sorumluluğunu üstlenmeye çağırdı.

Politika yapıcılar, en azından yeni yapay zeka düzenleyici makamları, yüksek kapasiteli yapay zeka sistemlerinin ve büyük bilgi işlem yeteneği havuzlarının gözetimini ve takibini içeren sağlam yapay zeka yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için yapay zeka topluluğuyla birlikte çalışmalıdır. Mektup ayrıca, sağlam bir denetim ve sertifikalandırma ekosisteminin yanı sıra, gerçek içeriği sentetik içerikten ayırt etmeye ve model sızıntılarını izlemeye yardımcı olmak için kaynak ve filigran sistemlerinin kullanılmasını önerdi.

Mektupta, “Çağdaş yapay zeka sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor” denildi. “Nihayetinde sayıca üstün olabilecek, zekâsı ile geride kalabilecek, modası geçmiş ve bizim yerimizi alabilecek insan dışı zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemeli.”

(Birleşik Krallık hükümeti bugün, genel amaçlı yapay zekayı düzenleme planlarının ana hatlarını çizen bir beyaz kitap yayınladı ve bunun “yeniliği engelleyebilecek ağır mevzuattan kaçınacağını” ve bunun yerine mevcut yasalara dayanacağını söyledi.)

Gartner Research’te başkan yardımcısı ve seçkin bir analist olan Avivah Litan, teknoloji liderlerinin uyarısının yerinde olduğunu ve şu anda GPT-4 gibi yapay zeka araçları tarafından üretilen bilgilerin gerçekliğini veya doğruluğunu sağlayacak bir teknoloji olmadığını söyledi.

Daha büyük endişe, OpenAI’nin GPT-4.5’i yaklaşık altı ay içinde ve GPT-5’i bundan yaklaşık altı ay sonra piyasaya sürmeyi planlaması olduğunu söyledi. Litan, “Yani, mektupta bahsedilen altı aylık aciliyetin bu olduğunu tahmin ediyorum,” dedi. “Sadece tam gaz ilerliyorlar.”

bu GPT-5 beklentisi olacak mı yapay genel zekaveya yapay zekanın duyarlı hale geldiği ve kendi adına düşünmeye başlayabileceği AGI. Bu noktada, zaman içinde katlanarak daha akıllı büyümeye devam ediyor.

“AGI’ye ulaştığınızda, insanlar için oyun bitmiş gibidir, çünkü yapay zeka bir kez insan kadar akıllı olduğunda, insan kadar akıllıdır.” [Albert] Einstein, o zaman Einstein kadar akıllı hale geldiğinde, yılda 100 Einstein kadar akıllı olur” dedi Litan. “YGG’ye ulaştığınızda tamamen kontrolden çıkıyor. Demek en büyük korku bu. Bu noktada, insanların kontrolü yoktur. Sadece bizim elimizde değil.”

UC Santa Cruz’da fizik profesörü ve Future of Life’ın başkan yardımcısı Anthony Aguirre, hangi hesaplamaları yaptıklarını yalnızca laboratuvarların kendilerinin bildiğini söyledi.

Bir e-posta yanıtında “Ancak eğilim açık,” dedi. Bilgisayar Dünyası. “En büyük ölçekli hesaplamalar, boyutu yılda yaklaşık 2,5 kat artırıyor. GPT-4’ün parametreleri OpenAI tarafından açıklanmadı, ancak bu eğilimin durduğunu ve hatta yavaşladığını düşünmek için hiçbir neden yok.”

Future of Life Institute, AI laboratuvarlarının “hiç kimsenin – yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği çok daha güçlü dijital zihinler” geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini savundu.

İmzacılar arasında bilim insanları da vardı. DeepMind Teknolojileri, bir İngiliz yapay zeka araştırma laboratuvarı ve bir yan kuruluş Google ana şirketi Alphabet. Google kısa süre önce, LaMDA LLM ailesini kullanarak geliştirdiği yapay zeka tabanlı bir sohbet robotu olan Bard’ı duyurdu.

LLM’ler, sorgulara insan benzeri yanıtlar üretebilen derin öğrenme algoritmalarıdır (doğal dil işleme için bilgisayar programları). Üretken AI teknolojisi ayrıca bilgisayar kodu, resimler, video ve ses üretebilir.

yatırım yapan Microsoft, ChatGPT ve GPT-4 yaratıcısı OpenAI’de 10 milyar dolardan fazla, şu anda herhangi bir yorum yapmadığını söyledi. OpenAI ve Google da yorum talebine hemen yanıt vermedi.

Endüstri araştırma firması J. Gold Associates’in baş analisti Jack Gold, en büyük riskin LLM’leri önyargılarla eğitmek olduğuna inanıyor. Bu nedenle, örneğin, bir geliştirici kasıtlı olarak “uyanıklığa” veya muhafazakarlığa karşı önyargılı bir model eğitebilir veya onu sosyalist dostu yapabilir veya beyaz üstünlüğünü destekleyebilir.

Gold, bir e-posta yanıtında, “Bunlar aşırı örnekler, ancak modellerin önyargılara sahip olması kesinlikle mümkün (ve muhtemel)” dedi. Bilgisayar Dünyası. “Bunu kısa ve orta vadede iş kaybından daha büyük bir risk olarak görüyorum – özellikle de Yapay Zeka Kuşağının doğru olduğunu ve güvenilir olduğunu varsayarsak. Bu nedenle, modele güvenme konusundaki temel soru, bence, nasıl yapılacağı açısından kritik. çıkışları kullan.”

BT danışmanlığı Cyber ​​Geeks’in CEO’su Andrzej Arendt, üretken yapay zeka araçlarının henüz kendi başlarına en yüksek kaliteli yazılımı nihai ürün olarak sunamasa da, “kod parçaları, sistem yapılandırmaları veya birim testleri oluşturma konusundaki yardımları önemli ölçüde hızlandırabilir. programcının işini artırın.

“Geliştiricileri gereksiz kılacak mı? Zorunlu değil – kısmen, bu tür araçların sunduğu sonuçlar sorgusuz sualsiz kullanılamayacağı için; programcı doğrulaması gerekli,” diye devam etti Arendt. “Aslında, çalışma yöntemlerindeki değişiklikler, mesleğin başlangıcından bu yana programcılara eşlik etti. Geliştiricilerin işi, bir dereceye kadar yapay zeka sistemleriyle etkileşime geçecek.”

Arendt, en büyük değişikliklerin, zanaat, tarım ve imalata dayalı bir ekonominin yerini alan 1800’lerdeki sanayi devrimiyle karşılaştırılabilecek tam ölçekli AI sistemlerinin tanıtılmasıyla geleceğini söyledi.

“Yapay zeka ile teknolojik sıçrama, daha büyük olmasa da aynı derecede büyük olabilir. Şu anda, tüm sonuçları tahmin edemiyoruz” dedi.

Moskova merkezli siber güvenlik firması Kaspersky’nin önde gelen veri bilimcisi Vlad Tushkanov, LLM algoritmalarını daha fazla hizmete entegre etmenin yeni tehditler getirebileceğini söyledi. Aslında, LLM teknoloji uzmanları şu tür saldırıları zaten araştırıyorlar: hızlı enjeksiyonLLM’lere ve destekledikleri hizmetlere karşı kullanılabilir.

Tushkanov, “Durum hızla değişirken, bundan sonra ne olacağını ve bu LLM özelliklerinin olgunlaşmamışlıklarının bir yan etkisi mi yoksa doğuştan gelen kırılganlıkları mı olduğunu tahmin etmek zor” dedi. “Ancak işletmeler, LLM’leri tüketiciye yönelik uygulamalara entegre etmeyi planlarken bunları tehdit modellerine dahil etmek isteyebilir.”

Bununla birlikte, LLM’ler ve AI teknolojileri faydalıdır ve gerekli olan ancak insanlar için yapması ne eğlenceli ne de ilginç olan muazzam miktarda “homurdanan işi” zaten otomatikleştiriyor. Örneğin sohbet botları, her gün milyonlarca uyarıyı, e-postayı, olası kimlik avı web sayfasını ve potansiyel olarak kötü amaçlı yürütülebilir dosyaları tarayabilir.

Tushkanov, “Bu iş hacmini otomasyon olmadan yapmak imkansız olurdu,” dedi. “…Tüm gelişmelere ve en son teknolojilere rağmen, siber güvenlik konusunda hâlâ ciddi bir yetenek eksikliği var. Tahminlere göre, sektörün milyonlarca profesyonele daha ihtiyacı var ve bu çok yaratıcı alanda, elimizdeki insanları monoton, tekrarlayan görevlerde harcayamayız.”

Tushkanov, üretken yapay zeka ve makine öğreniminin, siber güvenlik tehditleriyle mücadele eden kişiler de dahil olmak üzere tüm BT işlerinin yerini almayacağını söyledi. Bu tehditlere yönelik çözümler, siber suçluların tespit edilmekten kaçmak için kuruluşlara karşı çalıştığı düşmanca bir ortamda geliştiriliyor.

Tushkanov, “Bu, onları otomatikleştirmeyi çok zorlaştırıyor çünkü siber suçlular her yeni araca ve yaklaşıma uyum sağlıyor” dedi. “Ayrıca, siber güvenlikte hassasiyet ve kalite çok önemlidir ve şu anda örneğin büyük dil modelleri halüsinasyonlara eğilimlidir (testlerimizin gösterdiği gibi, siber güvenlik görevleri bir istisna değildir).

Future of Life Enstitüsü, mektubunda korkuluklarla insanlığın yapay zeka ile gelişen bir geleceğin tadını çıkarabileceğini söyledi.

Mektupta, “Bu sistemleri herkesin yararına olacak şekilde tasarlayın ve topluma uyum sağlaması için bir şans verin” denildi. “Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz. Uzun bir AI yazının tadını çıkaralım, hazırlıksız bir şekilde sonbahara koşmayalım.”

Telif hakkı © 2023 IDG Communications, Inc.



genel-13