OpenAI, her iki kuruluşun Çarşamba günkü duyurularına göre, yapay zekanın yapay zeka araçlarını kullanan uzman olmayan kişiler tarafından yaratılabilecek biyolojik tehditlere karşı nasıl kullanılabileceğini incelemek için Los Alamos Ulusal Laboratuvarı ile ortaklık kuruyor. İlk olarak II. Dünya Savaşı sırasında atom bombasını geliştirmek için New Mexico’da kurulan Los Alamos laboratuvarı, bu çabayı yapay zeka biyogüvenliği ve yapay zekanın laboratuvar ortamında kullanılabileceği yollar konusunda “türünün ilk örneği” bir çalışma olarak nitelendirdi.

OpenAI ve Los Alamos laboratuvarı tarafından Çarşamba günü yayınlanan iki açıklama arasındaki fark oldukça çarpıcı. OpenAI’nin ifade ortaklığı, yapay zekanın “biyolojik bilimsel araştırmaları ilerletmek için laboratuvar ortamlarında bilim insanları tarafından güvenli bir şekilde nasıl kullanılabileceği” üzerine basit bir çalışma olarak göstermeye çalışıyor. Ve yine de Los Alamos laboratuvarı çok şey koyuyor Daha fazla vurgu Önceki araştırmaların “ChatGPT-4’ün biyolojik tehditlerin yaratılmasına yol açabilecek bilgi sağlamada hafif bir artış sağladığını” tespit ettiği gerçeğine dayanarak.

Yapay zekanın oluşturduğu tehditler etrafındaki kamuoyu tartışmalarının çoğu, kendi zihnini geliştirebilecek ve insanlığa bir şekilde zarar verebilecek öz-farkındalığı olan bir varlığın yaratılması etrafında dönmüştür. Bazıları, yapay zekanın süslü bir otomatik tamamlama kelime üreteci olarak hareket etmek yerine gelişmiş muhakeme ve mantık yürütebildiği gelişmiş genel zeka olan AGI’ye ulaşmanın Skynet tarzı bir duruma yol açabileceğinden endişe ediyor. Elon Musk ve OpenAI CEO’su Sam Altman gibi birçok yapay zeka destekçisi bu karakterizasyona yaslanmış olsa da, ele alınması gereken daha acil tehdidin insanların biyolojik silah yaratmak için ChatGPT gibi araçları kullanmamasını sağlamak olduğu anlaşılıyor.

Los Alamos laboratuvarı, “Yapay zeka destekli biyolojik tehditler önemli bir risk oluşturabilir, ancak mevcut çalışmalar, çok modlu, sınır modellerinin uzman olmayan kişilerin biyolojik tehdit oluşturması için giriş engelini nasıl düşürebileceğini değerlendirmemiştir” dedi. web sitesi.

İki kuruluştan gelen mesajların farklı konumlandırılması muhtemelen OpenAI’nin ürününün teröristler tarafından kullanılabileceğini vurgulamanın ulusal güvenlik etkilerini kabul etmekten rahatsız olabileceği gerçeğine dayanıyor. Daha da ince bir noktaya değinmek gerekirse, Los Alamos bildirisi “tehdit” veya “tehditler” terimlerini beş kez kullanırken, OpenAI bildirisi bunu yalnızca bir kez kullanıyor.

Los Alamos’ta araştırma bilimcisi olan Erick LeBrun Çarşamba günü yaptığı açıklamada, “Yapay zeka yeteneklerini geliştirmenin potansiyel avantajları sonsuzdur,” dedi. “Ancak, biyolojik tehditlerle ilgili gelişmiş yapay zekanın olası tehlikelerini veya kötüye kullanımını ölçmek ve anlamak büyük ölçüde keşfedilmemiş durumda. OpenAI ile yapılan bu çalışma, mevcut ve gelecekteki modelleri değerlendirmek için bir çerçeve oluşturmaya, yapay zeka teknolojilerinin sorumlu bir şekilde geliştirilmesini ve dağıtımını sağlamaya yönelik önemli bir adımdır.”

Düzeltme: Bu gönderinin önceki bir versiyonunda Los Alamos’tan gelen bir ifadenin OpenAI’dan olduğu belirtiliyordu. Gizmodo hatalardan dolayı özür diler.



genel-7