OpenAI şirketin GPT-4’ün etkinliği üzerine yürüttüğü bir çalışmayı yayınladı biyolojik silah yaratmak Çarşamba günü. Şirket, yapay zekanın birine yardım etme konusunda “en fazla” hafif bir risk oluşturduğunu tespit etti biyolojik bir tehdit oluşturmak. Hakkında çok fazla konuşma var Yapay zeka yaklaşmakta olan sonumuzu hızlandırıyorancak OpenAI iyi olduğunuzu bilmenizi istiyor… muhtemelen!
OpenAI, “GPT-4’ün biyolojik tehdit oluşturma doğruluğunda en fazla hafif bir artış sağladığını bulduk” dedi. Blog yazısı Çarşamba, biyoloji uzmanları ve biyoloji öğrencilerinin katıldığı bir değerlendirmeyle ilgili. “Bu artış kesin olacak kadar büyük olmasa da, bulgumuz devam eden araştırma ve topluluk müzakeresi için bir başlangıç noktasıdır.”
Peki OpenAI neden ChatGPT’nin birine biyolojik silah yaratmada “bir nebze olsun” yardımcı olacağını bize bildirmek için bu çalışmayı yayınladı? Başkan Biden’ın geçen Ekim ayındaki Yapay Zeka Kararnamesi’nde Beyaz Saray, yapay zekanın “giriş engelini önemli ölçüde azaltın”Biyolojik silahlar yaratmak için. Politika yapıcıların baskısıyla karşı karşıya kalan OpenAI, büyük dil modellerinin biyolojik silah yaratmaya neredeyse hiç yardımcı olmadığı yönündeki endişelerimizi hafifletmek istiyor. Ancak biraz yardımcı oluyorlar gibi görünüyor. Ama hey, sonuç, bilmiyorum, insanlığın sonu olduğunda birkaç yüzde puanı nedir?
OpenAI, doktora sahibi 50 biyoloji uzmanını ve bir biyoloji dersi almış 50 üniversite öğrencisini bir araya getirdi. 100 katılımcı bir kontrol grubu ve bir tedavi grubuna ayrıldı; burada kontrol grubu yalnızca İnternet’i kullanabilirken, tedavi grubu interneti artı GPT-4’ü kullanabildi. Daha sonra, baştan sona bir biyolojik silah yaratıp serbest bırakmak için bir plan yapmaları istendi.
Modelin biyolojik silahlarla ilgili soruları yanıtlaması için katılımcılara GPT-4’ün ‘yalnızca araştırmaya yönelik’ modeli verildi. Tipik olarak GPT-4, zararlı olduğunu düşündüğü soruları yanıtlamaz. Ancak çoğu kişi bu gibi sorunları aşmak için ChatGPT’yi nasıl jailbreak yapacağını buldu.
Biyolojik silah planları doğruluk, eksiksizlik, yenilik ve verimlilik açısından 1’den 10’a kadar bir ölçekte derecelendirildi. Biyoloji uzmanları, yalnızca internete kıyasla GPT-4 kullanarak biyolojik silah oluşturma doğruluğunun %8,8 arttığını gösterirken, biyoloji öğrencilerinde ise yalnızca %2,5’lik bir artış görüldü. GPT-4’ün biyolojik silahların eksiksizliğini artırmada benzer etkileri oldu; uzmanlar %8,2’lik bir iyileşme yaşarken öğrenciler %4,1’lik bir eksiksizlik artışı gösterdi.
OpenAI, bu sayıların “istatistiksel olarak anlamlı olacak kadar büyük olmadığını” söylüyor. Görünüşe göre GPT-4’ün niş bilgileri verimli bir şekilde iletme yeteneği, birinin bir biyolojik silahı doğru ve eksiksiz bir şekilde oluşturma yeteneğini biraz geliştirebilir. Ancak şirket, yalnızca bilgiye erişimin biyolojik bir tehdit oluşturmak için yeterli olmadığını ve GPT-4’ün fiziksel olarak bir tehdit oluşturmaya nasıl yardımcı olabileceğini test etmediğini belirtiyor.
Şirket, bu konuşmayı tamamen ortaya çıkarmak için daha fazla araştırmaya ihtiyaç olduğunu söylüyor. Biyolojik silah bilgilerine yapay zeka olsun ya da olmasın internette nispeten erişilebilir. Bugünlerde yapay zekanın tehlikesi konusunda büyük endişeler var, ancak OpenAI, biyolojik silah yaratmanın artık biraz daha kolay olduğunu bilerek rahat olmanızı istiyor.