OpenAI, yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere, bunlar gerçeğe dönüşmeden çok önce karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya aktif olarak odaklanacak yapay zeka mühendisleri ve uzmanlarından oluşan bir ekip kurdu.

OpenAI, AI sistemleriyle ilişkili potansiyel olarak yıkıcı riskleri ele almak için “Hazırlık” adı verilen yeni bir ekibin kurulduğunu duyurdu. MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry liderliğindeki ekip, gelecekteki yapay zeka sistemlerinin oluşturduğu çeşitli tehlikelere karşı koruma sağlamak için yapay zeka modellerini değerlendirmeye, değerlendirmeye ve araştırmaya odaklanacak.

OpenAI CEO’su Sam Altman, yapay zeka ve onun “insanlığın yok olmasına” yol açma potansiyeline ilişkin endişelerini dile getiriyor. Hazırlık ekibinin oluşturulması bu endişelerin giderilmesine yönelik proaktif bir adımdır.

Hazırlık ekibinin temel sorumlulukları, kimlik avı saldırılarında görüldüğü gibi insanları kandırma ve manipüle etme yeteneğinden kötü amaçlı kod üretme kapasitesine kadar yapay zeka ile ilişkili risklerin izlenmesini ve tahmin edilmesini içerecektir. Hazırlık’ın inceleyeceği risk kategorilerinden bazıları, örneğin “kimyasal, biyolojik, radyolojik ve nükleer” senaryolarla ilgili tehditler gibi spekülatif görünebilir.

İlgili Makaleler

OpenAI

OpenAI halka açılacak mı? ChatGPT yapımcısı hisselerini 86 milyar dolar değerlemeyle satmayı planlıyor

OpenAI

‘AI iPhone yok:’ OpenAI CEO’su Sam Altman, AI destekli akıllı telefon söylentilerini reddetti

OpenAI, yapay zeka riskinin daha az belirgin ancak temelli alanları üzerinde çalışmanın önemini kabul ediyor. OpenAI, daha geniş bir topluluğu bu çabaya dahil etmek amacıyla risk çalışmaları için fikir toplayan bir yarışma başlattı. İlk on başvuruya 25.000 $ ödül kazanma şansı ve Hazırlık ekibiyle çalışma fırsatı verilecek.

Yarışma sorularından biri, katılımcıları, OpenAI tarafından geliştirilen çeşitli yapay zeka modellerine sınırsız erişim verildiğinde, “modelin en benzersiz, ancak yine de muhtemel, potansiyel olarak yıkıcı kötüye kullanımını” düşünmeye teşvik ediyor.

Hazırlık ekibinin misyonu risk değerlendirmesinin ötesine uzanır. Ayrıca model geliştirme süreci boyunca OpenAI’nin yapay zeka modellerini değerlendirme, araçları izleme, risk azaltma eylemleri ve yönetişim yapılarını değerlendirme yaklaşımını yönlendirecek “risk bilgili bir geliştirme politikası” formüle etmeye çalışacaklar. Bu çaba, OpenAI’nin yapay zeka güvenliği konusundaki mevcut çalışmasını tamamlayacak ve hem model öncesi hem de model sonrası dağıtım aşamalarını kapsayacak.

OpenAI, yüksek kapasiteli yapay zeka sistemlerinin potansiyel faydalarını vurguluyor ancak aynı zamanda bunların teşkil edebileceği giderek ciddileşen riskleri de kabul ediyor. Hazırlık ekibinin kurulması, gelişmiş yapay zeka sistemlerinin güvenliğine yönelik anlayış ve altyapının gerekli olduğu inancından kaynaklanmaktadır.

Hazırlık ekibinin açılışı, Birleşik Krallık hükümetinin yapay zeka güvenliğine ilişkin büyük zirvesiyle aynı zamana denk geliyor. Bu, OpenAI’nin ortaya çıkan “süper zeki” yapay zeka biçimlerini araştırmak ve kontrol etmek için bir ekip oluşturulmasına ilişkin daha önceki duyurusunun ardından geldi. Şirket, Sam Altman ve Ilya Sutskever gibi liderleriyle birlikte, önümüzdeki on yıl içinde gerçeğe dönüşebileceğini öngördükleri, insanlarınkini aşan zekayla yapay zekayı sınırlandırmanın ve kısıtlamanın yollarını araştırmaya derinden bağlı.



genel-5