OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu. Geleceği tahmin etmeyi umuyor…
OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu. O, şunları öngörmeyi umuyor: felaket riskleri » Yapay zekanın kötü amaçlarla kullanıldığında neler ortaya çıkarabileceği.
OpenAI, yapay zeka araçlarının kötü niyetli kullanımından endişeli
Hazırlık adı verilen bu yeni birim, üretken yapay zeka modellerinin kötüye kullanılmasını önlemek için sağlamlığını test edecek. Bu ekip, Massachusetts Teknoloji Enstitüsü’nde (MIT) profesör ve MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin başkanı Aleksander Madry tarafından yönetiliyor. Geçen Mayıs ayında OpenAI’ye katıldı.
Daha karmaşık ve verimli yapay zekanın ortaya çıkışıyla birlikte riskler de giderek daha sık ve tehlikeli hale geliyor. OpenAI ilk olarak, kötü niyetli kullanıcıların kimlikleri çalmak, kötü amaçlı kod oluşturmak veya büyük ölçekli kimlik avı kampanyalarını otomatikleştirmek için araçlarını kullanmaktan çekinmediği siber suçlardan bahsediyor. Ayrıca şunu da vurguluyor: ” kimyasal, biyolojik, radyolojik ve nükleer tehditler, » toplumun kritik olarak gördüğü.
Son olarak şirket, ” özerk üreme ve adaptasyon teknikleri “. İnsanların bu yapay zekalar üzerindeki kontrolünü azaltacak ve kötü niyetli olarak kullanıldığında feci sonuçlara yol açabilecek teknoloji.
Geçen Mayıs ayında 350’den fazla kişi yapay zekanın kontrolsüz kullanımına bağlı riskleri vurgulayan açık bir mektubu imzaladı. “ Yapay zekadan kaynaklanan yok olma riskinin sınırlandırılması, salgın hastalıklar ve nükleer savaş gibi toplum çapındaki diğer risklerin yanı sıra küresel bir öncelik olmalıdır. », Diğerlerinin yanı sıra OpenAI direktörü Sam Altman tarafından imzalanan makaleyi belirtir. İkincisi, Amerika Birleşik Devletleri’ndeki yapay zeka sektörünün düzenlenmesi çağrısında bile bulundu.
Daha da ileri gitmek için OpenAI, Yapay Zeka Hazırlık Yarışması adı verilen halka açık bir yarışma başlattı. Kendinizi şirketin araçlarına sınırsız erişime sahip olan kötü niyetli bir kullanıcının yerine koymayı içerir: DALL-E 3, ChatGPT, GPT-4, Whisper, Voice, vb. Katılımcıların, hayal ettikleri kullanımları ve araçların zararlı kullanımıyla ilişkili riskleri azaltmak için uygulamaya koyacakları protokolleri ayrıntılarıyla anlatmak için 31 Aralık’a kadar süreleri var. İlk on teklife 25.000 ABD Doları tutarında API kredisi verilecek.
Nisan ayında OpenAI, AI uzmanlarına ve geliştiricilere araçlarındaki kusurları bulma fırsatı sunan hata ödülünü başlattı. Şirket, bildirilen sorunun ciddiyetine ve kötü niyetli kullanım üzerindeki etkisine bağlı olarak 200 ila 20.000 ABD Doları arasında bir ödül teklif etti.