OpenAI, yapay zeka ile ilişkili “yıkıcı riskleri” azaltmak için yeni bir ekip kuruyor. İçinde perşembe günü güncellemeOpenAI, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu potansiyel büyük sorunlara karşı “takip edeceğini, değerlendireceğini, tahmin edeceğini ve koruyacağını” söylüyor.

Ekip ayrıca “kimyasal, biyolojik ve radyolojik tehditlerin” yanı sıra “otonom kopyalama” veya yapay zekanın kendini kopyalama eylemini azaltmak için de çalışacak. Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma yeteneğinin yanı sıra siber güvenlik tehditleri de yer alıyor.

OpenAI güncellemede şöyle yazıyor: “Mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz.” “Fakat aynı zamanda giderek daha ciddi riskler de yaratıyorlar.”

Aleksander Madry, şu anda kim izinli MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin direktörlüğü görevinden itibaren hazırlık ekibine liderlik edecek. OpenAI, hazırlık ekibinin aynı zamanda şirketin yapay zeka modellerini değerlendirmek ve izlemek için ne yaptığını özetleyen bir “risk bilgili geliştirme politikası” geliştirip sürdüreceğini belirtiyor.



genel-2