Dünyanın gözü önünde olan OpenAI, insanlığın iyiliğini amaçlayan güvenli bir yapay zeka yaratmaya istekli olduğunu göstermek için artık her şeyi yapacaktır. Bu bağlamda, ChatGpt’te bir hata bulan herkes için 200 dolardan başlayan 20.000 dolara kadar bir ödül programı başlattı.
Blogunda şöyle yazıyor: «OpenAI Bug Bounty programı, teknolojimizi ve şirketimizi güvende tutmaya yardımcı olan güvenlik araştırmacılarının değerli içgörülerini takdir etmenin ve ödüllendirmenin bir yoludur. Sistemlerimizde keşfettiğiniz güvenlik açıklarını, hataları veya güvenlik açıklarını bildirmenizi öneririz. Bulgularınızı paylaşarak, teknolojimizi herkes için daha güvenli hale getirmede çok önemli bir rol oynayacaksınız.”
Neden Bir Hata Ödülü?
Testi teşvik etmek ve bir takdir göstergesi olarak, bildirilen sorunların ciddiyetine ve etkisine göre nakit ödüller sunacağız. Ödüller, düşük yerçekimli keşifler için 200$’dan olağanüstü keşifler için 20.000$’a kadar değişir. Katkılarınızın öneminin farkındayız ve çabalarınızı tanımaya kararlıyız.” Bu amaçla OpenAi, rapor ve ödül gönderme sürecini yönetmek için bug bounty sektöründe lider bir platform olan Bugcrowd ile ortaklık kurmuştur. Ancak, altta yatan niyetlerin ne olduğunu doğrulamak için, ödül programına ayrılmış OpenAi sayfası “Yapay zekayı güvence altına alma taahhüdümüz” paragrafıyla açılır. “OpenAI’nin misyonu, herkese fayda sağlayan yapay zeka sistemleri yaratmaktır. Bu amaçla, AI sistemlerimizin güvenli ve emniyetli olmasını sağlamak için araştırma ve mühendisliğe büyük yatırımlar yapıyoruz. Ancak, herhangi bir karmaşık teknolojide olduğu gibi, güvenlik açıklarının ve kusurların ortaya çıkabileceğinin farkındayız», diye açıklıyor şirket.
Sadece ödüller değil
«Daha fazla katkıda bulunmak ister misiniz? İşe alıyoruz – kariyer sayfamızda açık güvenlik rollerini keşfedin. Teknolojinin sınırlarının güvenli olduğundan emin olmak için bize katılın.” OpenAi, tam da Gizlilik Garantörümüz tarafından suçlandığı günlerde, dünyayı rahatlatmak için makaleler yayınladı. Bir yandan, temel amacın – çok iddialı – mevcut ChatGpt’nin ötesine geçmek ve insan zekasının tüm özelliklerini gerçekten yeniden üretebilecek bir “yapay genel zekaya (AGI)” ulaşmak olduğunu yineliyor (ancak süper hız ve neredeyse sonsuz belleğin ek faydası). Öte yandan, insani değerlerle uyumlu ve insan niyetlerini takip edebilen AGI istediğini söylüyor. Kısacası, kontrolden çıkmış ve zararlı bir yapay zeka değil. “Bağlantısız AI’lar – aslında OpenAI’yi açıklıyor – insanlık için önemli riskler içerebilir”.
AI’yı insanlıkla uyumlu hale getirmek için OpenAI üç şey yapar:
Yapay zeka sistemlerini insan geri bildirimi kullanarak eğitin; insan değerlendirmesine yardımcı olmaları için onları eğitir; aynı zamanda onları insani değerlerle sürekli bir uyum arayışı içinde açıkça eğitir. Bu hafta ABD Başkanı Biden, teknolojinin zararlı bilgileri ayırt etmek veya yaymak için kullanılabileceğine dair artan endişelerin ardından, ChatGPT gibi “üretken” yapay zeka araçlarının kontrol edilmesi ihtiyacını da değerlendirmeye başladı. Potansiyel bir düzenlemeye yönelik ilk adım olarak ABD, Ticaret Bakanlığı, potansiyel olarak riskli yeni AI modellerinin piyasaya sürülmeden önce bir sertifika sürecinden geçmesi gerekmesi olasılığı da dahil olmak üzere, hesap verebilirlik önlemleri olarak adlandırdığı şeyler hakkında yorum yapılması için resmi bir kamu talebinde bulundu. Bu tür bir düzenleme, Avrupa Komisyonu’nun AI Yasasının mevcut taslağında bulunan ancak bunu yalnızca yüksek riskli AI uygulamaları için sağlayan (sağlık veya güvenlik alanında) “etki değerlendirmesi” kavramını hatırlatabilir. Birkaç gün önce, her zaman blogunda olan OpenAI, araştırma ve siyasi kurumlarla işbirliği sözü verdi. AGI’nin küresel zorluklarını ele almak için birlikte çalışan küresel bir topluluk oluşturmaya çalışıyoruz.”