OpenAI başlattı böcek ödülü, halkı ChatGPT de dahil olmak üzere AI hizmetlerindeki güvenlik açıklarını bulmaya ve ifşa etmeye teşvik ediyor. Ödüller, “düşük önem dereceli bulgular” için 200 ABD Doları ile “olağanüstü keşifler” için 20.000 ABD Doları arasında değişmektedir ve raporlar, kitle kaynaklı siber güvenlik platformu aracılığıyla gönderilebilir. böcek kalabalığı.

Özellikle, ödül, ChatGPT’yi hapse atma veya kötü amaçlı kod veya metin oluşturmasına neden olma ödüllerini hariç tutar. OpenAI, “Model istemlerinin ve yanıtlarının içeriğiyle ilgili sorunlar kesinlikle kapsam dışındadır ve ödüllendirilmeyecektir” diyor. Hata kalabalığı sayfası.

Jailbreaking ChatGPT genellikle sisteme kendi güvenlik filtrelerini atlamasına izin veren ayrıntılı senaryoların girilmesini içerir. Bunlar arasında, chatbot’u “kötü ikizi” rolü oynamaya teşvik etmek, kullanıcının nefret söylemi veya silah yapma talimatları gibi aksi takdirde yasaklanmış yanıtları ortaya çıkarmasına izin vermek yer alabilir.

OpenAI, bu tür “model güvenlik sorunlarının, doğrudan düzeltilebilecek bireysel, ayrı hatalar olmadığından, bir hata ödül programına pek uymadığını” söylüyor. Şirket, “bu konuların ele alınmasının genellikle önemli araştırmaları ve daha geniş bir yaklaşımı gerektirdiğini” ve bu tür sorunlarla ilgili raporların şirketin model geri bildirim sayfası.

Bu tür jailbreak’ler, AI sistemlerinin daha geniş güvenlik açıklarını gösterse de, geleneksel güvenlik başarısızlıklarıyla karşılaştırıldığında muhtemelen doğrudan OpenAI için daha az sorun teşkil ederler. Örneğin geçen ay rez0 olarak bilinen bir bilgisayar korsanı 80” ifşa edebildi.gizli eklentiler” ChatGPT API için — şirketin sohbet robotu için henüz yayınlanmamış veya deneysel eklentiler. (Rez0, güvenlik açığının Twitter’da ifşa edilmesinden sonraki bir gün içinde yamalandığını kaydetti.)

tek kullanıcı olarak cevap verdi tweet dizisine: “Keşke ücretli bir #BugBounty programı olsaydı – eminim ki kalabalık gelecekte bu uç vakaları yakalamalarına yardımcı olabilir : )”





genel-2