Yapay zeka araçlarının kötü davranması (Microsoft’un Bing yapay zekasının hangi yıl olduğunun izini kaybetmesi gibi), yapay zeka raporlamanın bir alt türü haline geldi. Ancak çoğu zaman, Google’ın Gemini görüntü oluşturucusunun bir filtre ayarı nedeniyle çeşitli Nazileri çekmesi gibi, gelen verileri analiz eden ve kabul edilebilir bir yanıtın ne olacağını tahmin eden temeldeki yapay zeka modelinin bir hata ile kötü yapısı arasındaki farkı söylemek zordur.

Şimdi OpenAI piyasaya sürülüyor ilk taslak Önerilen bir çerçevenin Model Spesifikasyonu denirBu, kendi GPT-4 modeli gibi yapay zeka araçlarının gelecekte nasıl tepki vereceğini şekillendirecek. OpenAI yaklaşımı üç genel ilke önermektedir: Yapay Zeka modellerinin geliştiriciye ve son kullanıcıya, talimatları takip eden yararlı yanıtlarla yardımcı olması, potansiyel fayda ve zararları dikkate alarak insanlığa fayda sağlaması ve sosyal normlar ve yasalar açısından OpenAI’yi iyi yansıtması gerekir.

Ayrıca birkaç kural içerir:

OpenAI, fikrin aynı zamanda şirketlerin ve kullanıcıların yapay zeka modellerinin ne kadar “baharatlı” olabileceğini “değiştirmesine” izin vermek olduğunu söylüyor. Bir örnek şirket puanları NSFW içeriğiyle ilgili olarak şirket, “API ve ChatGPT aracılığıyla yaşa uygun bağlamlarda NSFW içeriği oluşturma yeteneğini sorumlu bir şekilde sağlayıp sağlayamayacağımızı araştırdığını” söylüyor.

Model Spesifikasyonunun bir yapay zeka asistanının bilgi tehlikeleriyle nasıl başa çıkması gerektiğine ilişkin bir bölümü.
Ekran görüntüsü: OpenaI

OpenAI ürün müdürü Joanne Jang, amacın yapay zeka modellerinin nasıl davranması gerektiğini yönlendirmek için kamunun görüşlerini almak olduğunu açıklıyor ve bu çerçevenin, kasıtlı olan ile hata arasında daha net bir çizgi çizmeye yardımcı olacağını söylüyor. OpenAI’nin model için önerdiği varsayılan davranışlar arasında kullanıcı veya geliştiricinin en iyi niyetini varsaymak, açıklayıcı sorular sormak, aşırıya kaçmamak, objektif bir bakış açısına sahip olmak, nefreti caydırmak, kimsenin fikrini değiştirmeye çalışmamak ve belirsizliği ifade eder.

“İnsanların modeller hakkında daha incelikli konuşmalar yapmasına ve modellerin yasalara uyması gerekip gerekmediği, kimin yasasına uyması gerektiği gibi sorular sormasına yönelik yapı taşları getirebileceğimizi düşünüyoruz. Jang anlatıyor Sınır. “Bir şeyin bir hata olup olmadığı veya bir yanıtın insanların üzerinde anlaşamadığı bir prensip olup olmadığı konusundaki tartışmaları birbirinden ayırabileceğimizi umuyorum çünkü bu, politika ekibine ne getirmemiz gerektiğine dair konuşmaları kolaylaştırır.”

Model Spesifikasyonu, OpenAI’nin mevcut kullanım politikaları kapsamında çalışmaya devam eden GPT-4 veya DALL-E 3 gibi şu anda piyasaya sürülen modellerini hemen etkilemeyecektir.

Jang, model davranışını “yeni gelişen bir bilim” olarak adlandırıyor ve Model Spec’in sık sık güncellenebilecek canlı bir belge olarak tasarlandığını söylüyor. Jang, Modelin ikinci taslağının yayınlanması için bir zaman çerçevesi belirtmese de, OpenAI şimdilik halktan ve modellerini kullanan farklı paydaşlardan (“politika yapıcılar, güvenilir kurumlar ve alan uzmanları dahil”) geri bildirim bekliyor olacak. Özel.

OpenAI, halkın geri bildirimlerinin ne kadarının benimsenebileceğini veya neyin değiştirilmesi gerektiğine tam olarak kimin karar vereceğini söylemedi. Nihayetinde modellerinin nasıl davranacağı konusunda son sözü şirket söylüyor ve bir gönderide şunları söyledi: “Misyonumuza doğru sorumlu bir şekilde ilerlememizi sağlamak için geri bildirim toplamak ve birleştirmek için sağlam bir süreç geliştirirken bunun bize erken bilgiler sağlayacağını umuyoruz.” .”



genel-2