ChatGPT yapımcısı OpenAI biraz sarsılıyor. Şirket, chatbot’un talimatları hatırlamasına yardımcı olacak daha fazla özellik ekliyor, ancak geliştiriciler şirketin değerli dil modelinin mevcut sürümünün amaçlandığı gibi çalıştığından emin olmak için çok daha fazla zaman harcayacak. Ancak, şirket güven ve emniyet kafasını kaybettiği için bir adım ileri ve bir adım geri gidiyor.

Perşembe günü OpenAI, ChatGPT için ödeme yapan Plus kullanıcılarının chatbot’a “özel talimatlar” ekleyebileceğini söyledi. Yeni talimatlar, temel olarak kullanıcıların bottan daha tutarlı bir yanıt almasına olanak tanır. şirkete göre bilgi formu, kullanıcılar bu talimatları hesap adlarının altında bulunan özel bir alana ekleyebilirler. Talimatlar, chatbot’u daha resmi bir şekilde veya belirli bir kelime sayısı altında yanıt vermeye zorlamayı içerebilir. Talimatlar, ChatGPT’ye “konular hakkında fikir sahibi olmasını veya tarafsız kalmasını” bile söyleyebilir.

Yapay zekanın nasıl “görüşlü” görünmesi gerektiği, yapay zeka çevrelerinde sürekli bir tartışma konusudur. Ne yazık ki, ChatGPT’nin bu hususlara yön verecek başka birini bulması gerekecek. OpenAI’nin güven ve emniyet başkanı Dave Willner bir mektupta şunları yazdı: LinkedIn gönderisi Perşembe günü geç saatlerde şirkette bir “danışmanlık rolüne” geçeceğini söyledi. Çalışmanın ev hayatıyla çatışmasını ve özellikle çocuklarına bakmayı “OpenAI gelişiminde yüksek yoğunluklu bir aşamadan geçiyor” olarak gösterdi.

Gizmodo’ya gönderilen bir e-posta bildiriminde OpenAI şunları söyledi:

OpenAI’ye yaptığı değerli katkılar için Dave’e teşekkür ederiz. Çalışmaları, teknolojimizin güvenli ve sorumlu kullanımına yönelik taahhüdümüzü hayata geçirmemizde temel oluşturdu ve bu alanda gelecekte ilerleme kaydedilmesinin yolunu açtı. Mira Murati ekibi geçici olarak doğrudan yönetecek ve Dave yıl sonuna kadar danışmanlık yapmaya devam edecek. Teknolojimizin güvenli kullanımını ve ölçeklenebilir büyümesini sağlayan sistemlerin tasarımına, geliştirilmesine ve uygulanmasına odaklanarak misyonumuzu ilerletmek için teknik olarak yetenekli bir müşteri adayı arıyoruz.

Son derece popüler olan chatbot’u ile ilgili olarak, iyi incelenmiş şirket için oldukça önemli bir konum. bu Federal Ticaret Komisyonu kısa süre önce OpenAI’den dağlar kadar belge talep etti AI korumaları hakkında. Bunların hepsi şirket CEO’su Sam Altman iken AI düzenlemesi konusunda kendisini bir düşünce lideri olarak konumlandırmaya çalışmak.

Şimdi OpenAI, bir sonraki büyük şeye geçmek yerine mevcut AI modellerinde ince ayar yapmak için çok daha uzun zaman harcayacak. Perşembe günü, şirket ilan edildi API’sinde GPT-3.5 ve GPT-4 dil modelleri için desteği gelecek yıl en az 13 Haziran’a kadar uzatıyor olacaktır. Haber, bir grup Stanford ve UC Berkeley araştırmacısının aşağıdakileri gösteren bir çalışma yayınlamasından sadece bir gün sonra geldi: ChatGPT, matematik ve kodlama gibi bazı görevlerde önemli ölçüde kötüleşti önceki sürümlerle karşılaştırıldığında.

Gerçi bazı akademisyen arkadaşlar sorgulandı makalenin bazı bulguları, çalışma bir damper koydu iddialar OpenAI yöneticilerinden “GPT-4’ü daha aptal yapmadık.” Bazı geliştiriciler, GPT-4 gibi dil modellerinin, küçük değişiklikler bile modelin yeteneklerini artırabilecekse işletmeler için yararlı olup olmayacağını sorguladı. OpenAI şimdi deneyeceğini ve daha fazla geliştiriciye modelde ne gibi değişiklikler yaptıklarına dair bir fikir vereceğini söylüyor. Yine de, OpenAI’nin normal kullanıcılara vermesi pek olası değil. içeriği hakkında daha fazla ipucu onların içinde oldukça opak büyük dil modeli.

Şirket, güncellenen blog gönderisinde “Metriklerin çoğu iyileşirken, performansın kötüleştiği bazı görevler olabilir” diye yazdı. “Model yükseltmelerinin ve davranış değişikliklerinin uygulamalarınız için yıkıcı olabileceğini anlıyoruz. Geliştiricilere modelleri nasıl yayınladığımız ve kullanımdan kaldırdığımız konusunda daha fazla istikrar ve görünürlük sağlamanın yolları üzerinde çalışıyoruz.”

Bu iyileştirmelerin bir kısmı, araştırmacıların raporunda GPT-4’ün yayınlanmasından bu yana birkaç ay içinde önemli ölçüde değiştiği belirtilen bir şey olan “gerçeklere dayalı doğruluk ve reddetme davranışı”na odaklandı. Araştırmacılar, GPT-4’ün, kadın düşmanlığı veya suç işlemeye ilişkin talimatları içerebilecek “zararlı” yönlendirmelere %5 oranında yanıt vermeye devam ettiğini belirtti. Bu, bir tröst ve güvenlik sorumlusunun odaklanması gereken türden bir konu – tabi OpenAI yapışacak yeni bir tane bulabilirse.





genel-7