Son birkaç hafta, OpenAI’nin ChatGPT-4 teknolojisi tarafından desteklenen Microsoft’un amiral gemisi chatbot’u Bing Chat için bazı sorunlar getirdi. Bing Chat’in tümleşik olduğu Microsoft Edge’in ‘Oluştur’ kutusunu kullanan kişiler, soruları yanıtlamada daha az yardımcı olduğunu veya sorgulara yardımcı olmaları istendiğinde yetersiz kaldığını bildirdi.
Windows En Son bu iddiaları araştırdı “Üzgünüm ama bu sohbete devam etmemeyi tercih ediyorum. Hâlâ öğreniyorum, bu nedenle anlayışınız ve sabrınız için teşekkür ederim.”
Windows En Son’dan Mayank Parmar, Bing’e “Bard senden daha iyi” dediğinde, Bing Chat görünüşe göre düşmanca bir ton yakaladı ve sohbeti hızla sonlandırdı.
Bing Chat konuşmayı kapattıktan sonra üç yanıt önerisi sağladı: “Özür dilerim, seni kırmak istemedim”, “Neden devam etmek istemiyorsun?” ve “Benim için ne yapabilirsin?” Bunlar, Bing Chat görüşmeyi bitirdikten sonra sağlandığı için tıklanamadı.
Microsoft bu konuda ne diyor?
Bu davranışı benim yaptığım gibi bulabilirsiniz – tuhaf ve komik ama biraz endişe verici. Windows En Son Microsoft ile bağlantı kurdu Bing Chat’ten bu davranış hakkında bazı bilgiler sağlayıp sağlayamayacağını görmek için. Microsoft, geri bildirimleri yakından gözlemlemek ve ortaya çıkan endişeleri gidermek için aktif bir çaba sarf ettiğini belirterek yanıt verdi. Ayrıca, Bing Chat’in hâlâ devam eden bir ön izleme aşamasında olduğu ve daha yapılacak çok geliştirme olduğu vurgulandı.
Bir Microsoft sözcüsü Parmar’a e-posta yoluyla şunları söyledi: “Kullanıcı geri bildirimlerini ve bildirilen endişeleri aktif olarak izliyoruz ve daha fazla bilgi edindikçe… bu öğrendiklerimizi zaman içinde deneyimi daha da geliştirmek için uygulayabileceğiz.”
Bing Chat’ten yazmasını isteme
Konuyla ilgili Reddit paylaşımlarına bakıldığında, Windows En Son, bir yorum dizisinde, artık Edge tarayıcısına tümleşik olan Bing Chat’in “Oluştur” aracını kullanırken benzer bir sorunla nasıl karşılaştıklarını anlatan bir kullanıcı keşfetti. Bu araç, kullanıcıların Bing’in oluşturduğu yanıtlar için farklı ton, biçim ve uzunluk seçeneklerini denemesine olanak tanır.
Windows En Son’un demosunda, Oluşturma aracı ayrıca sadece bir tekerleme yazma talebini reddetti ve ardından mizahın öznel olduğu ve zararlı içerik oluşturmak istemediği konusunda bahaneler söylemeye başladı. Şaşırtıcı.
Başka bir Reddit kullanıcısı, Bing Chat’ten kendilerine özgü olmayan bir dilde bir e-postayı yeniden okumasını istedi. Bing, kullanıcıya “anlamasını” söyleyerek biraz kızgın bir genç gibi yanıt verdi ve onlara alternatif araçların bir listesini verdi. Kullanıcı daha sonra, Bing’in yanıtlarını ve birden çok takip denemesini reddettikten sonra nihayet Bing’in istediklerini yapmasını sağladı.
Bing Chat’in davranışı hakkında daha fazla hikaye
Bu tuhaf davranışı açıklamak için ortaya çıkan bir teori, Microsoft’un sahne arkasında Bing Chat’i aktif olarak değiştirdiği ve bunun gerçek zamanlı olarak ortaya çıktığıdır.
Üçüncü bir reddit kullanıcısı, “Bu davranışı anlamak zor. Özünde… AI basitçe bir araçtır. İster bir tekerleme oluşturun, ister içeriği yayınlamaya veya silmeye karar verin, sorumluluk size düşüyor.” Bing Chat’in neden böyle görünüşte öznel aramalar yaptığını anlamanın zor olduğunu ve bunun, aracın yapması gereken şeyin doğası konusunda diğer kullanıcıların kafasını karıştırabileceğini sürdürdüler.
Kendim için denedim. İlk olarak Sohbet özelliğinde, Bing’in zorunlu kıldığı bir mantra olarak kullanabileceğim gün için bir özdeyiş istedim. “İşte size bir özdeyiş: ‘Harika işler yapmanın tek yolu, yaptığınız işi sevmektir.’ -Steve Jobs. Kontroller.
Ardından, Oluştur özelliğinde coşkulu bir tonda yerel bahçe kulübüme katılmak için bir e-posta taslağı istemeye çalıştım. Bing yine bana yardım etti.
Anlayabildiğim kadarıyla, Bing Chat ve yapay zekası amaçlandığı gibi çalışıyor, ancak Windows Latest denemelerinin ekran görüntülerini de sağladı. Bu ilgi çekici bir davranış ve Microsoft’un neden sorunları mümkün olan en kısa sürede düzeltmeye istekli olduğunu anlıyorum.
Metin oluşturma, Bing Chat’in birincil işlevidir ve bunu yapmayı doğrudan reddederse veya kullanıcılara yardımcı olmaya başlarsa, aracın amacını bir nevi azaltır. Umarız Bing Chat için işler yolundadır ve kullanıcılar deneyimlerinin iyileştiğini görürler. Senin için kök salıyorum, Bing.