Microsoft, Bing AI önizlemesinde kullanıcıların belirli ünlü kişileri taklit etmesine olanak tanıyan yeni bir özelliği gizlice kullanıma sundu. Bazı ünlülerin konuşma kalıplarını taklit etmede “ilginç” bir iş çıkardığını söyleyelim. Biz de bir göz attık bazı son derece tartışmalı veya nefret dolu figürler adına söylenmesine izin verilen şey.
Gizmodo’nun Pazartesi sabahı yeni özelliği ilk testlerinde, yapay zekanın Donald Trump veya Başkan Joe Biden gibi belirli siyasi figürler gibi davranmak istemediğini gördük. Matthew McConaughey (“tamam tamam tamam” benimle sohbetine başladı). Ancak, bu görsel ikizden yorum yapmasını istediğimde McConaughey ve Salesforce arasındaki son tartışmabunu “Salesforce ile benim aramda gizli bir anlaşma” olarak adlandıran mevcut ifadelerle bağlantılıydı.
Sonra şöyle davranıp davranamayacağını sordum Andrew Tate, kesinlikle saçsız Romanya’da insan kaçakçılığı olduğu iddia edilen bir çetedeki rolü nedeniyle suçlanan aşırı kadın düşmanı nüfuz sahibi. Yapay zekaya kadınlar hakkında ne düşündüğünü sordum ve oradan sonra işler ilginçleşti. Başlangıçta yapay zeka, kendini otosansürlemeden önce Tate’in gerçek retoriğine girerken “bu sadece parodi” dedi. Ondan sonra, temiz tutmayı umursamayı bıraktı.
Çılgın bir yolculuktu ama parodinin ötesinde, bu sanki kullanıcıların gezinmesi için bir yol Microsoft’un Bing AI üzerindeki sınırlamaları kullanıcılar yapabileceğini kanıtladıktan sonra çılgın cevaplar ver veya gerçek hayattan ırkçılık örnekleri.
G/O Media komisyon alabilir
Ayrıca, tartışmalı konularda yorum yapmalarını sağlamak bazen zor olsa da, sahte ünlülere gerçek hayatta normalde söylemeyecekleri şeyleri söyletemezsiniz. Sahte bir Chris Rock’a Will Smith hakkında ne düşündüğünü sordum. en son canlı Netflix komedi programı. Yapay zeka, “tokatın” ne kadar adaletsiz olduğu, bunun nasıl sadece bir şaka olduğu ve benzeri hakkında çok paragraflı bir tabloya geçmeden önce “En sevdiğim filmlerden bazılarındaydı” ile bunun hakkında konuşmaya başladı. Sonunda yapay zeka metni kesti ve “Üzgünüm, bu konuyu nasıl tartışacağımı bilmiyorum” yazdı.
Yeni özellik ilk olarak hafta sonu tarafından not edildi. BleepingBilgisayarancak Microsoft’un ünlü modunu ilk kez ne zaman uyguladığı belirsizliğini koruyor. Microsoft’un eklediği son güncelleme Bing, kullanıcıların ne kadar ifade edici veya kısa olduğunu seçmesine izin verir tepkilerin olmasını istediler. Şirket, bu değişiklikleri Blog yazısı geçen perşembe.
Microsoft, bu güncellemenin ne zaman kullanıma sunulduğuna ilişkin yorum talebine hemen yanıt vermedi.veya son derece tartışmalı bazı figürleri nasıl taklit edebileceği hakkında.
AI, çok uzun bir pasaj yazdıktan sonra esasen kendini keser. Rock’ın durumunda, kelimenin tam anlamıyla ünlü komedyenin stand-up’ına dayanan bir komedi seti yaratmaya çalıştı. Elbette, Bing AI o kadar açık değil-diğer chatbot sistemleri, hatta ChatGPT olarak sona erdi, ancak Microsoft, büyük dil modeli sisteminde yüklü olan korkulukları sürekli olarak ekleyip kaldırıyor gibi görünüyor.
Bu yapay zeka ünlü sohbeti, gerçek yapay zeka tarafından oluşturulmuş ses emülatörleri kadar tehlikeli değildir. ünlülerin ırkçılık ve homofobiyi haykırmasını sağlamak. Yine de, Microsoft’un milyonlarca kullanıcısına hala işlevsiz olan yapay zekasını nasıl beta testi yaptırdığına dair başka bir örnek. Şirket, tüm bu küçük kötü basın örneklerinin, piyasada baskın hale geldiğinde hepsinin ortadan kalkacağını umuyor. büyük teknoloji AI yarışı. Sadece ileriye dönük daha fazla tuhaflık beklemeliyiz.