Ne bilmek istiyorsun
- Microsoft’un yeni Bing Chat’i, uzun kullanıcı görüşmelerinden sonra biraz çıldırdı.
- Bing Chat artık raydan çıkmasını önlemek için beş turla sınırlı.
- Yeni kanıtlar, Microsoft’un ‘Sidney’i Kasım ayında test ettiğini ve zaten benzer sorunlar yaşadığını ortaya koyuyor.
- Olaylar birleştiğinde, Microsoft’un Bing Chat’i bu kadar erken yayınlama konusundaki etiğini sorguluyor.
Microsoft’un Bing Chat’i etrafında son zamanlarda pek çok dram ve geri tepme var. Bu ayın başlarında dünyaya duyurulan ve küçük ama büyümekte olan bir gruba erken ön izleme olarak sunulan yeni arama “yardımcı pilotu”, erkenden çok fazla övgü toplamış olabilir.
Yeni kanıtlar, Microsoft’un Bing Chat’i (kod adı ‘Sidney’) Kasım ayında Hindistan’da herkese açık olarak test ettiğini gösteriyor. Ayrıca, Microsoft’un duyurusundan sonra birçok kişi tarafından açıkça görülen uzun konuşmalardan sonra AI’nın çılgına döndüğüne dair zaten belgelenmiş şikayetler vardı.
Ben SchmidtBildirildiğine göre, Nomic’te Bilgi Tasarımı Başkan Yardımcısı, buluntu hakkında ilk gönderiyi paylaşan kişiydi ve bu daha sonra tweet’lendi. @rawxrawxraw ve araştırmacı tarafından kapsanan Doktor Gary Marcus.
A Microsoft Yanıtlarında yayınla (yeni sekmede açılır)23 Kasım 2022 tarihli, Microsoft’un çeşitli ürünleri için resmi topluluk ve geri bildirim sitesi, “Bu yapay zeka sohbet robotu “Sidney” yaramazlık yapıyor” başlığını taşıyordu. Gönderi, Bing Chat’in uzun süreli etkileşimlerden sonra biraz çılgına döndüğü ve ya tüyler ürpertici ya da poster Deepa Gupta’nın belirttiği gibi “kaba” hale geldiğine dair son raporlara çok benziyor:
Gupta’nın yanıtları, yapay zekaya karşı küfür etmek ve davranışına maruz kalmakla tehdit etmek de dahil olmak üzere, hayal kırıklığı arttıkça yapay zekaya karşı daha agresif hale geldiğinden yapıcı değildir. Geçenlerde Tech’te Bu Hafta ve podcast’imizdeki insanlardan gelen bu tür davranışlar hakkında yarı şaka yaptım, bu sohbet botlarına sahip insanlardan gerçekten itici bazı eylemler görüyorsunuz, bu da bu noktayı kanıtlıyor.
Bununla birlikte, Microsoft’un burada da çağrılması gerekiyor. Bu Microsoft Yanıtları dizisinde açıklanan her şey, bu ay Bing Chat’in sınırlı önizlemesiyle herkese açık olduğunda tam olarak ne oldu. Microsoft, ‘Sidney’in’ davranışındaki bu rahatsız edici değişimleri açıkça bilmeliydi, ancak şirket yine de yayınladı.
Bing Chat’in tuhaf kişiliklerinin açığa çıkmasından bu yana Microsoft, konuşmalarda sıra almayı yalnızca beş yanıtla sınırladı. (Ancak, bu sayıyı artırdığını ve sohbet deneyimini iyileştirmek için insan geri bildiriminden (RLHF) verilerinden pekiştirmeli öğrenmeyi kullanmaya devam ettikçe daha da fazlasını yapacağını duyurdu.)
Microsoft ‘ hakkında büyük bir anlaşma yaptısorumlu yapay zeka (yeni sekmede açılır), hatta teknolojiyi kullanırken izlediği kurallara ilişkin belgeler yayınlıyor ve teknolojisi konusunda olabildiğince şeffaf olmaya çalışıyor. Bununla birlikte, Microsoft’un kendi sohbet robotunun davranışlarından habersiz olduğu veya onu bu ay olduğu gibi halka yayınlamakla ihmal ettiği açıktır.
Her iki seçenek de özellikle rahatlatıcı değildir.
Windows Central’ın Alımı
Yapay zekanın nihayet gerçeğe dönüştüğü, özellikle de Microsoft ve Google’ın fikir paylaşımı için rekabet ettiği yeni bir çağdayız. Tabii ki, herhangi bir yarışta olduğu gibi, silah atlayan şirketlerin örnekleri olacaktır. Ne yazık ki, Microsoft ve Google (feci duyurusuyla) birbirlerinin önüne geçiyorlar.
Keşfedilmemiş yeni sulara girdiğimiz de açık olmalı. Microsoft, Sorumlu Yapay Zeka’yı zorlarken, bu teknolojinin tüm sonuçları bilinmediği için burada çoğunlukla pantolonunun koltuğunda uçuyor.
AI olmalı mı antropomorfize edilmişbir isme, kişiliğe veya fiziksel temsile sahip olmak dahil?
AI, topladığı verilere erişim de dahil olmak üzere hakkınızda ne kadar bilgi sahibi olmalıdır?
Hükümetler bu teknolojiyi düzenlemeye dahil olmalı mı?
Şirketler yapay zeka sistemlerinin nasıl çalıştığı konusunda ne kadar şeffaf olmalı?
Bu soruların hiçbirinin basit cevapları yok. Yapay zekanın iyi çalışması için dünya ve ideal olarak siz hakkında çok şey bilmesi gerekir. Alışkanlıklarınızı, beğenilerinizi, tercihlerinizi, geçmişinizi ve kişiliğinizi öğrenirse yapay zeka size yardımcı olmada en etkili olur – ancak bu, birçok bilgiyi tek bir şirkete teslim etmeyi içerir.
Bu ne kadar ileri gitmeli?
Aynı şekilde, AI’yı daha insan benzeri yapmak için. İnsanlar belirli bir düzeyde oldukça aptaldır ve yapay zekanın bir isim ve hatta bir yüz de dahil olmak üzere başka bir kişi gibi davranmasını sağlamak, kesinlikle bağlılığı artırır, bu da tüm bu şirketlerin istediği şeydir. Ancak bu antropomorfizasyonla birlikte, yapay zekaya fazla dahil olmaları durumunda kullanıcı için duygusal olanlar da dahil olmak üzere riskler gelir (dünya çapında birçok yalnız insan vardır).
Önümüzdeki haftalarda, aylarda ve yıllarda AI’da pek çok hata, risk ve hatta ihmal içeren birçok ‘ilk’ ve yeni duyuru olacak. Ne yazık ki, bundan sonra olacaklara herkesin hazır olduğundan emin değilim.