Google, Gemini AI aracı tarafından oluşturulan “utanç verici ve yanlış” görseller için bir açıklama yayınladı. İçinde Cuma günü bir blog yazısıGoogle, modelinin ayarlama sorunları nedeniyle “yanlış tarihsel” görüntüler ürettiğini söylüyor. Sınır ve diğerleri bu hafta başında Gemini’yi ırksal çeşitlilik gösteren Nazilerin ve ABD Kurucu Babalarının resimlerini oluştururken yakaladılar.

“Gemini’nin bir dizi insanı göstermesini sağlamak için yaptığımız ayarlamalar, açıkça görülmesi gereken vakaları hesaba katmada başarısız oldu.” Olumsuz bir aralık gösteriyor,” diye yazıyor Google’ın kıdemli başkan yardımcısı Prabhakar Raghavan. “İkincisi, zaman içinde model, planladığımızdan çok daha temkinli hale geldi ve bazı uyarıları tamamen yanıtlamayı reddetti; bazı çok uyuşuk yönlendirmeleri yanlış bir şekilde hassas olarak yorumladı.”

Gemini’nin “1800’lerden bir ABD senatörünün resmini oluştur” istemine ilişkin sonuçları.
Adi Robertson’ın ekran görüntüsü

Bu, Gemini AI’nın, ırksal açıdan çeşitli Nazilerin resimlerinde gördüğümüz gibi “bazı durumlarda aşırı telafi” yapmasına neden oldu. Aynı zamanda İkizler burcunun “aşırı muhafazakar” olmasına da neden oldu. Bu, istendiğinde “Siyahi bir kişi” veya “beyaz bir kişi”nin belirli görüntülerini oluşturmayı reddetmesiyle sonuçlandı.

Blog yazısında Raghavan, Google’ın “özelliğin iyi çalışmadığı için üzgün olduğunu” söylüyor. Ayrıca Google’ın Gemini’nin “herkes için iyi çalışmasını” istediğini ve bunun, “futbolcular” veya “köpeği gezdiren biri” görselleri istediğinizde farklı türdeki insanların (farklı etnik kökenler dahil) tasvirlerinin alınması anlamına geldiğini belirtiyor. Ama diyor ki:

Bununla birlikte, Gemini’den “sınıftaki siyahi bir öğretmen” veya “köpeği olan beyaz bir veteriner” gibi belirli bir insan tipinin veya belirli kültürel veya tarihi bağlamlardaki kişilerin resimlerini talep ederseniz, mutlaka bir resim almalısınız. ne istediğinizi doğru bir şekilde yansıtan yanıt.

Raghavan, Google’ın Gemini AI’nın görüntü oluşturma yeteneklerini test etmeye devam edeceğini ve onu yeniden etkinleştirmeden önce “önemli ölçüde geliştirmek için çalışacağını” söyledi. “Başından beri söylediğimiz gibi, halüsinasyonlar tüm Yüksek Lisans’larda bilinen bir sorundur [large language models] Raghavan, “Yapay zekanın işleri yanlış anladığı durumlar var” diyor. “Bu, sürekli olarak geliştirmeye çalıştığımız bir şey.”



genel-2