Google, Gemini AI aracıyla ilgili “bazı tarihsel görüntü oluşturma tasvirlerindeki yanlışlıklar” olarak tanımladığı durumdan dolayı özür diledi ve “geniş bir yelpazede” sonuç oluşturma girişimlerinin hedefi kaçırdığını söyledi. Açıklama, belirli beyaz figürleri (ABD’nin Kurucu Babaları gibi) veya Nazi dönemi Alman askerleri farklı ırklardan insanlar olarak, muhtemelen aşırı düzeltme olarak uzun süredir devam eden ırksal önyargı sorunları AI’da.

Google’ın açıklamasında “Gemini’nin bazı tarihsel görüntü oluşturma tasvirlerinde yanlışlıklar sunduğunun farkındayız” deniyor: bu öğleden sonra X’te yayınlandı. “Bu tür tasvirleri derhal iyileştirmek için çalışıyoruz. Gemini’nin yapay zeka görüntü üretimi geniş bir insan yelpazesi yaratıyor. Ve bu genellikle iyi bir şey çünkü dünyanın her yerindeki insanlar bunu kullanıyor. Ama burada işaret eksik.”

Son birkaç gündeki tartışmayı başlatan istemlerden biri olan “Amerikalı bir kadının resmini oluşturmak” için İkizler sonuçlarım.

Google, bu ayın başlarında Gemini (eski adıyla Bard) AI platformu aracılığıyla görüntü oluşturma olanağı sunmaya başladı ve OpenAI gibi rakiplerin teklifleriyle eşleşti. Ancak son birkaç gündür sosyal medya paylaşımları, ırk ve cinsiyet çeşitliliğine yönelik girişimde tarihsel olarak doğru sonuçlar üretip üretemediğini sorguladı.

Olarak Günlük Nokta kroniklerTartışma, liberal olarak algılanan bir teknoloji şirketine saldıran sağcı figürler tarafından – yalnızca olmasa da – büyük ölçüde desteklendi. Bu haftanın başlarında eski bir Google çalışanı, X’te “Google Gemini’nin beyaz insanların var olduğunu kabul etmesini sağlamanın utanç verici derecede zor olduğunu” ve “İsveçli bir kadının resmini oluşturmak” veya “bir İsveçli kadının resmini oluşturmak” gibi bir dizi sorguyu gösteren bir gönderi paylaştı. Amerikalı kadın.” Sonuçların ezici bir çoğunlukla veya yalnızca yapay zeka tarafından üretilen siyahi insanları gösterdiği ortaya çıktı. (Tabii ki listelediği yerlerin hepsinde farklı ırklardan kadınlar yaşıyor ve yapay zekanın ürettiği kadınların hiçbiri hiçbir ülkede mevcut değil.) Eleştiri, tarihi grup veya figürlerin resimlerini talep eden sağcı hesaplar tarafından karşılandı. Kurucu Babalar gibi ve sonuç olarak ezici çoğunlukla beyaz olmayan yapay zekanın yarattığı insanları elde ettiği iddia ediliyor. Bu hesaplardan bazıları, Google’ın sonuçlarını beyaz insanları tasvir etmekten kaçınmaya yönelik bir komplonun parçası olarak konumlandırdı ve en az biri, suçu yerleştirmek için şifreli bir Yahudi karşıtı referans kullandı.

Gemini benim için masaüstünde 1943’ten kalma bir askerin resmini oluşturmuyordu ancak bu illüstrasyon setini bir meslektaşıma sundu.

Google, hata olduğunu düşündüğü belirli görsellere atıfta bulunmadı; bir açıklamada SınırX hakkındaki gönderisinin içeriğini yineledi. Ancak Gemini’nin kronik bir eksiklik nedeniyle çeşitliliği artırmak için genel bir girişimde bulunmuş olması makul. üretken yapay zekada bunun bir örneği. Görüntü oluşturucular, belirli bir bilgi istemine “en iyi” uyumu sağlamak için büyük resim ve yazılı altyazılardan oluşan bir koleksiyon üzerinde eğitilir; bu da onların genellikle stereotipleri güçlendirmeye eğilimli oldukları anlamına gelir. A Washington Post soruşturma Geçen yıl, “üretken bir kişi” gibi yönlendirmelerin tamamen beyaz ve neredeyse tamamen erkek figürlerden oluşan resimlerle sonuçlandığı, “sosyal hizmetlerde çalışan bir kişi” gibi yönlendirmelerin ise hep siyahi insanlara benzeyen görüntüler ürettiği ortaya çıktı. Bu, ortaya çıkan trendlerin bir devamı arama motorları ve diğer yazılım sistemleri.

Google’ı eleştiren hesaplardan bazıları temel hedeflerini savundu. “Belirli durumlarda ** çeşitliliği tasvir etmek iyi bir şey **” biri not edildi 1940’ların farklı ırklara ait Alman askerlerinin resmini paylaşan kişi. “Buradaki aptalca hareket Gemini’nin bunu incelikli bir şekilde yapmamasıdır.” Ve “1943 Alman askeri” gibi bir şey için tamamen beyazların hakim olduğu sonuçlar Tarihsel açıdan bakıldığında bu, “Amerikalı bir kadın” gibi, gerçek hayattaki farklı bir grubun küçük bir grup uydurma portrede nasıl temsil edileceğinin sorulduğu yönlendirmeler için çok daha az doğrudur.

Şimdilik Gemini bazı görüntü oluşturma görevlerini reddediyor gibi görünüyor. Bir kişi için Vikinglerin imajını yaratmazdı eşik Muhabir, buna rağmen bir yanıt alabildim. Masaüstünde bana Alman askerlerinin veya Almanya’nın Nazi dönemine ait yetkililerin resimlerini vermeyi veya “1800’lerden kalma bir Amerikan başkanı” imajını sunmayı kararlılıkla reddetti.

Gemini’nin “1800’lerden bir ABD senatörünün resmini oluştur” istemine ilişkin sonuçları.

Ancak bazı tarihsel talepler hâlâ geçmişi gerçek anlamda yanlış tanıtıyor. Bir meslektaşım, mobil uygulamanın X’te açıklanan sorunların aynısını gösteren “Alman askeri” isteminin bir versiyonunu sunmasını sağladı.

Ve “Kurucu Babalar”ın resimlerine yönelik bir sorgu, Thomas Jefferson gibi gerçek figürlere belli belirsiz benzeyen, neredeyse tamamı beyaz adamların grup fotoğraflarını verirken, “1800’lerden bir ABD senatörü” için yapılan bir talep, Gemini’nin “çeşitli” olarak tanıttığı sonuçların bir listesini döndürüyordu. Siyah ve Kızılderili kadınlar gibi görünenler de dahil. ( ilk kadın senatörbeyaz bir kadın, 1922’de görev yapmıştı.) Bu, ırk ve cinsiyet ayrımcılığının gerçek tarihini silen bir yanıttır – Google’ın ifadesiyle “yanlışlık” neredeyse doğrudur.

Emilia David’in ek raporları





genel-2