Şubat ayında Google, kullanıcıların şikayeti üzerine AI destekli sohbet robotu Gemini’nin insan görselleri oluşturma yeteneğini duraklattı. tarihi yanlışlıklar. Örneğin, “bir Roma lejyonunu” tasvir etmesi söylenen İkizler, anakronik olarak farklı bir asker grubunu gösterirken, “Zulu savaşçılarını” tek tip Siyah olarak gösteriyordu.
Google CEO’su Sundar Pichai özür diledi ve Google’ın AI araştırma bölümü DeepMind’in kurucu ortağı Demis Hassabis, bir düzeltmenin “çok kısa sürede” gelmesi gerektiğini söyledi – ancak şu anda Mayıs ayına girdik ve vaat edilen düzeltme henüz gerçekleşmedi belli olmak.
Google, bu hafta yıllık I/O geliştirici konferansında özel sohbet robotlarından tatil seyahat planı planlayıcısına ve Google Takvim, Keep ve YouTube Müzik ile entegrasyonlara kadar birçok Gemini özelliğinin tanıtımını yaptı. Ancak bir Google sözcüsü, web ve mobildeki Gemini uygulamalarında insanların görsel oluşturmasının kapalı olmaya devam ettiğini doğruladı.
Peki sorun nedir? Sorun muhtemelen Hassabis’in ima ettiğinden daha karmaşık.
Gemini’ninki gibi görüntü oluşturucuları eğitmek için kullanılan veri kümeleri genellikle diğer ırk ve etnik kökenlerden insanlardan daha fazla beyaz insan görüntüsü içerir ve bu veri kümelerinde beyaz olmayan kişilerin görüntüleri bulunur. güçlendirmek olumsuz stereotipler. Google, bu önyargıları düzeltmeye yönelik açık bir çaba içinde, bir kişinin görünümünün belirtilmediği sorgulara çeşitlilik eklemek için başlık altında beceriksiz bir sabit kodlama uyguladı. Ve şimdi, bundan kaçınacak makul bir orta yol bulmaya çabalıyor. tekrarlanan tarih.
Google oraya varacak mı? Belki. Belki de hayır. Her halükarda, uzun süren olay, yapay zekanın hatalı davranışlarını düzeltmenin kolay olmadığını, özellikle de yanlış davranışın kökeninde önyargının yattığını hatırlatıyor.