Birkaç hafta önce Google, Gemini için kullanıcıların basit metin istemlerinden her türlü görseli oluşturmasına olanak tanıyan yeni bir görsel oluşturma aracını (önceden Bard ve Duet olarak bilinen AI araçları paketi) piyasaya sürdü. Ne yazık ki, Google’ın yapay zeka aracı defalarca hedefi ıskaladı ve birçoğumuzun “bot işleri nasıl bu kadar yanlış anladığını” merak etmemize neden olan hatalı ve hatta rahatsız edici görüntüler üretti. Şirket sonunda neyin yanlış gittiğini ve Gemini’yi nasıl düzeltmeyi planladığını açıklayan bir bildiri yayınladı.
resmi blog yazısı Sorunu ele alan ekip, Gemini için metinden resme özelliğini tasarlarken Gemini’nin arkasındaki ekibin “görüntü oluşturma teknolojisiyle geçmişte gördüğümüz bazı tuzaklara düşmemesini sağlamak” istediğini belirtiyor. şiddet içeren veya cinsel içerikli resimler veya gerçek kişilerin tasvirleri.” Gönderi ayrıca, kullanıcıların muhtemelen yalnızca bir etnik kökene veya diğer belirgin özelliklere sahip kişileri görmeye devam etmek istemediklerini de açıklıyor.
Neler olup bittiğine dair oldukça basit bir açıklama sunmak gerekirse: Gemini, beyaz tarihi figürlerin resimlerini oluşturması istendiğinde farklı ırklardan insanların resimlerini yayınlıyor ve kullanıcılara ‘çeşitli Naziler‘ veya isteminizin tam olarak aradığınızı belirttiğiniz kısmını göz ardı etmek. Gemini’nin görüntü yetenekleri şu anda beklemede olsa da, bu özelliğe erişebildiğinizde tam olarak kimi oluşturmaya çalıştığınızı belirtirsiniz – Google “köpeği olan beyaz bir veteriner” örneğini kullanır – ve görünüşe göre Gemini yılın ilk yarısını görmezden gelecektir. tüm ırklardan veteriner hekimleri harekete geçiren ve yetiştiren hariç istediğin kişi.
Google bunun iki önemli başarısızlığın sonucu olduğunu açıkladı: Birincisi, Gemini bir aralık dikkate almadan bir dizi farklı insanı gösteriyordu. göstermemek. Bunun yanı sıra Google, daha bilinçli, daha az önyargılı, üretken bir yapay zeka oluşturmaya çalışırken, “modelin amaçladığımızdan çok daha temkinli hale geldiğini ve belirli istemlere tamamen yanıt vermeyi reddettiğini, bazı çok uyuşuk istemleri yanlış bir şekilde hassas olarak yorumladığını” kabul ediyor.
Sırada ne var?
Bu yazının yazıldığı sırada Gemini’deki insanların görüntülerini oluşturma yeteneği duraklatılmış durumdayken Gemini ekibi hataları düzeltmek ve daha ileri testler yapmak için çalışıyor. Blog yazısı, karmaşık derin öğrenme modelleri söz konusu olduğunda AI ‘halüsinasyonlarının’ yeni bir şey olmadığını belirtiyor; bu botların yaratıcıları gariplikleri çözerken Bard ve ChatGPT bile bazı şüpheli öfke nöbetleri geçirdi.
Gönderi, Google’ın Gemini’nin yapay zeka destekli insan nesli üzerinde her şey düzelene kadar çalışmaya devam etme sözüyle sona eriyor ve ekibin söz veremese de vermeyeceği notuyla bitiyor. durmadan “utanç verici, yanlış veya saldırgan sonuçlar” doğuruyorsa, bunun mümkün olduğu kadar az gerçekleşmesini sağlamak için önlemler alınmaktadır.
Sonuç olarak, tüm bu bölüm şu perspektifi ortaya koyuyor: Yapay zeka ancak bizim yaptığımız kadar akıllıdır. Baş editörümüz Lance Ulanoff kısa ve öz bir şekilde şunu belirtti: “Bir yapay zeka tarihi bilmediğinde, yapay zekayı suçlayamazsınız.” Yapay zekanın ne kadar hızlı bir şekilde devreye girip kendisini günlük hayatımızın çeşitli yönlerine sıkıştırdığı göz önüne alındığında, istesek de istemesek de, yapay zekanın kamusal yayılmasının sadece 18 ay önce başladığını unutmak kolaydır. Şu anda elimizde bulunan araçlar ne kadar etkileyici olsa da sonuçta hâlâ yapay zekanın ilk günlerindeyiz.
Hatalar, ChatGPT’nin yakın zamandaki anlamsız sözlerle dolu erimesinden görsel olarak daha çarpıcı diye Google Gemini’nin geçit törenine yağmalayamayız. Google’ın geçici olarak duraklaması ve yeniden çalışması sonuçta daha iyi bir ürüne yol açacak ve er ya da geç aracın olması gerektiği gibi olduğunu göreceğiz.