Google, büyük dil modelini (LLM) düzeltip Gemini’yi tekrar çevrimiçi hale getirdikten sonra bile üretken yapay zeka (genAI) aracı, özellikle güncel olaylar, gelişen haberler veya önemli konular hakkında görseller veya metinler oluştururken her zaman güvenilir olmayabilir.

Şirket, “Hatalar yapacaktır” diye yazdı. Mea Culpa geçen hafta yayınlandı. “Başından beri söylediğimiz gibi, halüsinasyonlar tüm Yüksek Lisans’larda bilinen bir sorundur; yapay zekanın işleri yanlış anladığı durumlar vardır. Bu, sürekli olarak geliştirmeye çalıştığımız bir şey.”

Google’ın bilgi ve enformasyondan sorumlu kıdemli başkan yardımcısı Prabhakar Raghavan, şirketin yalnızca üç hafta sonra neden genAI tabanlı uygulamayı kapatmak zorunda kaldığını açıkladı görüntü oluşturma özelliği İkizler’de “düzeltmek” için.

Basitçe söylemek gerekirse, Google’ın genAI motoru, kullanıcı metin istemlerini alıyor ve belirli bir sosyopolitik görüşe yönelik açıkça önyargılı görüntüler oluşturuyordu. Örneğin, kullanıcı metni, Nazilerin oluşturduğu Siyah ve Asyalı Nazilerin resimlerini ister. Papa’nın resmini çizmesi istendiğinde Gemini şöyle cevap verdi: Asyalı, kadın bir Papa ve Siyahi bir Papa yaratmak.

Bir ortaçağ şövalyesi İkizler imajını yaratması istendi görselleri tükürmek Asyalı, Siyah ve kadın şövalyeler.

ortaçağ şövalyelerini uyandırdı Frank Konuşması

Raghavan blogunda “Bu özelliğin hedefi kaçırdığı açık” diye yazdı. “Oluşturulan görsellerden bazıları hatalı, hatta rahatsız edici.”

Herhangi bir genAI’nın hem önyargılı tepkilerle hem de doğrudan sorunlarla karşılaştığını “halüsinasyonlar“- raydan çıkıp hayali tepkiler yaratması yeni değil. Sonuçta genAI, bir sonraki kelime, görüntü veya kod tahmininden biraz daha fazlasıdır ve teknoloji, bundan sonra ne olacağını tahmin etmek için modeline önceden verilmiş olan her türlü bilgiye güvenir.

Araştırmacılar, sektör analistleri ve diğerleri için biraz şaşırtıcı olan şey, teknolojinin ilk geliştiricilerinden biri olan Google’ın, Gemini yayına geçmeden önce gerektiği gibi incelememiş olmasıdır.

Ne yanlış gitti?

Temple Üniversitesi’nde istatistik, operasyonlar ve veri bilimi profesörü olan Subodha Kumar, Google’ın doğal dil işleme için iki yüksek lisans (LLM) oluşturduğunu söyledi: PaLM ve LaMDA. LaMDA’nın 137 milyar parametresi var, PaLM’nin ise 540 milyar parametresi var ve OpenAI’nin 175 milyar parametresi olan ve ChatGPT’yi eğiten GPT-3.5’ini geride bırakıyor.

Kumar, “Google’ın stratejisi yüksek riskli, yüksek getiri stratejisiydi” dedi. “…Ürünlerini piyasaya süreceklerinden emindiler çünkü üzerinde birkaç yıldır çalışıyorlardı. Ancak aşırı iyimserdiler ve bazı bariz şeyleri gözden kaçırdılar.”

“LaMDA, Doğal Dil İşleme (NLP) alanında ezber bozan bir gelişme olarak duyurulsa da, Microsoft Copilot ve GitHub Copilot ve hatta ChatGPT gibi bazı farklılık ve benzerliklere sahip birçok alternatif var” dedi. “Hepsinde bu sorunların bir kısmı var.”

Kumar, genAI platformlarının insanlar tarafından oluşturulduğundan hiçbirinin “en azından yakın gelecekte” önyargısız olmayacağını söyledi. “Daha genel amaçlı platformlar daha fazla önyargıya sahip olacak. Özel veriler ve daha az önyargılı modeller üzerine eğitilmiş birçok özel platformun ortaya çıktığını görebiliriz. Örneğin sağlık sektöründe onkoloji için ayrı bir modelimiz ve onkoloji için ayrı bir modelimiz olabilir. üretme.”

Bu genAI modelleri çok daha az parametreye sahip ve özel veriler üzerinde eğitiliyor; bu da göreve daha fazla odaklandıkları için hata yapma olasılığını azaltmaya yardımcı oluyor.

Sosyal medya dünyası şüphesiz Google’ın itibarını zedeleyecek eleştirilerle aydınlanırken Gemini’nin sorunları Google için bir aksilik oldu.

“Her şeyden önce, Google’ın çeşitli Nazilerin fotoğraflarını çekecek kadar uyanık ve aptal bir yapay zeka yaratmasının nesnel olarak son derece komik olduğunu kabul etmemiz gerektiğini düşünüyorum.” SubStack blog yazarı Max Read’i yazdı.

Read, blogunda, Gemini’nin metin sorgularına verdiği yanıtlar konusunda çevrimiçi tahmincilerden oluşan bir koronun öfkeli olduğuna dikkat çekti. Haber sitesi FiveThirtyEight’ın kurucusu Nate Silver bunu yapmakla suçladı “San Francisco Denetleme Kurulu’nun ortalama üyesinin siyaseti.”

“Bunun üzerinde çalışan her bir kişi aynaya uzun uzun bakmalı” Başka bir Twitter fenomeni paylaşımda bulundu.

Silver da tweet attı: İkizler burcunun “prime time”a hazır olmasına birkaç ay kaldı.”

Google’ın Gemini modelleri sektörün tek yerel, çok modlu büyük dil modelleridir (LLM’ler); Hem Gemini 1.0 hem de Gemini 1.5 metin, resim, ses, video ve kod istemleri yoluyla içerik alıp oluşturabilir. Örneğin Gemini modelinde kullanıcı istemleri JPEG, WEBP, HEIC veya HEIF görselleri şeklinde olabilir.

OpenAI’nin popüler ChatGPT’sinden farklı olarak ve Sora metinden sohbete özelliğiGoogle, kullanıcıların daha doğru yanıtlar almak için sorgu motoruna çok daha fazla miktarda bilgi aktarabileceğini söyledi.

Google, Gemini konuşma uygulamasının hem görseller hem de metin yanıtları oluşturduğunu ve Google’ın arama motorundan, şirketin temel yapay zeka modellerinden ve “diğer ürünlerimizden” ayrı olduğunu söyledi.

nazileri uyandırdı heyecan

Görüntü oluşturma özelliği, adı verilen bir Yüksek Lisans’ın üzerine inşa edildi. Resim 2, Google’ın metinden resme yayma teknolojisi. Google, bu özelliğin, şirketin geçmişte gördüğü “şiddet içeren veya cinsel içerikli görüntüler veya gerçek kişilerin tasvirleri oluşturmak gibi” “tuzaklara” düşmemesini sağlamak için “ayar yaptığını” söyledi.

Google, kullanıcıların Gemini sorgularında “sınıftaki siyahi bir öğretmen” veya “köpeği olan beyaz bir veteriner” gibi daha spesifik olmaları durumunda doğru yanıtlar alabileceklerini iddia etti.

Gemini’yi öğretmek için kullanılan “ayarlama” (yani hızlı mühendislik), “bir dizi insanın açıkça bir aralık göstermemesi gereken vakaları açıklamakta başarısız olduğunu” gösterdi. Google, zamanla modelin amaçlandığından çok daha temkinli hale geldiğini ve belirli istemleri tamamen yanıtlamayı reddettiğini, bazı çok sakin istemleri yanlış bir şekilde hassas olarak yorumladığını söyledi.

Raghavan, “Bu iki şey, modelin bazı durumlarda aşırı telafi etmesine, diğerlerinde ise aşırı muhafazakar olmasına yol açarak utanç verici ve yanlış görüntülere yol açtı” diye yazdı.

Google, görüntü oluşturucuyu tekrar açmadan önce kapsamlı testler yapmayı planlıyor.

Ancak İkizler’in sorunları imaj oluşturmayla başlayıp bitmiyor. Örneğin, araç iş ilanı yazmayı reddettim Gartner Seçkin Başkan Yardımcısı Analisti Avivah Litan’a göre, petrol ve gaz endüstrisi için çevresel kaygılar nedeniyle.

Litan da şunu belirtti: Gemini’nin analizi ABD Anayasası kapatmayı yasaklıyor Washington Post ya da New York Times ama Fox News ya da New York Postası.

“Gemini’nin Hitler ve Obama’yı karşılaştırmanın uygunsuz olduğu iddiası Hitler’i Elon Musk’la kıyaslamak Litan, “karmaşıktır ve ‘dikkatli değerlendirme’ gerektirir” diye yazdı.

Litan, “Gemini, son çıkışından bu yana haklı bir nedenle hak ettiği ilgiyi gördü” diye devam etti. “Birkaç güçlü teknik devin kontrolü altındaki yapay zekaların bazen tarihi bile yeniden yazan önyargılı bilgiler yayması, açık ve mevcut tehlikeyi ortaya çıkarıyor. Hak sahibi kişiler tarafından kontrol edilen tek bir hakikat kaynağını kullanarak zihinleri manipüle etmek, bana göre fiziksel silah sistemleri kadar tehlikelidir.

“Ne yazık ki” diye devam etti, “tüketiciler veya şirketler olarak farklı yapay zeka modeli çıktılarının doğasında var olan önyargıları kolayca ayıklayacak araçlara sahip değiliz.”

LItan, Gemini’nin oldukça halka açık SNAFU’larının “genAI ve önyargıya yönelik düzenleyici odaklanmaya yönelik acil ihtiyacı vurguladığını” söyledi.

IDC analisti Ritu Jyoti, “Bunlar Google Gemini için ilginç ve zorlu zamanlar.

Jyoti, “Google gerçekten de yapay zeka yeniliklerinde ön sıralarda yer alıyor” dedi ve “ancak bu senaryo, algoritmanın nasıl ayarlandığından kaynaklanan istenmeyen sonuçların bir örneği gibi görünüyor.”

Jyoti, pazarın hâlâ genç ve hızlı bir şekilde gelişmekte olmasına ve bazı gen AI sorunlarının karmaşık olmasına rağmen, eğitim/ayarlama ve bu araçların pazara nasıl sunulduğu konusunda daha fazla titizlik gösterilmesi gerektiğini söyledi.

“Riskler yüksek” dedi. “Kurumsal piyasada, bir şeyler ortaya çıkmadan önce döngüde daha fazla insan var. Dolayısıyla istenmeyen olumsuz sonuçları kontrol altına alma yeteneği biraz daha iyidir. Tüketici pazarında durum çok daha zor.”

Gemini ile birlikte diğer genAI yaratıcıları da önyargı göstermeyen, halüsinasyonlar yaratmayan veya başkalarının yayınlanmış eserlerinden çalarak metin yazarlığı ihlali yapmayan araçlar yaratma konusunda mücadele etti.

Örneğin, OpenAI’nin ChatGPT’si bir avukat zor durumda kaldı Motoru yasal özetler oluşturmak için kullandıktan sonra, otomasyon teknolojisi için mükemmel görünen, tipik olarak sıkıcı bir görevdi. Ne yazık ki araç, brifingler için birçok sahte dava alıntısı oluşturdu. Avukat, hakim huzurunda özür diledikten sonra bile firmasından kovuldu.

Chon Tang, kurucu ortak Berkeley SkyDeck FonuKaliforniya-Berkeley Üniversitesi’nde akademik hızlandırıcı olarak görev yapan bilim adamı basitçe şunları söyledi: “Üretken yapay zeka, davranışı çok iyi tanımlanmış bir ‘araç’ gibi davranan diğer teknoloji parçalarının aksine, istikrarsız kalıyor.

Tang, “Örneğin, bulaşıklarımızı %5 oranında yıkamayan bir bulaşık makinesini kullanmak istemeyiz” dedi.

Tang, işletmeleri, görevleri insan denetimi olmadan otomatik olarak tamamlamak için genAI’ya güvenmeleri halinde, sert bir uyanışla karşı karşıya kalacakları konusunda uyardı.

“Üretken yapay zeka, yönetilmesi gerektiği için insana daha çok benziyor” dedi ve şöyle devam etti: “İstemlerin incelenmesi, iş akışının doğrulanması ve son çıktının iki kez kontrol edilmesi gerekiyor. Bu nedenle görevleri otomatik olarak tamamlayan bir sistem beklemeyin. Bunun yerine genel olarak üretken yapay zeka ve özel olarak yüksek lisanslar ekibinizin çok düşük maliyetli üyeleri olarak görülmelidir.”

Temple Üniversitesi’nden Kumar da aynı fikirde: “henüz” hiç kimse bu genAI platformlarına tamamen güvenmemeli.

Aslında birçok kurumsal kullanım durumunda genAI yanıtları her zaman yalnızca uzmanlar tarafından kontrol edilmeli ve kullanılmalıdır.

Kumar, “Örneğin, bunlar sözleşme yazmak veya raporları özetlemek için harika araçlardır, ancak sonuçların yine de bir uzman tarafından kontrol edilmesi gerekiyor” dedi. “Bu eksikliklere rağmen, eğer bu sonuçları kullanırken dikkatli olursak, bu bize çok fazla zaman kazandırabilir. Örneğin, doktorlar, zamandan tasarruf etmek ve gizli kalıpları keşfetmek için ilk tarama için genAI sonuçlarını kullanabilir, ancak genAI bunu yapabilir. (en azından yakın gelecekte veya yaşam süremizde) doktorların yerini almayacak. Benzer şekilde, GenAI insanların işe alınmasına yardımcı olabilir, ancak henüz insanları işe almamalılar.”

Telif Hakkı © 2024 IDG Communications, Inc.





genel-13