gibi üretken AI geliştiricileri olarak ChatGPT, Dall-E2Ve Alfa Kodu teknolojinin halüsinasyon görmesini ve hatalı ya da saldırgan tepkiler vermesini engellemek neredeyse imkansızdır.

Özellikle yapay zeka araçları doğal dili taklit etmede her geçen gün daha iyi hale geldikçe, sahte sonuçları gerçek olanlardan ayırt etmek çok yakında imkansız hale gelecek ve bu da şirketleri, ister kazara ister kötü aktörlerin kasıtlı çabaları olsun, en kötü sonuçlara karşı “korkuluklar” kurmaya sevk edecek. .

AI endüstri uzmanları konferansta konuşuyor MIT Technology Review’un EmTech Digital konferansı Bu hafta, üretken AI şirketlerinin yeni nesil teknolojiyi geliştirmeye devam ederken bile çeşitli etik ve pratik engellerle nasıl başa çıktıklarına ağırlık verildi.

Makine öğrenimi uygulaması satıcısı Hugging Face’in baş etik bilimcisi Margaret Mitchell, “Bu, genel olarak teknolojilerle ilgili bir sorundur” dedi. “Gerçekten olumlu kullanımlar için geliştirilebilir ve ardından olumsuz, sorunlu veya kötü niyetli kullanımlar için de kullanılabilir; buna ikili kullanım denir. Ortaya koyduğunuz herhangi bir teknolojinin ikili kullanıma sahip olmayacağını garanti etmenin bir yolu olup olmadığını bilmiyorum.

“Ancak bunu mümkün olduğu kadar en aza indirmeye çalışmanın önemli olduğunu düşünüyorum” diye ekledi.

Üretken yapay zeka, kullanıcı istemlerine veya sorgularına yanıtlar oluşturmak için algoritmalar kullanan bir tür makine öğrenimi teknolojisi olan büyük dil modellerine (LLM’ler) dayanır. LLM’ler, veritabanlarındaki veya doğrudan İnternet’teki devasa bilgi hazinelerine erişir ve bu bilgilerin nasıl yanıt sağlayabileceğini belirleyen milyonlarca hatta yüz milyarlarca parametre tarafından kontrol edilir.

Sorumlu araştırmayı sağlamanın anahtarı, LLM’lerin ve veri kümesi geliştirmelerinin, neden oluşturulduklarının ve bir bilgisayar modeli tarafından oluşturulan içeriği tanımlayan filigranların sağlam belgelenmesidir. O zaman bile, sorunların ortaya çıkması muhtemeldir.

“Birçok yönden, bu modellerin zehirli konuşmalar üretmeyeceğini garanti edemeyiz. [and] Meta AI’da AI araştırmalarından sorumlu başkan yardımcısı Joelle Pineau, bazı durumlarda sindirdikleri verilerdeki önyargıları pekiştiriyor. “Bu modeller için daha fazla araştırmanın gerekli olduğuna inanıyoruz.”

Pineau’ya göre üretken AI geliştiricileri için, meşru güvenlik endişeleri ile kitle kaynak kullanımı geliştirme için şeffaflık arasında bir denge var. Meta Platforms’un (eski adıyla Facebook) araştırma kolu olan Meta AI, yerleşik önyargılar, zehirli konuşmalar veya başka bir şekilde hatalı içerik olmadığını garanti edemediği için ticari kullanım için oluşturduğu LLM’lerin bazılarını yayınlamayacak. Ancak bu, güven oluşturmak için araştırmalarda kullanılmalarına, diğer araştırmacıların ve uygulama geliştiricilerin “arka planın altında ne olduğunu” bilmelerine olanak tanır ve yeniliğin hızlanmasına yardımcı olur.

Üretken yapay zekanın “yerleşik önyargılara” sahip olduğu, yani adayların keşfi, taranması, mülakatı ve işe alınması için kullanıldığında, ırk veya cinsiyete dayalı olarak insanları kayırabilir. Sonuç olarak, eyaletler, belediyeler ve hatta ülkeler, iş adaylarını bulmak, mülakat yapmak ve işe almak için yapay zeka tabanlı botların kullanımına ilişkin kısıtlamaları gözetliyor.

Meta, AI geliştiricilerinin yaşadığı aynı sorunlarla karşı karşıyadır: hassas verileri gizli tutmak, bir LLM’nin bariz bir şekilde kötüye kullanılıp kullanılamayacağını belirlemek ve teknolojinin tarafsız olmasını sağlamaya çalışmak.

“Bazen bir projeye başlarız ve onun olmasını isteriz. [open sourced] sonunda; belirli bir veri seti kullanıyoruz ve sürecin sonunda bunun kullanmamız gereken bir veri seti olmadığını görüyoruz,” dedi Pineau. “Telif hakkı sorunları veya başka nedenler ne olursa olsun sorumlu değildir.”

LLM’ler, belirli veri kümeleriyle ince ayar yapılabilir ve müşteri desteği sohbet robotları veya tıbbi araştırma gibi belirli kurumsal kullanımlar için, görevin açıklamalarını besleyerek veya AI aracını sorularla ve en iyi yanıtlarla yönlendirerek daha özelleştirilmiş yanıtlar sağlamayı öğretebilir.

Örneğin, bir LLM’ye elektronik sağlık kaydı bilgilerini ve klinik ilaç deneme bilgilerini dahil ederek doktorlar, ChatGPT gibi bir sohbet robotundan hasta bakımı için kanıta dayalı öneriler sağlamasını isteyebilir.

Bununla birlikte, üretken bir AI modelinin ortaya koyduğu şey, yalnızca arkasındaki yazılım ve veriler kadar iyidir ve araçlar “derin sahte” görüntüler ve videolar üretmek için kullanılabilir – yani, kötü kişiler üretmek için gerçek fotoğrafları ve görüntüleri manipüle edebilir. gerçekçi sahteler

Microsoft’un Copilot hamlesi

Mart ayında Microsoft, Office 365 iş uygulamalarına yardımcı olarak katıştırılmış ChatGPT tabanlı bir sohbet robotu olan Copilot’u piyasaya sürdü. Microsoft’ta modern çalışma ve iş uygulamalarından sorumlu kurumsal başkan yardımcısı Jared Spataro’ya göre, buna Copilot adı verildi çünkü hiçbir zaman gözetimsiz veya gözden geçirilmemiş bir çalışma gerçekleştirmek üzere tasarlanmamıştı ve çalışması için referanslar sunuyor.

Spataro, “Özellikle sayılar gibi ayrıntılarda, Copilot ‘Bu kategoride yıldan yıla %77 büyüdünüz’ dediğinde size bir referans verecektir: bu, bu rapordandır,” dedi. “Bir referans görmüyorsanız, bunun bir şeyler uydurduğundan çok emin olacaksınız.

jared spataro microsoft MIT Teknoloji İncelemesi

Jared Spataro, Microsoft

“İnsanlara öğretmeye çalıştığımız şey, bu iyi bir şey, ama tıpkı insanlar hata yaptığı gibi, şu anda bunu çok yetenekli, kıdemsiz bir çalışan olarak düşünmelisin, güvenmiyorsun” dedi. “İlginç bir iş çıkarıyor, ancak güvenmeniz ama doğrulamanız gerekecek.”

Konferansta uzaktan video aracılığıyla konuşan Spataro, üretken yapay zekanın mükemmel olmadığı durumlarda bile yaratıcılığa, araştırmaya ve sıradan görevleri otomatikleştirmeye yardımcı olduğunu söyledi. Bir seyirci tarafından yapay zeka tarafından oluşturulan bir derin sahtekarlığa karşı gerçek olduğunu nasıl kanıtlayabileceği sorulduğunda. Spataro yapamayacağını itiraf etti.

Kurtarma için filigranlar?

Sahte haber raporları, resimler ve videolarla mücadele etmenin bir yolu, meta verilere, verinin kaynağını gösteren, esasen filigran olan şeyleri dahil etmektir. Üretken AI girişiminde ana ürün yöneticisi olan Bill Marino Kararlılık AIşirketinin yakında teknolojiyi entegre edeceğini söyledi. İçerik Kaynağı ve Özgünlük Koalisyonu (C2PA) üretken AI modellerine.

C2PA, üretken AI içeriğinde tanımlayıcı meta veriler sağlama misyonuyla Adobe tarafından Şubat 2021’de kurulmuş bir dernektir.

StabilityAI, ChatGPT’ye açık kaynaklı bir alternatif olan StableLM’yi geçen ay piyasaya sürdü. C2PA’nın meta veri standardı, Stability’nin API’lerinden çıkan her görüntüde yer alacak ve “meta verilerdeki bu kaynak verileri, çevrimiçi izleyicilerin, çevrimiçi karşılaşma sırasında bir içeriğe güvenip güvenmediklerini anlamalarına yardımcı olacak” dedi.

“Kötü şöhretli biriyle karşılaşırsanız Papa’nın Balenciaga’daki fotoğrafıinceleyebileceğiniz ve size yapay zeka ile oluşturulduğunu söyleyen meta verilerle gelseydi harika olurdu,” dedi Marino.

Stability AI, LLM’leri çeşitli kullanım durumları için eğitir ve ardından bunları ücretsiz olarak açık kaynaklı yazılım olarak sağlar (gelecekte API’lerinden para kazanabilirler). LLM’ler daha sonra daha spesifik amaçlar için hızlı mühendislik yoluyla ince ayar yapılabilir.

Marino derin sahtecilik, kötü amaçlı yazılım ve kötü amaçlı içerikle ilişkili riskin “kesinlikle kabul edilemez olduğunu” söyledi. Kısmen, bunları gerçekten ortadan kaldırmak için Stabilty’ye katıldım. Özellikle dikkatimizi kurumsal müşterilere kaydırdığımızda, bunu yapma sorumluluğu bize düşüyor – bu risklerin çoğu başlangıç ​​dışı.”

MIT konferansındaki diğerleri gibi, Marino da üretken yapay zekanın geleceğinin daha çevik, daha hızlı yanıt verebilen ve belirli iş veya endüstri kullanımları için uyarlanmış nispeten küçük LLM’lerde olduğuna inanıyor. Yüz milyarlarca parametreye sahip büyük LLM’lerin süresi uzun sürmeyecek.

Stability AI, sayısız göreve yardımcı olmak için sektöre özel sohbet botları ve diğer teknolojileri oluşturmak için LLM’leri kullanan yüzlerce üretken AI girişiminden yalnızca biridir. Üretken yapay zeka, e-postaları ayıklama veya çevrimiçi sohbet toplantılarını veya büyük belgeleri özetleme gibi manuel veya yinelenen görevleri yerine getirerek pazarlama materyallerini ve reklam kampanyalarını daha verimli bir şekilde üretmek için zaten kullanılıyor.

Herhangi bir güçlü teknolojide olduğu gibi, üretken yapay zeka, hem iyi hem de kötü sayısız amaç için yazılım oluşturabilir. Örneğin, teknik bilgisi olmayanları uygulama geliştiricilerine dönüştürebilir veya bir kuruluşun ağ savunmasını test etmek ve ardından hassas bilgilere erişim elde etmek için eğitilebilir. Veya için kullanılabilir API güvenlik açıklarından yararlanmak veya sistemlere kötü amaçlı yazılım yüklemek için iş yükü odaklı saldırılar.

Hugging Face’den Mitchell, Meta’nın kapılarını kapattığı için itibar etti. LLaMA’nın serbest bırakılması (Büyük Dil Modeli Meta AI) Şubat ayında çünkü bu, teknolojiyi kullanmak isteyen herkesi doğrulanabilir kimlik bilgileriyle çevrimiçi bir form doldurmaya zorluyor. (LLaMA, 65 milyar parametreye sahip devasa bir temel LLM’dir.)

Mitchell, “Bu artık hesap verebilirlik gibi şeyler getiriyor” dedi. “Bu, iyi davranışı teşvik ediyor, çünkü anonim değilseniz, onu kötü amaçlar için kullanmama olasılığınız daha yüksek. Bu, Hugging Face’in de üzerinde çalıştığı bir şey.

“Dolayısıyla, teknolojinin nasıl kullanılabileceğini ve kimler tarafından kullanılabileceğini bir şekilde kısıtlayan bu korkuluklardan veya mekanizmalardan bazılarını bulmak, gidilmesi gereken önemli bir yön” diye ekledi.

Üretken yapay zeka modellerinin demokratikleşmesi, Microsoft ve Google gibi yalnızca bir veya iki şirketin, insanların önceliklerinin veya onları oluşturanların hatalarının yazılıma gömülü olduğu bir güç yoğunlaşmasına sahip olmasını da engelleyebilir.

Michell, “Bu modeller dünya çapında kullanılıyorsa, o zaman tek bir hata veya önyargı artık uluslararası, dünya çapında bir hatadır” dedi. “…Çeşitlilik, bir sistemin zayıflıklarının herkesin deneyimlediği gibi olmamasını sağlar. Farklı türde sistemlerde farklı zayıflıklarınız ve güçlü yönleriniz var.”

Telif hakkı © 2023 IDG Communications, Inc.



genel-13