Merhaba arkadaşlar, TechCrunch’ın düzenli yapay zeka bültenine hoş geldiniz.

Yapay Zeka’da bu hafta yayınlanan yeni bir araştırma, üretken yapay zekanın aslında o kadar da zararlı olmadığını gösteriyor; en azından kıyametvari bir anlamda.

Birinde kağıt Bath ve Darmstadt Üniversitelerinden araştırmacılar, Hesaplamalı Dilbilim Derneği’nin yıllık konferansına sundukları bildiride, Meta’nın Lama ailesindeki modellerin açık bir talimat olmadan bağımsız bir şekilde öğrenemeyeceğini veya yeni beceriler kazanamayacağını savunuyorlar.

Araştırmacılar, eğitim verilerinin kapsamı dışındaki konularla ilgili soruları yanıtlamak gibi daha önce karşılaşmadıkları görevleri tamamlama yeteneklerini test etmek için birkaç modelin binlerce deney yürüttüler. Modellerin yüzeysel olarak talimatları takip edebilseler de, kendi başlarına yeni becerilerde ustalaşamadıklarını buldular.

Bath Üniversitesi’nde bilgisayar bilimcisi ve çalışmanın ortak yazarı olan Harish Tayyar Madabushi, “Çalışmamız, bir modelin ortadan kaybolacağı ve tamamen beklenmedik, yenilikçi ve potansiyel olarak tehlikeli bir şey yapacağı korkusunun geçerli olmadığını gösteriyor” dedi. söz konusu bir açıklamada. “Bu tür yapay zekanın insanlık için bir tehdit olduğu yönündeki yaygın anlatı, bu teknolojilerin yaygın olarak benimsenmesini ve geliştirilmesini engelliyor ve ayrıca odaklanmamızı gerektiren gerçek sorunlardan dikkati uzaklaştırıyor.”

Çalışmanın sınırlamaları var. Araştırmacılar OpenAI ve Anthropic gibi satıcıların en yeni ve en yetenekli modellerini test etmediler ve kıyaslama modelleri kesin olmayan bir bilim olma eğilimindedir. Ancak araştırma uzak dan Birinci ile bulmak günümüzün üretken yapay zeka teknolojisinin insanlığı tehdit etmediği ve aksi varsayımının pişmanlık duyulacak politikalar üretme riski taşıdığı.

Birinde görüş yazısı Geçtiğimiz yıl Scientific American’da, yapay zeka etiği uzmanı Alex Hanna ve dilbilim profesörü Emily Bender, kurumsal yapay zeka laboratuvarlarının bürokratik bir manevra hilesi olarak düzenleyici dikkati hayali, dünya sonu senaryolarına yönlendirdiğini savundu. OpenAI CEO’su Sam Altman’ın Mayıs 2023’teki bir kongre duruşmasında, kanıt olmaksızın, üretken yapay zeka araçlarının “oldukça kötü” gidebileceğini öne sürmesine işaret ettiler.

“Daha geniş halk ve düzenleyici kurumlar bu manevraya kanmamalı,” diye yazdı Hanna ve Bender. “Bunun yerine, akran değerlendirmesi uygulayan ve yapay zeka abartısına karşı çıkarak bunun zararlı etkilerini burada ve şimdi anlamaya çalışan akademisyenlere ve aktivistlere bakmalıyız.”

Yatırımcılar üretken AI’ya milyarlarca dolar yatırmaya devam ederken ve hype döngüsü zirveye yaklaşırken, onların ve Madabushi’nin akılda tutulması gereken önemli noktalardır. Üretken AI teknolojisini destekleyen şirketler için çok şey tehlikede ve onlar için – ve destekçileri için – iyi olan şey, geri kalanımız için mutlaka iyi olmayabilir.

Üretken AI, soyumuzun tükenmesine neden olmayabilir. Ancak başka şekillerde de zarar veriyor — rızaya dayanmayan deepfake pornosunun yayılması, haksız yüz tanıma tutuklamaları ve düşük ücretli veri yorumcularının ordularını görün. Umarım politika yapıcılar da bunu görür ve bu görüşü paylaşır — ya da sonunda dönerler. Aksi takdirde, insanlığın korkacak bir şeyi olabilir.

Haberler

Google Gemini ve AI, aman Tanrım: Google’ın yıllık Made By Google donanım etkinliği Salı günü gerçekleşti ve şirket Gemini asistanına bir ton güncelleme duyurdu — artı yeni telefonlar, kulaklıklar ve akıllı saatler. En son haberler için TechCrunch’ın özetine göz atın.

Yapay zeka telif hakkı davası ilerliyor: Sanatçıların Stability AI, Runway AI ve DeviantArt’ın AI’larını telif hakkıyla korunan eserler üzerinde yasadışı bir şekilde eğittiğini iddia ederek açtıkları toplu dava, ancak yalnızca kısmen ilerleyebilir, başkanlık eden yargıç pazartesi günü karar verdi. Karma bir kararda, davacıların birkaç iddiası reddedilirken diğerleri hayatta kaldı, bu da davanın duruşmada sonuçlanabileceği anlamına geliyor.

X ve Grok için sorunlar: Elon Musk’ın sahibi olduğu sosyal medya platformu X, insanların iznini almadan AI modellerini eğitmek için Avrupa Birliği’ndeki kullanıcıların verilerine el koyduktan sonra bir dizi gizlilik şikayetiyle hedef alındı. X, Grok’u eğitmek için AB’nin veri işlemesini şimdilik durdurmayı kabul etti.

YouTube, Gemini’nin beyin fırtınasını test ediyor: YouTube, içerik oluşturucuların video fikirleri, başlıklar ve küçük resimler üzerinde beyin fırtınası yapmasına yardımcı olmak için Gemini ile bir entegrasyonu test ediyor. Gemini ile Beyin Fırtınası adlı özellik, şu anda yalnızca küçük ve sınırlı bir deneyin parçası olarak belirli içerik oluşturucular için kullanılabilir.

OpenAI’nin GPT-4o’su garip şeyler yapıyor: OpenAI’nin GPT-4o’su, şirketin sesin yanı sıra metin ve görüntü verileri üzerinde eğitilen ilk modelidir. Ve bu, bazen garip şekillerde davranmasına yol açar — örneğin, kendisiyle konuşan kişinin sesini taklit etmek veya bir konuşmanın ortasında rastgele bağırmak gibi.

Haftanın araştırma makalesi

Üretken bir AI modeli tarafından yazılmış metni güvenilir bir şekilde tespit edebildiğini iddia eden araçlar sunan bir sürü şirket var, bu da örneğin yanlış bilgi ve intihalle mücadele için faydalı olabilir. Ancak bir süre önce birkaçını test ettiğimizde, araçlar nadiren işe yaradı. Ve yeni bir çalışma, durumun çok da iyileşmediğini gösteriyor.

UPenn’deki araştırmacılar tasarlanmış 10 milyondan fazla AI tarafından oluşturulmuş ve insan tarafından yazılmış tarif, haber makalesi, blog yazısı ve daha fazlasının yer aldığı bir veri seti ve liderlik tablosu olan Robust AI Detector (RAID), AI metin dedektörlerinin performansını ölçmek için. Değerlendirdikleri dedektörlerin “çoğunlukla işe yaramaz” (araştırmacıların sözleriyle) olduğunu, yalnızca belirli kullanım durumlarına ve eğitildikleri metne benzer metinlere uygulandığında çalıştığını buldular.

“Üniversiteler veya okullar öğrencilerin internet kullanımını tespit etmek için dar kapsamlı bir dedektöre güveniyor olsaydı, [generative AI] Bilgisayar ve bilgi bilimi profesörü ve çalışmanın ortak yazarı olan Chris Callison-Burch, bir açıklamada, ödev yazmak için öğrencileri hile yapmakla yanlış bir şekilde suçlayabilirler,” dedi. “Ayrıca, diğerlerini kullanarak hile yapan öğrencileri de gözden kaçırabilirler. [generative AI] “ödevlerini üretmek için.”

Yapay zeka metin algılama konusunda kesin bir çözüm yok gibi görünüyor; sorun çözülemez bir sorun.

İddiaya göreOpenAI, AI modelleri için yeni bir metin algılama aracı geliştirdi – şirketin ilk denemesine göre bir gelişme – ancak İngilizce olmayan kullanıcıları orantısız bir şekilde etkileyebileceği ve metinde yapılacak ufak değişikliklerle etkisiz hale getirilebileceği endişesiyle bunu yayınlamayı reddediyor. (Daha az hayırsever bir şekilde, OpenAI’nin ayrıca yerleşik bir AI metin algılayıcısının ürünlerinin algılanmasını ve kullanımını nasıl etkileyebileceği konusunda endişeli olduğu söyleniyor.)

Haftanın modeli

Üretken yapay zekanın sadece memler için iyi olmadığı anlaşılıyor. MIT araştırmacıları başvuru Rüzgar türbinleri gibi karmaşık sistemlerdeki sorunları işaretlemek için kullanılır.

MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı’ndaki bir ekip, zaman serisi verilerini (zaman içinde tekrar tekrar alınan ölçümler) üretken bir yapay zeka modelinin işleyebileceği metin tabanlı girdilere dönüştüren bir bileşen içeren SigLLM adlı bir çerçeve geliştirdi. Bir kullanıcı bu hazırlanmış verileri modele besleyebilir ve anormallikleri tanımlamaya başlamasını isteyebilir. Model ayrıca bir anormallik algılama hattının parçası olarak gelecekteki zaman serisi veri noktalarını tahmin etmek için de kullanılabilir.

Çerçeve performans göstermedi istisnai olarak Araştırmacıların deneylerinde iyi. Ancak performansı geliştirilebilirse, SigLLM örneğin teknisyenlerin ağır makineler gibi ekipmanlardaki potansiyel sorunları oluşmadan önce işaretlemesine yardımcı olabilir.

“Bu sadece ilk yineleme olduğu için, ilk seferde oraya varmayı beklemiyorduk, ancak bu sonuçlar burada kaldıraçlama fırsatı olduğunu gösteriyor [generative AI models] SigLLM’de bir makalenin baş yazarı ve elektrik mühendisliği ve bilgisayar bilimleri yüksek lisans öğrencisi olan Sarah Alnegheimish, yaptığı açıklamada, “Karmaşık anomali tespit görevleri için” dedi.

Karışık çanta

OpenAI, bu ay yapay zeka destekli sohbet robotu platformu ChatGPT’yi yeni bir temel modele yükseltti; ancak herhangi bir değişiklik kaydı yayınlamadı (yani, neredeyse (bir değişiklik günlüğü).

Peki bundan ne çıkarmalıyız? olabilmek tam olarak bunu nasıl yaparız? Devam edecek hiçbir şey yok, sadece anekdotsal kanıtlar öznel testler.

Wharton’da AI, inovasyon ve girişimler üzerine çalışan bir profesör olan Ethan Mollick’in doğru bir bakış açısına sahip olduğunu düşünüyorum. Üretken AI modelleri için sürüm notları yazmak zordur çünkü modeller bir etkileşimde diğerine göre “farklı” hissettirir; büyük ölçüde titreşim tabanlıAynı zamanda, insanlar ChatGPT’yi kullanıyor ve bunun için ödeme yapıyor. Neye bulaştıklarını bilmeyi hak etmiyorlar mı?

İyileştirmeler kademeli olabilir ve OpenAI rekabet nedenleriyle bunu işaret etmenin akıllıca olmadığını düşünüyor olabilir. Modelin bir şekilde OpenAI’nin bildirildi akıl yürütme atılımları. Ne olursa olsun, AI söz konusu olduğunda şeffaflık bir öncelik olmalıdır. Şeffaflık olmadan güven olamaz — ve OpenAI zaten bundan çok şey kaybetti.





genel-24