Merhaba arkadaşlar, TechCrunch’ın düzenli yapay zeka bültenine hoş geldiniz.

Geçtiğimiz Pazar günü, Başkan Joe Biden artık yeniden seçilmeyi planlamadığını duyurarak, bunun yerine Demokrat Parti’nin adayı olması için Başkan Yardımcısı Kamala Harris’e “tam destek” verdiğini söyledi; sonraki günlerde Harris, Demokrat delege çoğunluğunun desteğini aldı.

Harris, teknoloji ve yapay zeka politikaları konusunda açık sözlü davranıyor; eğer başkanlığı kazanırsa, bu ABD’deki yapay zeka düzenlemeleri için ne anlama gelir?

Meslektaşım Anthony Ha hafta sonu bu konu hakkında birkaç söz yazdı. Harris ve Başkan Biden daha önce “halkı koruyabileceğimizi veya inovasyonu ilerletebileceğimizi ima eden yanlış seçimi reddettiklerini” söylediler. O sırada Biden, şirketlerin yapay zekanın geliştirilmesi konusunda yeni standartlar belirlemesini isteyen bir yürütme emri yayınlamıştı. Harris, gönüllü taahhütlerin “daha fazlasının geleceği daha güvenli bir yapay zeka geleceğine doğru atılan ilk adım” olduğunu çünkü “düzenleme ve güçlü hükümet denetiminin yokluğunda, bazı teknoloji şirketlerinin müşterilerinin refahı, topluluklarımızın güvenliği ve demokrasilerimizin istikrarı yerine karı önceliklendirmeyi tercih ettiğini” söyledi.

Ayrıca görüşlerini almak için AI politikası uzmanlarıyla da konuştum. Çoğunlukla, Donald Trump’ın kampının savunduğu mevcut AI politikasının sökülmesi ve genel düzenlemenin kaldırılması yerine, Harris yönetimiyle tutarlılık beklediklerini söylediler.

Yapay Zeka Küresel Ortaklığı’nda yapay zeka danışmanı olan Lee Tiedrich, TechCrunch’a yaptığı açıklamada, Biden’ın Harris’i desteklemesinin ABD yapay zeka politikasında “sürekliliğin sürdürülme şansını artırabileceğini” söyledi.[This is] 2023 AI yürütme emriyle çerçevelenen ve ayrıca Birleşmiş Milletler, G7, OECD ve diğer kuruluşlar,” dedi. “Yürütme emri ve ilgili eylemler ayrıca, artırılmış uygulama, daha geniş kurum AI kuralları ve politikaları, güvenliğe odaklanma ve bazı büyük AI sistemleri için belirli zorunlu testler ve ifşalar dahil olmak üzere AI üzerinde daha fazla hükümet denetimi çağrısında bulunuyor.”

Cornell’de yapay zekaya özel ilgi duyan bir hükümet profesörü olan Sarah Kreps, teknoloji sektörünün belirli kesimlerinde Biden yönetiminin düzenlemelere çok agresif bir şekilde yöneldiği ve yapay zeka yönetmeliğinin “aşırı mikro yönetim” olduğu yönünde bir algı olduğunu belirtti. Harris’in Biden döneminde yürürlüğe konulan yapay zeka güvenlik protokollerinden hiçbirini geri alacağını öngörmüyor, ancak Harris yönetiminin eleştirmenleri yatıştırmak için daha az yukarıdan aşağıya bir düzenleyici yaklaşım benimseyip benimsemeyeceğini merak ediyor.

Dağıtılmış Yapay Zeka Araştırma Enstitüsü’nde araştırma görevlisi olan Krystal Kauffman, Kreps ve Tiedrich’in Harris’in büyük ihtimalle Biden’ın yapay zeka kullanımıyla ilişkili riskleri ele alma ve yapay zeka konusunda şeffaflığı artırma çalışmalarını sürdüreceği konusunda hemfikir. Ancak, Harris’in başkanlık seçimlerini kazanması durumunda, politika oluşturmada daha geniş bir paydaş ağı oluşturacağını umuyor; bu ağ, sıkıntıları (kötü ücret, kötü çalışma koşulları ve ruh sağlığı sorunları) genellikle kabul edilmeyen veri çalışanlarını da kapsıyor.

“Harris, bundan sonraki önemli görüşmelerde yapay zekayı programlamaya yardımcı olan veri çalışanlarının seslerini de dahil etmeli,” dedi Kauffman. “Teknoloji CEO’larıyla kapalı kapılar ardında yapılan toplantıları politika belirlemenin bir yolu olarak görmeye devam edemeyiz. Bu devam ederse, kesinlikle bizi yanlış yola sürükleyecek.”

Haberler

Meta yeni modeller yayınladı: Meta bu hafta 405 milyar parametre içeren bir metin oluşturma ve analiz etme modeli olan Llama 3.1 405B’yi yayınladı. Şimdiye kadarki en büyük “açık” modeli olan Llama 3.1 405B, Facebook, Instagram ve Messenger’daki Meta AI deneyimi de dahil olmak üzere çeşitli Meta platformlarına ve uygulamalarına giriyor.

Adobe Firefly’ı yeniliyorAdobe, Salı günü Photoshop ve Illustrator için yeni Firefly araçlarını yayınlayarak grafik tasarımcılara şirketin kendi yapay zeka modellerini kullanmaları için daha fazla yol sunuyor.

Okulda yüz tanıma:Bir İngiliz okulu, öğrencilerin yüz taramalarını işlemek için onlardan özel izin almadan yüz tanıma teknolojisini kullandığı için İngiltere’nin veri koruma düzenleyicisi tarafından resmen uyarıldı.

Cohere yarım milyar dolar topladı: Eski Google araştırmacıları tarafından ortaklaşa kurulan üretken bir AI girişimi olan Cohere, Cisco ve AMD dahil olmak üzere yatırımcılardan 500 milyon dolar yeni nakit topladı. Üretken AI girişim rakiplerinin çoğunun aksine, Cohere büyük işletmeler için AI modellerini özelleştiriyor; bu da başarısının temel etkenlerinden biri.

CIA AI direktörü röportajı: TechCrunch’ın devam eden Yapay Zeka’daki Kadınlar serisinin bir parçası olarak, CIA’deki Yapay Zeka direktörü Lakshmi Raman ile röportaj yaptık. Direktörlüğe giden yolunun yanı sıra CIA’in Yapay Zeka kullanımını ve yeni teknolojiyi benimsemek ile sorumlu bir şekilde dağıtmak arasında sağlanması gereken dengeyi konuştuk.

Haftanın araştırma makalesi

Transformatörü hiç duydunuz mu? Karmaşık akıl yürütme görevleri için tercih edilen AI model mimarisidir ve OpenAI’nin GPT-4o, Anthropic’in Claude ve diğer birçok modele güç verir. Ancak transformatörler ne kadar güçlü olsalar da kusurları vardır. Bu yüzden araştırmacılar olası alternatifleri araştırmaktadır.

Daha umut vadeden adaylardan biri, tekrarlayan sinir ağları ve evrişimli sinir ağları gibi çeşitli eski AI modellerinin niteliklerini birleştirerek uzun veri dizilerini (romanları ve filmleri düşünün) sindirebilen daha hesaplama açısından verimli bir mimari oluşturan durum alanı modelleridir (SSM). Ve şimdiye kadarki en güçlü SSM örneklerinden biri olan Mamba-2, kağıt bu ay araştırma bilim insanları Tri Dao (Princeton’da profesör) ve Albert Gu (Carnegie Mellon) tarafından yayınlandı.

Önceki modeli Mamba gibi, Mamba-2 de belirli dil oluşturma görevlerinde transformatör tabanlı modellerle rekabet edebilirken, transformatör tabanlı eşdeğerlerinden daha büyük girdi verisi parçalarını işleyebilir. Dao ve Gu, SSM’lerin gelişmeye devam etmesi durumunda, bir gün ticari donanımlarda çalışacaklarını ve günümüzün transformatörleriyle mümkün olandan daha güçlü üretken AI uygulamaları sunacaklarını ima ediyor.

Haftanın modeli

Mimariyle ilgili yakın tarihli bir başka gelişmede, bir araştırmacı ekibi, hem en güçlü dönüştürücüleri hem de en güçlü dönüştürücüleri eşleştirebileceğini veya geçebileceğini iddia ettikleri yeni bir tür üretken yapay zeka modeli geliştirdiler. Ve Verimlilik açısından Mamba.

Araştırmacılara göre, test zamanı eğitim modelleri (TTT modelleri) olarak adlandırılan mimari, milyonlarca jeton üzerinde akıl yürütebilir ve gelecekte potansiyel olarak milyarlarca jetona kadar ölçeklenebilir, rafine tasarımlar. (Üretici AI’da, “jetonlar” ham metin parçaları ve diğer lokma büyüklüğündeki veri parçalarıdır.) TTT modelleri, geleneksel modellerden çok daha fazla jeton alabildiğinden ve bunu donanım kaynaklarını aşırı zorlamadan yaptığından, araştırmacılar “yeni nesil” üretken AI uygulamalarına güç vermeye uygun olduklarına inanıyor.

TTT modelleri hakkında daha detaylı bilgi edinmek için son yazımıza göz atın.

Karışık çanta

Yatırımcıların, Napster’ın kurucu ortağı Sean Parker da dahil olmak üzere, yakın zamanda mali yıkımdan kurtarmak için girişimde bulunduğu üretken yapay zeka girişimi Stability AI, kısıtlayıcı yeni ürün kullanım şartları ve lisanslama politikaları nedeniyle epey tartışmaya yol açtı.

Yakın zamana kadar, Stability AI’nın en yeni açık AI görüntü modeli olan Stable Diffusion 3’ü ticari olarak kullanmak için, yılda 1 milyon dolardan az gelir elde eden kuruluşlar, ayda üretebilecekleri toplam görüntü sayısını 6.000 ile sınırlayan bir “yaratıcı” lisansına kaydolmak zorundaydı. Ancak birçok müşteri için daha büyük sorun, Stability’nin kısıtlayıcı ince ayar şartlarıydı; bu şartlar, Stability AI’ya, Stable Diffusion 3 tarafından üretilen görüntüler üzerinde eğitilen herhangi bir model için ücret alma ve kontrol uygulama hakkı veriyordu (ya da en azından veriyor gibi görünüyordu).

Stability AI’nın sert yaklaşımı, görüntü üreten modellerin en büyük sunucularından biri olan CivitAI’nin, yeni lisans konusunda hukuki danışmanlık ararken Stable Diffusion 3’ten alınan görüntülere dayanan veya bu görüntülerle eğitilen modellere geçici bir yasak getirmesine yol açtı.

CivitAI, “Şu anki anlayışımıza göre, bu lisansın Stability AI’ya yalnızca Stable Diffusion 3’te ince ayar yapılmış herhangi bir modelin değil, veri kümelerinde Stable Diffusion 3 görüntüleri içeren diğer tüm modellerin kullanımı üzerinde çok fazla güç vermesi endişesi var” diye yazdı. postalamak blogunda.

Tepkilere yanıt olarak, Stability AI bu ayın başlarında daha liberal ticari kullanıma izin vermek için Stable Diffusion 3 için lisanslama koşullarını ayarlayacağını söyledi. “Yasadışı faaliyetler için kullanmadığınız veya lisansımızı veya kabul edilebilir kullanım politikamızı açıkça ihlal etmediğiniz sürece, Stability AI sizden ortaya çıkan görüntüleri, ince ayarları veya diğer türetilmiş ürünleri silmenizi asla istemeyecektir – Stability AI’ya asla ödeme yapmasanız bile,” diye açıkladı Stability bir açıklamada Blog.

Destan, üretken yapay zekayı etkilemeye devam eden yasal tuzakları ve bununla ilişkili olarak “açık”ın ne ölçüde yoruma tabi olduğunu vurguluyor. Bana karamsar deyin, ancak büyüyen sayı Tartışmalı derecede kısıtlayıcı lisansların varlığı, bana yapay zeka sektörünün yakın gelecekte bir fikir birliğine varamayacağını veya netliğe doğru ilerlemeyeceğini düşündürüyor.





genel-24