Yapay zeka alanındaki gelişmeler sürekli olarak ortaya çıkıyor, ancak bunlar tek bir alanla sınırlı olma eğilimindedir: örneğin, sentetik konuşma üretmek için yeni ve harika bir yöntem değil. Ayrıca insan yüzlerindeki ifadeleri tanımanın bir yolu. Meta (AKA Facebook) araştırmacıları biraz daha çok yönlü bir şey üzerinde çalışıyor: sözlü, yazılı veya görsel materyallerde kendi kendine öğrenebilen bir yapay zeka.
Bir yapay zeka modelini bir şeyi doğru yorumlamak için eğitmenin geleneksel yolu, ona çok sayıda (milyonlarca gibi) etiketli örnek vermektir. Kedi bölümünün etiketlendiği bir kedi resmi, konuşmacılarla bir konuşma ve yazıya dökülmüş kelimeler vb. Ancak araştırmacılar, bir sonraki eğitim için gereken boyutlarda manuel olarak veritabanları oluşturmanın artık mümkün olmadığını keşfettiğinden, bu yaklaşım artık moda değil. -gen AI’lar. Kim 50 milyon kedi resmini etiketlemek ister? Tamam, muhtemelen birkaç kişi – ama kim yaygın meyve ve sebzelerin 50 milyon resmini etiketlemek ister?
Halihazırda en umut verici AI sistemlerinden bazıları, kendi kendini denetleyen sistemlerdir: Kitaplar veya etkileşime giren insanların videoları gibi büyük miktarda etiketlenmemiş veriden çalışabilen ve sistemin kurallarının ne olduğu konusunda kendi yapısal anlayışlarını oluşturan modeller. Örneğin, bin kitap okuyarak, gramer yapısıyla ilgili kelimelerin ve fikirlerin göreceli konumlarını, hiç kimse ona nesnelerin, makalelerin veya virgüllerin ne olduğunu söylemeden öğrenecek – bunu birçok örnekten çıkarımlar yaparak elde etti.
Bu, sezgisel olarak insanların nasıl öğrendiğine benziyor, bu da araştırmacıların bundan hoşlanmasının bir parçası. Ancak modeller hala tek modlu olma eğilimindedir ve konuşma tanıma için yarı denetimli bir öğrenme sistemi kurmak için yaptığınız tüm çalışmalar görüntü analizine hiç uygulanmaz – bunlar çok farklıdır. İşte Facebook/Meta’nın son araştırması, akılda kalıcı bir şekilde adlandırılmış data2vec, içeri gelir.
Data2vec’in fikri, daha soyut bir şekilde öğrenecek bir AI çerçevesi oluşturmaktı, yani sıfırdan başlayarak, ona okuması için kitaplar, taranması için görüntüler veya ses çıkarması için konuşmalar verebilirsiniz ve biraz eğitimden sonra, bunlardan herhangi birini öğrenin. Tek bir tohumla başlamak gibi bir şey ama ona hangi bitki besini verdiğinize bağlı olarak nergis, hercai menekşe veya laleye dönüşüyor.
Data2vec’i çeşitli veri grupları üzerinde eğitmesine izin verdikten sonra test etmek, bu modalite için benzer boyutta özel modellerle rekabet ettiğini ve hatta onlardan daha iyi performans gösterdiğini gösterdi. (Yani, modellerin tümü 100 megabaytla sınırlıysa, data2vec daha iyisini yaptı – özel modeller, büyüdükçe muhtemelen hala daha iyi performans gösterecekti.)
“Bu yaklaşımın temel fikri daha genel olarak öğrenmektir: AI, tamamen yabancı olanlar da dahil olmak üzere birçok farklı görevi yapmayı öğrenebilmelidir.” ekibi bir blog gönderisinde yazdı. “Ayrıca data2vec’in, bilgisayarların görevleri yerine getirmek için çok az etiketli veriye ihtiyaç duyduğu bir dünyaya bizi yaklaştıracağını umuyoruz.”
CEO Mark Zuckerberg araştırmayla ilgili olarak “İnsanlar dünyayı bir görüntü, ses ve kelimelerin birleşimiyle deneyimliyor ve bunun gibi sistemler bir gün dünyayı bizim yaptığımız gibi anlayabilir” dedi.
Bu hala erken aşamada bir araştırmadır, bu nedenle efsanevi “genel yapay zekanın” aniden ortaya çıkmasını beklemeyin – ancak çeşitli alan ve veri türleri ile çalışan genelleştirilmiş bir öğrenme yapısına sahip bir yapay zekaya sahip olmak daha iyi gibi görünüyor, bugün elde ettiğimiz parçalanmış mikro zeka setinden daha zarif bir çözüm.
data2vec kodu açık kaynak kodludur; o ve bazı önceden eğitilmiş modeller burada mevcuttur.