Artık hemen hemen her endüstri ve şirkette kilit bir teknoloji olan makine öğrenimi ve yapay zeka alanındaki araştırmalar, herkesin hepsini okuması için çok hacimlidir. Perceptron (önceden Deep Science) adlı bu sütun, özellikle yapay zekayla ilgili, ancak bununla sınırlı olmamak üzere, en güncel keşiflerden ve makalelerden bazılarını toplamayı ve neden önemli olduklarını açıklamayı amaçlamaktadır.

AI’da bu hafta, yeni bir çalışma, AI sistemlerinde yaygın bir sorun olan önyargının, AI sistemlerinin tahmin yapmayı öğrendiği verilere açıklama eklemek için işe alınan kişilere verilen talimatlarla nasıl başlayabileceğini ortaya koyuyor. Ortak yazarlar, açıklayıcıların talimatlardaki kalıpları aldığını, bu da onları ek açıklamalara katkıda bulunmaya şartlandırdığını ve daha sonra verilerde aşırı temsil edildiğini ve AI sistemini bu açıklamalara doğru yönlendirdiğini buldu.

Günümüzde birçok AI sistemi, yorumcular tarafından etiketlenmiş örneklerden görüntüleri, videoları, metinleri ve sesleri anlamlandırmayı “öğreniyor”. Etiketler, sistemlerin, sistemlerin daha önce görmediği verilere (ör. modeli “öğretmek” için kullanılan verilere dahil edilmiştir).

Bu oldukça iyi çalışıyor. Ancak açıklama, kusurlu bir yaklaşımdır – açıklayıcılar, eğitilmiş sisteme sızabilecek tabloya önyargılar getirir. Örneğin, araştırmalar göstermiştir ki, ortalama açıklayıcı bazı Siyah Amerikalılar tarafından kullanılan resmi olmayan dilbilgisi olan Afro-Amerikan Yerel İngilizcesinde (AAVE) ifadeleri toksik olarak etiketleme olasılığı daha yüksektir, AAVE’yi orantısız olarak toksik olarak görmek için etiketler üzerinde eğitilmiş önde gelen AI toksisite dedektörleri.

Anlaşıldığı üzere, eğitim etiketlerinde yanlılığın varlığından yalnızca yorumcuların eğilimleri sorumlu olmayabilir. bir ön baskıda çalışmak Arizona Eyalet Üniversitesi ve Allen Yapay Zeka Enstitüsü’nden araştırmacılar, veri seti oluşturucuları tarafından açıklayıcılar için kılavuz görevi görmek üzere yazılan talimatlarda bir yanlılık kaynağının bulunup bulunmadığını araştırdı. Bu tür talimatlar tipik olarak, birkaç örnekle birlikte görevin kısa bir açıklamasını (örneğin, “Bu fotoğraflardaki tüm kuşları etiketleyin”) içerir.

Resim Kredisi: Parmar et al.

Araştırmacılar, doğal dil işleme sistemlerinin veya metni sınıflandırabilen, özetleyebilen, çevirebilen ve başka şekilde analiz edebilen veya değiştirebilen yapay zeka sistemlerinin performansını ölçmek için kullanılan 14 farklı “kıyaslama” veri setine baktı. Veri kümeleri üzerinde çalışan yorumculara sağlanan görev talimatlarını incelerken, talimatların açıklayıcıları belirli kalıpları takip etmeleri için etkilediğine ve ardından veri kümelerine yayıldığına dair kanıtlar buldular. Örneğin, AI sistemlerinin iki veya daha fazla ifadenin aynı kişiye (veya şeye) atıfta bulunduğunu anlama yeteneğini test etmek için tasarlanmış bir veri seti olan Quoref’teki ek açıklamaların yarısından fazlası, “Ad nedir” ifadesiyle başlar. veri seti için talimatların üçte birinde bulunan bir ifade.

Araştırmacıların “talimat yanlılığı” olarak adlandırdığı fenomen, özellikle rahatsız edicidir çünkü önyargılı talimat/açıklama verileri üzerinde eğitilmiş sistemlerin başlangıçta düşünüldüğü kadar iyi performans göstermeyebileceğini öne sürer. Gerçekten de, ortak yazarlar, talimat yanlılığının sistemlerin performansını abarttığını ve bu sistemlerin genellikle talimat kalıplarının ötesine genelleme yapmadığını bulmuşlardır.

Gümüş astar, OpenAI’nin GPT-3’ü gibi büyük sistemlerin, talimat yanlılığına genellikle daha az duyarlı olduğu bulunmuştur. Ancak araştırma, insanlar gibi yapay zeka sistemlerinin de her zaman açık olmayan kaynaklardan gelen önyargılar geliştirmeye açık olduğunu hatırlatıyor. İnatçı zorluk, bu kaynakları keşfetmek ve aşağı yönlü etkiyi azaltmaktır.

Daha az ayık bir makalede, İsviçre’den gelen bilim adamları sonuçlandı Yüz tanıma sistemlerinin, gerçekçi yapay zeka tarafından düzenlenmiş yüzler tarafından kolayca kandırılmadığını. “Morphing saldırıları” olarak adlandırılanlar, güvenlik sistemlerini atlamak amacıyla bir kimlik, pasaport veya başka bir kimlik belgesi üzerindeki fotoğrafı değiştirmek için AI kullanımını içerir. Ortak yazarlar, AI (Nvidia’nın StyleGAN 2) kullanarak “morflar” yarattılar ve bunları dört son teknoloji yüz tanıma sistemine karşı test ettiler. Morflar, gerçekçi görünümlerine rağmen önemli bir tehdit oluşturmadıklarını iddia ettiler.

Bilgisayarla görü alanında başka bir yerde, Meta’daki araştırmacılar, soruları yanıtlamak için nesnelerin konumu ve bağlamı da dahil olmak üzere bir odanın özelliklerini hatırlayabilen bir AI “asistanı” geliştirdiler. Bir baskı öncesi kağıtta ayrıntılı olarak açıklanan çalışma, muhtemelen Meta’nın çalışmalarının bir parçası. Nazare Projesi Çevrelerini analiz etmek için yapay zekadan yararlanan artırılmış gerçeklik gözlükleri geliştirme girişimi.

Meta benmerkezci yapay zeka

Resim Kredisi: Meta

Bir kamera ile donatılmış vücuda takılan herhangi bir cihazda kullanılmak üzere tasarlanan araştırmacıların sistemi, “nesneler hakkında uzamsal-zamansal bilgileri kodlayan” “anlamsal olarak zengin ve verimli sahne anıları” oluşturmak için görüntüleri analiz ediyor. Sistem nesnelerin nerede olduğunu ve video görüntülerinde ne zaman göründüğünü hatırlar ve ayrıca kullanıcının nesneler hakkında sorabileceği soruların yanıtlarını belleğine yerleştirir. Örneğin, “Anahtarlarımı en son nerede gördünüz?” diye sorulduğunda, sistem o sabah anahtarların oturma odasındaki yan masada olduğunu gösterebilir.

2024’te tam özellikli AR gözlüklerini piyasaya sürmeyi planladığı bildirilen Meta, geçen Ekim ayında uzun vadeli bir “benmerkezci algı” AI araştırma projesi olan Ego4D’nin lansmanı ile “ben merkezli” AI planlarını telgraf etti. Şirket, o sırada amacın, diğer görevlerin yanı sıra, AI sistemlerine sosyal ipuçlarını, bir AR cihazı kullanıcısının eylemlerinin çevrelerini nasıl etkileyebileceğini ve ellerin nesnelerle nasıl etkileşime girdiğini öğretmek olduğunu söyledi.

Dilden ve artırılmış gerçeklikten fiziksel olaylara: Bir yapay zeka modeli, MIT’nin dalgaların nasıl ve ne zaman kırıldığına dair bir çalışmasında faydalı oldu. Biraz gizemli görünse de, gerçek şu ki, hem su içinde ve yakınında yapılar inşa etmek hem de iklim modellerinde okyanusun atmosferle nasıl etkileşime girdiğini modellemek için dalga modellerine ihtiyaç var.

Resim Kredisi: MİT

Normalde dalgalar bir dizi denklemle kabaca simüle edilir, ancak araştırmacılar bir makine öğrenimi modeli eğitti sensörlerle dolu 40 fitlik bir su tankındaki yüzlerce dalga örneğinde. Yapay zeka, dalgaları gözlemleyerek ve ampirik kanıtlara dayalı tahminler yaparak, ardından bunu teorik modellerle karşılaştırarak, modellerin nerede yetersiz kaldığını göstermeye yardımcı oldu.

Thibault Asselborn’un el yazısı analizi üzerine doktora tezinin yer aldığı EPFL’deki araştırmadan bir startup doğuyor. tam gelişmiş bir eğitim uygulamasına dönüştü. Uygulama (School Rebound olarak adlandırılır) tasarladığı algoritmaları kullanarak, bir çocuğun ekran kalemi ile iPad’e yazmasının yalnızca 30 saniyesiyle alışkanlıkları ve düzeltici önlemleri belirleyebilir. Bunlar çocuğa, iyi alışkanlıkları pekiştirerek daha net yazmasına yardımcı olan oyunlar şeklinde sunulur.

Asselborn bir haber bülteninde, “Bilimsel modelimiz ve titizliğimiz önemlidir ve bizi mevcut diğer uygulamalardan ayıran şeydir” dedi. “Öğrencilerinin büyük ilerleme kaydettiğini gören öğretmenlerden mektuplar aldık. Hatta bazı öğrenciler dersten önce pratik yapmak için geliyorlar.”

Resim Kredisi: Duke Üniversitesi

İlkokullardaki bir diğer yeni bulgu, rutin taramalar sırasında işitme problemlerinin belirlenmesiyle ilgilidir. Bazı okuyucuların hatırlayacağı bu taramalarda genellikle eğitimli odyologlar tarafından çalıştırılması gereken timpanometre adı verilen bir cihaz kullanılır. Diyelim ki izole bir okul bölgesinde biri mevcut değilse, işitme sorunu olan çocuklar ihtiyaç duydukları yardımı asla zamanında alamayabilirler.

Duke’teki Samantha Robler ve Susan Emmett esasen kendi kendine çalışan bir timpanometre, bir AI modeli tarafından yorumlandığı bir akıllı telefon uygulamasına veri gönderme. Endişe verici her şey işaretlenecek ve çocuk daha fazla taramaya tabi tutulabilecek. Bir uzmanın yerini tutmaz, ancak hiç olmamasından çok daha iyidir ve uygun kaynakların olmadığı yerlerde işitme sorunlarını çok daha erken tespit etmeye yardımcı olabilir.



genel-24