Meta’nın Global İşler Başkanı Nick Clegg, etkileyici olmalarına rağmen, mevcut AI modelleri, özellikle de halka açık olanlar, hiç de zeki değiller ve yalnızca eğitildikleri verilere dayalı olarak kelimeleri ve sayıları tahmin etmede iyiler.
Meta’nın (eski adıyla Facebook) küresel ilişkiler başkanı Nick Clegg, mevcut Yapay Zeka (AI) modellerinin risklerini küçümsedi ve bunların “oldukça aptalca” olduğunu ve yapay zekayı çevreleyen aldatmacanın teknolojinin yeteneklerini aştığını belirtti. Mevcut modellerin gerçek özerkliğe ve kendi başlarına düşünme yeteneğine ulaşmaktan uzak olduğundan bahsetti.
Meta kısa süre önce büyük dil modeli LLaMA 2’nin ticari işletmelerin ve araştırmacıların kullanması için açık kaynaklı bir araç olarak kullanılabileceğini duyurdu. Bu karar, böylesine güçlü bir aracın olası kötüye kullanımıyla ilgili endişeler nedeniyle teknoloji topluluğu içinde tartışmalara yol açtı.
Mevcut AI modellerindeki sınırlamalar
Clegg, üzerine ChatGPT’nin yapıldığı GPT gibi büyük dil modellerinin, esasen muazzam metin veri kümelerine dayanan bir dizideki bir sonraki kelimeyi tahmin etmek üzere eğitildiğini ve bunun da onların gerçek anlayıştan ve bağımsız düşünceden yoksun olduğunu kabul etti.
İlgili Makaleler
Avrupa ülkelerindeki işgücünün %27’si işini yapay zekaya kaptırabilir
Meta, OpenAI Başı Belada: ABD’li Komedyen, TV Yazarları ve çeşitli yazarlar, AI bot üreticilerine içerik hırsızlığı nedeniyle dava açtı
Ürünü açık kaynak yoluyla başkalarının kullanımına açmak, ücretsiz kullanıcı testi verileri ve iyileştirmelere olanak tanırken, kötüye kullanımı önlemek için güçlü korkuluklara duyulan ihtiyaç konusunda endişeleri de artırıyor. Önceki chatbot yinelemeleri, nefret söylemi ve yanlış bilgi yaymak için manipüle edildi ve Meta’nın LLaMA 2’nin olası kötüye kullanımını nasıl ele almayı planladığına dair soruları gündeme getirdi.
LLaMA 2’yi Microsoft’un Azure gibi platformları aracılığıyla kullanıma sunmak için Microsoft ile işbirliği, Meta’nın yapay zeka alanındaki emellerini gösteriyor. OpenAI (ChatGPT’nin yaratıcısı) gibi yapay zeka yaratıcılarına yatırım yapan Microsoft gibi şirketlerin büyük cepleriyle birlikte, yapay zeka endüstrisinde gücün sağlamlaştırılması ve potansiyel olarak sağlıklı rekabeti sınırlama konusunda endişeler var.
Genel olarak, LLaMA 2’nin mevcudiyeti ve kullanımı, AI’nın etik kullanımı ve kötüye kullanımını önlemek için sağlam önlemlere duyulan ihtiyaç hakkında önemli soruları gündeme getirmektedir.
Açık kaynağa geçme ihtiyacı
Microsoft ve Meta arasındaki bir ortaklıkla geliştirilen LLaMA 2, açık kaynaklı bir araç olarak sunularak ticari işletmelerin ve araştırmacıların ücretsiz olarak kullanmasını sağlar. Buna karşılık, GPT-4 ve Google’ın Bard sohbet robotuna güç veren LLM’si, ticari veya araştırma uygulamalarında ücretsiz olarak kullanılamaz.
Son zamanlarda ABD’li komedyen Sarah Silverman, AI sistemlerinin eğitiminde telif hakkının ihlal edildiğini iddia ederek hem OpenAI hem de Meta’ya dava açtı.
Southampton Üniversitesi’nde önde gelen bir bilgisayar bilimi profesörü olan Dame Wendy Hall, özellikle mevzuat ve düzenleme açısından açık kaynaklı yapay zeka modelleri hakkındaki endişelerini dile getirdi.
Abartı ile çevrili yapay zeka
Hall, endüstriye kendi kendini düzenleme konusunda güvenilip güvenilemeyeceği veya hükümetin düzenlemeye dahil olmasına ihtiyaç olup olmadığı sorusunu gündeme getirdi. Açık kaynaklı yapay zekayı bir nükleer bomba inşa etmek için bir şablon sağlamaya benzeterek sert bir dil kullandı.
Yanıt olarak Nick, Meta’nın açık kaynaklı sistemi LLaMA 2’nin görüntü üretemeyeceğini veya zararlı biyolojik silahlar oluşturamayacağını açıklayarak karşılaştırmayı “abartılı” olarak nitelendirdi. Ancak, AI’nın gerçekten düzenlenmesi gerektiğine karar verdi.
Sir Nick, açık kaynaklı AI modellerinin zaten yaygın bir uygulama olduğunu ve asıl endişenin bunun sorumlu ve güvenli bir şekilde nasıl yapılacağı olduğunu vurguladı. LLaMA 2 dahil olmak üzere açık kaynaklı olan LLM’lerin (büyük dil modelleri), diğer açık kaynaklı AI modellerinden daha güvenli olduğunu iddia etti.