28 Eylül 2023’te çekilen bu resimde Meta AI logosu görülüyor. REUTERS/Dado Ruvic/Illustration/File photo
Yapay zeka modelleri, eğitildikleri verilerin kalitesi ve önbelleği nedeniyle daha karmaşık hale geliyor. Ancak verilere, özellikle de korunanlara ilişkin eğitim modellerinin sonuçları olabilir. Google, Microsoft destekli OpenAI ve Facebook’un ana şirketi Meta, geçen yılın bir döneminde verileri ‘çalmakla’ eleştirilmişti. Meta, Lama’yı eğitmek için telif hakkıyla korunan verileri kullanma konusunda pek çok yasal sorunla karşılaşmış gibi görünüyor.
Reuters haber ajansı tarafından hazırlanan bir raporda, telif hakkı ihlaliyle ilgili olarak bu yılın başında açılan bir davada yeni bir başvuruya atıfta bulunularak, şirket avukatlarının yapay zeka modellerini eğitmek için binlerce korsan kitap kullanmanın yasal tehlikeleri konusunda şirketi uyardığı ancak Meta’nın bunu yaptığı belirtiliyor. Neyse.
Yeni dosyalama aynı zamanda komedyen Sarah Silverman, Pulitzer Ödülü sahibi Michael Chabon ve diğer önde gelen yazarlar tarafından Facebook ve Instagram sahibine karşı açılan iki davayı da birleştiriyor. Meta’nın çalışmalarını izinsiz olarak yapay zeka dil modeli Llama’yı eğitmek için kullandığını iddia ediyorlar.
Şikayetin, Meta’ya bağlı bir araştırmacının Discord sunucusundaki veri setinin satın alınmasını tartışan sohbet kayıtlarını içerdiği bildiriliyor; bu da Meta’nın kitapların kullanımının yasallığının farkında olduğunu gösteriyor.
Araştırmacı Tim Dettmers, “Facebook’ta ben de dahil olmak üzere (T)he (P)ile ile çalışmak isteyen birçok insan var, ancak mevcut haliyle onu yasal nedenlerden dolayı kullanamıyoruz” dedi. sohbetler.
Bu teknoloji şirketleri için ne anlama geliyor?
Teknoloji şirketleri, kendilerini üretken yapay zeka modelleri oluşturmak için telif hakkıyla korunan eserleri çalmakla suçlayan içerik oluşturuculardan gelen bir dizi davayla karşı karşıya kaldıkça, sanatçılara, yazarlara ve diğer yaratıcılara bunun için tazminat ödemek zorunda kalabilirler.
Ayrıca, Avrupa’da yapay zekaya ilişkin geçici kurallar, şirketleri modellerini eğitmek için kullandıkları verileri açıklamaya zorlayabilir ve potansiyel olarak onları daha fazla yasal riske maruz bırakabilir.
FacebookheyecanLinkedIn
makalenin sonu