Sosyal medya platformu Reddit Salı günü yaptığı açıklamada, AI girişimlerinin sistemleri için içerik toplamak amacıyla kuralı atladığı yönündeki raporların ardından, platformun web sitesinden otomatik veri kazımasını engellemek için kullandığı bir Web standardını güncelleyeceğini söyledi.
Bu hamle, yapay zeka firmalarının, yayıncılardan içerik çalarak yapay zeka tarafından oluşturulan özetler oluşturmak için kredi vermeden veya izin istemeden suçlandığı bir zamanda geldi.
Reddit, bir sitenin hangi bölümlerinin taranmasına izin verildiğini belirlemeyi amaçlayan, yaygın olarak kabul edilen bir standart olan Robot Hariç Tutma Protokolünü veya “robots.txt”yi güncelleyeceğini söyledi.
Şirket ayrıca, belirli bir varlıktan gelen isteklerin sayısını kontrol etmek için kullanılan bir teknik olan hız sınırlamayı sürdüreceğini ve bilinmeyen botların ve tarayıcıların web sitesinde veri kazımasını (ham bilgileri toplayıp kaydetmesini) engelleyeceğini söyledi.
Son zamanlarda ise robots.txt, yayıncıların teknoloji şirketlerinin yapay zeka algoritmalarını eğitmek ve bazı arama sorgularına yanıt olarak özetler oluşturmak için içeriklerini ücretsiz kullanmasını önlemek için kullandıkları önemli bir araç haline geldi.
Geçtiğimiz hafta, içerik lisanslama girişimi TollBit tarafından yayıncılara gönderilen bir mektupta, birçok yapay zeka firmasının yayıncı sitelerini kazımak için web standardını atlattığı belirtildi.
Bu, AI arama girişimi Perplexity’nin, Web tarayıcısını robots.txt yoluyla engelleme çabalarını büyük olasılıkla atladığını ortaya çıkaran Wired araştırmasının ardından geldi.
Haziran ayının başlarında, ticari medya yayıncısı Forbes, Perplexity’yi, araştırma hikayelerini üretken yapay zeka sistemlerinde kullanılmak üzere kaynak göstermeden çalıntı yapmakla suçlamıştı.
Reddit, Salı günü yaptığı açıklamada araştırmacıların ve İnternet Arşivi gibi kuruluşların ticari olmayan kullanım için içeriklerine erişmeye devam edeceğini söyledi.
© Thomson Reuters 2024