Google, Google İşbirliği platformunda derin sahte oluşturmak için kullanılabilecek AI sistemlerinin eğitimini yasakladı. bu güncellenmiş kullanım Şartları, benekli BleepingComputer tarafından hafta sonu, izin verilmeyen projeler listesine deepfakes ile ilgili çalışmaları dahil ediyor.

Colaboratory veya kısaca Colab, 2017’nin sonlarında dahili bir Google Araştırma projesinden çıktı. Herkesin bir web tarayıcısı aracılığıyla, özellikle makine öğrenimi, eğitim ve veri analizi için kod olmak üzere rastgele Python kodu yazmasına ve yürütmesine izin verecek şekilde tasarlanmıştır. Bu amaçla Google, hem ücretsiz hem de ücretli Colab kullanıcılarına GPU’lar ve Google’ın özel olarak tasarlanmış, AI hızlandırıcı tensör işleme birimleri (TPU’lar) dahil olmak üzere donanıma erişim sağlar.

Son yıllarda Colab, AI araştırma topluluğu içinde demolar için fiili platform haline geldi. Kod yazan araştırmacıların, kodu barındıran GitHub depolarında veya bunların yanında Colab sayfalarına bağlantılar içermesi alışılmadık bir durum değildir. Ancak Google, Colab içeriği söz konusu olduğunda tarihsel olarak çok kısıtlayıcı olmadı ve hizmeti daha az titiz amaçlarla kullanmak isteyen oyuncular için potansiyel olarak kapıyı açtı.

Açık kaynaklı derin sahte oluşturucu DeepFaceLab kullanıcıları Farkında olmak Colab’da DeepFaceLab’i çalıştırmayı denedikten sonra birkaç kişi bir hata mesajı aldığında, geçen hafta kullanım koşulları değişti. Uyarı şöyleydi: “İzin verilmeyen bir kod yürütüyor olabilirsiniz ve bu, gelecekte Colab’ı kullanma yeteneğinizi kısıtlayabilir. Lütfen SSS’mizde belirtilen yasaklanmış eylemlere dikkat edin.”

Tüm kodlar uyarıyı tetiklemez. Bu muhabir kaçmayı başardı daha popüler derin sahte Colab projelerinden biri sorunsuz ve Reddit kullanıcı raporu Bir başka lider proje olan FaceSwap’ın da tamamen işlevsel kalacağını söyledi. Bu, yaptırımın anahtar kelime yerine kara listeye dayalı olduğunu ve yeni kuralı ihlal eden kodları bildirme sorumluluğunun Colab topluluğunda olacağını gösteriyor.

“Kullanıcılarımıza TPU ve GPU’lar gibi değerli kaynaklara erişim sağlama misyonumuzu desteklemeyi dengelerken, Google’ın AI ilkelerine aykırı olan Colab’deki kötüye kullanım yollarını düzenli olarak izliyoruz. Bir Google sözcüsü TechCrunch’a e-posta yoluyla verdiği demeçte, geçen ay Colab çalışma zamanlarından izin verilmeyen etkinlikler listemize, kötüye kullanım kalıplarına ilişkin düzenli incelemelerimize yanıt olarak Deepfake’ler eklendi. “Kötüye kullanımı caydırmak sürekli gelişen bir oyundur ve karşı taraflar tespit sistemlerinden kaçınmak için bilgiden yararlanabileceğinden belirli yöntemleri ifşa edemeyiz. Genel olarak, birçok suistimal türünü tespit eden ve yasaklayan otomatik sistemlerimiz var.”

Arşiv.org veri Google’ın Colab şartlarını Mayıs ortasında sessizce güncellediğini gösteriyor. Hizmet reddi saldırıları, şifre kırma ve torrentleri indirme gibi şeylerle ilgili önceki kısıtlamalar değişmeden kaldı.

Deepfake’ler birçok biçimde gelir, ancak en yaygın olanlardan biri, bir kişinin yüzünün inandırıcı bir şekilde başka bir yüzün üzerine yapıştırıldığı videolardır. Geçmişteki ham Photoshop işlerinden farklı olarak, AI tarafından oluşturulan derin sahtekarlıklar, bazı durumlarda bir kişinin vücut hareketlerini, mikro ifadeleri ve cilt tonlarını Hollywood tarafından üretilen CGI’dan daha iyi eşleştirebilir.

Deepfake’ler zararsız, hatta eğlenceli olabilir. sayısız viral video göründü. Ancak bilgisayar korsanları tarafından sosyal medya kullanıcılarını hedeflemek için giderek daha fazla kullanılıyorlar. gasp ve sahtekar şemalar. Daha da kötüsü, siyasi propagandada, örneğin bir şeyler yaratmak için kaldıraç olarak kullanıldılar. videolar Ukrayna Devlet Başkanı Volodymyr Zelenskyy, Ukrayna’daki savaş hakkında aslında hiç yapmadığı bir konuşma yapıyor.

2019’dan 2021’e kadar, çevrimiçi deepfake sayısı kabaca 14.000’den 145.000’e yükseldi, binaen tek bir kaynağa. Forrester Araştırması tahmini Ekim 2019’da, derin sahtekarlık dolandırıcılığının 2020’nin sonuna kadar 250 milyon dolara mal olacağını söyledi.

Almanya’daki Saarland Üniversitesi’nde hesaplamalı bir dilbilimci olan Vagrant Gautam, TechCrunch’a e-posta yoluyla “Özellikle derin sahtekarlık söz konusu olduğunda, en alakalı konu etik bir sorundur: ikili kullanım” dedi. “Biraz silah veya klor hakkında düşünmek gibi. Klor, eşyaları temizlemek için faydalıdır, ancak aynı zamanda kimyasal bir silah olarak da kullanılmıştır. Bu yüzden, önce teknolojinin ne kadar kötü olduğunu düşünerek ve sonra, örneğin, birbirimiz üzerinde kimyasal silah kullanmayacağımız Cenevre Protokolü üzerinde anlaşarak bununla ilgileniyoruz. Ne yazık ki, makine öğrenimi ve yapay zeka ile ilgili endüstri çapında tutarlı etik uygulamalarımız yok, ancak Google’ın derin sahtekarlıklara erişimi ve oluşturma becerisini düzenleyen kendi sözleşmeleri seti ile ortaya çıkması mantıklıdır, özellikle de sık sık olduklarından. dezenformasyon yapmak ve sahte haberler yaymak için kullanılır – ki bu kötü olan ve daha da kötüleşmeye devam eden bir sorundur.”

Seattle Üniversitesi’nde yardımcı profesör olan Os Keyes, Google’ın Colab’dan gelen derin sahte projeleri yasaklama hareketini de onayladı. Ancak bunların yaratılmasını ve yayılmasını önlemek için politika tarafında daha fazlasının yapılması gerektiğini kaydetti.

Keyes, TechCrunch’a e-posta yoluyla “Yapılma şekli, şirketlerin kendi kendini denetlemesine güvenmenin yoksulluğunu kesinlikle vurguluyor” dedi. “Deepfake üretimi kesinlikle kabul edilebilir bir çalışma şekli olmamalıdır, yani, herhangi bir yerde ve bu yüzden Google’ın kendisini bu konuda suç ortağı yapmaması iyi bir şey… bu tür geliştirme platformlarının (ve şirketlerin) sorumlu, duyarlı düzenlemesi eksiktir.”

Diğerleri, özellikle Colab’ın daha önce yönetişime yönelik laissez faire yaklaşımından yararlananlar aynı fikirde olmayabilir. Yıllar önce, AI araştırma laboratuvarı OpenAI, başlangıçta, yanlış kullanılacağı korkusuyla dil üreten bir model olan GPT-2’yi açık kaynak haline getirmeyi reddetti. Bu motive olmuş gruplar EleutherAI görünüşte araştırma için kendi dil üreten modellerini geliştirmek ve yayınlamak için Colab dahil araçlardan yararlanmak.

Ne zaman ben konuştu Geçen yıl EleutherAI’nin bir üyesi olan Connor Leahy’ye, yapay zeka modellerinin metalaştırılmasının, raydan çıkıp çıkmayacak olan “ikna edici dijital içerik” üretiminin düşen fiyatındaki “kaçınılmaz bir eğilimin” parçası olduğunu iddia etti. kod serbest bırakılır. Onun görüşüne göre, “düşük kaynaklı” kullanıcıların, özellikle akademisyenlerin, daha iyi çalışmaya erişebilmeleri ve bunlar üzerinde kendi güvenlik odaklı araştırmalarını yapabilmeleri için AI modelleri ve araçları yaygın olarak kullanılabilir hale getirilmelidir.

“Deepfakes, Google’ın yapay zeka ilkelerine ters düşme konusunda büyük bir potansiyele sahip. Kötü niyetli derin sahte kalıpları iyi huylu olanlara karşı tespit edip caydırmayı amaçlıyoruz ve yöntemlerimiz ilerledikçe politikalarımızı değiştireceğiz, ”diye devam etti sözcü. “Sentetik medya projelerini iyi niyetli bir şekilde keşfetmek isteyen kullanıcıların, kullanım durumlarını incelemek ve Google Cloud’daki diğer yönetilen bilgi işlem tekliflerinin uygunluğunu araştırmak için bir Google Cloud temsilcisiyle görüşmeleri önerilir.”



genel-24