Adobe, son zamanlarda “fotoğrafçılığı şok edici bir şekilde reddetmesi” nedeniyle eleştirilirken ateş altındaydı. Amerikan Medya Fotoğrafçıları Derneği bazı ton sağır Photoshop reklamları için birkaç hafta önce yayınlandı. Ve şimdi yazılım devi, bu hafta kullanıma sunulan bazı yeni Photoshop şartlar ve koşulları nedeniyle sosyal medyada çıkan tepkilerin ardından kendini yeniden savunmak zorunda kaldı.
Geçtiğimiz birkaç gün içinde, bir dizi yüksek profilli Photoshop kullanıcısı, X’te (eski adıyla Twitter), kabul etmek zorunda kaldıkları yeni ‘Güncellenmiş Kullanım Koşulları’ açılır penceresiyle ilgili endişelerini dile getirdi. Yeni küçük baskıda, “içeriğinize içerik incelemesi gibi hem otomatik hem de manuel yöntemlerle erişebiliriz” ifadesi de dahil olmak üzere görünüşte endişe verici bazı satırlar yer alıyor.
Adobe artık yeni koşulları yeni bir biçimde savundu Blog yazısı. Kısacası Adobe, yeni küçük baskısındaki biraz muğlak hukuk dilinin gereksiz bir heyecan yarattığını ve temelde hiçbir şeyin değişmediğini iddia ediyor. Adobe’nin “Firefly Gen AI modellerini müşteri içeriği konusunda eğitmediğini” ve “asla bir müşterinin çalışmasının sahipliğini üstlenmeyeceğini” söylemesi Adobe’nin iki önemli çıkarımıdır.
İkinci noktada Adobe, Photoshop gibi uygulamaların, dosyaları açmak ve düzenlemek gibi “tasarlandıkları ve kullanıldıkları işlevleri gerçekleştirmek” için bulut tabanlı içeriğimize erişmeleri gerektiğini açıklıyor. Yeni şartlar ve koşullar aynı zamanda yalnızca bulut tabanlı dosyaları da etkiliyor; küçük harflerle “biz [Adobe] Cihazınızda yerel olarak işlenen veya depolanan içeriği analiz etmeyin”.
Adobe, yeni küçük baskısının daha iyi açıklanabileceğini de kabul ederek, “Müşterilerin uygulamaları açarken görecekleri Kullanım Koşulları kabulünü açıklığa kavuşturacağız” dedi. Ancak bu açıklama bazı korkuları gidermeye yardımcı olsa da diğer endişelerin de devam etmesi muhtemel.
Sosyal medyada dile getirilen ana noktalardan biri, Adobe’nin içerik inceleme süreçlerinin NDA (Gizlilik Anlaşması) kapsamındaki çalışmalar için ne anlama geldiğine ilişkin endişelerdi. Adobe, açıklamasında, bulutta depolanan çalışmalar için Adobe’nin “belirli yasa dışı içerik türlerini taramak amacıyla manuel (insan) inceleme için üst kademeye iletme de dahil olmak üzere teknolojileri ve diğer süreçleri kullanabileceğini” belirtti.
Bu, bazı Adobe kullanıcılarının gizlilik kaygılarını tamamen çözümlemeyebilir, ancak bu sorunların Adobe’ye özel olarak değil, genel olarak bulut depolama kullanımına uygulanabilir olduğu tartışmalıdır.
Güven krizi mi?
Bu Adobe olayı, bulut tabanlı hizmetlerin ve yapay zeka araçlarının agresif bir şekilde genişlemesinin, teknoloji devleri ile yazılım kullanıcıları arasındaki güven krizine nasıl katkıda bulunduğunun bir başka örneğidir; bazı durumlarda anlaşılır bir şekilde öyledir.
Bir yandan, bulut depolamanın rahatlığı, yaratıcılar için (özellikle dünyanın dört bir yanına dağılmış uzak ekiplere sahip olanlar için) büyük bir nimet oldu ve Photoshop’taki Üretken Doldurma gibi yapay zeka araçları da büyük zaman tasarrufu sağlayabilir.
Ancak bunların bir bedeli de olabilir ve gerçek gizliliği sağlamanın tek yolu çalışmanızı bulut yerine yerel olarak depolamaktır. Pek çok Photoshop kullanıcısı için bu bir sorun olmayacak, ancak yine de bazılarının bu kadar büyük bir bulut bileşenine sahip olmayan en iyi Photoshop alternatiflerini araması heyecan yaratacaktır.
Yapay zeka araçlarına gelince, Adobe, bazı tartışmalara yol açsa da, telif hakkıyla korunan çalışmalar konusunda eğitilmemiş ‘etik’ yapay zekanın meşale taşıyıcısı olmaya devam ediyor. Örneğin geçen ay efsanevi fotoğrafçı Ansel Adams’ın mülkü Adobe’yi Threads’te suçladı işinin yapay zeka tarafından oluşturulan taklitlerini satma.
Adobe’ye karşı adil olmak gerekirse, çalışmayı kaldırdı ve bunun “Üretici Yapay Zeka içerik politikamıza aykırı olduğunu” belirtti. Ancak bu, Adobe gibi şirketlerin yapay zeka destekli güçlü araçları kullanıma sunmakla hem kullanıcıların hem de yaratıcıların güvenini korumak arasında hassas bir denge kurma çabasını bir kez daha gösteriyor.