Google, gizlilik politikasının ifadesini yeni değiştirdi ve firmanın birlikte çalıştığı AI teknolojisini kapsayacak şekilde uygulanan oldukça aydınlatıcı bir düzenleme.
Gibi Teknik Nokta raporlarında, gizlilik politikasında Google’ın herkesin erişimine açık kaynaklardan (sizinle ilgili) bilgileri nasıl topladığını tartıştığı bir bölüm vardır ve buna açıklık getiren bir not vardır: “Örneğin, çevrimiçi olarak veya diğer kaynaklardan halka açık olan bilgileri toplayabiliriz. Google’ın AI modellerini eğitmeye ve Google Translate, Bard ve Cloud AI yetenekleri gibi ürün ve özellikler oluşturmaya yardımcı olacak genel kaynaklar.”
Daha önce, bu paragrafta halka açık bilgilerin “dil modellerini” eğitmek için kullanılacağı yazıyordu ve yalnızca Google Çeviri’den bahsediliyordu.
Dolayısıyla bu bölüm, eğitimin AI modelleri ve Bard ile yapıldığını netleştirmek için genişletildi.
Bu çarpıcı bir değişiklik ve temel olarak çevrimiçi olarak herkese açık olarak yayınladığınız her şeyin Google’ın Bard AI tarafından alınıp kullanılabileceğini gösteriyor.
Analiz: Peki ya mahremiyet, intihal ve diğer endişeler?
Google’ın Bard’ının ve aslında bu konuda Microsoft’un Bing AI’sinin, sorgulanabilecekleri güneş altındaki her konuda sonuçları iyileştirmek için web’in her yerinden çevrimiçi içeriği ayıklayan ve sıkıştıran dev veri süpürücüleri olduğunu zaten biliyorduk.
Google’ın gizlilik politikasındaki bu değişiklik, yapay zekasının bu şekilde çalıştığını açıkça ortaya koyuyor ve bunu ekranda soğuk, sert bir metin olarak görmek, bazı kişilerin geri adım atmasına ve bunu biraz daha sorgulamasına neden olabilir.
Ne de olsa Google bir süredir Bard’ı devre dışı bıraktı, yani bir süredir bu şekilde çalışıyor ve politikasını güncellemeye yeni mi karar verdi? Bu kendi içinde oldukça kurnaz görünüyor.
Google’ın büyük AI makinesini eğitmek için kullanılmak üzere başkalarının görebileceği çevrimiçi yayınladığınız şeyleri istemiyor musunuz? Pekala, zor. Eğer dışarıdaysa, bu adil bir oyundur ve Google ile tartışmak istiyorsanız size iyi şanslar. Yalnızca temel gizlilik sorunları değil, aynı zamanda intihal (bir yapay zeka yanıtında Bard’ın eğitimiyle toplanmış başkaları tarafından yazılan içerik kullanılıyorsa) hakkındaki bariz endişelere rağmen, ikincisi ile herhangi bir sınır nerede yatıyor? Tabii ki, bunu zaten kontrol etmek pratik (veya gerçekten imkansız) olurdu.
Elbette, veriler internetten büyük ölçekli bir şekilde kazındığında da doğruluk ve yanlış bilgi ile ilgili daha geniş sorunlar var.
Bunun da ötesinde, son zamanlarda Reddit ve Twitter gibi platformlar tarafından ifade edilen endişeler var; Elon Musk, görünüşe göre yeni getirilen sinir bozucu sınırlamalarla (ki bu sonuçta Zuckerberg ve Threads için büyük kazanç).
Bunların hepsi gerçekten büyük bir mayın tarlası, ancak LLM (büyük dil modeli) veri kazıma yapay zekaları ile büyük adımlar atan büyük teknoloji ekipleri, tüm gözler rakiplerinde ve kendilerini ön planda tutma yarışında basitçe ilerliyorlar. görünüşe göre, bu denklemin bazı pratik yönlerinin nasıl sonuçlanacağı hakkında neredeyse hiç düşünmeden.