OpenAI’nin üretken yapay zeka sohbet robotu ChatGPT için bir dizi gizlilik denetimini duyurmasından birkaç gün sonra, hizmet İtalya’daki kullanıcıların kullanımına yeniden sunuldu – Avrupa Birliği’nin 27 Üye Devletinden birinde (şimdilik) erken bir düzenleyici askıya alma sorununu çözerek, bölgenin veri koruma kurallarına uygunluğuna ilişkin yerel bir soruşturma devam etse bile.
Bu yazının yazıldığı sırada, bir İtalyan IP adresinden ChatGPT’ye göz atan web kullanıcıları artık hizmetin “İtalya’daki kullanıcılar için devre dışı bırakıldığını” bildiren bir bildirimle karşılanmıyor. Bunun yerine, OpenAI’nin “İtalya’da ChatGPT sunmaya devam etmekten memnun olduğunu” belirten bir notla karşılandılar.
Açılır pencere, kullanıcıların hizmeti kullanmak için bir ebeveyn veya velinin izniyle 18+ veya 13+ olduklarını “OpenAI’nin yaş gereksinimlerini karşılıyorum” yazan bir düğmeyi tıklayarak onaylamaları gerektiğini şart koşarak devam eder.
Bildirim metni ayrıca OpenAI’nin Gizlilik Politikasına dikkat çekiyor ve şirketin “ChatGPT’yi nasıl geliştirip eğittiğimiz” hakkında bilgi verdiğini söylediği bir yardım merkezi makalesine bağlantı veriyor.
OpenAI’nin İtalya’daki kullanıcılara ChatGPT’yi sunma biçimindeki değişikliklerin amacı, yönetilen düzenleyici riskle hizmete devam etmesi için yerel veri koruma yetkilisi (DPA) tarafından belirlenen bir dizi ilk koşulu karşılamaktır.
Arka planın kısa özeti burada: Geçen ayın sonlarında İtalyan Garante, hizmetlerin AB veri koruma yasalarını ihlal ettiğinden endişe duyduğunu söyleyerek ChatGPT’de geçici bir işleme durdurma emri verdi. Ayrıca, Genel Veri Koruma Yönetmeliği’nin (GDPR) şüpheli ihlallerine ilişkin bir soruşturma başlattı.
OpenAI, bu ayın başında kullanıcıları İtalyan IP adresleriyle coğrafi olarak bloke ederek müdahaleye hızlı bir şekilde yanıt verdi.
Hareketi birkaç hafta sonra Garante, askıya alma emrinin Nisan ayı sonuna kadar kaldırılması için OpenAI’nin uygulaması gerektiğini söylediği önlemlerin bir listesini yayınlayarak takip etti – reşit olmayanların hizmete erişimini önlemek için yaş sınırlaması eklemek de dahil. ve yerel kullanıcıların verilerinin işlenmesi için talep edilen yasal dayanağın değiştirilmesi.
Düzenleyici, müdahale nedeniyle İtalya’da ve Avrupa’nın başka yerlerinde bazı siyasi eleştirilerle karşılaştı. Endişeleri dile getiren tek veri koruma yetkilisi olmasa da – ve bu ayın başlarında bloğun düzenleyicileri, herhangi bir yaptırımla ilgili soruşturmaları ve işbirliğini desteklemek amacıyla ChatGPT’ye odaklanan bir görev gücü başlatmayı kabul etti.
İçinde basın bülteni İtalya’da hizmetin yeniden başladığını duyuran bugün yayınlanan Garante, OpenAI’nin önceki siparişe cevaben uygulanan önlemleri detaylandıran bir mektup gönderdiğini söyledi – şöyle yazdı: “OpenAI, bilgileri Avrupalı kullanıcılara ve kullanıcı olmayanlara genişlettiğini açıkladı. çeşitli mekanizmaları değiştirip netleştirdi ve kullanıcıların ve kullanıcı olmayanların haklarını kullanmalarını sağlamak için kabul edilebilir çözümler uygulamaya koydu. Bu iyileştirmelere dayanarak OpenAI, İtalyan kullanıcılar için ChatGPT’ye erişimi yeniden sağladı.”
OpenAI tarafından atılan adımları daha ayrıntılı olarak açıklayan DPA, OpenAI’nin gizlilik politikasını genişlettiğini ve kullanıcılara ve kullanıcı olmayanlara algoritmalarını eğitmek için işlenmekte olan kişisel veriler hakkında daha fazla bilgi sağladığını ve herkesin devre dışı bırakma hakkına sahip olduğunu şart koştuğunu söylüyor. Bu, şirketin artık algoritmalarını eğitmek için verileri işlemek için yasal dayanak olarak meşru menfaat iddiasına güvendiğini gösteriyor (çünkü bu temel, bir devre dışı bırakma teklif etmesini gerektiriyor).
Ek olarak Garante, OpenAI’nin Avrupalıların verilerinin yapay zekayı eğitmek için kullanılmamasını istemeleri (talepler ona çevrimiçi bir form aracılığıyla yapılabilir) ve onlara “mekanizmalar” sağlamaları için adımlar attığını ortaya koyuyor. verilerinin silinmesi için.
Ayrıca düzenleyiciye, bu noktada isimli kişiler hakkında yanlış bilgiler oluşturan sohbet botlarının kusurunu düzeltemeyeceğini de söyledi. Bu nedenle, “veri konularının yanlış olduğu düşünülen bilgilerin silinmesini sağlayacak mekanizmalar” tanıtılmaktadır.
Yapay zekasını eğitmek için kişisel verilerinin işlenmesini devre dışı bırakmak isteyen Avrupalı kullanıcılar, bunu OpenAI’nin kullanıma sunduğu bir form aracılığıyla da yapabilirler ve DPA, “böylece eğitim için kullanılan verilerden sohbetlerini ve sohbet geçmişini filtreleyebilir algoritmalar”.
Bu nedenle, İtalyan DPA’nın müdahalesi, ChatGPT’nin Avrupalılara sunduğu kontrol düzeyinde bazı dikkate değer değişikliklerle sonuçlandı.
Bununla birlikte, OpenAI’nin uygulamak için acele ettiği ince ayarların, dile getirilen tüm GDPR endişelerini çözecek kadar ileri gidip gitmeyeceği (veya gidebileceği) henüz net değil.
Örneğin, İtalyanların GPT modelini eğitmek için kullanılan kişisel verilerinin tarihsel olarak, yani internetten kamuya açık verileri kazıdığı zaman, geçerli bir yasal temele göre işlenip işlenmediği veya aslında verilerin modelleri eğitmek için kullanılıp kullanılmadığı açık değildir. kullanıcılar verilerinin şimdi silinmesini talep ederse önceden silinir veya silinebilir.
Asıl soru, şirketin hangi verileri kullandığı konusunda çok açık olmadığı zamanlarda, OpenAI’nin insanların bilgilerini işlemek için hangi yasal dayanağa sahip olması gerektiğidir.
ABD şirketi, Avrupalıların bilgileriyle ne yaptığına dair ortaya atılan itirazları, şimdi yeni gelen kişisel verilere uygulanan bazı sınırlı kontroller sağlayarak sınırlamayı umuyor gibi görünüyor, bunun tüm bölgesel kişisel verilerin daha geniş sorununu bulanıklaştırması umuduyla işleme tarihsel olarak yapılır.
Uygulanan değişiklikler hakkında sorulan bir OpenAI sözcüsü, TechCrunch’a şu özet bildirimi e-postayla gönderdi:
ChatGPT, İtalya’daki kullanıcılarımızın kullanımına yeniden açıldı. Onları tekrar ağırlamaktan heyecan duyuyoruz ve mahremiyetlerini korumaya kendimizi adadık. Aşağıdakiler de dahil olmak üzere Garante tarafından dile getirilen sorunları ele aldık veya netleştirdik:
İşbirlikçi olduğu için Garante’yi takdir ediyoruz ve devam eden yapıcı tartışmaları sabırsızlıkla bekliyoruz.
Yardım merkezi makalesinde OpenAI, ChatGPT’yi eğitmek için kişisel verileri işlediğini kabul ederken, bunu gerçekten yapma niyetinde olmadığını, ancak işlerin internette ortalıkta dolaştığını veya kendi deyimiyle: “İnternetteki büyük miktarda veri insanlarla ilgilidir, bu nedenle eğitim bilgilerimiz tesadüfen kişisel bilgileri içerir. Modellerimizi eğitmek için kişisel bilgileri aktif olarak aramıyoruz.”
Bu, GDPR’nin bulduğu bu kişisel verileri işlemek için geçerli bir yasal dayanağa sahip olması gerekliliğinden kaçınmak için güzel bir girişim gibi görünüyor.
OpenAI, “ChatGPT’nin geliştirilmesi gizlilik yasalarına nasıl uygundur?” başlıklı (olumlu bir şekilde) başlıklı bir bölümde savunmasını daha da genişletiyor. – A) chatbot’unun faydalı olmasını amaçladığı için insanların verilerini yasal olarak kullandığını öne sürdüğü; B) AI teknolojisini oluşturmak için çok fazla veri gerektiğinden başka seçeneği yoktu; ve C) bireyleri olumsuz etkilemek anlamına gelmediğini iddia ediyor.
“Bu nedenlerle, eğitim bilgilerinde yer alan kişisel bilgileri toplama ve kullanma işlemimizi GDPR gibi gizlilik yasalarına göre meşru menfaatlere dayandırıyoruz.” Bu bilgileri yasal ve sorumlu bir şekilde toplayıp kullandığımızdan emin olmamıza yardımcı olacak veri koruma etki değerlendirmesi.”
Dolayısıyla, yine, OpenAI’nin veri koruma yasasını çiğneme suçlamasına karşı savunması temelde şuna indirgenir: “Ama kötü bir şey kastetmedik memur bey!”
Açıklayıcı ayrıca, bu verileri bireyler hakkında profiller oluşturmak için kullanmadığına dair bir iddiayı vurgulamak için bazı kalın metinler sunar; onlarla iletişime geçin veya onlara reklam verin; veya onlara bir şey satmaya çalışın. Bunların hiçbiri, veri işleme faaliyetlerinin GDPR’yi ihlal edip etmediği sorusuyla ilgili değildir.
İtalyan DPA, bu göze çarpan sorunla ilgili soruşturmasının devam ettiğini bize doğruladı.
Güncellemesinde Garante, OpenAI’nin 11 Nisan tarihli emrinde belirtilen ek taleplere uymasını beklediğini de belirtiyor – bir yaş doğrulama sistemi uygulama gereksinimini işaret ediyor (reşit olmayanların hizmete erişmesini daha güçlü bir şekilde önlemek için); ve İtalyanları verilerini nasıl işlediği ve algoritmalarını eğitmek için kişisel verilerinin işlenmesinden vazgeçme hakları konusunda bilgilendirmek için yerel bir bilgilendirme kampanyası yürütmek.
“İtalyan SA [supervisory authority] OpenAI tarafından teknolojik ilerlemeleri bireylerin haklarına saygı ile uzlaştırmak için atılan adımları kabul ediyor ve şirketin Avrupa veri koruma mevzuatına uyma çabalarını sürdürmesini umuyor” diye ekliyor ve bunun sadece ilk geçiş olduğunun altını çiziyor. bu düzenleyici dansta.
Bu nedenle, OpenAI’nin %100 gerçek olduğuna dair tüm çeşitli iddiaları sağlam bir şekilde test edilmeyi bekliyor.