Düzenleyicilerin ChatGPT gibilerini yakalayabilmesi için daha güçlü üretken yapay zeka modellerinin geliştirilmesine ilişkin bir moratoryum çağrısında bulunan açık bir mektuptan iki gün sonra, İtalya’nın veri koruma yetkilisi, bazı ülkelerin bazı ülkeler için tam zamanında bir hatırlatma yayınladı. Yapmak son teknoloji yapay zeka için halihazırda geçerli olan yasalara sahip olmak — sipariş vermek OpenAI, insanların verilerini yerel olarak işlemeyi derhal geçerli olacak şekilde durdurmak için.

İtalyan DPA, ChatGPT’nin üreticisinin Avrupa Birliği’nin Genel Veri Koruma Yönetmeliğini (GDPR) ihlal ettiğinden endişe duyduğunu ve bir soruşturma başlattığını söyledi.

Spesifik olarak, garanti OpenAI’nin insanların verilerini yasa dışı bir şekilde işlediği endişeleri ve ayrıca reşit olmayanların teknolojiye erişmesini önleyecek herhangi bir sistemin bulunmaması nedeniyle ChatGPT’yi engelleme emri verdiğini söyledi.

San Francisco merkezli şirketin, siparişe yanıt vermesi için 20 günü var – buna uyulmaması durumunda bazı ağır cezalar tehdidiyle destekleniyor. (Hatırlatma: AB’nin veri koruma rejiminin ihlaline ilişkin para cezaları, hangisi daha büyükse, yıllık cironun %4’üne veya 20 milyon avroya kadar çıkabilir.)

OpenAI’nin AB’de yerleşik bir tüzel kişiliği olmadığı için, herhangi bir veri koruma yetkilisinin, yerel kullanıcılar için risk görmesi durumunda GDPR kapsamında müdahale etme yetkisine sahip olduğunu belirtmekte fayda var. (Böylece İtalya’nın devreye girdiği yerde diğerleri onu takip edebilir.)

GDPR sorunları paketi

GDPR, AB kullanıcılarının kişisel verileri işlendiğinde geçerlidir. Açıktır ki, OpenAI’nin büyük dil modeli, örneğin, talep üzerine bölgedeki isimli bireylerin biyografilerini üretebildiğinden (biliyoruz; denedik) bu tür bilgileri işliyor. OpenAI, teknolojinin en son yinelemesi olan GPT-4 için kullanılan eğitim verilerinin ayrıntılarını vermeyi reddetmiş olsa da. Ancak daha önceki modellerin, Reddit gibi forumlar da dahil olmak üzere İnternetten alınan veriler üzerinde eğitildiğini ortaya çıkardı. Bu nedenle, makul bir şekilde çevrimiçiyseniz, botun adınızı bilmesi muhtemeldir.

Buna ek olarak, ChatGPT’nin adlı kişiler hakkında tamamen yanlış bilgiler ürettiği gösterildi – görünüşe göre eğitim verilerinde eksik olan ayrıntıları telafi ediyor. Düzenleme Avrupalılara, hataları düzeltme hakkı da dahil olmak üzere verileri üzerinde bir dizi hak sağladığından, bu da potansiyel olarak daha fazla GDPR endişesini artırıyor. Ve insanların, yalnızca bir örnek senaryoda, bot tarafından kendileri hakkında oluşturulan hatalı beyanları düzeltmesini OpenAI’den nasıl isteyip isteyemeyeceği açık değildir.

bu garanti‘ nin açıklaması aynı zamanda hizmetin bu ayın başlarında yaşadığı bir veri ihlaline de dikkat çekiyor – OpenAI kabul edildi bir konuşma geçmişi özelliği, kullanıcıların sohbetlerini sızdırıyordu ve bazı kullanıcıların ödeme bilgilerini açığa çıkarmış olabileceğini söyledi.

Veri ihlalleri, GDPR’nin düzenlediği ve kişisel verileri işleyen kuruluşların bilgileri yeterince koruduğundan emin olmaya odaklanan başka bir alandır. Pan-AB yasası ayrıca, önemli ihlallerin ilgili denetim makamlarına kısa süreler içinde bildirilmesine ilişkin gereklilikleri içerir.

Tüm bunları kapsayan, OpenAI’nin Avrupalıların verilerini işlemek için ilk etapta hangi yasal dayanağa dayandığına dair büyük (geri) sorudur. Aka, bu işlemenin yasallığı.

GDPR, rızadan kamu yararına kadar bir dizi olasılığa izin verir, ancak bu büyük dil modellerini eğitmek için işleme ölçeği, yasallık sorununu karmaşıklaştırır. garanti notlar (“kişisel verilerin toplu olarak toplanması ve depolanmasına” işaret ederek), veri minimizasyonu, şeffaflık ve adalet gerektiren ilkeleri de içeren düzenlemedeki bir başka büyük odak noktasıdır. Yine de, en azından, ChatGPT’nin arkasındaki (artık) kâr amacı gütmeyen şirket, verilerini ticari yapay zekalarını eğitmek için yeniden tasarladığı kişileri bilgilendirmiş görünmüyor. Bu onun için oldukça yapışkan bir problem olabilir.

OpenAI, Avrupalıların verilerini yasa dışı bir şekilde işlediyse, bloktaki DPA’lar verilerin silinmesini emredebilir – ancak mevcut bir yasa en son teknolojiyle boğuşurken, bunun onu yasa dışı yollarla elde edilen verilerle eğitilmiş modelleri yeniden eğitmeye zorlayıp zorlamadığı açık bir sorudur.

Öte yandan, İtalya tüm makine öğrenimini kazara yasaklamış olabilir… 😬

“[T]Gizlilik Garantörü, verileri OpenAI tarafından toplanan kullanıcılara ve tüm ilgili taraflara bilgi eksikliğini, ancak her şeyden önce, altta yatan algoritmaları ‘eğitmek’ amacıyla kişisel verilerin toplu olarak toplanmasını ve saklanmasını haklı çıkaran yasal bir dayanağın olmadığını not eder. platformun işleyişi, ”DPA bugün yaptığı açıklamada yazıyor [which we’ve translated from Italian using AI].

Yapılan kontrollerle de kanıtlandığı üzere ChatGPT tarafından sağlanan bilgiler her zaman gerçek verilerle örtüşmemekte, bu nedenle kişisel verilerin yanlış işlendiğini tespit etmektedir.

Yetkili makam, reşit olmayanların verilerinin OpenAI tarafından işlenme riskinden endişe duyduğunu ekledi – çünkü şirket, yaş doğrulama teknolojisi uygulamak gibi, 13 yaşın altındaki kişilerin chatbot’u kullanmak için kaydolmasını aktif olarak engellememektedir.

Çocukların verilerine yönelik riskler, düzenleyicinin çok aktif olduğu bir alandır – son zamanlarda çocuk güvenliği endişeleri nedeniyle sanal arkadaşlık AI sohbet robotu Replika için benzer bir yasaklama emri vermiştir. Son yıllarda, TikTok’u reşit olmayan kullanım nedeniyle de takip etti – şirketi çocuklara ait olmadığını doğrulayamadığı yarım milyondan fazla hesabı tasfiye etmeye zorladı.

Dolayısıyla OpenAI, İtalya’da kaydolduğu herhangi bir kullanıcının yaşını kesin olarak doğrulayamazsa – en azından – hesaplarını silmek ve daha sağlam bir kayıt süreciyle yeniden başlamak zorunda kalabilir.

Bir yanıt için OpenAI ile iletişime geçildi. garantisiparişi.

Newcastle Üniversitesi’nde veri koruma ve İnternet hukuku uzmanı olan Lilian Edwards, “hatırlayan algoritmalar” — TechCrunch’a şunları söyledi: “Büyüleyici olan, çocukların uygunsuz içeriğe erişimine vurgu yaparak Replika’yı aşağı yukarı kopyalayıp yapıştırması. Ancak gerçek saatli bomba, yalnızca üretici yapay zeka için değil, TÜM veya en azından birçok makine öğrenimi sistemi için geçerli olması gereken yasal dayanağın reddidir.

İspanya’daki bir birey tarafından kişisel verilerin izinsiz işlenmesine karşı bir itirazın getirildiği Google aramanın dahil olduğu, ancak Avrupa mahkemeleri bireylerin arama motorlarından şunu isteme hakkını tesis ederken, çok önemli ‘unutulma hakkı’ davasına işaret etti. onlar hakkında yanlış veya güncel olmayan bilgileri kaldırma (bir kamu yararı testiyle dengelenmiş), Google’ın bu bağlamda kişisel verileri işlemesi (İnternet araması), işleme noktasının yasallığı nedeniyle – görünüşe göre bir kamu hizmeti sağlamak. Ama aynı zamanda, nihayetinde, çünkü Google, AB’deki veri sahiplerine silme ve düzeltme haklarını sağladı.

“Büyük dil modelleri bu çareleri sunmuyor ve sunabilecekleri, yapabilecekleri veya sonuçlarının ne olacağı tam olarak net değil.” Edwards eklendi – modellerin zorunlu olarak elde tutulmasının potansiyel bir düzeltme olabileceğini öne sürmek.

Ya da ChatGPT gibi teknolojiler veri koruma yasasını çiğnemiş olabilir…

Bu rapor ek yorumla güncellendi



genel-24