OpenAI, İtalyan veri yetkililerini yatıştırmayı ve ülkenin ChatGPT üzerindeki etkin yasağını geçen hafta kaldırmayı başardı, ancak Avrupalı ​​düzenleyicilere karşı mücadelesi henüz bitmedi.

Bu yılın başlarında, OpenAI’nin popüler ve tartışmalı ChatGPT sohbet robotu büyük bir yasal engelle karşılaştı: İtalya’da etkili bir yasak. İtalyan Veri Koruma Kurumu (GPDP), OpenAI’yi AB veri koruma kurallarını ihlal etmekle suçladı ve şirket, sorunu çözmeye çalışırken İtalya’daki hizmete erişimi kısıtlamayı kabul etti. 28 Nisan’da ChatGPT ülkeye geri döndü ve OpenAI, hizmetinde büyük değişiklikler yapmadan GPDP’nin endişelerini hafifçe ele aldı – açık bir zafer.

GPDP’nin söylediği ChatGPT’nin yaptığı değişiklikleri “memnuniyetle karşılar”. Bununla birlikte, firmanın ve benzer sohbet botları oluşturan şirketlerin yasal sorunları muhtemelen daha yeni başlıyor. Bazı ülkelerdeki düzenleyiciler, şirketlerin lisanssız eğitim verileri toplamasından sohbet robotlarının yanlış bilgi yayma eğilimine kadar bir dizi endişeyi öne sürerek bu yapay zeka araçlarının nasıl bilgi toplayıp ürettiğini araştırıyor. AB’de, etkileri muhtemelen Avrupa’nın çok dışına ulaşacak olan, dünyanın en güçlü yasal gizlilik çerçevelerinden biri olan Genel Veri Koruma Yönetmeliğini (GDPR) uyguluyorlar. Bu arada, bloktaki milletvekilleri, özellikle AI’yı ele alacak bir yasa hazırlıyorlar – muhtemelen ChatGPT gibi sistemler için yeni bir düzenleme çağını başlatıyor.

ChatGPT’nin yanlış bilgilendirme, telif hakkı ve veri koruma ile ilgili çeşitli sorunları, onu sırtına bir hedef olarak yerleştirdi.

ChatGPT, üretken yapay zekanın en popüler örneklerinden biridir; kullanıcı istemlerine dayalı olarak metin, resim, video ve ses üreten araçları kapsayan kapsamlı bir terimdir. Hizmetin biri haline geldiği bildirildi en hızlı büyüyen tüketici uygulamaları Kasım 2022’de lansmanından sadece iki ay sonra aylık 100 milyon aktif kullanıcıya ulaştıktan sonra tarihte yerini aldı (OpenAI bu rakamları hiçbir zaman doğrulamadı). İnsanlar bunu metni farklı dillere çevirmek, yazmak için kullanır. üniversite denemelerive kod oluşturun. Ancak, düzenleyiciler de dahil olmak üzere eleştirmenler, ChatGPT’nin güvenilmez çıktısını, kafa karıştırıcı telif hakkı sorunlarını ve belirsiz veri koruma uygulamalarını vurguladı.

Harekete geçen ilk ülke İtalya oldu. 31 Mart’ta, OpenAI’nin GDPR’yi ihlal ettiğine inandığı dört yolu vurguladı: ChatGPT’nin yanlış veya yanıltıcı bilgiler sağlamasına izin vermek, kullanıcıları veri toplama uygulamaları konusunda bilgilendirmemek, altı olası yasal gerekçe kişisel verileri işlemek ve 13 yaşından küçük çocukların hizmeti kullanmasını yeterince engellememek. OpenAI’ye, ChatGPT için eğitim verilerinde İtalyan vatandaşlarından toplanan kişisel bilgileri kullanmayı derhal durdurması talimatını verdi.

Başka hiçbir ülke böyle bir önlem almadı. Ancak Mart ayından bu yana en az üç AB ülkesi — Almanya, FransaVe ispanya — ChatGPT ile ilgili kendi araştırmalarını başlattı. Bu arada, Atlantik boyunca, Kanada Kişisel Bilgilerin Korunması ve Elektronik Belgeler Yasası veya PIPEDA kapsamındaki gizlilik kaygılarını değerlendirmektedir. Avrupa Veri Koruma Kurulu (EDPB) bile bir özel görev gücü soruşturmaları koordine etmeye yardımcı olmak için. Ve bu ajanslar OpenAI’den değişiklik talep ederse, hizmetin dünya çapındaki kullanıcılar için nasıl çalıştığını etkileyebilirler.

Düzenleyicilerin endişeleri genel olarak iki kategoriye ayrılabilir: ChatGPT’nin eğitim verilerinin nereden geldiği ve OpenAI’nin bilgileri kullanıcılarına nasıl sağladığı.

ChatGPT, OpenAI’nin büyük miktarlarda insan yapımı metin üzerinde eğitilmiş GPT-3.5 ve GPT-4 büyük dil modellerini (LLM’ler) kullanır. OpenAI, tam olarak hangi eğitim metninin kullanıldığı konusunda temkinli davranıyor ancak “halka açık kişisel bilgileri içerebilecek çeşitli lisanslı, oluşturulmuş ve halka açık veri kaynaklarından” yararlandığını söylüyor.

Bu, potansiyel olarak GDPR kapsamında büyük sorunlara yol açar. Yasa 2018’de yürürlüğe girdi ve sorumlu kuruluş nerede olursa olsun AB vatandaşlarından veri toplayan veya işleyen her hizmeti kapsıyor. GDPR kuralları, şirketlerin kişisel verileri toplamadan önce açık rızaya sahip olmalarını, bu verilerin toplanma amacına ilişkin yasal gerekçelere sahip olmalarını ve bunların nasıl kullanıldığı ve saklandığı konusunda şeffaf olmalarını gerektirir.

Avrupalı ​​düzenleyiciler, OpenAI’nin eğitim verileri etrafındaki gizliliğin, içine giren kişisel bilgilerin başlangıçta kullanıcı izniyle verilip verilmediğini doğrulamanın hiçbir yolu olmadığı anlamına geldiğini iddia ediyor ve GPDP, özellikle OpenAI’nin bu bilgileri toplamak için “yasal bir dayanağı” olmadığını öne sürüyor. . OpenAI ve diğerleri şimdiye kadar çok az incelemeyle kurtuldu, ancak bu iddia, gelecekteki veri kazıma çabalarına büyük bir soru işareti ekliyor.

Sonra GDPR’ler var “unutulma hakkıBu, kullanıcıların şirketlerden kişisel bilgilerini düzeltmelerini veya tamamen kaldırmalarını talep etmelerini sağlar. OpenAI önleyici olarak gizlilik politikasını güncelledi bu istekleri kolaylaştırmak için, ancak olmuştur çekişme ne kadar karmaşık olabileceği göz önüne alındığında, bunları halletmenin teknik olarak mümkün olup olmadığı hakkında belirli verileri ayırmak bu büyük dil modellerine dönüştürüldüğünde.

OpenAI ayrıca doğrudan kullanıcılardan bilgi toplar. Herhangi bir internet platformu gibi, standart kullanıcı verisi aralığı (örneğin, ad, iletişim bilgileri, kart bilgileri vb.). Ancak daha da önemlisi, kullanıcıların ChatGPT ile olan etkileşimlerini kaydeder. Gibi SSS’de belirtilen, bu veriler OpenAI çalışanları tarafından incelenebilir ve modelinin gelecekteki sürümlerini eğitmek için kullanılır. Botu terapist veya doktor olarak kullanan insanların ChatGPT’ye sordukları mahrem sorular göz önüne alındığında, bu, şirketin her türlü hassas veriyi topladığı anlamına geliyor.

OpenAI’nin politikası “13 yaşın altındaki çocuklardan bilerek kişisel bilgi toplamadığını” belirtirken, katı bir yaş doğrulama kapısı olmadığından, bu verilerin en azından bir kısmı reşit olmayanlardan toplanmış olabilir. Bu, 13 yaşın altındaki kişilerden veri toplanmasını yasaklayan ve (bazı ülkelerde) 16 yaşın altındaki çocuklar için ebeveyn onayı gerektiren AB kurallarına pek uymuyor. Çıktı tarafında, GPDP iddia etti ChatGPT’nin yaş filtrelerinin olmaması, reşit olmayanları “gelişim dereceleri ve kişisel farkındalıkları açısından kesinlikle uygun olmayan yanıtlara” maruz bırakır.

OpenAI, bazı düzenleyicileri endişelendiren bu verileri kullanma konusunda geniş bir serbestlik sağlıyor ve bu verileri depolamak bir güvenlik riski oluşturuyor. Samsung gibi şirketler ve JP Morgan hassas verileri yükleyeceklerinden korktukları için çalışanların üretici yapay zeka araçlarını kullanmalarını yasakladı. Ve aslında İtalya, ChatGPT’nin kullanıcıların sohbet geçmişini ve e-posta adreslerini ifşa eden ciddi bir veri sızıntısına maruz kalmasından kısa bir süre sonra yasağını duyurdu.

ChatGPT’nin eğilimi yanlış bilgi sağlamak sorun da çıkarabilir. GDPR düzenlemeleri, GPDP’nin duyurusunda vurguladığı gibi, tüm kişisel verilerin doğru olması gerektiğini şart koşar. Bunun nasıl tanımlandığına bağlı olarak, “halüsinasyonlar”: Bir sorguya gerçekte yanlış veya alakasız yanıtlar vermek için şirin bir endüstri terimi. Bölgesel bir Avustralya belediye başkanının yaptığı gibi, bunun başka yerlerde gerçek dünyada bazı yansımaları görüldü. iftira nedeniyle OpenAI’yi dava etmekle tehdit etti ChatGPT, rüşvetten hapis yattığını yanlış bir şekilde iddia ettikten sonra.

ChatGPT’nin popülaritesi ve AI pazarı üzerindeki mevcut hakimiyeti, onu özellikle çekici bir hedef haline getiriyor, ancak Bard ile Google veya OpenAI destekli Azure AI ile Microsoft gibi rakiplerinin ve işbirlikçilerinin de incelemeye tabi tutulmaması için hiçbir neden yok. ChatGPT’den önce İtalya, chatbot platformunu yasakladı çoğaltma reşit olmayanlar hakkında bilgi toplamak için – ve şimdiye kadar yasaklı kaldı.

GDPR güçlü bir yasalar dizisi olsa da yapay zekaya özgü sorunları ele almak için yapılmadı. Kurallar Yapmak, Yine de, ufukta olabilir.

2021’de AB, ilk taslağını sundu. Yapay Zeka Yasası (AIA), GDPR ile birlikte çalışacak mevzuat. Yasa, AI araçlarını algılanan risklerine göre yönetir; “minimum”dan (spam filtreleri gibi şeyler) “yüksek”e (yasa yaptırımı veya eğitim için AI araçları) veya “kabul edilemez” ve bu nedenle yasaklanmış (bir sosyal kredi sistemi gibi). Geçen yıl ChatGPT gibi büyük dil modellerinin patlamasından sonra, milletvekilleri artık “temel modeller” ve “Genel Amaçlı Yapay Zeka Sistemleri (GPAI’ler)” – LLM’leri içeren büyük ölçekli yapay zeka sistemleri için iki terim – ve potansiyel olarak kurallar eklemek için yarışıyorlar. onları olarak sınıflandırmak “yüksek riskli” hizmetler.

AIA’nın hükümleri veri korumanın ötesine geçer. Yakın zamanda önerilen bir değişiklik, şirketleri üretken AI araçları geliştirmek için kullanılan telif hakkıyla korunan materyalleri ifşa etmeye zorlayacaktır. Bu, bir zamanlar gizli olan veri kümelerini ifşa edebilir ve daha fazla şirketi halihazırda bazı hizmetleri vuran ihlal davalarına karşı savunmasız bırakabilir.

Yapay zekayı düzenlemek için özel olarak tasarlanmış yasalar, 2024’ün sonlarına kadar Avrupa’da yürürlüğe girmeyebilir.

Ama geçmek biraz zaman alabilir. AB milletvekilleri geçici bir Yapay Zeka Yasası anlaşmasına vardı 27 Nisan’da. Bir komite taslağı 11 Mayıs’ta oylayacak ve nihai teklifin Haziran ortasına kadar sunulması bekleniyor. Ardından, Avrupa Konseyi, Parlamento ve Komisyonun kalan anlaşmazlıkları çözmek yasayı uygulamadan önce. Her şey yolunda giderse 2024’ün ikinci yarısına kadar hayata geçirilebilir. resmi hedef Avrupa’nın Mayıs 2024 seçimlerinden.

Şimdilik, İtalya ve OpenAI tartışması, düzenleyiciler ve AI şirketlerinin nasıl müzakere edebileceğine dair erken bir bakış sunuyor. GPDP, OpenAI karşılanırsa yasağını kaldırmayı teklif etti birkaç önerilen çözünürlük 30 Nisan’a kadar. Bu, kullanıcılara ChatGPT’nin verilerini nasıl sakladığını ve işlediğini bildirmeyi, söz konusu verileri kullanmak için açık onay istemeyi, ChatGPT tarafından oluşturulan yanlış kişisel bilgileri düzeltme veya kaldırma taleplerini kolaylaştırmayı ve İtalyan kullanıcıların bir hesaba kaydolurken 18 yaşından büyük olduklarını doğrulamalarını gerektirmeyi içeriyordu. . OpenAI isabet etmedi Tümü ancak İtalyan düzenleyicileri yatıştırmaya ve İtalya’da ChatGPT’ye erişimi yeniden sağlamaya yetecek kadar yerine getirildi.

OpenAI’nin hala ulaşılması gereken hedefleri var. 13 yaşından küçükleri dışarıda tutmak için daha sert bir yaş sınırı oluşturmak ve reşit olmayan daha yaşlı gençler için ebeveyn iznini zorunlu kılmak için 30 Eylül’e kadar zamanı var. Başarısız olursa, kendisinin tekrar engellendiğini görebilir. Ancak, Avrupa’nın bir AI şirketi için kabul edilebilir davranış olarak gördüğü bir örnek sağladı – en azından yeni yasalar kitaplara girene kadar.





genel-2