Fransa’nın gizlilik gözlemcisi CNIL bir yayın yayınladı. hareket planı Önümüzdeki aylarda ve sonrasında OpenAI’nin ChatGPT’si gibi üretken AI teknolojileri de dahil olmak üzere dikkatini nereye odaklayacağına dair bir anlık görüntü veren yapay zeka için.

Teknolojinin kapsamını belirlemek ve “gizlilik dostu yapay zeka sistemleri” için öneriler üretmek üzere CNIL içinde özel bir Yapay Zeka Hizmeti kuruldu.

Düzenleyici için belirtilen önemli bir hedef, “kişisel verilere saygı duyan” yapay zekanın gelişimini yönlendirmek, örneğin aşağıdaki araçları geliştirmektir: “insanları korumak” için AI sistemlerini denetleyin ve kontrol edin.

AI sistemlerinin insanları nasıl etkilediğini anlamak, CNIL’in en iyi uygulamasını uygulayan yerel AI ekosistemindeki yenilikçi oyunculara verilen desteğin yanı sıra başka bir ana odak noktasıdır.

“CNIL, gizlilik dostu AI sistemlerinin geliştirilmesine katkıda bulunmak için Avrupa vatandaşlarının kişisel verilerini koruyan net kurallar oluşturmak istiyor” diye yazıyor.

Teknologlardan, düzenleyicilerden yapay zekayı ele almalarını isteyen bir dizi yüksek profilli çağrı olmadan ancak bir hafta geçiyor. Ve daha dün, ABD Senatosundaki ifadesi sırasında, OpenAI’nin CEO’su Sam Altman, milletvekillerini teknolojiyi düzenlemeye çağırdıbir lisanslama ve test rejimi öneriyor.

Bununla birlikte, Avrupa’daki veri koruma düzenleyicileri şimdiden yolun çok gerisinde – örneğin, Clearview AI gibileri, örneğin, blok genelinde insanların verilerinin kötüye kullanılması nedeniyle zaten geniş çapta yaptırımlara tabi tutuluyor. Yapay zeka sohbet robotu Replika, İtalya’da yakın zamanda yaptırımlarla karşı karşıya kaldı.

OpenAI’nin ChatGPT’si ayrıca Mart ayının sonunda İtalyan DPA’nın çok açık bir müdahalesini çekti ve bu, şirketin kullanıcılar için yeni açıklamalar ve kontrollerle acele etmesine ve bilgilerini nasıl kullanabileceklerine dair bazı sınırlamalar uygulamasına izin vermesine yol açtı.

Aynı zamanda, AB milletvekilleri, bloğun Nisan 2021’de önerdiği yapay zeka uygulamalarını düzenlemek için riske dayalı bir çerçeve üzerinde anlaşma sağlama sürecindeler.

AB AI Yasası olan bu çerçeve, yıl sonuna kadar kabul edilebilir ve planlanan düzenleme, CNIL’in AI eylem planını hazırlamak için vurguladığı bir başka nedendir ve çalışmanın “uygulamaya giriş için hazırlanmayı da mümkün kılacağını” söyler. şu anda tartışılmakta olan taslak Avrupa AI Tüzüğü”.

Mevcut veri koruma yetkililerinin (DPA’lar) AI Yasasının uygulanmasında rol oynaması muhtemeldir, bu nedenle AI anlayışını ve uzmanlığını oluşturan düzenleyiciler, rejimin etkin bir şekilde işlemesi için çok önemli olacaktır. AB DPA’larının odaklanmayı seçtikleri konular ve ayrıntılar, gelecekte AI’nın operasyonel parametrelerini ağırlıklandırmaya ayarlanmış olsa da – dijital kural koyma söz konusu olduğunda bloğun ne kadar ileride olduğu göz önüne alındığında, kesinlikle Avrupa’da ve potansiyel olarak daha uzakta.

Çerçevede veri kazıma

Üretken yapay zeka konusunda, Fransız gizlilik düzenleyicisi, belirli yapay zeka modeli üreticilerinin, örneğin doğal dilleri ayrıştırabilen büyük dil modelleri (LLM’ler) gibi yapay zeka sistemlerini eğitmek için veri kümeleri oluşturmak üzere internetten veri toplama uygulamasına özel önem veriyor. konuşun ve iletişime insan benzeri bir şekilde yanıt verin.

AI hizmeti için öncelikli bir alanın “web’de halka açık verilerin kazıma kullanımına karşı korunması veya kazıma, araçlarının tasarımı için veri”.

Bu, eğitim yemi olarak yeniden kullanmak üzere büyük miktarda web verisini sessizce kazımaya dayanan ChatGPT gibi LLM’lerin yapımcıları için rahatsız edici bir alandır. Kişisel verileri içeren web bilgilerini süpürenler, Mayıs 2018’den beri yürürlükte olan Genel Veri Koruma Yönetmeliği’nin (GDPR) bu tür işlemler için yasal bir temele sahip olmalarını gerektirdiği Avrupa’da belirli bir yasal zorlukla karşı karşıyadır.

GDPR’de belirtilen bir dizi yasal dayanak vardır, ancak ChatGPT gibi bir teknoloji için olası seçenekler sınırlıdır.

İtalyan DPA’nın görüşüne göre, sadece iki olasılık var: Rıza veya meşru çıkarlar. Ve OpenAI, verilerini almadan önce bireysel web kullanıcılarından izin almadığından, şirket artık işleme için İtalya’daki meşru menfaat iddiasına güveniyor; yerel düzenleyici tarafından soruşturma altında kalan bir iddia, garanti. (Hatırlatma: GDPR cezaları, herhangi bir düzeltici talimata ek olarak küresel yıllık cironun %4’üne kadar çıkabilir.)

Pan-AB düzenlemesi, kişisel verileri işleyen kuruluşlar için işlemenin adil ve şeffaf olması gibi başka gereklilikler içerir. Bu nedenle, ChatGPT gibi araçlar için yasalara aykırı düşmekten kaçınmak için ek yasal zorluklar vardır.

Ve – özellikle – eylem planında, Fransız CNIL, “şirketlerin işleyişinin altında yatan veri işlemenin adilliğini ve şeffaflığını” vurguluyor. [AI tools]”, Yapay Zeka Servisi ve başka bir iç birim olan CNIL Dijital İnovasyon Laboratuvarı’nın önümüzdeki aylarda inceleme için öncelik vereceğini söylediği özel bir ilgi sorusu olarak.

CNIL’in yapay zeka kapsamı için işaretlediği diğer belirtilen öncelik alanları şunlardır:

  • kullanıcılar tarafından bu araçları kullandıklarında iletilen verilerin, bunların toplanmasından (bir arayüz aracılığıyla) olası yeniden kullanımlarına ve makine öğrenimi algoritmaları aracılığıyla işlenmesine kadar korunması;
  • hem modellerin öğrenilmesi için toplananlarla hem de üretici yapay zeka durumunda oluşturulan içerik gibi bu sistemler tarafından sağlanabileceklerle ilgili olarak bireylerin verilerine ilişkin haklarına yönelik sonuçlar;
  • meydana gelebilecek önyargı ve ayrımcılığa karşı koruma;
  • bu araçların benzeri görülmemiş güvenlik sorunları.

Dün bir ABD senato komitesine ifade veren Altman, ABD’li milletvekilleri tarafından şirketin gizliliği koruma yaklaşımı hakkında sorgulandı ve OpenAI CEO’su, konuyu yalnızca yapay zeka sohbet botu kullanıcıları tarafından aktif olarak sağlanan bilgilere atıfta bulunacak şekilde dar bir çerçeveye oturtmaya çalıştı – örneğin, , ChatGPT, kullanıcıların konuşma geçmişlerinin eğitim verileri olarak kullanılmasını istemediklerini belirtmelerine olanak tanır. (Bununla birlikte, başlangıçta sunmadığı bir özellik.)

Gizliliği korumak için hangi özel adımların atıldığı sorulduğunda Altman, senato komitesine şunları söyledi: “API’mize gönderilen hiçbir veri üzerinde eğitim yapmıyoruz. Dolayısıyla, bir ticari müşterimizseniz ve veri gönderirseniz, bunun üzerinde hiç eğitim vermeyiz… ChatGPT’yi kullanırsanız, verileriniz üzerinde verdiğimiz eğitimden vazgeçebilirsiniz. Ayrıca konuşma geçmişinizi veya tüm hesabınızı silebilirsiniz.”

Ancak en başta modeli eğitmek için kullanılan veriler hakkında söyleyecek hiçbir şeyi yoktu.

Altman’ın mahremiyetin ne anlama geldiğine dair dar çerçevesi, eğitim verilerinin yasallığıyla ilgili temel soruyu gözden kaçırdı. İsterseniz buna üretici yapay zekanın “ilk mahremiyet günahı” deyin. Ancak, Avrupa’daki düzenleyiciler bölgenin güçlü yapay zeka sistemleri üzerindeki mevcut gizlilik yasalarını uygulamaya devam ettikçe, bu konuyu atlamanın OpenAI ve onun veri kazıma ilkleri için giderek daha zor hale geleceği açıktır.

OpenAI söz konusu olduğunda, bölgede yerleşik bir üssü olmadığı için Avrupa çapında bir dizi uygulama yaklaşımına tabi olmaya devam edecektir – GDPR’nin tek durak noktası mekanizması geçerli değildir (tipik olarak Big Tech için geçerli olduğu gibi) ) bu nedenle herhangi bir DPA, yerel kullanıcıların verilerinin işlendiğine ve haklarının risk altında olduğuna inanıp inanmadığını düzenleme yetkisine sahiptir. Bu nedenle İtalya, bu yılın başlarında, araçla ilgili bir soruşturma başlatmasına paralel olarak bir işlemeyi durdurma emri koyan ChatGPT’ye müdahale ederek zor durumda kalırken, Fransa’nın bekçi köpeği, şikayetlere yanıt olarak yalnızca Nisan ayında bir soruşturma açacağını duyurdu. (İspanya ayrıca henüz herhangi bir ek işlem yapmadan teknolojiyi araştırdığını söyledi.)

AB DPA’ları arasındaki diğer bir farkta, CNIL, GDPR’nin amaç sınırlama ilkesinin ChatGPT gibi büyük dil modellerine nasıl uygulanması gerektiğini düşünmek de dahil olmak üzere İtalya’nın ön listesinden daha geniş bir dizi konuyu sorgulamakla ilgileniyor gibi görünüyor. Bu da, GDPR’nin ihlal edildiği sonucuna varması halinde daha kapsamlı bir dizi operasyonel değişiklik siparişi verebileceğini gösteriyor.

“CNIL yakında bir istişare için verilerin paylaşımı ve yeniden kullanımı için geçerli kurallar hakkında bir rehber sunacak” diye yazıyor. “Bu çalışma, internette serbestçe erişilebilen ve artık birçok AI modelini öğrenmek için kullanılan verilerin yeniden kullanılması konusunu içerecektir. Bu nedenle bu kılavuz, üretken AI’lar da dahil olmak üzere AI sistemlerinin tasarımı için gerekli olan bazı veri işleme işlemleriyle ilgili olacaktır.

“Ayrıca yapay zeka sistemleri tasarlama ve makine öğrenimi için veritabanları oluşturma konusundaki çalışmalarına da devam edecek. Bunlar, özellikle ChatGPT gibi yapay zeka sistemlerinin tasarımıyla ilgili olarak somut tavsiyeler sağlamak için birkaç aktörle halihazırda organize edilmiş olan istişarenin ardından 2023 yazından itibaren birkaç yayının ortaya çıkmasına neden olacak.”

CNIL’in gelecekteki yayınlar ve ürettiği AI rehberliği aracılığıyla “kademeli olarak” ele alınacağını söylediği diğer konular şunlardır:

  • eğitim veritabanlarının oluşturulması ve yeniden kullanılması için bilimsel araştırma sisteminin kullanılması;
  • amaç ilkesinin genel amaçlı yapay zekalara ve büyük dil modelleri gibi temel modellere uygulanması;
  • veritabanlarını oluşturan, bu verilerden model oluşturan ve bu modelleri kullanan kuruluşlar arasındaki sorumluluk paylaşımının açıklanması;
  • veri doğruluğu ve minimizasyonu ilkelerini göz önünde bulundurarak, eğitim için veri seçimine uygulanabilir kurallar ve en iyi uygulamalar;
  • bireylerin haklarının yönetimi, özellikle erişim, düzeltme ve itiraz hakları;
  • özellikle eğitim temelleri ve kullanılacak en karmaşık modeller için geçerli raf ömrü kuralları;
  • son olarak, yapay zeka sistemlerinin gündeme getirdiği sorunların yalnızca kendi anlayışlarında kalmadığının farkında olan CNIL, aynı zamanda etik yansımalar [following a report it published back in 2017] makine öğrenimi modellerinin kullanımı ve paylaşımı, önyargıların ve ayrımcılığın önlenmesi ve düzeltilmesi veya yapay zeka sistemlerinin sertifikasyonu hakkında.

AI sistemlerinin denetimi ve kontrolü konusunda, Fransız düzenleyici bu yılki eylemlerinin üç alana odaklanacağını şart koşuyor: Mevcut bir sistemle uyumluluk ‘gelişmiş’ video gözetiminin kullanımına ilişkin pozisyon2022 yılında yayınladığı; dolandırıcılıkla mücadele için yapay zekanın kullanılması (sosyal sigorta dolandırıcılığı gibi); ve şikayetlerin araştırılması hakkında.

Ayrıca, üretici yapay zekaların eğitimi ve kullanımına yönelik yasal çerçeve hakkında şikayetler aldığını doğruluyor ve bu konudaki açıklamalar üzerinde çalıştığını söylüyor.

“CNIL, özellikle ChatGPT hizmetini yöneten OpenAI şirketi aleyhine birkaç şikayet aldı ve bir kontrol prosedürü başlattı” diye ekliyor. Avrupa Veri Koruma Kurulu bünyesinde yakın zamanda kurulan özel çalışma grubu farklı Avrupalı ​​yetkililerin AI chatbot’u düzenlemeye nasıl yaklaştığını koordine etmeye çalışmak (ve “OpenAI aracı tarafından uygulanan veri işlemenin uyumlu bir analizi” olarak faturalandırdığı şeyi üretmek).

CNIL, verilerini kullanmak için insanlardan asla izin istemeyen ve gelecekte bağışlanmayı umut eden yapay zeka sistem üreticileri için başka bir uyarıda bulunarak, kişisel verileri işleyen kuruluşların geliştirme, eğitme veya kullanma amaçlarına özel önem vereceğini belirtiyor. Yapay zeka sistemleri şunları içerir:

  • riskleri belgelemek ve bunları azaltmak için önlemler almak için bir Veri Koruma Etki Değerlendirmesi gerçekleştirdi;
  • insanları bilgilendirmek için alınan önlemler;
  • kişilerin haklarının kullanılması için bu özel bağlama uyarlanmış planlı önlemler.

Yani uyarılmadığını söyleme!

Avrupa kurallarına (ve değerlerine) uymak isteyen yenilikçi yapay zeka oyuncularına yönelik desteğe gelince, CNIL’in birkaç yıldır düzenleyici bir korumalı alanı var ve bu, yapay zeka şirketlerini ve çalışan yapay zeka sistemlerini geliştirmek için çalışan araştırmacıları teşvik ediyor. İletişime geçmek için kişisel veri koruma kuralları ile güzel ([email protected] aracılığıyla).



genel-24