Yapay zeka uzmanları bunu sıklıkla tekrar eder: kullanım örnekleri, benimseme ve demokratikleşme için ilk kaldıraçlardır. Bu bağlamda ChatGPT, yapay zeka tekniklerinin erişilebilirliğine büyük ölçüde katkıda bulunmuştur.
Ancak bu çığır açan yenilikler, özellikle yasal ve etik olmak üzere riskleri veya suistimalleri de vurgulayabilir.
Yapay zeka ile ilgili konularda Fransa’daki yetkili merci, CNIL’in geride bırakılmaması niyetinde.
Düzenleyicinin yapay zeka konusundaki uzmanlığının güçlendirilmesi
Komisyon, yapay zekaya adanmış beş kişilik bir hizmetin oluşturulduğunu duyurdu. AIS. Yapay zeka stratejisinin eski ulusal koordinatörü Bertrand Pailhès tarafından yönetilen teknoloji ve inovasyon departmanına bağlı.
CNIL’in amacı, “AI ile ilgili Avrupa düzenlemesinin uygulanmasına giriş için hazırlanırken, bu sistemler üzerindeki uzmanlığını ve mahremiyet risklerine ilişkin anlayışını güçlendirmektir”.
SED’in misyonu aynı zamanda “ekosistemin aktörleri ile ilişkileri geliştirmek” ve profesyoneller ile bireylerin kültürleşmesini teşvik etmekten oluşacaktır. CNIL, sorunun sadece teknolojik olmadığını da hatırlatır.
ChatGPT gibi sistemler de hukuk sorularını gündeme getirir. Böylece SED, teknoloji ve inovasyon departmanına bağlı olmakla birlikte, “hukuki destek” ile de “yakın” işbirliği içinde olacaktır.
Performans riski gizler
“Şu andan itibaren ve yasal çerçevenin gelişmesini beklemeden, bu hizmetin oluşturulması, önemi her geçen gün artan sosyal bir soruna cevap veriyor”, güncel olaylara dikkat eden koruma makamının altını çiziyor.
Uzun vadeli iş için çok fazla. Bu sefer veritabanlarını öğrenmeye odaklanan daha kısa vadeli bir misyonla birleştirilmiştir. Bu yapay zekaları eğitmek için tasarımcıları genellikle büyük hacimli veriler kullanır.
ChatGPT, tıklama işçileriyle birlikte internette veri toplamanın kullanımıyla bunun bir örneğidir. CNIL, özellikle bir yapay zekayı hedeflemeden, “operasyonlarının büyük miktarda verinin işlenmesine dayandığını ve çoğu zaman kişisel olduğunu” hatırlatır.
Sonuç olarak, “uygulanmaları bu nedenle mahremiyet için riskler içerir”. CNIL, özellikle açıklanabilirlik açısından, belirli düzenleyici gerekliliklerle uyumsuz olan kara kutu modunda çalışmayı önlemek istemektedir.
2023’te öğrenme temellerine ilişkin öneriler
SIA’nın oluşturulmasına ek olarak, Komisyon bu nedenle öğrenme veritabanları üzerinde çalışmaya başlıyor. CNIL, kamu ve özel kuruluşların kendisine eğitim üslerinin oluşturulmasıyla ilgili belirli kullanımların yasallığını sorduğunu bildirir.
“Bu nedenle gelecekteki çalışmaların amacı, CNIL’in bu noktadaki konumunu açıklığa kavuşturmak ve GDPR tarafından belirlenen gereklilikler kapsamında ve aynı zamanda şu anda Avrupa düzeyinde tartışılan yapay zekaya ilişkin önerilen düzenleme perspektifinde iyi uygulamaları teşvik etmektir. »
Öğrenmeye dayalı proje, bu tür varlıkların “bireylerin temel hak ve özgürlüklerine saygı duyarak” yaratılması veya kullanılması açısından “somut tepkilere” yol açmalıdır. CNIL tavsiyeleri yayınlanacak ve ardından halkın görüşüne sunulacaktır.