Washington Post’un Perşembe günü bildirdiğine göre, ABD Federal Ticaret Komisyonu, ChatGPT’nin üreticisi OpenAI hakkında, kişisel itibarları ve verileri riske atarak tüketiciyi koruma yasalarına aykırı davrandığı iddiasıyla soruşturma başlattı.

Bildirilen hareket, üretken yapay zeka çılgınlığını başlatan, tüketicileri ve işletmeleri büyülerken potansiyel riskleri hakkında endişeleri artıran Microsoft destekli girişime yönelik en güçlü düzenleyici tehdidi işaret ediyor.

Post, bir belgeye atıfta bulunarak, FTC’nin bu hafta OpenAI’nin yapay zeka modelleriyle ilgili riskleri nasıl ele aldığına ilişkin kayıtlar için 20 sayfalık bir talep gönderdiğini söyledi. Gazete, ajansın şirketin tüketicilere “itibar zedelenmesi” ile sonuçlanan haksız veya aldatıcı uygulamalara girip girmediğini araştırdığını da sözlerine ekledi.

FTC ve OpenAI, Reuters’in yorum taleplerine hemen yanıt vermedi.

Daha güçlü yapay zeka hizmetleri geliştirme yarışı hızlanırken, toplumların ve işletmelerin çalışma şeklini alt üst edebilecek teknolojinin düzenleyici incelemesi de artıyor.

Reuters’in Mayıs ayında bildirdiğine göre, küresel düzenleyiciler, telif hakkı ve veri gizliliğinden iki temel konuya kadar her şeyi kapsayan mevcut kuralları uygulamayı hedefliyor: modellere beslenen veriler ve ürettikleri içerik.

Amerika Birleşik Devletleri’nde, Senato Çoğunluğu Chuck Schumer, AI üzerinde koruma sağlamak ve ilerlemek için “kapsamlı mevzuat” çağrısında bulundu ve bu yılın sonlarında bir dizi forum düzenleyecek.

OpenAI, Mart ayında, OpenAI’nin 2018’de yürürlüğe giren geniş kapsamlı bir gizlilik rejimi olan Avrupa Birliği’nin GDPR’sini ihlal ettiği suçlamaları nedeniyle düzenleyicinin ChatGPT’yi çevrimdışı duruma getirdiği İtalya’da da sorun yaşamıştı.

ChatGPT, daha sonra ABD şirketi yaş doğrulama özelliklerini yüklemeyi kabul ettikten ve Avrupalı ​​kullanıcıların bilgilerinin AI modelini eğitmek için kullanılmasını engellemesine izin verdikten sonra eski durumuna getirildi.

© Thomson Reuters 2023


Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8