Avrupa tüketici koruma kurumları ChatGPT'yi soruşturmaya çağırdı, diğerleri

Lobi grubu, sohbet botları tarafından üretilen, doğru ve güvenilir görünen ancak genellikle gerçeklere dayalı olarak yanlış olan içeriğin tüketicileri yanıltabileceğini ve ayrıca aldatıcı reklamlara yol açabileceğini söyledi.

Avrupa Tüketici Örgütü (BEUC), ChatGPT ve diğer yapay zeka sohbet botları hakkındaki endişeler korosuna katılarak AB tüketici koruma kurumlarını teknolojiyi ve bireylere olası zararını araştırmaya çağırdı.

İnsanları taklit edebilen ve istemlere dayalı olarak metin ve resimler oluşturabilen Microsoft destekli Açık Yapay Zeka ChatGPT’nin artan popülaritesi, Alphabet’in Google’ı, Amazon’un bulut bölümü AWS ve Meta Platforms gibi diğerlerini benzer araçları duyurmaya teşvik etti.

32 ülkeden 46 tüketici kuruluşunun çatı grubu olan BEUC, endişelerini bu ayın başlarında tüketici güvenliği yetkilileri ağına (CSN ağı) ve tüketiciyi koruma yetkilileri ağına (CPC ağı) ayrı mektuplarla bildirdi.

Lobi grubu, sohbet robotları tarafından üretilen, doğru ve güvenilir görünen ancak genellikle gerçeklere dayalı olarak yanlış olan içeriğin tüketicileri yanıltabileceğini ve ayrıca aldatıcı reklamlara yol açabileceğini söyledi. Genç tüketicilerin ve çocukların bu tür risklere karşı daha savunmasız olduğunu söyledi.

BEUC Genel Müdür Yardımcısı Ursula Pachl, “BEUC bu nedenle, bu yapay zeka sistemlerinin tüketiciler için oluşturduğu riskleri acilen araştırmanızı, bunların tüketici pazarlarındaki varlıklarını belirlemenizi ve tüketicinin zarar görmesini önlemek için hangi düzeltici önlemlerin alınması gerektiğini keşfetmenizi istiyor.” CPC ağına ve Avrupa Komisyonu’na mektupta yazdı.

Grup ayrıca Tüketici Güvenliği Ağı’nı bu ürünlerin güvenlik risklerine ilişkin bir bilgi alışverişi ve soruşturma başlatmaya çağırdı.

Musk, diğerleri açık mektup yazar
Geçen ay, Elon Musk ve bir grup yapay zeka uzmanı ve endüstri yöneticisi, daha güçlü eğitim sistemlerine altı aylık bir ara verilmesi çağrısında bulundu. OpenAI‘ nin yeni piyasaya sürülen GPT-4 modeli, toplum ve insanlık için potansiyel risklere atıfta bulunarak açık bir mektupta söylediler.

Kâr amacı gütmeyen Future of Life Enstitüsü tarafından yayınlanan ve Musk, Stability AI CEO’su Emad Mostaque, Alphabet’e ait DeepMind araştırmacıları ve AI ağır topları Yoshua Bengio ve Stuart Russell dahil 1000’den fazla kişi tarafından imzalanan mektup, Bu tür tasarımlar için paylaşılan güvenlik protokolleri bağımsız uzmanlar tarafından geliştirilene, uygulanana ve denetlenene kadar gelişmiş yapay zeka geliştirmeye ara verin.

Mektupta, “Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir.”

Mektup ayrıca, insan-rekabetçi yapay zeka sistemlerinin ekonomik ve politik aksamalar şeklinde toplum ve uygarlığa yönelik potansiyel risklerini detaylandırdı ve geliştiricileri yönetişim ve düzenleyici makamlar konusunda politika yapıcılarla birlikte çalışmaya çağırdı.

FacebooktwitterLinkedin




genel-9