Aktivistlerin ve ebeveynlerin incelemesi altında OpenAI, yapay zeka araçlarının çocuklar tarafından kötüye kullanılmasını veya istismar edilmesini önlemenin yollarını araştırmak üzere yeni bir ekip kurdu.

OpenAI, kariyer sayfasındaki yeni iş ilanında ortaya çıkarır Şirketin, reşit olmayan kullanıcılarla ilgili “süreçleri, olayları ve incelemeleri” yönetmek için OpenAI içindeki platform politikası, hukuk ve araştırma gruplarının yanı sıra dış ortaklarla birlikte çalıştığını söylediği bir Çocuk Güvenliği ekibinin varlığı.

Ekip şu anda OpenAI politikalarını yapay zeka tarafından oluşturulan içerik bağlamında uygulamaktan ve “hassas” (muhtemelen çocuklarla ilgili) içerikle ilgili inceleme süreçleri üzerinde çalışmaktan sorumlu olacak bir çocuk güvenliği uygulama uzmanını işe almak istiyor.

Belirli büyüklükteki teknoloji sağlayıcıları, çocukların web’de nelere erişip erişemeyeceklerinin yanı sıra ne tür veri şirketlerinin kontrol edilmesini zorunlu kılan ABD Çocukların Çevrimiçi Gizliliğini Koruma Kuralı gibi yasalara uymaya önemli miktarda kaynak ayırıyor. üzerlerinde toplayabilir. Dolayısıyla OpenAI’nin çocuk güvenliği uzmanlarını işe alması tam bir sürpriz değil, özellikle de şirketin bir gün reşit olmayan önemli bir kullanıcı tabanı beklediği düşünüldüğünde. (OpenAI’nin mevcut kullanım koşulları, 13 ila 18 yaş arası çocuklar için ebeveyn izni gerektirir ve 13 yaşın altındaki çocuklar için kullanımı yasaklar.)

Ancak OpenAI’nin çocuk dostu AI yönergeleri üzerinde işbirliği yapmak için Common Sense Media ile bir ortaklık yaptığını duyurmasından ve ilk eğitim müşterisini bulmasından birkaç hafta sonra gerçekleşen yeni ekibin oluşumu, OpenAI’nin yapay zeka ile ilgili politikalarla ters düşme konusunda da ihtiyatlı davrandığını gösteriyor. küçüklerin yapay zeka kullanımı ve olumsuz baskı.

Çocuklar ve gençler, yalnızca çeşitli konularda yardım almak için giderek daha fazla GenAI araçlarına yöneliyor. okul işi ama kişisel meseleler. Bir göre anket Demokrasi ve Teknoloji Merkezi’nden yapılan araştırmaya göre çocukların %29’u kaygı veya zihinsel sağlık sorunlarıyla başa çıkmak için ChatGPT’yi kullandığını, %22’si arkadaşlarıyla ilgili sorunlar için ve %16’sı aile çatışmaları için kullandığını bildiriyor.

Bazıları bunu büyüyen bir risk olarak görüyor.

Geçen yaz okullar ve kolejler, intihal ve yanlış bilgi korkusu nedeniyle ChatGPT’yi yasaklamak için harekete geçti. O zamandan beri bazıları tersine çevrilmiş onların yasakları. Ancak herkes GenAI’nin iyilik potansiyeline ikna olmuş değil. anketler Çocukların yarısından fazlasının (%53) kendi yaşlarındaki insanların GenAI’yı olumsuz yönde kullandığını gördüklerini bildiren Birleşik Krallık Güvenli İnternet Merkezi gibi; örneğin inandırıcı yanlış bilgiler veya birisini üzmek için kullanılan resimler oluşturmak.

Eylül ayında OpenAI, GenAI’yi bir öğretim aracı olarak kullanma konusunda eğitimcilere rehberlik sunmak için sınıflarda ChatGPT’ye yönelik istemler ve SSS içeren belgeler yayınladı. Bunlardan birinde destek makaleleriOpenAI, araçlarının, özellikle de ChatGPT’nin “her kitleye veya her yaşa uygun olmayan çıktılar üretebileceğini” kabul etti ve yaş gereksinimlerini karşılayanlar bile olsa, çocuklara maruz kalma konusunda “dikkatli olunması” tavsiyesinde bulundu.

Çocuklarda GenAI kullanımına ilişkin kılavuzlara yönelik çağrılar artıyor.

BM Eğitim, Bilim ve Kültür Örgütü (UNESCO) geçen yılın sonlarında itti Hükümetlerin, kullanıcılar için yaş sınırlarının uygulanması ve veri koruma ve kullanıcı mahremiyetine ilişkin korkulukların uygulanması da dahil olmak üzere GenAI’nin eğitimde kullanımını düzenlemesi için. UNESCO genel müdürü Audrey Azoulay bir basın açıklamasında, “Üretken yapay zeka insan gelişimi için muazzam bir fırsat olabilir, ancak aynı zamanda zarara ve önyargıya da neden olabilir” dedi. “Halkın katılımı ve hükümetlerin gerekli önlemleri ve düzenlemeleri olmadan eğitime entegre edilemez.”



genel-24