ChatGPT yapımcısı OpenAI, içindeki ince baskıyı değiştirdi kullanım politikaları Yapay zeka teknolojisinin kullanımıyla ilgili belirli metinleri veya “askeri ve savaş” için büyük dil modellerini ortadan kaldırmak.

10 Ocak’ta değişiklik yapılmadan önce, kullanım politikası OpenAI modellerinin silah geliştirme, askeriye ve savaş için ve kendine zarar verme eylemlerini teşvik eden, teşvik eden veya tasvir eden içerikler için kullanılmasına özellikle izin verilmedi.

OpenAI, güncellenen politikaların listeyi özetlediğini ve belgeyi “hizmete özel rehberlik” sunarken daha “okunabilir” hale getirdiğini söyledi.

Liste artık şirketin Evrensel Politikalar olarak adlandırdığı şekilde yoğunlaştırıldı; bu politikalar, kimsenin hizmetlerini başkalarına zarar vermek için kullanmasına izin vermiyor ve modellerinden herhangi bir çıktının başkalarına zarar verecek şekilde yeniden tasarlanmasını veya dağıtılmasını yasaklıyor.

Politikaların değişmesi şirketin kademeli olarak değişmesi olarak okunurken Savunmayla çalışmaya karşı duruşun zayıflaması veya askeriyeyle ilgili kuruluşlar için yapay zekanın oluşturduğu “sınır riskleri”, aralarında OpenAI CEO’su Sam Altman’ın da bulunduğu birçok uzman tarafından zaten vurgulanmıştır.

Yapay zekanın oluşturduğu riskleri vurgulamak

Geçen yıl mayıs ayında yüzlerce teknoloji endüstrisi lideri, akademisyen ve diğer tanınmış kişiler imza attı. açık bir mektup AI evriminin bir yok oluş olayına yol açabileceği konusunda uyarıda bulunarak, teknolojiyi kontrol etmenin en önemli küresel öncelik olması gerektiğini söyledi.

San Francisco merkezli şirket tarafından yayınlanan bildiride, “Yapay zeka nedeniyle yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi toplumsal ölçekteki diğer risklerin yanı sıra küresel bir öncelik olmalıdır” denildi. Yapay Zeka Güvenliği Merkezi.

İronik bir şekilde, mektubun üst kısmında yer alan en belirgin imzacılar arasında Altman ve Microsoft CTO’su Kevin Scott vardı. Google’ın yapay zeka araştırma laboratuvarındaki yöneticiler, mühendisler ve bilim insanları, Derin Düşünce mektuba da imza attı.

ilk harf Yapay zeka kullanımına karşı bir duyuru Mart ayında geldi ve 1.100’den fazla teknoloji lideri, lideri ve bilim insanı, yapay zeka ile büyük ölçekli deneyler yapan laboratuvarlara karşı bir uyarı yayınladı.

Ekim ayında OpenAI, şirketin sınır yapay zeka modelleri olarak adlandırdığı modellerin nükleer savaş ve diğer tehditleri başlatmasını önlemek için bir ekip hazırladığını söyledi.

“Şu anda mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin, tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz. Ancak aynı zamanda giderek daha ciddi riskler de yaratıyorlar” dedi. Blog yazısı.

2017 yılında bir Uluslararası yapay zeka ve robot bilimi uzmanları grubu, Birleşmiş Milletler’e açık bir mektup imzaladı “savaşta üçüncü devrimi” tehdit eden otonom silahların kullanımını durdurmak.

Bu uzmanlar arasında yine ironik bir şekilde, OpenAI ile rekabet etmek için X.AI adında bir yapay zeka şirketi kuran Elon Musk da vardı.

Endişe nedenleri

Daha fazla endişe duymak için nedenler olabilir. Bazı araştırmacılar, sözde “kötü” veya “kötü” yapay zeka modellerinin küçültülemeyeceğini veya mevcut tekniklerle “iyi” olacak şekilde eğitilemeyeceğini savunuyor.

A Araştırma kağıdıBir yapay zeka sistemine aldatıcı davranış veya strateji öğretilip öğretilemeyeceğini kontrol etmeyi amaçlayan Anthropic liderliğindeki araştırma, bu tür davranışların kalıcı hale getirilebileceğini gösterdi.

“Bu tür arka kapı davranışının kalıcı hale getirilebileceğini, böylece denetimli ince ayar, takviyeli öğrenme ve düşman eğitimi (güvensiz davranışın ortaya çıkarılması ve ardından bunu ortadan kaldırmak için eğitim) dahil olmak üzere standart güvenlik eğitimi teknikleriyle ortadan kaldırılmayacağını bulduk.” araştırmacılar yazdı.

“Sonuçlarımız, bir model aldatıcı davranış sergilediğinde, standart tekniklerin bu tür bir aldatmacayı ortadan kaldırmakta başarısız olabileceğini ve yanlış bir güvenlik izlenimi yaratabileceğini gösteriyor” diye eklediler.

Araştırmacılara göre daha da endişe verici olan şey, modellerin bu tür aldatıcı davranışlarını durdurmak için düşmanca eğitimin kullanılmasının, onlara arka kapı tetikleyicilerini daha iyi tanımayı öğreterek güvensiz davranışları etkili bir şekilde gizlemeyi öğretebilmesidir.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-12