ChatGPT yapımcısı OpenAI, içindeki ince baskıyı değiştirdi kullanım politikaları Yapay zeka teknolojisinin kullanımıyla ilgili belirli metinleri veya “askeri ve savaş” için büyük dil modellerini ortadan kaldırmak.

10 Ocak’ta değişiklik yapılmadan önce, kullanım politikası OpenAI modellerinin silah geliştirme, askeriye ve savaş için ve kendine zarar verme eylemlerini teşvik eden, teşvik eden veya tasvir eden içerikler için kullanılmasına özellikle izin verilmedi.

OpenAI, güncellenen politikaların listeyi özetlediğini ve belgeyi “hizmete özel rehberlik” sunarken daha “okunabilir” hale getirdiğini söyledi.

Liste artık şirketin Evrensel Politikalar olarak adlandırdığı şekilde yoğunlaştırıldı; bu politikalar, kimsenin hizmetlerini başkalarına zarar vermek için kullanmasına izin vermiyor ve modellerinden herhangi bir çıktının başkalarına zarar verecek şekilde yeniden tasarlanmasını veya dağıtılmasını yasaklıyor.

OpenAI sözcüsü, “Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, iletişim gözetlemek veya başkalarına zarar vermek veya mülkleri yok etmek için kullanılmasına izin vermiyor” dedi. “Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları var. Örneğin, kritik altyapının ve endüstrinin bağlı olduğu açık kaynaklı yazılımların güvenliğini sağlamak için yeni siber güvenlik araçlarının oluşturulmasını teşvik etmek amacıyla halihazırda DARPA ile çalışıyoruz. Önceki politikalarımızda bu faydalı kullanım durumlarına ‘askeri’ kapsamında izin verilip verilmeyeceği açık değildi. Dolayısıyla politika güncellememizin amacı netlik sağlamak ve bu tartışmaları yapabilme yeteneği sağlamaktır.”

Politikaların değişmesi şirketin kademeli olarak değişmesi olarak okunurken Savunmayla çalışmaya karşı duruşun zayıflaması veya askeriyeyle ilgili kuruluşlar için yapay zekanın oluşturduğu “sınır riskleri”, aralarında OpenAI CEO’su Sam Altman’ın da bulunduğu birçok uzman tarafından zaten vurgulanmıştır.

Yapay zekanın oluşturduğu riskleri vurgulamak

Geçen yıl mayıs ayında yüzlerce teknoloji endüstrisi lideri, akademisyen ve diğer tanınmış kişiler imza attı. açık bir mektup AI evriminin bir yok oluş olayına yol açabileceği konusunda uyarıda bulunarak, teknolojiyi kontrol etmenin en önemli küresel öncelik olması gerektiğini söyledi.

San Francisco merkezli şirket tarafından yayınlanan bildiride, “Yapay zeka nedeniyle yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi toplumsal ölçekteki diğer risklerin yanı sıra küresel bir öncelik olmalıdır” denildi. Yapay Zeka Güvenliği Merkezi.

İronik bir şekilde, mektubun üst kısmında yer alan en belirgin imzacılar arasında Altman ve Microsoft CTO’su Kevin Scott vardı. Google’ın yapay zeka araştırma laboratuvarındaki yöneticiler, mühendisler ve bilim insanları, Derin Düşünce mektuba da imza attı.

ilk harf Yapay zeka kullanımına karşı bir duyuru Mart ayında geldi ve 1.100’den fazla teknoloji lideri, lideri ve bilim insanı, yapay zeka ile büyük ölçekli deneyler yapan laboratuvarlara karşı bir uyarı yayınladı.

Ekim ayında OpenAI, şirketin sınır yapay zeka modelleri olarak adlandırdığı modellerin nükleer savaş ve diğer tehditleri başlatmasını önlemek için bir ekip hazırladığını söyledi.

“Şu anda mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin, tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz. Ancak aynı zamanda giderek daha ciddi riskler de yaratıyorlar” dedi. Blog yazısı.

2017 yılında bir Uluslararası yapay zeka ve robot bilimi uzmanları grubu, Birleşmiş Milletler’e açık bir mektup imzaladı “savaşta üçüncü devrimi” tehdit eden otonom silahların kullanımını durdurmak.

Bu uzmanlar arasında yine ironik bir şekilde, OpenAI ile rekabet etmek için X.AI adında bir yapay zeka şirketi kuran Elon Musk da vardı.

Endişe nedenleri

Daha fazla endişe duymak için nedenler olabilir. Bazı araştırmacılar, sözde “kötü” veya “kötü” yapay zeka modellerinin küçültülemeyeceğini veya mevcut tekniklerle “iyi” olacak şekilde eğitilemeyeceğini savunuyor.

A Araştırma kağıdıBir yapay zeka sistemine aldatıcı davranış veya strateji öğretilip öğretilemeyeceğini kontrol etmeyi amaçlayan Anthropic liderliğindeki araştırma, bu tür davranışların kalıcı hale getirilebileceğini gösterdi.

“Bu tür arka kapı davranışının kalıcı hale getirilebileceğini, böylece denetimli ince ayar, takviyeli öğrenme ve düşman eğitimi (güvensiz davranışın ortaya çıkarılması ve ardından bunu ortadan kaldırmak için eğitim) dahil olmak üzere standart güvenlik eğitimi teknikleriyle ortadan kaldırılmayacağını bulduk.” araştırmacılar yazdı.

“Sonuçlarımız, bir model aldatıcı davranış sergilediğinde, standart tekniklerin bu tür bir aldatmacayı ortadan kaldırmakta başarısız olabileceğini ve yanlış bir güvenlik izlenimi yaratabileceğini gösteriyor” diye eklediler.

Araştırmacılara göre daha da endişe verici olan şey, modellerin bu tür aldatıcı davranışlarını durdurmak için düşmanca eğitimin kullanılmasının, onlara arka kapı tetikleyicilerini daha iyi tanımayı öğreterek güvensiz davranışları etkili bir şekilde gizlemeyi öğretebilmesidir.

(Hikaye bir OpenAI sözcüsünün yorumlarıyla güncellendi.)

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13