Kodlayıcılar ve programcılar için başvurulacak soru-cevap sitesi Stack Overflow, geçici olarak yasaklandı AI sohbet botu ChatGPT tarafından oluşturulan yanıtları paylaşan kullanıcılar.

Sitenin modları, yasağın geçici olduğunu ve nihai bir kararın, topluluğuyla istişare edildikten sonra gelecekte bir süre sonra verileceğini söyledi. Ancak, modların açıkladığı gibi, ChatGPT, kullanıcıların yanıtlar oluşturmasını ve siteyi ilk bakışta doğru görünen ancak yakından incelendiğinde genellikle yanlış olan yanıtlarla doldurmasını çok kolaylaştırır.

“Asıl sorun, […] ChatGPT’nin ürettiği yanıtların yanlış olma oranı yüksek.”

“Birincil sorun, ChatGPT’nin ürettiği yanıtların yüksek oranda yanlış olmasına rağmen, genellikle gibi görünmek onlar Might iyi ol ve cevaplar çok üretimi kolay, ”diye yazdı modlar (vurgu onlarınki). “Bu nedenle, azaltmak için bu gönderilerin hacmine ihtiyacımız var. […] Dolayısıyla, şimdilik, burada Stack Overflow’ta gönderiler oluşturmak için ChatGPT kullanımına izin verilmiyor. Bu geçici politika yayınlandıktan sonra bir kullanıcının ChatGPT kullandığına inanılırsa, gönderiler başka türlü kabul edilebilir olsa bile, kullanıcıların bu tür içerikleri göndermeye devam etmelerini engellemek için yaptırımlar uygulanacaktır.”

ChatGPT, OpenAI tarafından oluşturulan ve otomatik tamamlama metin oluşturucusu GPT-3.5’e dayanan deneysel bir sohbet robotudur. Bot için bir web demosu geçen hafta yayınlandı ve o zamandan beri web’deki kullanıcılar tarafından coşkuyla benimsendi. Botun arayüzü, insanları soru sormaya teşvik eder ve karşılığında çeşitli sorgularda etkileyici ve akıcı sonuçlar sunar; şiirler, şarkılar ve TV senaryoları oluşturmaktan önemsiz soruları yanıtlamaya ve kod satırları yazmaya ve hata ayıklamaya kadar.

Ancak birçok kullanıcı ChatGPT’nin yeteneklerinden etkilenirken, diğerleri onun makul ancak yanlış yanıtlar verme konusundaki ısrarlı eğilimini fark etti. Örneğin, bottan tanınmış bir kişinin biyografisini yazmasını isteyin; yanlış biyografik veriler tam bir güvenle. Belirli bir işlev için yazılımın nasıl programlanacağını açıklamasını isteyin ve benzer şekilde üretebilir. inanılır ama sonuçta yanlış kod.

ChatGPT gibi AI metin modelleri, metindeki istatistiksel düzenlilikleri arayarak öğrenir

Bu birkaç taneden biri iyi bilinen başarısızlıklar büyük dil modelleri veya LLM’ler olarak da bilinen yapay zeka metin oluşturma modelleri. Bu sistemler, web’den kazınmış devasa metin yığınlarındaki kalıpları analiz ederek eğitilir. Bu verilerde istatistiksel düzenlilikler ararlar ve bunları herhangi bir cümlede hangi kelimelerin gelmesi gerektiğini tahmin etmek için kullanırlar. Ancak bu, dünyadaki belirli sistemlerin nasıl çalıştığına dair sabit kodlanmış kurallara sahip olmadıkları anlamına gelir ve bu da onların “akıcı saçmalık” üretme eğilimlerine yol açar.

Bu sistemlerin büyük ölçeği göz önüne alındığında, çıktılarının yüzde kaçının yanlış olduğunu kesin olarak söylemek imkansızdır. Ancak Stack Overflow durumunda, şirket şimdilik kullanıcıları yanıltma riskinin çok yüksek olduğuna karar verdi.

Yığın Taşması’nın kararı özellikle dikkat çekicidir, çünkü AI topluluğundaki uzmanlar şu anda bu büyük dil modellerinin oluşturduğu potansiyel tehdidi tartışmaktadır. Facebook ana şirketi Meta’nın yapay zeka baş bilimcisi Yann LeCun, savunduÖrneğin, LLM’ler kesinlikle yanlış bilgi gibi kötü çıktılar üretebilse de, gerçek çıktıyı oluşturmazlar. paylaşım Bu metnin herhangi bir kolay, hangi zarar neden olur. Fakat diğerleri diyor bu sistemlerin uygun ölçekte ve ucuza metin üretme yeteneği, metnin daha sonra paylaşılma riskini zorunlu olarak artırır.

Bugüne kadar, LLM’lerin gerçek dünyada zararlı etkilerine dair çok az kanıt vardı. Ancak Stack Overflow’taki bu son olaylar, bu sistemlerin ölçeğinin gerçekten de yeni zorluklar yarattığı argümanını destekliyor. Sitenin modları, “bunların hacminin” olduğunu belirterek, ChatGPT yasağını duyururken aynı şeyi söylüyor. [AI-generated] cevaplar (binlerce) ve cevabın gerçekten kötü olduğunu belirlemek için cevapların genellikle en azından biraz konu uzmanlığına sahip biri tarafından ayrıntılı bir şekilde okunmasını gerektirmesi, gönüllülük temelli kaliteli küratörlük altyapımızı etkili bir şekilde batırdı.

Endişe, bu modelin, gerçek kullanıcıların seslerini makul ancak yanlış verilerle boğan bir AI içeriği seli ile diğer platformlarda tekrarlanabilmesidir. Bunun web’deki farklı alanlarda tam olarak nasıl gerçekleşebileceği, platformun tam doğasına ve moderasyon yeteneklerine bağlı olacaktır. Bu sorunların gelecekte iyileştirilmiş istenmeyen e-posta filtreleri gibi araçlar kullanılarak azaltılıp azaltılamayacağı görülecektir.

“Korkutucu kısım, ne kadar kendinden emin bir şekilde yanlış olduğuydu.”

Bu arada, sitenin kendi tartışma panolarında ve Hacker News gibi ilgili forumlarda Stack Overflow’un politika duyurusuna verilen yanıtlar, kullanıcıların Stack Overflow’un modlarının yapay zeka tarafından üretilen yanıtları ilk etapta tanımlamasının zor olabileceği uyarısını eklemesiyle, büyük ölçüde destekleyici oldu. .

Birçok kullanıcı, botu kullanarak kendi deneyimlerini anlattı. bir birey Hacker News’te, kodlama sorunlarıyla ilgili sorulara verilen yanıtların genellikle doğrudan çok yanlış olduğunu bulduklarını söylüyor. Kullanıcı, “Korkutucu kısım, ne kadar kendinden emin bir şekilde yanlış olduğuydu” dedi. “Metin çok iyi görünüyordu ama içinde büyük hatalar vardı.”

Diğerleri AI denetleme sorununu ChatGPT’nin kendisine devretti, bottan yasağı lehinde ve aleyhinde argümanlar üretmesini istemek. Bir yanıtta bot, Stack Overflow’un kendi modlarıyla tamamen aynı sonuca vardı: “Genel olarak, Stack Overflow’ta yapay zeka tarafından oluşturulan yanıtlara izin verilip verilmeyeceği, topluluk tarafından dikkatle değerlendirilmesi gereken karmaşık bir karardır.”





genel-2