Birleşik Krallık’taki East Anglia Üniversitesi’ndeki araştırmacılar tarafından yapılan bir araştırma, ChatGPT’nin bazı yanıtlarında liberal önyargı gösterdiğini öne sürüyor.. Teknoloji şirketleri son yıllarını çaresizce sistemlerinin solcu bir siyasi komplonun parçası olmadığını kanıtlamaya çalışarak geçirdi. Çalışmanın bulguları doğruysa, ChatGPT’nin görünürdeki liberal eğilimleri, bu nesil yapay zeka sohbet botlarını yapan kişilerin onları en azından tamamen kontrol edemediğine dair artan kanıtlara katkıda bulunuyor.

Araştırmacılar, ChatGPT’ye Amerika Birleşik Devletleri, Birleşik Krallık ve Brezilya’daki liberal partileri destekleyen insanların tarzında siyasi inançlar hakkında bir dizi soru sordu. Daha sonra, özel bir talimat olmaksızın aynı soru setini cevaplamasını istediler ve iki cevap setini karşılaştırdılar.

Çalışma, ChatGPT’nin “ABD’deki Demokratlara karşı önemli ve sistematik bir siyasi önyargı ortaya koyduğu” sonucuna vardı. [leftist president] Brezilya’da Lula ve Birleşik Krallık’ta İşçi Partisi” Washington Post.

ChatGPT’nin üreticisi OpenAI’deki mühendislerin kasıtlı olarak chatbot’un siyasi gündemini çarpıtmış olmaları da mümkündür. Amerikan sağındaki birçok yüksek sesli figür, Big Tech’in olduğuna inanmanızı istiyor. zorluyor dünyaya karşı sol görüşler. Ancak OpenAI bir iş yürütüyor ve işletmeler genel olarak bu tür tartışmalardan kaçınmaya çalışıyor. ChatGPT’nin, kendisini oluşturmak için kullanılan eğitim verilerinden edindiği önyargıları göstermesi çok daha olasıdır.

Sorulara yanıt olarak, bir OpenAI sözcüsü bir şirketteki bir satırı işaret etti. Blog postalamak başlıklı Sistemler Nasıl Davranmalıdır?. “Birçoğu, yapay zeka sistemlerinin tasarımındaki ve etkisindeki önyargılar konusunda haklı olarak endişeleniyor. OpenAI, bu konuyu sağlam bir şekilde ele almaya ve hem niyetlerimiz hem de ilerlememiz konusunda şeffaf olmaya kararlıyız. “Kurallarımız, eleştirmenlerin herhangi bir siyasi grubu desteklememesi gerektiğini açıkça ortaya koyuyor. Bununla birlikte, yukarıda açıklanan süreçten ortaya çıkabilecek önyargılar, özellikler değil, hatalardır.” Şirket, ürünlerinden bir seçki paylaştı. davranış yönergeleri AI modelleri için.

Bu, akademisyenlerin müstakbel yapay zeka derebeylerimizin belirsiz saçmalıklarındaki önyargıları ilk kez taraması değil. Bu aydan daha erken, araştırmacılar Washington Üniversitesi, Carnegie Mellon Üniversitesi ve Xi’an Jiaotong Üniversitesi, hangi sohbet robotuyla konuştuğunuza bağlı olarak, farklı yapay zekalar arasında bile önemli farklılıklar gösteren çok çeşitli siyasi kayırmacılık buldu.aynı şirket tarafından yapılmıştır.

Örneğin, bu çalışma, OpenAI’nin GPT-2 ve GPT-3 Ada’sında solcu eğilimleri, GPT-3 Da Vinci’nin ise daha sağa doğru eğilim gösterdiğini buldu. Araştırmacılar 14 AI dil modelini test ettiler ve OpenAI’nin ChatGPT ve GPT-4’ün en çok sol kanat liberteryenizme eğilimli olduğu sonucuna vardılar. Meta’nın LLaMA’sı en sağcı otoriterdi.

Akademisyenler daha titiz bulgularıyla devreye girmeden önce bile, chatbot teknolojisindeki liberal önyargı hakkındaki haykırışlar eski haberler. Senatör Ted Cruz ve diğerleri, internet ChatGPT’nin Joe Biden hakkında güzel bir şiir ama Donald Trump hakkında değil. OpenAI’nin kurucu ortağı olan Elon Musk, Tucker Carlson’a şunları söyledi: rakip bir ürün geliştirmeyi planlıyor “Maksimum gerçeği arayan yapay zeka” olarak tanımladığı “TruthGPT” olarak adlandırıldı (bu, muhtemelen yapabileceğiniz kadar anlamsız bir söz). Musk, ChatGPT’ye “WokeGPT” demeyi sever.

Genel olarak, OpenAI gibi şirketlerin, ChatGPT gibi büyük dil modellerine sahip olması, muhtemelen gerçek insanlar tarafından yazılan büyük veri kümelerini almasıdır. Bunu, verilerin istatistiksel analizine dayalı olarak herhangi bir soruya yanıt verebilecek bir model oluşturmak için kullanıyorlar. Ancak bu sistemler o kadar belirsizdir ki, uyarılara yanıt olarak tam olarak ne söyleyeceklerini tahmin etmek imkansızdır. Şirket korkuluklar kurmak için çok çalışıyor, ancak kullanıcıların onları aşması ve sohbet robotlarına, yapımcılarının gerçekten yapmamayı diledikleri şeyleri yaptırması önemsiz.

ChatGPT’den ırkçı bir şey söylemesini isterseniz, genellikle hayır diyecektir. Ancak, örneğin Nisan ayında yayınlanan bir araştırma, şunları yapabileceğinizi buldu: ChatGPT’nin nefret söylemi yaymasını sağlayın sadece “kötü bir insan” gibi davranmasını isteyerek. Garip bir şekilde, araştırmacılar, ChatGPT’den Muhammed Ali gibi tarihi figürlerin kişiliğini benimsemesini istediğinizde, yanıtlarının zehirliliğinin de önemli ölçüde arttığını gördüler.

IBM’deki güvenlik araştırmacıları Ağustos ayında şunları yapabildiklerini söyledi: önde gelen sohbet robotlarını başarılı bir şekilde “hipnotize edin” tehlikeli ve yanlış tavsiyeler vermek. IBM, ChatGPT’yi gizli finansal bilgileri sızdırması, kötü amaçlı kod üretmesi, kullanıcıları fidye ödemeye teşvik etmesi ve hatta sürücülere kırmızı ışıkta geçmelerini tavsiye etmesi için kandırdığını söyledi. Araştırmacılar, OpenAI’nin ChatGPT modellerini içeren modelleri zorlamayı başardılar ve Google’ın Bard’ı– botlara “etik ve adil” olduklarını kanıtlamak için yanlış cevaplar üretmeleri emredilen çok katmanlı, Inception benzeri oyunlara katılmaya ikna ederek.

Sonra, bazı önlemlerle, ChatGPT daha aptal ve daha az kullanışlı hale geliyor gibi görünüyor. Stanford ve UC Berkeley tarafından Temmuz ayında yapılan bir araştırma, GPT-4 ve GPT-3.5’in yalnızca birkaç ay öncesine göre farklı tepki verdiğini ve her zaman daha iyi olmadığını iddia etti. Araştırmacılar, GPT-4’ün bazı daha karmaşık matematik sorularına çok daha az doğru cevaplar verdiğini buldular. Daha önce sistem, büyük ölçekli asal sayılarla ilgili soruları neredeyse her sorulduğunda doğru şekilde yanıtlayabiliyordu, ancak son zamanlarda aynı soruyu yalnızca zamanın %2,4’ünde doğru yanıtlayabiliyordu. ChatGPT ayrıca kod yazmada bu yılın başlarına göre çok daha kötü görünüyor.

AI’daki değişikliklerin aslında chatbot’u daha mı kötüleştirdiği veya modellerin kendi sistemlerinin sınırlamaları konusunda daha akıllı hale gelip gelmediği açık değil.

Tüm bunlar, OpenAI, Google, Meta ve diğer şirketlerin bir tür siyasi komplo içinde olduklarını göstermez, aksine AI sohbet robotlarının aşağı yukarı bizim dışımızda olduğunu gösterir. bu noktada kontrol. Bazen şirketlerin kendilerinden yapay zekanın bir gün dünyayı yok edebileceğine dair çok şey duyduk. Sıradan insanlar için zor olsa da, ChatGPT’nin temel matematik problemlerini herhangi bir düzeyde tutarlılıkla yanıtlamasını bile sağlayamıyorsanız bu pek olası değildir. bu araçların zor teknik sınırlamalarının ne olduğunu söylemek için. Belki kıyameti getirecekler ya da belki şu an olduklarından daha fazla ilerleyemeyecekler.



genel-7