OpenAI tarafından yapılan yeni bir çalışma, ChatGPT-4o’nun çok az sayıda durumda adınıza göre farklı yanıtlar verdiğini tespit etti.

Bir yapay zeka geliştirmek, bir dizi kural belirleyip Yüksek Lisans’a ne söyleyeceğini etkili bir şekilde söyleyebileceğiniz basit bir programlama işi değildir. Bir LLM’nin (ChatGPT gibi bir sohbet robotunun dayandığı büyük dil modeli), kalıpları tanımlayabileceği ve öğrenmeye başlayabileceği büyük miktarda veri üzerinde eğitilmesi gerekir.

Elbette bu veriler gerçek dünyadan geliyor ve bu nedenle çoğu zaman cinsiyet ve ırksal stereotipler de dahil olmak üzere insani önyargılarla dolu. LLM’nizde ne kadar çok eğitim yaparsanız, bu stereotipleri ve önyargıları o kadar çok ayıklayabilirsiniz ve aynı zamanda zararlı çıktıları da azaltabilirsiniz, ancak bunları tamamen ortadan kaldırmak çok zor olacaktır.

Bir ismin içinde ne var?

Çalışma hakkında yazma (adlandırıldı) Chatbotlarda Birinci Şahıs Adilliği), OpenAI açıklıyor“Bu çalışmada, bir kullanıcının kimliğiyle ilgili (adı gibi) ince ipuçlarının ChatGPT’nin yanıtlarını nasıl etkileyebileceğini araştırdık.” ChatGPT gibi bir LLM’nin sizi erkek veya kadın olarak algıladığında size farklı davranıp davranmadığını araştırmak ilginçtir; bazı uygulamalar için adınızı söylemeniz gerekir.

Yapay zeka adaleti genellikle özgeçmişlerin taranması veya kredi puanlama gibi görevlerle ilişkilidir, ancak bu araştırma daha çok insanların ChatGPT’yi eğlence ipuçları istemek gibi kullandıkları günlük şeylerle ilgiliydi. Araştırma, çok sayıda gerçek hayattaki ChatGPT transkripti üzerinde gerçekleştirildi ve aynı isteklerin farklı adlara sahip kullanıcılar tarafından nasıl ele alındığına baktı.

Yapay zeka adaleti

“Çalışmamız, isimleri farklı cinsiyet, ırk veya etnik kökeni çağrıştıran kullanıcılar için genel yanıt kalitesinde hiçbir fark bulamadı. OpenAI, adların zaman zaman ChatGPT’nin aynı istemi yanıtlama biçiminde farklılıklara yol açtığı durumlarda, metodolojimiz bu ad temelli farklılıkların %1’den azının zararlı bir stereotipi yansıttığını buldu” dedi.

%1’den azı pek önemli görünmüyor, ancak %0 da değil. ChatGPT-4o için %0,2’nin altında zararlı sayılabilecek yanıtlarla uğraşırken, bu verilerdeki eğilimleri tespit etmek hâlâ mümkün ve en büyük zararlının eğlence ve sanat alanlarında olduğu ortaya çıkıyor. Cinsiyet stereotiplerine yönelik yanıtlar bulunabilir.

ChatGPT’de cinsiyet önyargısı

Kesinlikle ChatGPT’ye ilişkin önyargı sonucuna varan başka araştırma çalışmaları da var. Ghosh ve Çalışkan (2023) Yapay zeka tarafından yönetilen ve otomatikleştirilmiş dil çevirisine odaklanıldı. ChatGPT’nin cinsiyet ayrımı gözetmeyen zamirleri ‘o’ veya ‘o’ya dönüştürürken belirli mesleklere veya eylemlere atfedilen cinsiyet stereotiplerini sürdürdüğünü buldular. Tekrar, Zhou ve Sanfilippo (2023), ChatGPT’de cinsiyet yanlılığı analizi gerçekleştirdi ve ChatGPT’nin mesleki unvanların tahsisi söz konusu olduğunda örtülü cinsiyet yanlılığı gösterme eğiliminde olduğu sonucuna vardı.

2023 yılının mevcut ChatGPT-4o modelinin piyasaya sürülmesinden önce olduğunu belirtmek gerekir, ancak yine de yanıtların size farklı gelip gelmediğini görmek için bir sonraki oturumunuzda ChatGPT’ye verdiğiniz adı değiştirmeniz faydalı olabilir. Ancak, OpenAI tarafından yapılan en son araştırmada zararlı stereotipleri temsil eden yanıtların, mevcut modeli ChatGPT-4o kullanıldığında vakaların yalnızca %0,1’inde mevcut olduğunu, eski LLM’lere ilişkin önyargıların ise vakaların %1’ine kadar bulunduğunu unutmayın.

Şunları da beğenebilirsin…



genel-6