Prestijli dergide bu hafta yayınlanan bir araştırmaya göre, OpenAI’nin artık popüler olan ChatGPT metin oluşturma programı bilimsel araştırmalarda birçok hatayı yayma yeteneğine sahip, bu nedenle işleyişi incelenebilecek açık kaynak alternatiflerine ihtiyaç var. Doğa.

University of Psychiatry, Amsterdam UMC’de doktora sonrası araştırmacı ve Psikolog olan baş yazar Eva AM van Dis, “Şu anda, neredeyse tüm konuşmalı AI teknolojileri, AI teknolojisi için kaynaklara sahip az sayıda büyük teknoloji şirketinin sahip olduğu ürünlerdir” diye yazıyor. Amsterdam, Hollanda

Bu programların yaydığı hatalar nedeniyle, “araştırma topluluğu için en acil sorunlardan biri şeffaflığın olmamasıdır” diye devam ediyorlar.

“Opaklığa karşı koymak için açık kaynaklı AI bir öncelik olmalıdır”

“Bu şeffaf olmayanlığa karşı koymak için, açık kaynaklı yapay zekanın geliştirilmesi bir öncelik olmalıdır.”

ChatGPT’yi geliştiren ve Microsoft tarafından finanse edilen San Francisco girişimi OpenAI, ChatGPT kaynak kodunu yayınlamadı. ChatGPT’den önce gelen üretici yapay zeka sınıfı olan Büyük Dil Modelleri, özellikle OpenAI’nin 2020’de tanıtılan GPT-3’ü de açık kaynak koduyla gelmiyor.

makalesinde Doğabaşlıklı”ChatGPT: beş araştırma önceliğiYazarlar, “uzman araştırmalar için konuşmalı yapay zeka kullanımının büyük olasılıkla yanlışlıklara, önyargılara ve intihale yol açması” gibi çok büyük bir tehlike olduğunu yazıyor ve “ChatGPT kullanan araştırmacıların yanlış veya önyargılı bilgilerle yanıltılma riskiyle karşı karşıya olduğunu” ekliyor. düşünce ve yazılarına dahil etmek.”

ChatGPT hatalarını nesneleştirmeye izin veren bir örnek

Yazarlar, ChatGPT’yi kullanma deneyimlerini psikiyatri “literatürünün kapsamlı bir şekilde anlaşılmasını gerektiren bir dizi soru” ile aktarıyorlar. ChatGPT’nin “genellikle yanlış ve yanıltıcı metinler ürettiğini” buldular.

“Örneğin, ‘kaç depresyon hastası tedaviden sonra nüks yaşıyor?’ diye sorduğumuzda, tedavi etkilerinin genellikle uzun süreli olduğunu, tedavinin etkilerinin azaldığını ve nüksetme riskinin ila Tedavinin bitiminden sonraki ilk yıl boyunca %29 ila %51.”

Ancak yazarlar, büyük dil modellerinin terk edilmesini savunmuyorlar. Bunun yerine, “odak noktasının risk yönetimi üzerinde olması gerektiğini” öne sürüyorlar.

“İnsanları döngüde” tutmak

“İnsanları döngüde” tutmanın birçok yolu da dahil olmak üzere, bu riskleri yönetmek için bir dizi önlem öneriyorlar. Özellikle, yayıncılar “konuşmaya dayalı AI kullanımına ilişkin farkındalığı artıran ve şeffaflık gerektiren açık politikalar benimsemelidir”.

Ancak bu yeterli değil, diyor van Dis. Büyük tescilli dil modellerinin çoğalması bir tehlikedir. “ChatGPT ve öncülleri için temel eğitim setleri ve LLM’ler halka açık değildir ve teknoloji şirketleri, konuşmalı yapay zekalarının iç işleyişini gizleyebilir.”

Bir alternatif olarak açık kaynağı teşvik etmek için özel sektör dışındaki kuruluşların önemli ölçüde çaba göstermesi gerekiyor:


Bu opaklığa karşı koymak için, açık kaynaklı AI teknolojilerinin geliştirilmesine ve uygulanmasına öncelik verilmelidir. Üniversiteler gibi ticari olmayan kuruluşlar, genellikle yapay zeka gelişiminin hızlı hızına ayak uyduracak BT ve finansal kaynaklardan yoksundur. Bu nedenle, üniversitelerin, STK’ların, Birleşmiş Milletler gibi kuruluşların – ve teknoloji devlerinin – bağımsız, kar amacı gütmeyen projelere büyük yatırımlar yapmasını savunuyoruz. Bu, açık kaynaklı, şeffaf ve demokratik olarak kontrol edilen AI teknolojilerinin geliştirilmesine yardımcı olacaktır.

Makalede sorulmayan bir soru, açık kaynaklı bir modelin yapay zekanın kötü şöhretli “kara kutu” sorununu çözüp çözemeyeceğidir. Derin sinir ağlarının (birçok ayarlanabilir parametre veya ağırlık katmanına sahip olanlar) tam olarak ne kadar çalıştığı, derin öğrenme uygulayıcıları için bile bir gizem olmaya devam ediyor. Bu nedenle, herhangi bir şeffaflık hedefinin, bir modeli ve onun veri kaynaklarını açarak ne öğrenileceğini belirtmesi gerekecektir.


Kaynak : “ZDNet.com”



genel-15