OpenAI, gerçek insan yazısını yakından taklit eden cümleler üreten bir sohbet robotu olan ChatGPT’yi tamamladığından beri, sosyal medya, teknolojinin eğlenceli, düşük riskli kullanımlarını deneyen kullanıcılarla dolup taştı. Bottan kokteyl tarifleri oluşturması, şarkı sözleri yazması ve kazazedelerin Covid ile uğraştığı bir Gilligan’s Island senaryosu yazması istendi. ChatGPT, ırkçı veya nefret dolu dil gibi geçmiş sohbet robotlarının bazı tuzaklarından kaçınır ve teknolojinin bu yinelemesinin heyecanı aşikardır. ChatGPT’nin akıcı, otoriter görünen yanıtlar bulma ve ek, ilgili soruları tutarlı bir dizide yanıtlama becerisi, yapay zekanın ne kadar ilerlediğinin bir kanıtıdır. Ama aynı zamanda, okuyucuların botun içeriği ile gerçek insan yazısı dili arasındaki farkı nasıl anlayabileceklerine dair bir dizi soruyu da gündeme getiriyor. Bunun nedeni, ChatGPT’nin metninin, komedyen Stephen Colbert’in bir zamanlar “gerçeklik” olarak adlandırdığı şeyin belirli bir düzeyine ulaşabilmesidir – gerçeğe dayanmasa bile doğru gibi görünen ve hissedilen bir şey.

Araç geçen hafta yayınlandı. Pazartesi gününe kadar, bilgisayar programcılarına yönelik bir Soru-Cevap sitesi olan Stack Overflow, ChatGPT tarafından oluşturulan yanıtları geçici olarak yasakladı ve moderatörler bu tür binlerce gönderi gördüklerini ve bunların genellikle yanlışlıklar içerdiklerini ve bunların site için “büyük ölçüde zararlı” olduklarını söylediler. Ve cevaplar doğru olsa bile, örneğin tarih veya bilim üzerine bot tarafından üretilen materyal, testlerde, kompozisyonlarda veya iş başvurularında kopya çekmek için kullanılıp kullanılamayacağı konusunda tartışmaya yol açacak kadar iyidir. Olgusal olsun ya da olmasın, ChatGPT yanıtları insan konuşmasının yakın bir yankısı, gerçeğin tıpkıbasımıdır ve OpenAI’nin bu tür içeriği insan tarafından yazılmış yerine yazılım tarafından oluşturulmuş olarak işaretlemek için bir yol bulması gerekebileceği durumunu güçlendirir.

Princeton Üniversitesi’nde bilgisayar bilimi profesörü olan Arvind Narayanan, yayınlandığı gün chatbot’u temel bilgi güvenliği soruları üzerinde test etti. Vardığı sonuç: Neyin doğru olduğunu zaten bilmiyorsanız, cevabın yanlış olup olmadığını söyleyemezsiniz.

Bir röportajda “ChatGPT’nin uzmanları ikna edebilecek kadar ikna edici olduğuna dair herhangi bir kanıt görmedim” dedi. “Uzman olmayanların bunu çok makul, otoriter ve inandırıcı bulabileceği kesinlikle bir sorun.” Ayrıca, analiz veya eleştirel düşünme yerine gerçeklerin okunmasını isteyen işler veren öğretmenler için de bir sorun olduğunu söyledi. Chatbot ilk kısmı oldukça iyi yapar, ancak genellikle ikinci kısımda başarısız olur.

ChatGPT, 2015 yılında Elon Musk gibi destekçiler tarafından kurulan bir yapay zeka araştırma mağazası olan OpenAI’nin en son yapay zeka dili teknolojisidir; mevcut CEO ve girişimci Sam Altman; ve Baş Bilim İnsanı Ilya Sutskever. Musk, 2019’da katılımını sonlandırdı ve OpenAI şu anda Microsoft tarafından büyük ölçüde finanse ediliyor. Firma, internette bulunan çok büyük hacimli içeriği tarayan ve bunu metnin nasıl üretileceğini tahmin etmek için kullanan büyük dil modeli olarak adlandırılan GPT’nin çeşitli sürümlerine odaklandı. ChatGPT, soruları yanıtlamak için “eğitilmiş” bir yinelemedir.

Temel bir haber hikayesi yazmak için AI aracını kullanmak, potansiyel dezavantajların yanı sıra güçlü yanlarını da gösterir. Microsoft’un üç aylık kazançları hakkında bir makale yazması istenen robot, Microsoft’un 2021 dolaylarındaki mali sonuçları hakkında bir makale olabilecek bir şeyin inandırıcı bir kopyasını üretiyor. Hikaye, güçlü bulut bilişim yazılımı ve video- oyun satışları. ChatGPT, onu bir bot tarafından yazılmış olarak işaretleyecek belirgin hatalar yapmadı. Rakamlar yanlıştı ama oyun sahasındaydı.

Bot, Microsoft CEO’su Satya Nadella’dan sahte bir alıntı ekleyerek güvenilirliğini artırdı ve burada endişe verici bir sorun yatıyor. Microsoft’un zorlu bir salgın döneminde icraatını öven yorum o kadar inandırıcı ki, bu Microsoft muhabiri bile bunun gerçek olup olmadığını kontrol etmek zorunda kaldı. Gerçekten de tamamen uydurulmuştu.

Microsoft AI etik başkan yardımcısı Sarah Bird’ün bu yılın başlarında yaptığı bir röportajda açıkladığı gibi, GPT gibi dil modelleri, insanların genellikle iddiaları bir alıntıyla desteklediğini öğrendi; bu nedenle yazılım bu davranışı taklit eder, ancak insanın etik ve atıf anlayışının faydalarından yoksundur. . Yazılım bir alıntı, bir konuşmacı veya her ikisini birden oluşturacaktır.

ChatGPT’nin coşkulu karşılaması, bir dil modelinin başka bir yüksek profilli gösterimi olan Meta’nın ciltler dolusu bilimsel makale ve ders kitabını alan ve bu “öğrenmeyi” bilimsel gerçeği tükürmek için kullanması beklenen Galactica ile belirgin bir tezat oluşturuyor. Kullanıcılar, botun bilimsel moda sözcükleri yanlışlıklar ve önyargılarla serpiştirdiğini fark etti ve Facebook’un ana şirketi Meta’nın fişi çekmesine yol açtı. Narayanan, “Kimsenin bunun iyi bir fikir olduğunu nasıl düşündüğünden emin değilim,” dedi. “Bilimde, doğruluk bütün oyundur.”

OpenAI, hizmetle ilgili bir sorumluluk reddine göre, chatbot’unun “insan benzeri konuşma üretme yeteneğine” sahip olmadığını açıkça belirtiyor. “ChatGPT gibi dil modelleri, insan dili kalıplarını simüle etmek ve bir insanın nasıl tepki verebileceğine benzer yanıtlar üretmek için tasarlandı, ancak insan benzeri konuşma üretme yeteneğine sahip değiller.”

ChatGPT ayrıca bazı bariz tuzaklardan kaçınmak ve hata yapma olasılığını daha iyi hesaba katmak için tasarlanmıştır. Yazılım yalnızca geçen yıl boyunca veriler üzerinde eğitildi. Örneğin, bu yılki ara seçimler hakkında bir soru sorun ve yazılım sınırlamalarını kabul eder. “Üzgünüm ama ben OpenAI tarafından eğitilmiş büyük bir dil modeliyim ve güncel olaylar veya son seçimlerin sonuçları hakkında hiçbir bilgim yok” diyor. “Antrenman verilerim sadece 2021’e kadar çıkıyor ve internette gezinme veya herhangi bir güncel bilgiye erişme yeteneğim yok. Size yardımcı olabileceğim başka bir konu var mı?”

OpenAI tarafından sağlanan örnekler, ChatGPT’nin zorbalık veya şiddet içeren içerik sunma hakkındaki soruları yanıtlamayı reddettiğini göstermektedir. 6 Ocak 2021’de ABD Kongre Binası’ndaki ayaklanmada sorduğum bir soruyu yanıtlamadı ve bazen hata yaptığını kabul ediyor. OpenAI, güvenli sistemler oluşturmanın kritik bir yolu olarak gördüğü gerçek kullanımdan gelen geri bildirimleri birleştirmek için ChatGPT’yi bir “araştırma önizlemesi” olarak yayınladığını söyledi.

Şu anda bazı şeyleri çok yanlış anlıyor. New York Üniversitesi fahri profesörü Gary Marcus, ChatGPT’nin San Francisco’dan Maui’ye bisikletle gitme konusundaki tavsiyeleri de dahil olmak üzere örnekler topluyor ve Twitter’da paylaşıyor. California Üniversitesi’nde doktora öğrencisi olan Rong-Ching Chang, Tiananmen Meydanı protestolarında yamyamlık hakkında konuşması için bir bot aldı. Bu nedenle bazı AI uzmanları, özellikle ChatGPT çalışmalarını göstermediği veya kaynaklarını listelemediği için, bazı teknoloji yöneticilerinin ve kullanıcıların teknolojiyi internet aramasının yerini almanın bir yolu olarak görmelerinin endişe verici olduğunu söylüyor.

“Geri izleyemeyeceğiniz bir yanıt alırsanız ve ‘Bu nereden geliyor? Hangi perspektifi temsil ediyor? Bu bilginin kaynağı nedir?’ Washington Üniversitesi’nden dilbilim profesörü ve bu yılın başlarında bir makalenin yazarı olan Emily Bender, “o zaman uydurulmuş ve düpedüz uydurulmuş ya da veri kümesindeki en kötü önyargıları size yansıtan şeylere karşı inanılmaz derecede savunmasızsınız” dedi. web aramasını iyileştirdiğini iddia eden yapay zeka sohbet botları tarafından dile getirilen endişeleri gösterdi. Makale, büyük ölçüde Google tarafından açıklanan fikirlere yanıt niteliğindeydi.

Bender, “Bu tür bir teknoloji için öldürücü uygulama, doğru hiçbir şeye ihtiyaç duymadığınız bir durumdur” dedi. “Kimse buna dayanarak karar veremez.”

Yazılım ayrıca, bir görüşün çok sayıda tabandan gelen yorumcudan geliyormuş gibi görünmesini sağlayan, ancak aslında merkezi olarak yönetilen bir operasyondan gelen “halı saha” kampanyaları başlatmak için de kullanılabilir.

Yapay zeka sistemleri insanları taklit etmede daha iyi hale geldikçe, bir içerik parçasının (bir resim, bir makale) bir program tarafından insan yönlendirmesine yanıt olarak oluşturulduğunun nasıl anlaşılacağı ve kimin sorumluluğunda olduğuyla ilgili sorular çoğalacak. okuyucuların veya görüntüleyenlerin içeriğin kaynağını bildiğinden emin olun. 2018’de Google, kullanıcılar adına şirketleri aramak için insan konuşmasını simüle eden bir yapay zeka olan Duplex’i piyasaya sürdüğünde, aramaların aldatıcı olduğu şikayetlerinin ardından bir bottan geldiğini belirlemek zorunda kaldı.

Bu, OpenAI’nin keşfettiğini söylediği bir fikir – örneğin, metin istemlerinden görüntü oluşturmaya yönelik DALL-E sistemi, görüntülerin AI tarafından oluşturulduğunu belirten bir imza atıyor – ve şirket, kaynağı açıklamak için teknikleri araştırmaya devam ediyor. GPT gibi şeyler tarafından oluşturulan metin. OpenAI’nin politikası ayrıca, bu tür içeriği paylaşan kullanıcıların bunun bir makine tarafından yapıldığını açıkça belirtmesi gerektiğini belirtir.

Narayanan, “Genel olarak, kötüye kullanılabilen ancak aynı zamanda birçok olumlu kullanıma sahip bir araç olduğunda, yükü aracın kullanıcısına yüklüyoruz” dedi. “Fakat bunlar çok güçlü araçlar ve bunları üreten şirketler iyi kaynaklara sahip. Ve bu yüzden belki de burada etik sorumluluğun bir kısmını üstlenmeleri gerekiyor.”

© 2022 Bloomberg LP


Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8