Bir robot terapistle konuşan bir kadının resmi

İllüstrasyon: ProStockStudio (Doğrulanmış)

bu AI sohbet botu ChatGPT pek çok şey yapabilir. Yapabilir tweet’lere cevap ver, bilim kurgu yazmakbu muhabiri planla aile Noelve Onun hatta planlanan avukat olarak hareket etmek mahkemede. Ama bir robot olabilir güvenli ve etkili ruh sağlığı desteği sağlıyor mu? Koko adlı bir şirket bunu öğrenmeye karar verdi. Ekim ayında yaklaşık 4.000 kullanıcısı için zihinsel sağlık desteği oluşturmaya yardımcı olmak için yapay zekayı kullanıyor. Koko değil, Twitter kullanıcıları sonuçlardan ve deneyin gerçekleşmiş olmasından memnun değildi..

“Açıkçası, bu gelecek olacak. İnsanlarla etkileşime girdiğimizi düşüneceğiz ve işin içinde bir yapay zeka olup olmadığını bilemeyeceğiz. Bu insandan insana iletişimi nasıl etkiler? Kendi akıl sağlığı sorunlarım var, bu yüzden bunun doğru yapıldığını gerçekten görmek istiyorum. Koko’nun kurucu ortağı Rob Morris, bir röportajda Gizmodo’ya söyledi.

Morris, gürültünün tamamen bir yanlış anlaşılma olduğunu söylüyor.

Bunu Twitter’da tartışmaya çalışmamalıydım” dedi.


Koko, insanların tavsiye istemesine ve destek itibaren diğer kullanıcılar. Kısa bir deneyde şirket, OpenAI’nin GPT-3’ü tarafından desteklenen “Koko Bot”u kullanarak kullanıcıların daha sonra düzenlenebilen, gönderilebilen veya reddedilebilen otomatik yanıtlar oluşturmasına izin verdi. Morris’e göre, test sırasında gönderilen 30.000 yapay zeka destekli mesaj, ezici bir çoğunlukla olumlu yanıt aldı, ancak şirket, “biraz kısır hissettirdiği” için birkaç gün sonra deneyi kapattı.

“GPT-3 ile etkileşime geçtiğinizde, bazı ipuçlarını almaya başlayabilirsiniz. Her şey gerçekten iyi yazılmış, ancak bir tür formülsel ve onu okuyabilir ve tamamen bir bot olduğunu ve hiçbir insan nüansının eklenmediğini anlayabilirsiniz, ”dedi Morris Gizmodo’ya. “Özellikle bu tür bir bağlamda, yazmanıza yardımcı olacak bir destek aracı olarak bu araca sahip olduğunuzda özgünlükle ilgili kaybolan bir şey var. Platformumuzda, daha insan eliyle yazılmış olduklarını hissedebildiğimde mesajlar bir şekilde daha iyi hissettirdi.”

Morris, test hakkında Twitter’da bir ileti dizisi yayınladı. zımni kullanıcılar, bakımlarına bir yapay zekanın dahil olduğunu anlamadı. O “İnsanlar mesajların bir makine tarafından birlikte oluşturulduğunu öğrendikten sonra işe yaramadı” diye tweet attı. Tweet, Twitter’da Koko’nun etik kuralları hakkında bir kargaşaya neden oldu. Araştırma.

Morris, “Yapay zeka tarafından oluşturulan (ve insanlar tarafından denetlenen) mesajlar, insanların kendi başlarına yazdıkları mesajlardan önemli ölçüde daha yüksek puan aldı.” tweet attı. “Yanıt süreleri %50 azalarak bir dakikanın çok altına indi.”

Morris, bu sözlerin bir yanlış anlaşılmaya neden olduğunu söyledi: Bu bağlamdaki “insanlar”, farkında olmayan kullanıcılar değil, kendisi ve ekibiydi. Koko kullanıcıları, mesajların bir bot tarafından birlikte yazıldığını biliyorlardı ve doğrudan AI ile sohbet etmiyorlardı, dedi.

Morris, “Oturma sürecinde açıklandı,” dedi. AI dahil olduğunda, yanıtlar mesajın “Koko Bot ile işbirliği içinde yazıldığına” dair bir sorumluluk reddi içeriyordu..

Bununla birlikte, deney, Koko’nun kullanıcıları ne kadar iyi bilgilendirdiğine dair şüpheler ve kanıtlanmamış bir teknolojiyi canlı bir sağlık hizmeti ortamında, hatta eşler arası bile olsa test etmenin riskleri dahil olmak üzere etik soruları gündeme getiriyor.

Akademik veya tıbbi bağlamlarda, insanlar üzerinde bilimsel veya tıbbi deneyler yapmak yasa dışıdır. Buna, test deneklerine katılmanın olası zararları ve yararları hakkında kapsamlı ayrıntılar sağlanması da dahildir. Gıda ve İlaç İdaresi, doktorların ve bilim adamlarının, herhangi bir test başlamadan önce güvenliği sağlamayı amaçlayan bir Kurumsal İnceleme Kurulu (IRB) aracılığıyla çalışmalar yürütmesini şart koşuyor.

Ancak özel şirketler tarafından sağlanan çevrimiçi akıl sağlığı hizmetlerindeki patlama, yasal ve etik bir gri alan yarattı. Resmi bir tıbbi ortamın dışında ruh sağlığı desteği sağlayan özel bir şirkette, temelde müşterilerinize istediğinizi yapabilirsiniz. Koko’nun deneyinin KİK onayına ihtiyacı veya onayı yoktu.

Bölümün direktörü John Torous, “Etik açıdan bakıldığında, teknolojiyi bir bakım standardı olarak kabul edilebilecek olanın dışında her kullandığınızda, son derece dikkatli olmak ve ne yaptığınızı gereğinden fazla açıklamak istersiniz” dedi. Boston’daki Beth Israel Deaconess Tıp Merkezi’nde dijital psikiyatri uzmanı. “Ruh sağlığı desteği arayan insanlar, özellikle acil servis veya akran hizmetleri ararken savunmasız bir durumdadır. Korumaktan kaçınmak istemediğimiz şey nüfus.”

Torous, akran ruh sağlığı desteğinin, insanlar uygun eğitimden geçtiğinde çok etkili olabileceğini söyledi. Torous, Koko gibi sistemlerin ruh sağlığı hizmetlerine gerçek faydaları olabilecek yeni bir yaklaşım benimsediğini, ancak kullanıcıların bu eğitimi almadığını ve bu hizmetlerin esasen test edilmediğini söyledi. ÖYapay zeka devreye girdiğinde, sorunlar daha da büyüyor.

“ChatGPT ile konuştuğunuzda size ‘lütfen bunu tıbbi tavsiye için kullanmayın’ diyor. Torous, sağlık hizmetlerinde kullanım için test edilmedi ve açıkça uygunsuz veya etkisiz tavsiyeler sağlayabilir” dedi.

Akademik araştırmayı çevreleyen normlar ve düzenlemeler yalnızca güvenliği sağlamaz. Aynı zamanda veri paylaşımı ve iletişim için standartlar belirlerler, bu da deneylerin birbirinin üzerine inşa edilmesini sağlar ve sürekli büyüyen bir bilgi birikimi yaratır. Torous, dijital akıl sağlığı endüstrisinde bu standartların genellikle göz ardı edildiğini söyledi. Başarısız deneyler genellikle yayınlanmaz ve şirketler araştırmaları konusunda temkinli davranabilir. Torous, bunun utanç verici olduğunu, çünkü akıl sağlığı uygulama şirketlerinin yürüttüğü müdahalelerin çoğunun yardımcı olabileceğini söyledi.

Morris, resmi KİK deneysel inceleme sürecinin dışında çalışmanın bir ödünleşim içerdiğini kabul etti. Morris, “Akademi dışındaki bu tür işlerin KİK süreçlerinden geçip geçmemesi önemli bir soru ve bunu Twitter’da tartışmaya çalışmamalıydım” dedi. “Bu, sektör içinde daha geniş bir tartışma olmalı ve bizim de parçası olmak istediğimiz bir tartışma olmalı.”

Tartışma ironik, dedi Morris, çünkü Dedi mümkün olduğunca şeffaf olmak istediği için ilk etapta Twitter’a gitti. “İnsanların bu konuda daha dikkatli düşünmelerine yardımcı olmak adına teknoloji ve ifşa konusunda gerçekten ileri görüşlü olmaya çalışıyorduk,” dedi. dedim.





genel-7