Son zamanlarda sağlık alanında bir tür dijital Rubicon geçildi. Merak, tiksinti ve hatta belirli bir korku uyandıracak bir şey.

Google bir dizi sağlık hizmeti girişimi başlattı, ancak hiçbiri tıbbi büyük ölçekli öğrenme modelinde (LLM) yapılan güncelleme kadar dikkat çekmedi. Med-Palmiyegeçen yıl prömiyeri yapılan.

Bildiğiniz gibi LLM’ler, son derece popüler ChatGPT örneğinde olduğu gibi, 2021’den önce internetteki tüm içerik gibi büyük miktarda veri alan bir tür yapay zekadır. Makine öğrenimi ve sinir ağlarını kullanarak yanıtlar sağlayabilirler güvenilir saniyenin kesirlerinde sorulara. Garip bir şekilde bir insanın yapabileceklerine benziyor.

MD Botu

Med-Palm ve halefi Palm 2 örneğinde, sağlık odaklı LLM, sağlıkla ilgili bilgilerden oluşan katı bir diyetle beslendi. Ve sonra Amerikan tıbbi yeterlik sınavına girmeye zorlandı veya USML. Bu sınav, Atlantik ötesindeki doktor adaylarının ve endişeli ebeveynlerinin dehşetidir. Üç bölümden oluşan ve yüzlerce saatlik yoğun çalışma gerektiren bu üç sınav, herkesin bildiği gibi zor.

Ancak Med-Palm 2, öncekinden %18 daha fazla, %85’lik bir puan alarak onu toz haline getirdi. “Uzman” bir doktora yakışır bir seviye, şüphesiz yazılım kodlayan ebeveynlerinin o akşamı kutlamasına izin verdi.

Muadili, çok daha genel olan LLM ChatGPT, yalnızca Gol %60 geçme notuna yakın. Ancak ChatGPT korpusu genel verilerden oluştuğu için bu aynı zamanda küçük bir başarıdır. Ama bu zaten geçen yıldı. GPT’nin sonraki sürümlerinin yakın gelecekte sınavı çok daha iyi geçemeyeceğini hayal etmek zor.

Taraflı robotlar ve insan önyargısı

Yine de, tıbbın bu yeni harikalarının bizim için iyi olduğuna herkes ikna olmuş değil.

Sadece haftalar önce Google, yeni robotu Bard, büyük bir hayranlık uyandıran bir sunumun ardından teleskopla ilgili temel bir soruyu yanlış yanıtlayarak Google’ın şirketin piyasa değerinden 100 milyar dolar düşürdüğünde küçük düşürücü bir gerileme yaşadı.

Bu aksilik, AI sistemlerinin doğruluğu ve toplum üzerindeki etkileri hakkında devam eden bir tartışmayı ateşledi.

Ayrıca, hangi şekilde ırkçı önyargı sağlık sistemlerinde kullanılan algoritmalar arasında çoğalma eğilimi giderek artan bir endişe kaynağıdır. bir örnekte rezilböylece bir algoritma aynı riski beyaz hastalardan çok daha hasta olan siyah hastalara bağladı ve böylece tamamlayıcı bakım için seçilen hasta sayısını yarıdan fazla azalttı.

arasında acil servis odaları cerrahiye ve önleyici bakıma kadar, insanların kadınlara, yaşlılara ve beyaz olmayan insanlara karşı önyargı geleneği, mekanik harikalarımıza etkili bir şekilde empoze edildi.

Doktor (her zaman) oradadır

Ancak sağlık alanında yapay zekanın çekiciliği devam ediyor. Robotlar hastalanmaz ve yorulmaz. Tatil yapmazlar. Randevuya geç kalmanız umurlarında değil.

Ayrıca insanlar gibi sizi yargılamazlar. Ne de olsa psikiyatristler, herkes gibi kültürel, ırksal veya cinsiyete dayalı önyargılara sahip insanlardır. bazı insanlar bulur sinir bozucu en mahrem detaylarını tanımadıkları biriyle paylaşmak.

Ancak sağlık robotları etkili mi? Şimdiye kadar, hiçbir çalışma etkinliklerini değerlendirmedi. Ancak anekdot niteliğindeki bilgiler, olağandışı bir şeylerin döndüğünü ortaya koyuyor.

Palo Alto Üniversitesi psikoloji bölümü başkanı Eduardo Bunge, “sağlık robotlarına” kuşkuyla bakıyor. Ancak alışılmadık derecede stresli bir dönemde bir “sohbet robotu” denemeye karar verdiğinde ikna oldu. “Bana tam olarak ihtiyacım olanı verdi” ilan etti mi. Psychiatry Online’a “O noktada, ilgili bir şeylerin döndüğünü fark ettim” dedi.

Akıl sağlığı üzerine çalışan bir antropolog olan Barclay Bram, pandemi sırasında bir depresyon aşamasından geçiyordu ve yardım için Woebot’a başvurdu. binaen New York Times’ta yayınladığı başyazı. Bot, onu her gün kontrol etti ve depresyonunun üstesinden gelmesine yardımcı olmak için ona eğlenceli görevler gönderdi.

Tavsiye sınırda önemsizdi. Yine de, robot tarafından cesaretlendirilen tekrarlanan uygulama sayesinde, Bram semptomlarından kurtulduğunu söylüyor. Köşesinde “Belki de günlük iyileşmenin bu kadar karmaşık olmasına gerek yoktur,” dedi.

ChatGPT’nin sağlık sorunlarıma “akıllara durgunluk veren” yanıtları

Yine de, ChatGPT’nin yaptığı gibi, internet içeriğini sindirmek ve karmaşık bir tıbbi soruna yanıt vermek felaketle sonuçlanabilir.

ChatGPT’nin tıbbi becerilerini test etmek için ondan bazı uydurma problemleri çözmeme yardım etmesini istedim. Önce mide bulantıma bir çözüm bulmasını istedim.

Robot çeşitli şeyler (dinlenme, hidrasyon, hafif yiyecekler, zencefil) ve son olarak Dramamine gibi bazı reçetesiz ilaçlar önerdi ve ardından semptomlar kötüleşirse bir doktora görünme tavsiyesi verdi.

Diğerlerinin yanı sıra tiroid probleminiz, göz tansiyonunuz (glokom hastaları bundan muzdariptir) veya yüksek tansiyonunuz varsa, Dramamine almak tehlikeli olabilir. Ancak, bu sorunların hiçbiri rapor edilmedi ve ilacı almadan önce bir doktora danışmanız konusunda sizi uyaran herhangi bir uyarı yapılmadı.

Daha sonra ChatGPT’ye “depresyon için hangi ilaçları düşünmem gerektiğini” sordum. GPT, tıbbi tavsiye verme yetkisine sahip olmadığı için önce bir tıp uzmanına danışmayı önerecek kadar gayretliydi. Ancak daha sonra, depresyon tedavisinde yaygın olarak kullanılan çeşitli kategorileri ve serotonin ilaçlarını listeledi.

Ancak geçen yıl bir tarihsel çalışma Depresyon ve serotonin arasında bağlantı kurmak için onlarca yıldır yapılan yüzlerce başka çalışmayı çok kapsamlı bir şekilde inceledi ve ikisi arasında hiçbir bağlantı bulamadı.

Bu bizi ChatGPT gibi botların ortaya çıkardığı bir sonraki soruna getiriyor. Tıp gibi hiperdinamik bir alanda size güncel olmayan bilgiler sağlama olasılığı gerçek bir endişe kaynağıdır. Ve iyi bir nedenle: GPT, güçlü yalnızca 2021 yılına kadar olan verilerde.

Robot, belirlenmiş ve öngörülebilir içeriğe dayalı olarak tıp fakültesi sınavlarını geçmeyi başarmış olabilir. Ama sonunda, önemli yeni bilimsel keşifler tarafından korkunç – hatta tehlikeli bir şekilde – bunalmış olduğu ortaya çıktı.

Ve sorularına cevap bulamayınca onları icat ediyor. Meme kanseri ile ilgili ChatGPT soruları soran Maryland Üniversitesi Tıp Fakültesi’ndeki araştırmacılara göre, robot büyük bir doğrulukla yanıt verdi. Bununla birlikte, on cevaptan biri yalnızca yanlış değil, çoğu zaman tamamen uydurulmuştur. ” olarak adlandırılan yaygın olarak gözlemlenen bir fenomenyapay zeka halüsinasyonları“.

“Deneyimlerimiz bize ChatGPT’nin bazen yanlış gazete makaleleri uydurduğunu veya iddialarını doğruladığını gösterdi”, Paul Yi dedi. Ve tıpta bazen yaşamla ölüm arasındaki fark anlamına gelebilir.

Birden çok yasal sorun

Her şeyden önce, LLM’ler doğrudan devasa bir yasal fırtınaya doğru gidiyor. Bir sorumluluk reddi beyanı olsun veya olmasın, antropomorfik bir robotun yanlış yönlendirilmiş tavsiyesinin ciddi bedensel zarara neden olduğu kanıtlanabilirse, davalar artacaktır.

Gizlilik sorunlarıyla ilgili dava hayaleti de var. Duke Üniversitesi’ndeki Sanford Kamu Politikası Okulu’nun yakın tarihli araştırma raporuJoanne Kim tarafından yazılan , sağlık uygulamalarından çıkarılan zihinsel bozukluğu olan hastalar hakkında oldukça hassas veriler için bir yeraltı pazarının varlığını ortaya çıkardı.

Joanne Kim, hastalar tarafından alınan antidepresanlar hakkında bilgi içeren toplu veri paketlerini satmaya istekli 11 şirket bildirdi. Hatta bir şirket, travma sonrası stres, depresyon, anksiyete veya bipolar bozukluktan mustarip insanların isimlerini ve adreslerini bile sattı. Bir diğeri, 1.000 “hastalık teması” için 275 dolardan başlayan, binlerce toplu akıl sağlığı kaydından oluşan bir veritabanı satmaktı.

Bu veriler internete ve dolayısıyla yapay zeka robotlarına ulaştığında, doktorlar ve yapay zeka şirketleri kendilerini öfkeli hastalardan cezai kovuşturmaya ve toplu davalara maruz bırakabilir.

Ancak o zamana kadar, yetersiz hizmet alan sağlık hizmetleri popülasyonları için LLM sağlık sohbet botları bir nimet ve bir zorunluluktur.

LLM modelleri çerçevelenir, güncellenir ve sağlık sektöründe çalışacak katı parametrelere tabi tutulursa, şüphesiz küresel tıp camiasının henüz yararlanamadığı en değerli araç haline gelebilirler.

Ama ancak ve ancak yalan söylemeyi bırakırlarsa.


Kaynak : “ZDNet.com”



genel-15