Kanada’daki bir sivil mahkeme, şirketlerin yapay zeka (AI) araçlarını daha iyi eğitmesi ve izlemesi gerektiğini vurgulayarak Air Canada’ya müşteri hizmetleri sohbet robotunun yaptığı bir hatanın bedelini ödemesini emretti.

British Columbia’da ikamet eden Jake Moffatt, büyükannesinin Ontario’daki cenazesi için uçuş rezervasyonu yapmak üzere Kasım 2022’de Air Canada’nın web sitesini ziyaret etti. Web sitesinin chatbotu, 90 gün içinde indirime başvurması halinde ertesi gün biletinin ve dönüş biletinin bir kısmının kendisine iade edilebileceğini söyledi.

Bu bilgi yanlıştı; Air Canada’nın web sitesinde yer alan politikası, müşterinin önceden başvurması halinde vefat indirimi sağlamaktır. Air Canada’nın indirimi sağlamayı reddetmesinin ardından Kanada’daki bir mahkeme, havayolunun ölüm iadesi ve mahkeme masrafları olarak yaklaşık 600 dolar ödemesine karar verdi; bu, Moffatt’ın biletler için ödediği tutarın yaklaşık yarısı kadardı.

Gartner’da yapay zekaya odaklanan seçkin bir başkan yardımcısı analisti olan Avivah Litan, sohbet robotlarını ve diğer üretken yapay zeka (genAI) araçlarını kullanan şirketlerin “chatbot üretkenliği kazanımlarından tasarruf etmek için” izleme çabalarına yatırım yapması gerektiğini söyledi. “Aksi takdirde, üretkenlik kazanımlarından kazandıklarından daha fazlasını yasal ücretler ve cezalara harcayacaklar.”

Air Canada davasında, Britanya Kolumbiyası Sivil Çözüm Mahkemesi üyesi Christopher Rivers, Moffatt’ın yanında yer aldı ve havayolunun, chatbotun “kendi eylemlerinden sorumlu olan ayrı bir tüzel kişilik” olduğu yönündeki iddiasını reddetti.

Rivers, 14 Şubat tarihli kararında Air Canada’nın web sitesindeki vefat indirimlerine ilişkin bilgilerin neden chatbot tarafından sağlananlardan daha güvenilir olduğunu açıklayamadığını yazdı. “Air Canada’nın Bay Moffatt’a özen borcu vardı” diye ekledi. “Genel olarak, geçerli özen standardı, bir şirketin beyanlarının doğru olduğundan ve yanıltıcı olmadığından emin olmak için makul özen göstermesini gerektirir.”

Yapay zeka pazarına odaklanan üç analist, sohbet robotları ve diğer yapay zeka araçlarını kullanan şirketlerin çıktılarını kontrol etmesi gerektiği konusunda hemfikir. Litan, genAI cevaplarının yaklaşık %30’unun kurgusal olduğunu ve bunun “halüsinasyon” olarak adlandırıldığını söyledi.

“Chatbot kullanan şirketler, halüsinasyonlar, yanlış ve yasa dışı bilgiler gibi çıktı anormalliklerini vurgulayan korkuluklar kullanmalı ve bu çıktıları yayılmadan önce araştıran, engelleyen veya onaylayan insan inceleme operasyonları kurmalıdır” dedi. “Özellikle müşteriye yönelik uygulamalarda çıktıların doğru olmasını ve müşterileri veya sohbet robotunu yöneten kuruluşu yanlış yola yönlendirmemelerini sağlamalılar.”

GenAI sohbet robotlarının, onları kullanan şirketler güvenilirliğe, güvenliğe ve güvenlik kontrollerine yatırım yapmadıkça müşteri hizmetleri etkileşimlerine hazır olmayacağını savundu. Chatbot kullanan şirketlerin, anormallik tespit araçlarıyla vurgulanan beklenmedik yanıtları manuel olarak incelemek için yeni operasyonlar kurması gerekiyor.

IDC’de bilgi keşfi ve konuşmaya dayalı yapay zeka araştırma müdürü Hayley Sutherland, sohbet robotlarının yanlış bilgi sağladığı vakaların, şirketlerin sorumlu yapay zekaya odaklanma ihtiyacını vurguladığını söyledi. Şirketlerin kullandıkları yapay zeka araçlarını test etmeye ve eğitmeye yatırım yapmaları gerektiğini önerdi.

“Hangi format veya kullanıcı arayüzü olursa olsun [AI is] Teslim edildiğinde şirketler müşterilere sağladıkları bilgilerden sorumlu tutulma eğilimindedir, bu nedenle dikkatli ilerlemek akıllıca olacaktır” dedi.

Sutherland, sohbet robotlarını ve diğer yapay zeka araçlarını inceleyen şirketlerin, doğrudan müşteri hizmetlerine geçmek yerine bunları öncelikle çalışanların bilgi yardımı gibi daha az hassas dahili durumlar için kullanmalarını önerdi.

Yapay zeka halüsinasyonlarının, yanlış bilgi sağlasalar bile kulağa makul gelebileceğini belirtti. Sutherland, sorunla mücadele etmek için “üretken yapay zeka sistemlerinin, sürekli testlerin yanı sıra eğitim aşamasında da chatbot çıktısını sınırlayan, temelleyen ve doğrulayan bir ‘döngüdeki insan’ ve diğer mekanizmaları içermesi gerektiğini” söyledi.

Forrester’ın başkan yardımcısı ve baş analisti David Truog, diğer bir sorunun da mevcut sohbet robotlarının yalnızca birkaç basit görevi yerine getirebilmesi olduğunu söyledi. “Maalesef, chatbotları kullanan şirketler genellikle botların etkinliğine aşırı güveniyorlar” dedi. “Etkili bir bot yaratmanın karmaşıklığını hafife alıyorlar; en sık ve feci şekilde ihmal ettikleri şey, insan merkezli tasarım ve konuşma tasarımında çok ihtiyaç duyulan uzmanlıktır.”

Şirketlerin chatbotların özel bir yasal statü kazanmasını beklememesi gerektiğini söyledi.

Truog, “Chatbot’lar, tıpkı bir şirketin web sitesi veya uygulamasının geri kalanı gibi bir yazılımdır” dedi. “Ve kendi adına müşterileriyle etkileşimde bulunmak için yazılım dağıtan herhangi bir kuruluş, yazılımın yaptığı her şeyden sorumludur. Müşterilerin, insan dillerini kullandıkları için sohbet robotlarını bir şekilde antropomorfize etmesi yaygındır, ancak bu, şirketlerin, robotları yaramazlık yaptığında her türlü sorumluluktan ellerini yıkama noktasına kadar aynısını yapmaları için bir mazeret değildir.

Telif Hakkı © 2024 IDG Communications, Inc.



genel-13