Yapay zeka, son birkaç yılda hızla gelişti ve güçlü ve yenilikçi bir araç olarak sonsuz kullanım durumları için endüstrilerde uygulanıyor. Ancak, büyük sorumluluk büyük güçle birlikte gelir. Yapay zeka ve makine öğrenimi (ML) sayesinde dolandırıcılık önleme artık daha doğru ve her zamankinden daha hızlı gelişiyor. Gerçek zamanlı puanlama teknolojisi, iş liderlerinin sahtekarlığı anında tespit etmelerini sağlar; bununla birlikte, AI ve ML güdümlü karar vermenin kullanımı şeffaflık endişelerini de beraberinde getirdi. Ayrıca, ML modelleri yüksek riskli ortamlarda ortaya çıktığında açıklanabilirlik ihtiyacı ortaya çıkar.

Makineler tarafından verilen önemli kararların sayısı arttıkça açıklanabilirlik ve yorumlanabilirlik daha da önem kazanıyor. “Yorumlanabilirlik, bir insanın bir kararın nedenini anlama derecesidir” dedi. teknoloji araştırmacısı Tim Miller. Bu nedenle, makine öğrenimi modellerinin gelişen yorumlanabilirliği çok önemlidir ve güvenilir otomatik çözümlere yol açar.

Geliştiriciler, tüketiciler ve liderler, dolandırıcılığı önleme karar verme sürecinin anlamı ve sürecinin farkında olmalıdır. Bir avuç parametreyi aşan herhangi bir ML modeli, çoğu insanın anlaması için karmaşıktır. Bununla birlikte, açıklanabilir AI araştırma topluluğu, yorumlama araçlarının geliştirilmesi nedeniyle kara kutu modellerinin artık kara kutu olmadığını defalarca belirtti. Bu tür araçların yardımıyla kullanıcılar, önemli kararlar veren ML modellerini anlayabilir ve onlara daha fazla güvenebilir.

Şeylerin ŞAPI
SHAP (SHapley Additive ExPlanations) günümüzde en çok kullanılan modelden bağımsız açıklama araçlarından biridir. Özelliklerin etkisini eşit olarak paylaşan ortak oyun teorisinden Shapley değerlerini hesaplar. Tablo verisine dayalı ve ağaç topluluğu yöntemlerini kullanan dolandırıcılıkla mücadele ederken, SHAP’ın TreeExplainer algoritması, polinom zamanında yerel açıklamalar. Bu, sinir ağı tabanlı açıklamalara kıyasla çok büyük bir gelişmedir, çünkü bu tür araçlarla yalnızca yaklaşımlar yapılabilir.

“Beyaz kutu” terimi ile dolandırıcılık puanını hesaplayan kural motorundan bahsediyoruz. Doğaları gereği, kara kutu ve beyaz kutu modelleri aynı sonuçları vermeyecektir çünkü kara kutu bize makinenin verilerden öğrendiklerine göre sonuçlar verir ve beyaz kutu önceden tanımlanmış kurallara göre puanlar verir. Bu tür tutarsızlıkları her iki tarafı da geliştirmek için kullanabiliriz. Örneğin, kara kutu modeli ile tespit edilen dolandırıcılık halkalarına göre kuralları ayarlayabiliyoruz.

Kara kutu modellerini SHAP ile birleştirmek, modelin genel davranışını anlamamızı sağlar ve modelin dolandırıcılık faaliyetlerini tespit etmek için kullandığı ana özellikleri ortaya çıkarır. Ayrıca modeldeki istenmeyen yanlılığı da ortaya çıkaracaktır. Örneğin, bir modelin belirli demografik özelliklere karşı ayrımcılık yapıyor olabileceğini ortaya çıkarabilir. Global model yorumlaması ile bu tür durumları tespit etmek ve haksız tahminlerin önüne geçmek mümkündür.

Ek olarak, model tarafından yapılan bireysel tahminleri anlamamıza yardımcı olur. ML modellerinin hata ayıklama sürecinde, veri bilimcileri her bir tahmini bağımsız olarak gözlemleyebilir ve oradan yorumlayabilir. Özellik katkısı, modelin ne yaptığı hakkında bize büyük bir sezgi sağlar ve daha fazla geliştirme için bu girdilerden harekete geçebiliriz. SHAP ile, son kullanıcılar sadece modelin temel özelliklerini elde etmekle kalmaz, aynı zamanda her bir özelliğin modelin çıktısına nasıl (hangi yönde) katkıda bulunduğu hakkında bilgi alır ve bu da dolandırıcılık olasılığını doğurur.

Güven Faktörü
Son olarak, SHAP yardımıyla başarılı bir modelde güven kazanılarak müşterilerden güven kazanılır. Genel olarak, bir ürüne olan inanç, ne yaptığını anlarsak daha yüksektir. İnsanlar anlamadıkları şeyleri sevmezler. Açıklayıcı araçların yardımıyla kara kutuya bakabilir, onu daha iyi anlayabilir ve ona güvenmeye başlayabiliriz. Ve modeli anlayarak onu sürekli iyileştirebiliriz.

SHAP ile gradyan artırmalı ML modellerine bir alternatif, InterpretML’nin (Microsoft’un AI çerçevesi) amiral gemisi olan ve “cam kutu” olarak adlandırılan bir model olan Açıklanabilir Güçlendirme Makinesi (EBM) olabilir. Cam kutu ismi, yapısı gereği doğası gereği yorumlanabilir olmasından gelmektedir. Buna göre orijinal belgeler, “EBM’ler genellikle son teknoloji kara kutu modelleri kadar doğrudur, ancak tamamen yorumlanabilir kalır. EBM’lerin eğitilmesi genellikle diğer modern algoritmalardan daha yavaş olsa da, EBM’ler tahmin zamanında son derece kompakt ve hızlıdır.” Yerel Yorumlanabilir Model-Agnostik Açıklamalar (LIME), kara kutu açıklanabilirliği için kullanılabilecek harika bir araçtır; ancak yapılandırılmamış veriler üzerinde çalışan modellerde daha popülerdir.

Bu araçlar ve şeffaf veri noktaları ile kuruluşlar, güvenle karar verebilir. Tüm paydaşlar, en iyi sonuçları elde etmek için araçlarının nasıl çalıştığını bilmelidir. Kara kutu ML’nin ve onunla birleşen çeşitli tekniklerin farkında olmak, kuruluşların iş hedeflerine ulaşmak için nasıl sonuç aldıklarını daha iyi anlamalarına yardımcı olabilir.



siber-1