Bristol Bilgisayar Bilimleri Okulu’ndan bilim insanları, yapay zeka modellerindeki halüsinasyon sorununu çözme ve kritik ulusal altyapılarda (CNI) anormallik tespit algoritmalarının güvenilirliğini artırma konusunda önemli ilerleme kaydetti.

Son gelişmeler, teknolojinin özellikle CNI için sensör ve makine verilerinde anormallik tespitindeki potansiyelini ortaya koydu. Ancak bu algoritmalar genellikle uzun eğitim süreleri gerektirir ve anormal bir durumdaki belirli bileşenleri tanımlamada zorluk çeker. Ek olarak, yapay zekanın karar verme süreçleri genellikle şeffaf değildir ve bu da güven ve hesap verebilirlik sorunlarına yol açar.

Bu sorunların üstesinden gelmek için araştırmacılar bir dizi verimlilik önlemi benimsemiştir. Ekip, daha iyi anormallik algılaması için, karşılaştırılabilir performans ölçümlerini korurken, önemli ölçüde daha kısa eğitim süreleri ve daha hızlı algılama yeteneklerine sahip iki ileri teknoloji algoritma kullandı. Bu algoritmalar, Singapur Teknoloji ve Tasarım Üniversitesi’ndeki Çevrimiçi Su Arıtma Test Ortamından (SWaT) alınan bir veri kümesi kullanılarak test edildi.

Şeffaflığı ve güveni artırmak için araştırmacılar açıklanabilir yapay zeka (XAI) modellerini anormallik dedektörleriyle entegre etti. Bu yaklaşım, modelin önerdiği kararların daha iyi yorumlanmasına olanak tanır ve insanların kritik kararlar vermeden önce önerileri anlamalarına ve test etmelerine olanak tanır. Farklı XAI modellerinin performansı da değerlendirilerek hangi modellerin insan anlayışını en iyi şekilde desteklediğine dair fikir sağlandı.


Kaynak: DALL-E

Çalışma, yapay zeka odaklı karar verme süreçlerinde insan kontrolünün önemini vurguluyor. Ekip, tavsiyeleri insanlara açıklayarak, modelin “tartışmasız bir kehanet” yerine bir karar destek aracı olarak hareket etmesini sağlamaya çalışıyor. Bu metodoloji, operatörlerin yapay zeka fikirlerine, politikalarına, kurallarına ve düzenlemelerine dayanarak nihai kararlar alması nedeniyle hesap verebilirliği sağlar.

Araştırmanın ortak yazarı Dr. Sarad Venugopalan şöyle açıkladı: “İnsanlar daha uzun bir süre boyunca tekrar yoluyla öğreniyor ve daha kısa saatlerde hata yapmadan çalışıyorlar. Bu nedenle bazı durumlarda aynı görevleri daha kısa sürede ve daha az hatayla gerçekleştirebilen modeller kullanıyoruz. Ancak siber ve fiziksel bileşenleri içeren bu otomasyon ve ardından otomasyonun neden olduğu bazı sorunları çözmek için yapay zekanın kullanılması, bir kara kutu olarak görülüyor. Bu zararlıdır çünkü alınan kararlar modelin kendisinin değil, tavsiyeleri kullanan personelin sorumluluğundadır. Çalışmamızda şeffaflığı ve güveni artırmak için açıklanabilir yapay zeka kullanıyoruz, böylece tavsiyeleri kullanan çalışanlar, karar verilmeden önce yapay zekanın neden tavsiyede bulunduğu konusunda bilgi sahibi oluyor.”

Dr. Adepu şunları ekledi: “Bu çalışma, WaXAI’nin açıklanabilir yapay zeka kullanarak endüstriyel sistemlerde anormallik tespitinde nasıl devrim yarattığını gösteriyor. Operatörler, XAI’yi entegre ederek, kritik altyapıdaki güvenlik olaylarını ele alırken net içgörüler ve daha fazla güven elde ediyor.”

Bu ilerlemeler yalnızca CNI’deki yapay zeka sistemlerinin verimliliğini ve güvenilirliğini artırmakla kalmıyor, aynı zamanda operatörlerin karar alma sürecinin ayrılmaz bir parçası olarak kalmasını sağlayarak genel hesap verebilirliği ve güveni artırıyor.



genel-22