Kuruluşların bugün karşı karşıya kaldığı siber saldırıların ölçeği, otonom sistemlerin siber güvenliğin kritik bir bileşeni haline geldiği anlamına geliyor. Bu bizi insan güvenlik ekipleri ile yapay zeka (AI) arasındaki ideal ilişkiyi sorgulamaya zorluyor: Bir AI programına ne düzeyde güven verilmelidir ve güvenlik ekipleri karar verme sürecine hangi noktada müdahale eder?

Siber güvenlikteki otonom sistemlerle, insan operatörler karar verme çıtasını yükseltiyor. Kendileri giderek daha zor hale gelen “mikro kararlar” vermek yerine, artık yapay zeka makinelerinin milyonlarca ayrıntılı mikro karar verirken uyması gereken kısıtlamaları ve yönergeleri belirliyorlar. Sonuç olarak, insanlar artık mikro düzeyde değil, makro düzeyde yönetiyor: Günlük görevleri daha yüksek düzeyde ve daha stratejik hale geliyor ve yalnızca girdi veya eylem için en önemli talepler için getiriliyorlar.

Peki insanlar ve yapay zeka arasındaki ilişki nasıl olacak? Aşağıda, dört senaryoyu inceliyoruz Harvard Business Review tarafından özetlenen insanlar ve makineler arasındaki çeşitli etkileşim olasılıklarını ortaya koyan ve bunun siber alemde nasıl görüneceğini keşfeden.

Döngüdeki İnsan (HitL)

Bu senaryoda, karar verme sürecini insan yürütür ve makine, anlama ve eyleme geçme süresini azaltmak için yalnızca eylem önerileri ve bu kararların arkasındaki bağlamı ve destekleyici kanıtları sağlar. o insan operatör için.

Bu yapılandırma altında, insan güvenlik ekibi, makinenin nasıl hareket edip etmediği konusunda tam bir özerkliğe sahiptir.

Bu yaklaşımın uzun vadede etkili olabilmesi için yeterli insan kaynağına ihtiyaç vardır. Genellikle bu, bir kuruluş için gerçekçi olanın çok ötesine geçer. Yine de teknolojiyi kavramaya başlayan kuruluşlar için bu aşama, yapay zeka otonom yanıt motoruna güven oluşturmada önemli bir basamak taşını temsil ediyor.

İstisnalar İçin Döngüdeki İnsan (HitLfE)

Bu modelde çoğu karar otonom olarak verilir ve insan yalnızca, yapay zekanın karar vermeden önce insandan bir miktar muhakeme veya girdi talep ettiği istisnaları ele alır.

İnsanlar, hangi istisnaların incelenmek üzere işaretleneceğini belirleme mantığını kontrol eder ve giderek daha çeşitli ve ısmarlama dijital sistemlerle, farklı ihtiyaçlar ve kullanım durumları için farklı özerklik seviyeleri ayarlanabilir.

Bu, olayların çoğunun yapay zeka destekli otonom yanıt tarafından otonom ve anında harekete geçirileceği, ancak kuruluşun özel durumlar için “döngüde” kaldığı ve bu özel durumların ne zaman ve nerede ortaya çıktığı konusunda esneklik olduğu anlamına gelir. Gerektiğinde müdahale edebilirler, ancak yapay zekanın önerdiği eylemi dikkatli bir inceleme olmaksızın geçersiz kılma veya reddetme konusunda temkinli kalmak isteyeceklerdir.

Döngüdeki İnsan (HotL)

Bu durumda, makine tüm eylemleri gerçekleştirir ve insan operatör, bu eylemlerin bağlamını anlamak için bu eylemlerin sonuçlarını gözden geçirebilir. Ortaya çıkan bir güvenlik olayı durumunda, bu düzenleme AI’nın bir saldırıyı kontrol altına almasına izin verirken, bir insan operatöre bir cihazın veya hesabın desteğe ihtiyacı olduğunu ve olayı düzeltmek için buraya getirildiklerini belirtir. Ek adli tıp çalışması gerekebilir ve uzlaşma birden fazla yerdeyse, yapay zeka yanıtını yükseltebilir veya genişletebilir.

Birçoğu için bu, en uygun güvenlik düzenlemesini temsil eder. Verilerin karmaşıklığı ve alınması gereken kararların ölçeği göz önüne alındığında, her olay ve her potansiyel güvenlik açığı için insanın döngüde olması (HitL) pratik değildir.

Bu düzenlemeyle, insanlar sistemin ne zaman, nerede ve hangi düzeyde hareket ettiği üzerinde tam kontrole sahip olur, ancak olaylar meydana geldiğinde bu milyonlarca mikro karar makineye bırakılır.

Döngüden Çıkan İnsan (HootL)

Bu modelde her kararı makine verir ve iyileştirme süreci Ayrıca otomatik bir kapalı döngü. Bu, yapay zekanın her bir bileşeninin bir sonrakini beslediği ve iyileştirerek optimum güvenlik durumunu yükselttiği, kendi kendini iyileştiren, kendi kendini geliştiren bir geri bildirim döngüsüyle sonuçlanır.

Bu, güvenlik için en üst düzey uygulamalı yaklaşımı temsil eder. İnsan güvenlik operatörlerinin, otonom sistemlerin bir “kara kutu” olmasını istemeleri pek olası değildir – tamamen bağımsız çalışan, güvenlik ekiplerinin aldığı eylemlere veya nedenlerine ilişkin genel bir bakışa sahip olma yeteneği bile olmadan. Bir insan sisteme asla müdahale etmek zorunda kalmayacağından emin olsa bile, yine de her zaman gözetim isteyecektir. Sonuç olarak, otonom sistemler zaman içinde geliştikçe, şeffaflığa yapılan vurgu önemli olacaktır. Bu, bir insan operatöre temel günlük dilde açıklamak için doğal dil işlemeyi kullanan açıklanabilir yapay zekada (XAI) son zamanlarda bir ilerlemeye yol açtı. Neden makine sahip olduğu eylemi gerçekleştirmiştir.

Bu dört modelin hepsinin kendine özgü kullanım durumları vardır; bu nedenle, bir şirketin güvenlik olgunluğu ne olursa olsun, CISO ve güvenlik ekibi, sistemin bu önerileri ve kararları, sistemin çok ötesine geçen mikro analize dayalı olarak verdiğini bilerek, sistemin önerilerinden yararlanırken kendilerine güvenebilirler. herhangi bir bireyin veya ekibin, sahip oldukları saatlerde bir insandan bekleyebileceği ölçekte. Bu şekilde, herhangi bir kullanım durumu veya iş ihtiyacı olan her tür ve büyüklükteki kuruluş, siber saldırıları otonom olarak tespit edip bunlara yanıt verirken ve neden oldukları kesintileri önlerken yapay zeka karar verme sürecini kendilerine uygun bir şekilde kullanabilecek.

yazar hakkında

Dan Fein

Darktrace’te Üründen Sorumlu Başkan Yardımcısı olan Dan Fein, müşterilerin Darktrace’in ürün paketini hızlı bir şekilde eksiksiz ve ayrıntılı bir şekilde anlamalarına yardımcı oldu. Dan, özellikle Darktrace e-postaya odaklanarak karmaşık dijital ortamlarda etkin bir şekilde dağıtılmasını sağlar ve geliştirme, pazarlama, satış ve teknik ekiplerle yakın işbirliği içinde çalışır. Dan, New York Üniversitesi’nden bilgisayar bilimi alanında lisans derecesine sahiptir.



siber-1