Gelişmekte olan yapay zeka (AI) araçlarındaki önyargıya ilişkin endişeler, yakın zamanda milyarder Elon Musk, OpenAI’nin Microsoft destekli ChatGPT ve Google’ın Bard teknolojilerine alternatif olarak “maksimum gerçeği arayan bir AI” yaratma planlarından bahsettiğinde yeni bir hava aldı.
Fox News’den Tucker Carlson ile bu ayın başlarında yaptığı bir röportajda Musk, ChatGPT’nin diğer şeylerin yanı sıra yalan söylemek ve politik olarak doğru olmak için eğitilmiş olarak tanımladığı şeyle ilgili endişelerini dile getirdi. Sözde “TruthGPT”yi, “insanları yok etme” olasılığı düşük olan ve diğer üretken yapay zeka araçlarına kıyasla “güvenliğe giden en iyi yolu” sunacak üçüncü bir seçenek olarak tanımladı.
Musk, planladığı sohbet robotu için herhangi bir zaman çizelgesi sunmadı. Ancak X.AI adında yeni bir yapay zeka şirketi kurmuş durumda ve bildirildiğine göre ChatGPT yaratıcısı OpenAI’nin yanı sıra Google ve ana şirketi Alphabet’ten yapay zeka personeli almaya başladı.
Bu arada, elbette, AI önyargısı da siber güvenlik riskini etkiler.
Tanıdık Bir Endişeyi Ortaya Çıkarma
Musk’ın Carlson’a yaptığı yorumlar, kendisinin ve diğer yüzlerce teknoloji liderinin, etikçinin ve akademisyenin Mart ayında yapay zeka şirketlerine açık bir mektupta ifade ettikleri bazı duyguları tekrarladı. Mektup, AI araştırma ve geliştirmeye dahil olan kuruluşları çalışmalarını en az altı ay süreyle durdurmaya çağırdı, böylece politika yapıcılar teknolojinin kullanımına bazı korkuluklar koyma fırsatı buldu. Musk ve diğerleri, argümanlarını ortaya koyarken, önyargılı yapay zeka araçlarının “bilgi kanallarımızı propaganda ve yalan” ana endişelerinden biri olarak.
Uluslararası Gizlilik Profesyonelleri Birliği’nde (IAPP) veri stratejisti ve bilim adamı olan Suzanna Hicks, yapay zeka ve makine öğrenimindeki önyargıyla ilgili temel sorunun, bunun insan karar verme sürecinden kaynaklanması olduğunu söylüyor. Tüm AI modelleri, son derece büyük veri kümelerinden öğrenir ve belirli şekillerde yanıt vermek için açıkça programlanmamıştır. Tipik olarak önyargı, insanların modele girmeyi seçtiği verilerde olur.
Hicks, “Modele önyargılı veriler girilirse, çıktı da büyük olasılıkla önyargı içerecektir” diyor. “Önyargı, veri ihmali yoluyla veya veri bilimcileri tarafından veri öğesinin ne olduğundan başka bir şey için vekil olarak bir değişken seçerek de tanıtılabilir” diyor. Örnek olarak, Hicks, pozitif bir gösterge için proxy olarak bir kullanıcının Netflix’e göz atarken yaptığı “tıklama” sayısını alabilen bir makine öğrenimi algoritmasına işaret ediyor. “Açıklamalarını okumak ve beğenmediğime karar vermek için filmlere tıklıyor olabilirim, ancak model, tıklamayı ‘beğenme’nin bir göstergesi olarak yanlış yorumlayabilir” diyor.
Benzer şekilde, kredi uygunluğunu belirlemek için yapay zeka kullanan bir borç verme hizmeti, posta kodu yapay zeka aracının öğrenme modelindeki veri kümesinin bir parçasıysa, yüksek suç oranı olan bir posta kodundaki kişilere orantısız şekilde yüksek sayıda kredi vermeyi reddedebilir. Hicks, “Bu durumda, posta kodu insan davranışı için bir vekil olarak kullanılıyor ve bunu yapmak taraflı bir sonuç üretiyor” diyor.
Coalfire’ın başkan yardımcısı Andrew Barratt, kendi metinden görüntüye oluşturma aracı testinin, ortaya çıkan yapay zeka teknolojilerinde var olan önyargının bir örneğini sağladığını söylüyor. Araçtan güneşin tadını çıkaran mutlu bir adamın fotogerçekçi bir görüntüsünü oluşturmasını istediğinde, araç yalnızca Kafkas cilt tonları ve özellikleri oluşturdu, ancak sağladığı girdi ırksal bağlam içermiyordu. İleriye dönük bir endişenin, teknolojilerinden para kazanmak isteyen yapay zeka platformlarının sağlayıcılarının, modellerine reklamverenler veya platform sağlayıcıları için uygun bir şekilde önyargı getirebilecekleri olduğunu söylüyor.
Zimperium’da ürün stratejisinden sorumlu başkan yardımcısı Krishna Vishnubhotla, bir hizmetten para kazandığınızda, genellikle bu hizmetin daha fazla gelişmesiyle para kazanma potansiyelini en üst düzeye çıkarmak istersiniz, diyor. Genellikle bu evrim orijinal hedeflerden veya evrim yolundan sapmaya başlayabilir – Musk’ın Carlson ile yaptığı röportajda ChatGPT hakkında dile getirdiği bir endişe. Vishnubhotla, “Elon’un bahsettiği konu burada yatıyor” diyor.
Yapay Zekada Siber Güvenlik Önyargısı
Musk ve diğerleri, yapay zeka yanlılığının siber güvenlik üzerindeki etkilerine özellikle değinmese de, bu bir süredir gündemde olan bir konu ve ChatGPT çağında tekrar gözden geçirmeye değer. Eski bir IBM ve Microsoft yöneticisi olan ve şimdi bir risk sermayesi fonuna sahip olan Aarti Borkar’ın 2019’da Fast Company için çığır açan bir sütunda belirttiği gibi, AI birincil güvenlik aracı haline gelirken, önyargı bir risk biçimidir.
“AI modelleri yanlış güvenlik varsayımlarına veya bilinçsiz önyargılara dayandığında, bir şirketin güvenlik duruşunu tehdit etmekten fazlasını yapar.” Borkar yazdı. “Güvenlik dışı faktörlere dayalı olarak zararsız veya kötü niyetli ağ trafiğini nitelendirecek şekilde ayarlanan yapay zeka, tehditleri gözden kaçırarak bir kuruluşun ağına girmelerine olanak sağlayabilir. Ayrıca, iş açısından kritik olabilecek iletişimleri engelleyerek ağ trafiğini aşırı bloke edebilir.”
ChatGPT’nin heyecanla siber güvenlik ürünlerine dahil edilmesiyle, hatalı gizli önyargı riski, yanlış pozitiflere, gizliliğin kötüye kullanılmasına ve açık boşlukları olan siber savunmaya daha da fazla katkıda bulunabilir. Üstelik siber suçlular, güvenlik sonuçlarını etkilemek için yapay zekayı da zehirleyebilir.
“Yapay zeka, görünüşte nesnel olan ancak aslında iyi gizlenmiş önyargılı bilgi veya çarpık bir bakış açısı sağlamak için saldırıya uğrar ve manipüle edilirse, o zaman yapay zeka tehlikeli bir makine haline gelebilir.” Harvard İş İncelemesi.
Dolayısıyla soru, gerçekten tamamen tarafsız yapay zekanın olup olmayacağı ve oraya ulaşmak için ne gerektiği haline geliyor.
AI’da Önyargıyı Ortadan Kaldırma
Hicks, veri yanlılığını ortadan kaldırmanın ilk adımının yapay zeka ve makine öğrenimindeki potansiyelini anlamak olduğunu söylüyor. Bu, bir modele nasıl ve hangi veri değişkenlerinin dahil edildiğini anlamak anlamına gelir.
Sinir ağları ve karar ağaçları gibi pek çok sözde “kara kutu” modeli, kalıpları bağımsız olarak öğrenmek ve veri kümelerine dayalı kararlar almak için tasarlanmıştır. Kullanıcının ve hatta geliştiricinin belirli bir sonuca nasıl varmış olabileceğini tam olarak anlamasını gerektirmiyorlar, diyor.
Hicks, “Yapay zeka ve makine öğrenimi, büyük miktarda veriyi işleyebildiği ve çok doğru sonuçlar üretebildiği için kara kutu modellerine büyük ölçüde güveniyor.” “Ancak bunların tam olarak kara kutular olduğunu hatırlamak önemlidir ve sağlanan sonuca nasıl ulaştıklarına dair hiçbir fikrimiz yok.”
yazarları bir Dünya Ekonomik Forumu Geçen Ekim ayındaki blog yazısı, paydaşların şeffaf bir şekilde işbirliği yaptığı açık kaynak veri biliminin (OSDS) yapay zekadaki önyargıya karşı koymanın bir yolu olabileceğini savundu. Yazarlar, tıpkı açık kaynaklı yazılımın yazılımı dönüştürdüğü gibi, OSDS’nin de AI araçlarının kullandığı verileri ve modelleri açabileceğini söyledi. Veri ve yapay zeka modelleri açık olduğunda, veri bilimcileri “hataları ve verimsizlikleri belirleme ve farklı kullanım durumları için çeşitli ölçümlere öncelik veren alternatif modeller oluşturma” fırsatına sahip olacaklarını yazdılar.
AB’nin Önerilen Yapay Zeka Risk Sınıflandırma Yolu
Avrupa Birliği’nin önerdiği Yapay Zeka Yasası başka bir yaklaşım izliyor. Yapay zeka araçlarının sağlığa, güvenliğe ve bireyin temel haklarına sundukları risk düzeyine göre sınıflandırıldığı bir yapay zeka sınıflandırma sistemi gerektirir. Gerçek zamanlı biyometrik kimlik sistemleri gibi kabul edilemeyecek kadar yüksek risk sunan yapay zeka teknolojileri, yasak olurdu. Video oyunları ve istenmeyen e-posta filtreleri gibi sınırlı veya minimum risk teşkil ettiği düşünülenler, bazı temel gözetimlere tabi olacaktır. Otonom araçlar gibi yüksek riskli yapay zeka projeleri, sıkı test gereksinimlerine tabi olacak ve belirli veri kalitesi standartlarına uygunluğun kanıtını gösterecektir. ChatGPT gibi üretken AI araçları da bu gereksinimlerin bazılarına tabi olacaktır.
NIST Yaklaşımı
ABD’de, Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) şunları tavsiye etmiştir: paydaşlar kapsamı genişletiyor AI’da önyargı kaynakları ararken nereye baktıkları. NIST, konuyla ilgili özel bir yayında, makine öğrenimi süreçlerine ve AI araçlarının eğitiminde kullanılan verilere ek olarak, endüstrinin toplumsal ve insani faktörleri de dikkate alması gerektiğini söyledi. Yapay zekadaki yanlılığı belirlemek ve yönetmek için standartlara duyulan ihtiyaç.
NIST, “Önyargı, yapay zeka için ne yeni ne de benzersizdir ve bir yapay zeka sisteminde sıfır yanlılık riski elde etmek mümkün değildir.” Riskin bir kısmını azaltmak için NIST, “önyargıyı belirleme, anlama, ölçme, yönetme ve azaltma” için standartlar geliştirecek.