TechCrunch, AI odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını ilgi odağı haline getirmek için, AI devrimine katkıda bulunan olağanüstü kadınlara odaklanan bir dizi röportaj başlatıyor. Yıl boyunca yapay zeka patlaması devam ettikçe, çoğu zaman fark edilmeyen önemli çalışmaları vurgulayan birkaç makale yayınlayacağız. Daha fazla profili buradan okuyun.

Heidy Khlaaf, siber güvenlik firması Trail of Bits’in mühendislik direktörüdür. Nükleer santraller ve otonom araçlar gibi “güvenlik açısından kritik” sistemlerdeki yazılım ve yapay zeka uygulamalarını değerlendirme konusunda uzmandır.

Khlaaf bilgisayar bilimi doktorasını aldı. University College London’dan mezun oldu ve lisans derecesini Florida Eyalet Üniversitesi’nden bilgisayar bilimi ve felsefe alanında aldı. Emniyet ve güvenlik denetimlerini yönetti, güvence vakaları hakkında istişarelerde bulundu ve incelemeler sağladı ve emniyet ve güvenlikle ilgili uygulamalara ve bunların geliştirilmesine yönelik standartların ve kılavuzların oluşturulmasına katkıda bulundu.

Soru-Cevap

Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?

Çok genç yaşta robot bilimine ilgi duydum ve en çok ihtiyaç duyulan yerlerde iş yüklerini otomatikleştirmek için robot bilimi ve yapay zekayı (açıklanamaz bir şekilde bağlantılı oldukları için) kullanma olasılıklarına hayran kaldığım için programlamaya 15 yaşında başladım. İmalatta olduğu gibi, robot teknolojisinin yaşlılara yardım etmek ve toplumumuzda tehlikeli el emeğini otomatikleştirmek için kullanıldığını gördüm. Ancak doktora derecemi aldım. bilgisayar biliminin farklı bir alt alanında çünkü bilgisayar biliminde güçlü bir teorik temele sahip olmanın, yapay zekanın nerede uygun olup olmayacağı ve tuzakların nerede olabileceği konusunda eğitimli ve bilimsel kararlar vermenize olanak sağladığına inanıyorum.

En çok hangi işten gurur duyuyorsunuz (AI alanında)?

Yeni yapay zeka “güvenlik” alanında ihtiyaç duyulan yerde bağlam ve eleştiri sağlamak için güvenlik mühendisliği ve güvenlik açısından kritik sistemlerdeki güçlü uzmanlığımı ve geçmişimi kullanıyorum. Yapay zeka güvenliği alanı, köklü güvenlik ve güvenlik tekniklerini uyarlamaya ve bunlardan alıntı yapmaya çalışsa da, çeşitli terminoloji, kullanımı ve anlamı açısından yanlış yorumlanmıştır. Yapay zeka topluluğunun halihazırda kullanmakta olduğu güvenlik tekniklerinin bütünlüğünü tehlikeye atan tutarlı veya kasıtlı tanımların eksikliği söz konusudur. Özellikle gurur duyuyorum “Kapsamlı Risk Değerlendirmelerine ve Yapay Zeka Tabanlı Sistemlerin Güvencesine Doğru” Ve “Kod Sentezi Büyük Dil Modelleri için Tehlike Analizi ÇerçevesiBurada güvenlik ve yapay zeka değerlendirmeleriyle ilgili yanlış anlatıları yıkıyorum ve yapay zeka içindeki güvenlik açığını kapatmaya yönelik somut adımlar sunuyorum.

Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?

Statükonun ne kadar az değiştiğinin kabul edilmesi sıklıkla tartıştığımız bir konu değil, ancak benim ve diğer teknik kadınların sektördeki konumumuzu anlamalarının ve gerekli değişiklikler konusunda gerçekçi bir görüşe sahip olmalarının aslında önemli olduğuna inanıyorum. Elde tutma oranları ve liderlik pozisyonlarında bulunan kadınların oranı, sahaya katıldığımdan beri büyük ölçüde aynı kaldı ve bu, on yılı aşkın bir süre önceydi. TechCrunch’ın da yerinde bir şekilde işaret ettiği gibi, yapay zeka alanındaki kadınların muazzam atılımlarına ve katkılarına rağmen, kendi tanımladığımız konuşmaların dışında kalıyoruz. Bu ilerleme eksikliğinin farkına varmak, teknik kadınlara yönelik önyargı ve şüpheciliğin hâlâ oldukça yaygın olduğu göz önüne alındığında, ne yazık ki iğneyi hareket ettiremeyen DEI girişimlerine güvenmek yerine güçlü bir kişisel topluluk oluşturmanın bir destek kaynağı olarak çok daha değerli olduğunu anlamama yardımcı oldu. teknoloji.

Yapay zeka alanına girmek isteyen kadınlara ne gibi tavsiyelerde bulunursunuz?

Otoriteye başvurmamak ve popüler anlatılarla çelişse bile gerçekten inandığınız bir iş kolu bulmak. Yapay zeka laboratuvarlarının şu anda politik ve ekonomik olarak sahip olduğu güç göz önüne alındığında, yapay zeka “düşünce liderlerinin” ifade ettiği her şeyi gerçek olarak kabul etme içgüdüsü var; çoğu zaman yapay zeka iddialarının çoğu, yapay zekanın fayda sağlama yeteneklerini abartan pazarlama söylemi oluyor. bir sonuç. Yine de, özellikle bu alandaki genç kadınlar arasında, erkek akranlarının öne sürdüğü ve kanıtlanamayan iddialara karşı şüphelerini dile getirmek konusunda ciddi bir tereddüt görüyorum. Imposter sendromunun teknoloji alanındaki kadınlar üzerinde güçlü bir etkisi var ve birçok kişinin kendi bilimsel dürüstlüklerinden şüphe etmesine yol açıyor. Ancak yapay zekanın yeteneklerini abartan, özellikle de bilimsel yöntemle yanlışlanamayan iddialara karşı çıkmak her zamankinden daha önemli.

Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?

Yapay zekada gözlemleyeceğimiz ilerlemeler ne olursa olsun, bunlar asla teknolojik veya sosyal açıdan sorunlarımıza tek çözüm olamayacak. Şu anda, çeşitli alanlardaki etkinliği (veya eksikliği) ne olursa olsun, ayakkabı çekeceği yapay zekayı mümkün olan her sisteme dahil etme eğilimi var. Yapay zeka, insan yeteneklerinin yerini almak yerine onları artırmalı ve yapay zekanın gerçekten somut zarara yol açan tuzaklarının ve başarısızlık modlarının tamamen göz ardı edildiğine tanık oluyoruz. Yakın zamanda bir yapay zeka sistemi ShotSpotter yakın zamanda bir polis memurunun bir çocuğa ateş etmesine neden oldu.

Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?

Yapay zeka ne kadar güvenilmez. Yapay zeka algoritmaları, hassasiyet, doğruluk ve güvenlik açısından kritiklik gerektiren uygulamalarda gözlemlenen yüksek hata oranlarıyla herkesin bildiği gibi kusurludur. Yapay zeka sistemlerinin eğitilme şekli, “fiilen” ve otomatik hale gelen çıktılarına insan önyargısını ve ayrımcılığı katıyor. Bunun nedeni, yapay zeka sistemlerinin doğasının, herhangi bir akıl yürütmeye, gerçek kanıta veya “nedenselliğe” değil, tarihsel verilerden istatistiksel ve olasılıksal çıkarımlara ve korelasyonlara dayalı sonuçlar sağlamak olmasıdır.

Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir?

Doğrulanabilir iddialar oluşturarak yapay zekanın insanların haklarını ve güvenliğini koruyacak ve yapay zeka geliştiricilerini bunlara karşı sorumlu tutacak şekilde geliştirilmesini sağlamak. Bu iddiaların aynı zamanda düzenleyici, güvenlikle ilgili, etik veya teknik bir uygulama kapsamına alınması ve yanlışlanabilir olmaması gerekir. Aksi takdirde, bu sistemleri uygun şekilde değerlendirmek için önemli bir bilimsel bütünlük eksikliği söz konusudur. Bağımsız düzenleyiciler ayrıca, halihazırda FDA tarafından değerlendirilen diğer endüstrilerdeki birçok ürün ve sistem için gerekli olduğu gibi yapay zeka sistemlerini de bu iddialara göre değerlendirmelidir. Yapay zeka sistemleri, halkın ve tüketicinin korunmasını sağlamak için iyi oluşturulmuş standart denetim süreçlerinden muaf tutulmamalıdır.

Yatırımcılar sorumlu yapay zekayı nasıl daha iyi teşvik edebilir?

Yatırımcılar, yapay zeka için denetim uygulamaları oluşturmayı ve geliştirmeyi amaçlayan kuruluşlarla etkileşime geçmeli ve fon sağlamalıdır. Fonların çoğu şu anda yapay zeka laboratuvarlarına yatırılıyor ve güvenlik ekiplerinin yapay zeka değerlendirmelerinin ilerlemesi için yeterli olduğu inancı var. Ancak bağımsız denetçiler ve düzenleyiciler kamu güveninin anahtarıdır. Bağımsızlık, kamuoyunun değerlendirmelerin doğruluğuna ve bütünlüğüne ve düzenleyici sonuçların bütünlüğüne güvenmesine olanak tanır.



genel-24