TechCrunch, AI odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını ilgi odağı haline getirmek için, AI devrimine katkıda bulunan olağanüstü kadınlara odaklanan bir dizi röportaj başlatıyor. Yapay zeka patlaması devam ettikçe, yıl boyunca çoğu zaman fark edilmeyen önemli çalışmaları vurgulayan birkaç makale yayınlayacağız. Daha fazla profili buradan okuyun.

Urvashi Aneja, Küresel Güney’de teknoloji ve toplum arasındaki etkileşimi incelemeyi amaçlayan disiplinlerarası bir araştırma çalışması olan Digital Futures Lab’ın kurucu direktörüdür. Aynı zamanda Londra merkezli bağımsız bir politika enstitüsü olan Chatham House’daki Asya Pasifik programında yardımcı araştırmacıdır.

Aneja’nın mevcut araştırması, bulunduğu Hindistan’daki algoritmik karar alma sistemlerinin ve platform yönetiminin toplumsal etkisine odaklanıyor. Aneja kısa süre önce Hindistan’da yapay zekanın mevcut kullanımları üzerine, polislik ve tarım da dahil olmak üzere sektörlerdeki kullanım örneklerini inceleyen bir çalışma yazdı.

Soru-Cevap

Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?

Kariyerime insani yardım sektöründe araştırma ve politika katılımıyla başladım. Birkaç yıl boyunca, düşük kaynak bağlamlarında uzun süren krizlerde dijital teknolojilerin kullanımını araştırdım. Özellikle savunmasız popülasyonlarla uğraşırken, yenilik ve deneme arasında ince bir çizgi olduğunu kısa sürede öğrendim. Bu deneyimden edindiğim dersler beni dijital teknolojilerin, özellikle de yapay zekanın potansiyeline ilişkin tekno-çözümcü anlatılar konusunda derinden endişeye sevk etti. Aynı zamanda Hindistan da kampanyasını başlattı. Dijital Hindistan misyon ve Yapay Zeka Ulusal Stratejisi. Yapay zekayı Hindistan’ın karmaşık sosyo-ekonomik sorunları için sihirli bir değnek olarak gören hakim anlatılardan ve bu konu etrafında eleştirel söylemin tamamen yokluğundan rahatsız oldum.

En çok hangi işten gurur duyuyorsunuz (AI alanında)?

Yapay zeka üretiminin politik ekonomisinin yanı sıra sosyal adalet, çalışma ilişkileri ve çevresel sürdürülebilirlik açısından daha geniş sonuçlara dikkat çekebildiğimiz için gurur duyuyorum. Yapay zeka hakkındaki anlatılar çoğunlukla belirli uygulamaların kazanımlarına ve en iyi ihtimalle o uygulamanın yararlarına ve risklerine odaklanır. Ancak bu, ağaçlar açısından ormanı gözden kaçırıyor; ürün odaklı bir mercek, yapay zekanın epistemik adaletsizliğe katkısı, emeğin vasıfsızlaştırılması ve dünyanın çoğunluğunda hesaplanamaz gücün sürdürülmesi gibi daha geniş yapısal etkileri gizlemektedir. Ayrıca, bu endişeleri somut politika ve düzenlemelere dönüştürebildiğimiz için de gurur duyuyorum – ister kamu sektöründe yapay zeka kullanımına yönelik satın alma kılavuzları tasarlarken, ister Küresel Güney’deki Büyük Teknoloji şirketlerine karşı yasal işlemlerde kanıt sunarken.

Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?

İşimin konuşmasına izin vererek. Ve sürekli şunu sorarak: neden?

Yapay zeka alanına girmek isteyen kadınlara ne gibi tavsiyelerde bulunursunuz?

Bilginizi ve uzmanlığınızı geliştirin. Sorunlarla ilgili teknik anlayışınızın sağlam olduğundan emin olun ancak yalnızca yapay zekaya dar bir şekilde odaklanmayın. Bunun yerine, alanlar ve disiplinler arasında bağlantılar kurabilmek için geniş çapta çalışın. Yeterince insan yapay zekayı tarih ve kültürün bir ürünü olan sosyo-teknik bir sistem olarak anlamıyor.

Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?

Bence en acil sorun, gücün bir avuç teknoloji şirketi içinde yoğunlaşması. Yeni olmasa da bu sorun, büyük dil modellerindeki ve üretken yapay zekadaki yeni gelişmelerle daha da kötüleşiyor. Bu şirketlerin birçoğu artık yapay zekanın varoluşsal risklerine dair korkuları körüklüyor. Bu sadece dikkati mevcut zararlardan uzaklaştırmakla kalmıyor, aynı zamanda bu şirketleri yapay zeka ile ilgili zararları ele alma konusunda gerekli olarak konumlandırıyor. Pek çok açıdan, Cambridge Analytica olayının ardından ortaya çıkan ‘teknoloji darbesinin’ ivmesinin bir kısmını kaybediyoruz. Hindistan gibi yerlerde yapay zekanın sosyoekonomik kalkınma için gerekli olarak konumlandırılmasından ve kalıcı zorlukların üstesinden gelme fırsatı sunmasından da endişe duyuyorum. Bu sadece yapay zekanın potansiyelini abartmakla kalmıyor, aynı zamanda koruma önlemleri geliştirmek için gereken kurumsal gelişmeyi atlamanın mümkün olmadığı noktasını da göz ardı ediyor. Yeterince ciddiye almadığımız bir diğer konu da yapay zekanın çevresel etkileri; mevcut gidişatın sürdürülemez olması muhtemel. Mevcut ekosistemde, iklim değişikliğinin etkilerine karşı en savunmasız olanların yapay zeka yeniliklerinden yararlanması pek olası değil.

Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?

Kullanıcıların yapay zekanın sihir olmadığı veya insan zekasına yakın bir şey olmadığı konusunda bilinçlendirilmesi gerekiyor. Bu, pek çok faydalı kullanıma sahip, ancak sonuçta yalnızca tarihsel veya önceki kalıplara dayanan olasılıksal bir tahmin olan bir hesaplamalı istatistik biçimidir. Eminim kullanıcıların da farkında olması gereken başka sorunlar da vardır, ancak sorumluluğu alt kademelere, kullanıcılara kaydırma girişimlerine karşı dikkatli olmamız gerektiği konusunda uyarmak istiyorum. Bunu en son, çoğunluk dünyasında düşük kaynaklı bağlamlarda üretken yapay zeka araçlarının kullanımında görüyorum; bu deneysel ve güvenilmez teknolojiler konusunda dikkatli olmak yerine, odak noktası genellikle çiftçiler veya ön saflarda yer alan son kullanıcıların nasıl çalıştığına kayıyor. sağlık çalışanlarının becerilerini artırmaları gerekiyor.

Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir?

Bu, ilk etapta yapay zekaya olan ihtiyacın değerlendirilmesiyle başlamalıdır. Yapay zekanın benzersiz bir şekilde çözebileceği bir sorun var mı veya başka yollar mümkün mü? Ve eğer yapay zeka inşa edeceksek, karmaşık, kara kutulu bir model mi gerekli, yoksa daha basit, mantık tabanlı bir model de aynısını yapabilir mi? Ayrıca alan bilgisini yapay zekanın oluşturulmasında yeniden merkezlememiz gerekiyor. Büyük veri takıntısında teoriyi feda ettik; alan bilgisine dayalı bir değişim teorisi oluşturmamız gerekiyor ve bu, yalnızca büyük verinin değil, oluşturduğumuz modellerin temeli olmalıdır. Bu elbette katılım, kapsayıcı ekipler, işçi hakları vb. gibi temel konulara ek olarak geçerlidir.

Yatırımcılar sorumlu yapay zekayı nasıl daha iyi teşvik edebilir?

Yatırımcıların yalnızca yapay zeka uygulamalarının çıktılarını veya sonuçlarını değil, yapay zeka üretiminin tüm yaşam döngüsünü dikkate alması gerekiyor. Bu, emeğe adil bir şekilde değer verilip verilmediği, çevresel etkiler, şirketin iş modeli (yani ticari gözetime dayalı mı?) ve şirket içindeki iç hesap verebilirlik önlemleri gibi bir dizi konuya bakmayı gerektirecektir. Yatırımcıların ayrıca yapay zekanın varsayılan faydaları hakkında daha iyi ve daha kesin kanıtlar istemesi gerekiyor.



genel-24