Çevrimiçi bilgisayar korsanlığı ve casusluk konusunda uzmanlığa sahip bir Rus casusluk şirketi, OpenAI’nin ChatGPT’sini atlatarak onu interneti kullanan insanları gözetlemek için bir casus yazılıma dönüştürmeyi başardı. Casusluk şirketi duygu analizi ve hackleme faaliyetlerine karıştı

Yakın tarihli bir araştırma raporunda Forbes, daha önce Meta platformlarında gözetim faaliyetleri olduğu iddiasıyla yasaklanan bir Rus casus yazılım şirketi olan Social Links’in, interneti kullanan insanları gözetlemek için ChatGPT’yi seçtiğini ortaya çıkardı.

Kullanıcıların duygularını ölçmek için sosyal medya verilerinin toplanıp analiz edilmesini içeren ChatGPT’nin bu rahatsız edici açıklaması, ChatGPT’nin kullanım durumlarına bir başka tartışmalı boyut daha ekliyor.

ChatGPT’nin alışılmadık kullanımını Paris’teki bir güvenlik konferansında sunan Social Links, chatbot’un metin özetleme ve analiz konusundaki uzmanlığını sergiledi. Şirket, İspanya’da yakın zamanda yaşanan bir tartışmayla ilgili çevrimiçi tartışmalarla ilgili özel aracı aracılığıyla elde edilen verileri besleyerek, ChatGPT’nin duyguları nasıl hızlı bir şekilde işleyebildiğini ve olumlu, olumsuz veya tarafsız olarak sınıflandırabildiğini gösterdi. Daha sonra sonuçlar interaktif bir grafik kullanılarak sunuldu.

İlgili Makaleler

yapay zeka

Cebimde AI: Humane resmi olarak AI destekli giyilebilir pini piyasaya sürdü ve akıllı telefonların yerini almayı hedefliyor

yapay zeka

ChatGPT Kesintisi: Rusya destekli Filistin yanlısı bilgisayar korsanları OpenAI’ye saldırdı, hasarın boyutu bilinmiyor

Ancak gizlilik savunucuları bu gelişmeyi son derece rahatsız edici buluyor. Bu özel vakanın gündeme getirdiği acil endişelerin ötesinde, yapay zekanın gözetim endüstrisinin yeteneklerini güçlendirme potansiyeli konusunda daha geniş bir endişe var.

Electronic Frontier Foundation Topluluk Organizasyonu Direktör Yardımcısı Rory Mir, yapay zekanın kolluk kuvvetlerinin gözetim çabalarını genişletmesine olanak tanıyarak küçük ekiplerin daha büyük grupları daha verimli bir şekilde izlemesine olanak tanıyabileceğinden endişe duyduğunu ifade etti.

Mir, polis teşkilatlarının çevrimiçi topluluklara sızmak için sahte profiller kullandığı ve bu durumun çevrimiçi konuşma üzerinde caydırıcı bir etki yarattığına dair mevcut uygulamanın altını çizdi. Mir, AI’nın entegrasyonuyla, ChatGPT gibi araçların gizli operasyonlar sırasında toplanan verilerin daha hızlı analizini kolaylaştırabileceği, çevrimiçi gözetimi etkili bir şekilde etkinleştirip artırabileceği konusunda uyardı.

Mir’in belirttiği önemli bir dezavantaj, sohbet robotlarının yanlış sonuçlar vermesine ilişkin geçmiş performanstır. Kolluk kuvvetleri operasyonları gibi riskli senaryolarda yapay zekaya güvenmek riskli hale geliyor.

Mir, yapay zekanın iş başvuruları veya polisin dikkati gibi kritik kararları etkilediğinde, genellikle Reddit ve 4chan gibi platformlardan alınan eğitim verilerindeki önyargıların yalnızca dikkate alınması gereken faktörler değil aynı zamanda bu tür bağlamlarda yapay zeka kullanımını yeniden düşünmenin nedenleri haline geldiğini vurguladı.

Yapay zeka eğitim verilerinin “kara kutu” olarak adlandırılan şeffaf olmayan doğası, başka bir endişe katmanı daha ekliyor. Mir, farklı ve çoğu zaman aşırı görüşlerle ünlü platformlardan kaynaklanan temel verilerdeki önyargıların, algoritmanın çıktılarında ortaya çıkabileceğine ve yanıtlarını potansiyel olarak güvenilmez hale getirebileceğine dikkat çekti.

Gözetleme alanındaki yapay zeka uygulamalarının gelişen ortamı, etik, önyargılar ve bireysel özgürlükler ile mahremiyet üzerindeki potansiyel etkisi hakkında önemli soruları gündeme getiriyor.

(Kurumlardan gelen girdilerle)



genel-5