Bu cuma Beyaz Saray’da yapılacak bir zirvededünyanın en iyi yapay zeka şirketlerinden yedisi, yapay zeka ürünlerinin etrafındaki emniyet ve güvenlik korkuluklarını iyileştirme sözü verdi. Aylarca süren istişareler ve yorum taleplerinden sonraBeyaz Saray ile yapay zeka yatırımı yapan şirketler Amazon, Anthropic, Meta, Microsoft, Google, Inflection ve OpenAI arasındaki anlaşma, İdarenin yapay zeka sistemlerinin riskleri ve tehlikelerine ilişkin endişelerini gidermeyi amaçlıyor.
Üzerinde anlaşmaya varılan önlemlerden biri, ayrımcılık araştırmaları için fon artışıdır. şu anda yapay zeka ağlarına özgü olan algoritmik önyargılara karşı koymanın bir yolu olarak.
Şirketler ayrıca siber güvenliğe ek yatırımlar yapma konusunda da anlaştılar. ChatGPT gibi bir araçta bir proje geliştirdiyseniz veya bir şey kodladıysanız, yapay zeka sohbetinizin içerdiği bilgilerin ne kadar kapsamlı olduğunu bilirsiniz. Ve zaten yeterince ChatGPT kullanıcı kimlik bilgisi çevrimiçi olarak sızdırıldı – OpenAI’nin hatası değil, unutmayın – artan siber güvenlik yatırımının mücadele etmesi gereken şey de budur.
Ayrıca, çeşitli nedenlerle son zamanlarda basında özellikle sıcak olan bir konu olan yapay zeka tarafından oluşturulan içeriğe filigran uygulanması da vaat edildi.
Üretken yapay zeka şirketlerinde şimdiden çok sayıda davanın açıldığı telif hakkı açısı var: Yapay zeka tarafından oluşturulan içeriğe filigran eklemek, insan tarafından oluşturulan, ortaya çıkan verilerin (hayatlarımızı canlandırarak otomatik olarak üretilen) hızla gelişen yapay zeka tarafından oluşturulan içerik denizinde daha da seyreltilmesi korkusunu yatıştırmanın bir yolu olacaktır.
Bir de sistemik etki açısı var: AI’dan hangi işler etkilenecek? Evet, dünyada işçileri nihayetinde daha az etkilenen diğer sektörlere çekmek için yeterince ihtiyaç var, ancak bu geçişin insani, ekonomik ve zaman çerçevesi maliyetleri var. Çok fazla, çok hızlı değişirse, tüm ekonomi ve çalışma sistemi bozulabilir.
Elbette, AI tarafından üretilen verilere (veya daha yakın zamanda ve sıklıkla adlandırıldığı şekliyle sentetik verilere) filigran eklemek de AI şirketlerinin çıkarınadır. Yapay zekalarının sentetik veri kümeleri, zehirli veri kümeleri nedeniyle veya sentetik verileri daha güvenli, ancak çok daha pahalı, ortaya çıkan verilerden ayırt edememeleri nedeniyle sonunda ÇILGINLIĞA dönüşmesini istemiyorlar.
Ve yinelemeli eğitim AI’larındaki sorunlar, AI şişeden çıktığı için çok uzun süre çözülemeyecek kadar zor kalırsa, AI geliştiricilerinin ağlarını eğitmeye devam edecekleri iyi veri kümeleri yakında tükenebilir.
Tüm vaatler gönüllüydü, muhtemelen yapay zekaya en çok yatırım yapan şirketler adına bir iyi niyet göstergesiydi. Ancak ek bir avantaj daha var: Bunun gibi bir hareket, “yapay zekayı şu anda gittiğimiz hızda kontrol edebilir miyiz?” çekişme. AI’nın kendi geliştiricileri, sistemlerinin güvenliğini ve emniyetini gönüllü olarak artırmaya istekliyse, o zaman belki bu da iyi bekçiler olacakları bir alandır (bununla birlikte kilometreniz değişebilir).
Bu yaklaşımla ilgili sorunun bir kısmı, bunların yalnızca yedi şirket olmasıdır: Peki ya yapay zeka ürünleri geliştiren diğer yüzlerce şirket? OpenAI ve Microsoft gibi devlere kıyasla zaten daha küçük ve dezavantajlı durumda olanlara güvenilebilir mi? Çünkü bunlar, geçim kaynaklarının bağlı olduğu ürünü zorla hazırlıksız açığa çıkarmaktan daha fazla kazanacakları şirketlerdir. Bir ürünün para kazanmaya aceleye getirilmesi kesinlikle ilk kez olmayacaktı.
Taahhütler, aktif olarak izlendiklerinin iç ve dış doğrulama ve doğrulamasını gerektiriyordu (ancak her zaman gözden kaçanlar, yanlış iletişimler, kayıp belgeler ve boşluklar vardır).
Buradaki sorun, yapay zekanın temel, yok olma düzeyinde bir risk sunması ve bu sınırın kesinlikle üzerinde olmak istemediğimiz bir tarafı var.