Hepimiz yakında günlük problemler ve görevler için yapay zeka araçlarını kullanma alışkanlığı edineceğiz. Bunların arkasındaki saikleri, teşvikleri ve kabiliyetleri de sorgulamayı alışkanlık haline getirmeliyiz.

Bir tatil planlamak için bir AI sohbet robotu kullandığınızı hayal edin. Tercihlerinizi bildiği için mi yoksa şirket geri tepme otel zincirinden mi? Daha sonra, karmaşık bir ekonomik mesele hakkında bilgi edinmek için başka bir AI sohbet robotu kullandığınızda, sohbet robotu sizin politikanızı mı yoksa onu eğiten şirketin politikasını mı yansıtıyor?

Yapay zekanın gerçekten yardımcımız olması için güvenilir olması gerekir. Güvenilir olması için bizim kontrolümüz altında olması gerekir; bazı teknoloji tekellerinin perde arkasında çalışıyor olamaz. Bu, en azından teknolojinin şeffaf olması gerektiği anlamına gelir. Ve hepimizin en azından biraz nasıl çalıştığını anlamamız gerekiyor.

Hakkında sayısız uyarılar arasında ürpertici esenliğe yönelik riskler, tehditler demokrasive hatta varoluşsal yapay zekadaki (AI) ve büyük dil modellerindeki (LLM’ler) çarpıcı son gelişmelere eşlik eden kıyamet SohbetGPT Ve GPT-4-bir iyimser vizyon fazlasıyla net: bu teknoloji faydalıdır. Bilgi bulmanıza, düşüncelerinizi ifade etmenize, yazınızdaki hataları düzeltmenize ve çok daha fazlasına yardımcı olabilir. Eğer tuzakların üstesinden gelebilirsek, insanlığa yardımcı faydası çığır açıcı olabilir. Ama henüz orada değiliz.

Bir an için duralım ve güvenilir bir yapay zeka asistanının olanaklarını hayal edelim. Her şeyin ilk taslağını yazabilir: e-postalar, raporlar, makaleler, hatta Evlilik yeminleri. Elbette ona arka plan bilgisi vermeniz ve çıktısını düzenlemeniz gerekir, ancak bu taslak, kişisel inançlarınız, bilginiz ve tarzınız üzerine eğitilmiş bir model tarafından yazılacaktır. Eğitmeniniz gibi davranabilir, öğrenmek istediğiniz konularda etkileşimli olarak size en uygun şekilde ve zaten bildiklerinizi dikkate alarak soruları yanıtlayabilir. Planlama, organize etme ve iletişim kurma konusunda size yardımcı olabilir: yine kişisel tercihlerinize bağlı olarak. Üçüncü taraflarla sizin adınıza savunabilir: diğer insanlar veya diğer botlar. Ve sizin için sosyal medyadaki konuşmaları yönetebilir, yanlış bilgileri işaretleyebilir, nefreti veya trollemeyi kaldırabilir, farklı dilleri konuşanlar için çeviri yapabilir ve konuyla ilgili tartışmaları sürdürebilir; hatta konuşma tanıma ve sentezleme yetenekleri aracılığıyla etkileşim kurarak fiziksel alanlarda konuşmalara aracılık edin.

Bugünün yapay zekaları bu göreve hazır değil. Sorun teknoloji değil – bu teknolojiden bile daha hızlı ilerliyor. uzmanlar tahmin etmişti– onun sahibi. Bugünün yapay zekaları, öncelikle büyük teknoloji şirketleri tarafından çıkarları ve kârları için oluşturulmakta ve işletilmektedir. Bazen sohbet robotlarıyla etkileşime girmemize izin verilir, ancak onlar asla gerçekten bizim değildir. Bu bir çıkar çatışmasıdır ve güveni yok eder.

Huşu ve hevesli kullanımdan şüpheye ve hayal kırıklığına geçiş, teknoloji sektöründe çok yıpranmış bir geçiştir. Yirmi yıl önce, Google’ın arama motoru hızlıca dönüştürücü bilgi alma yeteneği nedeniyle tekelci hakimiyete yükseldi. Zamanla, şirketin arama ağı reklamcılığından elde ettiği gelire olan bağlılığı, onları küçük görmek bu yetenek. Bugün pek çok gözlemci geleceğe bak tamamen arama paradigmasının ölümüne. Amazon, dürüst pazardan bilmecelerle dolu olana kadar aynı yolu yürüdü. berbat ürünler satıcıları var paralı şirketin bunları size göstermesi için. Biz bundan daha iyisini yapabiliriz. Her birimizin, günlük olarak temel faaliyetlerde bize yardımcı olan ve hatta bizim adımıza savunan bir AI asistanı olacaksa, her birimizin onun çıkarlarımızı göz önünde bulundurduğunu bilmemiz gerekir. Güvenilir yapay zeka oluşturmak, sistemik değişiklik gerektirecektir.

İlk olarak, güvenilir bir AI sistemi kullanıcı tarafından kontrol edilebilir olmalıdır. Bu, modelin bir kullanıcının sahip olduğu elektronik cihazlarda (belki bir basitleştirilmiş form) veya kontrol ettikleri bir bulut hizmeti içinde. Kullanıcıya, web’de veya harici hizmetlerde arama yapmak için sorgu yaptığında, başka bir yazılımı bir kullanıcı adına e-posta göndermek gibi şeyler yapmaya yönlendirdiğinde veya kullanıcının çabuks onu yapan şirketin kullanıcının ne istediğini düşündüğünü daha iyi ifade etmek. Gerekçesini kullanıcılara açıklayabilmeli ve kaynak gösterebilmelidir. Bu gereksinimlerin tümü, AI sistemlerinin teknik yetenekleri dahilindedir.

Ayrıca, kullanıcılar AI sistemini eğitmek ve ince ayar yapmak için kullanılan verilerin kontrolünde olmalıdır. Modern LLM’ler oluşturulduğunda, ilk önce kitlesel olarak eğitilirler, jenerik kurum genellikle İnternet’ten alınan metinsel veriler. Birçok sistem bir adım daha ileri gider ince ayar bir dilde konuşmak gibi dar bir uygulama için oluşturulmuş daha spesifik veri kümeleri üzerinde Tıbbi doktorveya taklit bireysel kullanıcılarının tarzı ve tarzı. Yakın gelecekte, kurumsal yapay zekalar, muhtemelen siz farkında olmadan veya izniniz olmadan, verilerinizi rutin olarak besleyecektir. Herhangi bir güvenilir AI sistemi, kullanıcıların hangi verileri kullandığını kontrol etmesine şeffaf bir şekilde izin vermelidir.

Birçoğumuz, geçmişte hangi düzenlemeleri kabul ettiğimiz ve hangilerini kabul etmediğimiz bilgisi ile ince ayarlanmış bir yapay zeka destekli yazma uygulamasını memnuniyetle karşılarız. Arama sonuçlarından hangisinin satın almayla sonuçlanıp hangilerinin gelmediği konusunda bilgili bir sohbet robotuna daha şüpheyle yaklaşırdık.

Ayrıca bir yapay zeka sisteminin sizin adınıza neler yapabileceği konusunda da bilgilendirilmelisiniz. Telefonunuzdaki diğer uygulamalara ve bunlarla depolanan verilere erişebilir mi? Girdilerinizi güvenebileceğiniz veya güvenemeyeceğiniz diğer yerlerden gelen ayrıntılarla karıştırarak dış kaynaklardan bilgi alabilir mi? Adınıza bir mesaj gönderebilir mi (umarız girişinize göre)? Yapay zeka destekli araçlar yaptığımız her şeyle entegre hale geldikçe, bu tür riskleri ve faydaları tartmak günlük hayatımızın doğal bir parçası haline gelecek.

Gerçekçi olmak gerekirse, yapay zekanın güvenilir olmadığı bir dünyaya hepimiz hazırlanmalıyız. Yapay zeka araçları inanılmaz derecede yararlı olabildiğinden, onlara güvensek de güvenmesek de hayatlarımıza giderek daha fazla nüfuz edecekler. Yirmi birinci yüzyılın gelecek çeyreğinin dijital vatandaşı olmak, belirli bir kullanım durumu için risklerini ve sınırlamalarını değerlendirebilmeniz için LLM’lerin temel içeriğini ve çıkışlarını öğrenmeyi gerektirecektir. Bu, sizi yapay zeka araçlarından yararlanmak yerine yararlanmaya daha iyi hazırlayacaktır.

ChatGPT gibi modellerin dünyada yaygın olarak kullanılmaya başlandığı ilk birkaç ayda, yapay zekanın kullanıcılar için nasıl risk oluşturduğuna dair çok şey öğrendik. LLM’lerin çıktılarında “gerçekler” uydurdukları anlamına gelen “halüsinasyon” gördüklerini artık herkes duymuştur, çünkü onların tahmine dayalı metin oluşturma sistemleri kendi yayılımlarını doğrulamakla sınırlı değildir. Birçok kullanıcı öğrendi Mart ayında, ChatGPT gibi sistemlere istem olarak gönderdikleri bilgiler, kullanıcıların sohbetlerini ortaya çıkaran bir hatanın ardından gizli tutulmayabilir. Sohbet geçmişleriniz güvensiz olabilecek sistemlerde saklanmaktadır.

Araştırmacılar buldu çeşitli akıllı yollar sohbet robotlarını güvenlik kontrollerini kırmaları için kandırmak; bunlar büyük ölçüde işe yarar çünkü bu sistemlere uygulanan “kuralların” çoğu yumuşaktır, örneğin talimatlar bir ürünün işlevlerine ilişkin kodlanmış sınırlamalar gibi katı değil, bir kişiye verilir. Anahtarlarını elinden almak ve yeteneklerine kesin kısıtlamalar koymak yerine, umut verici bir talimat olan dikkatli sürmesini isteyerek yapay zekayı güvende tutmaya çalışıyormuşuz gibi.

Şirketler chatbot sistemlerine daha fazla yetenek sağladıkça bu riskler artacaktır. OpenAI, geliştiricilere geniş bir yelpaze sunuyor erişim GPT’nin üzerinde araçlar oluşturmak için: AI sistemlerinin e-postanıza, web sitelerindeki kişisel hesap bilgilerinize ve bilgisayar koduna erişmesini sağlayan araçlar. OpenAI bu entegrasyonlara güvenlik protokolleri uygularken, araçları daha kullanışlı hale getirmek için rahatlayanları hayal etmek zor değil. Benzer şekilde, diğer şirketlerin yapay zeka pazar payını güvence altına almak için daha az çekingen stratejiler geliştirmesi de kaçınılmaz görünüyor.

Tıpkı herhangi bir insanda olduğu gibi, bir yapay zeka ile güven inşa etmek, zaman içinde etkileşim yoluyla zor kazanılacaktır. Bu sistemleri farklı bağlamlarda test etmemiz, davranışlarını gözlemlememiz ve eylemlerimize nasıl tepki vereceklerine dair zihinsel bir model oluşturmamız gerekecek. Bu şekilde güven oluşturmak, ancak bu sistemlerin yetenekleri, hangi girdileri kullandıkları ve bunları ne zaman paylaşacakları ve kimin çıkarlarını temsil edecek şekilde geliştikleri konusunda şeffaf olmaları durumunda mümkündür.

Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.

Nathan E. Sanders, bir veri bilimcisi ve Harvard Üniversitesi’ndeki Berkman Klein Merkezi’nin bir üyesidir.

Bruce Schneier bir güvenlik teknolojisi uzmanı ve Harvard Kennedy Okulu’nda Kamu Politikası öğretim görevlisidir.



genel-7