Alphabet, çalışanlarına, Alphabet’in sahibi olduğu Google tarafından oluşturulan ve işletilen üretken yapay zeka sohbet robotu Bard’a gizli bilgileri girmemelerini söyledi.
Şirketin uyarısı, OpenAI’den Microsoft destekli ChatGPT gibi diğer sohbet robotlarını da kapsıyor. Reuters bildirdi Perşembe günü.
Yapay zeka destekli sohbet robotları, insan benzeri bir şekilde sohbet etme, makale ve rapor yazma ve hatta akademik testlerde başarılı olma gibi etkileyici yetenekleri nedeniyle son aylarda büyük ilgi topladı.
Ancak Alphabet’in, çalışanlarının yanlışlıkla araçlar aracılığıyla dahili verileri sızdırması konusunda endişeleri var.
Gelişmiş AI teknolojisini iyileştirmek ve iyileştirmek için devam eden çalışmalarda, insan incelemeciler, kullanıcıların sohbet robotlarıyla yaptıkları konuşmaları okuyabilir, bu da kişisel mahremiyet ve ayrıca Alphabet’in özellikle endişe duyduğu ticari sırların potansiyel olarak ifşa edilmesi için bir risk oluşturur. hakkında.
Buna ek olarak, sohbet botları kısmen kullanıcıların metin alışverişleri kullanılarak eğitilir, bu nedenle araç, belirli istemlerle bu konuşmalarda aldığı gizli bilgileri halkın üyelerine potansiyel olarak tekrarlayabilir.
ChatGPT gibi, Bard da artık herkesin denemesi için ücretsiz olarak kullanılabilir. Web sayfasında kullanıcıları uyarıyor: “Lütfen Bard görüşmelerinize sizi veya başkalarını tanımlamaya kullanılabilecek bilgileri dahil etmeyin.”
Google’ın “Bard görüşmelerini, ilgili ürün kullanım bilgilerini, konumunuzla ilgili bilgileri ve geri bildiriminizi” topladığını ve bu verileri Bard’ın da dahil olduğu Google ürün ve hizmetlerini iyileştirmek için kullandığını ekler.
Google, Bard etkinliğini 18 aya kadar sakladığını söylüyor, ancak bir kullanıcı bunu Google hesabında 3 veya 36 ay olarak değiştirebilir.
Bir gizlilik önlemi olarak, bir insan gözden geçiren kişi onları görmeden önce Bard görüşmelerinin bir Google hesabıyla bağlantısının kesildiğini ekler.
Reuters, Alphabet’in uyarısının bir süredir yürürlükte olduğunu ancak yakın zamanda genişleterek çalışanlarına chatbot’lar tarafından üretilen kesin bilgisayar kodunu kullanmaktan kaçınmalarını söylediğini söyledi. Şirket, haber kaynağına Bard’ın bazen “istenmeyen kod önerileri” sunabileceğini, ancak aracın mevcut yinelemesinin hala geçerli bir programlama yardımı olarak kabul edildiğini söyledi.
Alphabet, çalışanlarını sohbet botlarının kullanımıyla bağlantılı gizlilik ve güvenlik riskleri konusunda uyaran tek şirket değil. Samsung, kısa bir süre önce çalışanlarına yarı iletkenle ilgili hassas verileri ChatGPT’ye verdikten sonra çalışanlarına benzer bir talimat verdi ve diğerlerinin yanı sıra Apple ve Amazon’un da benzer bir iç politikayı yürürlüğe koyduğu bildirildi.