tarafından yayınlanan bir rapora göre, Wall Street Gazetesi (WSJ), Apple, çalışanlarının ChatGPT gibi yapay zeka araçlarını nasıl kullandığına ilişkin kısıtlamalar getirdi. WSJ’den gelen rapor, Apple çalışanlarının yapay zeka desteğinin olmaması nedeniyle sonsuza kadar dezavantajlı duruma düşmeyeceğini öne sürüyor çünkü Apple “kendi benzer teknolojisini” yaratmakla meşgul. Rapor, bu iddiaları desteklediği görülen dahili bir Apple belgesine ve “konuya aşina” anonim kaynaklara dayanıyor.

Büyük dil modellerine (LLM’ler) dayalı yapay zeka kullanımıyla ilgili sorunlardan biri, araçların genellikle etkileşimlerini (girdiler, sorular vb.) eğitim verileri olarak kullanmasıdır. Samsung, Nisan ayında ChatGPT kullanımından özel veriler sızdırıldığında bu tür bir sorunla karşılaştı. Güney Koreli teknoloji devinin fabrika mühendisleri, fabrika performansı ve getirileri hakkında kodlama, not alma ve veri analizi için ChatGPT yardımını kullanıyorlardı ve ChatGPT kullanımına kadar uzanan üç veri sızıntısı örneği izlendi.

ChatGPT, yalnızca eğitim yoluyla diğer kullanıcıların verilerini sızdırmaya meyilli değildir; tüm yazılımlar gibi, aynı zamanda güvenlik açıkları ve hatalara da sahiptir. Haftanın başlarında, YouTube transkriptleri yoluyla enjeksiyona yönelik güvenlik açığını gördük. Mart ayında ChatGPT, bazı kullanıcılarının diğer kullanıcı sohbet geçmişlerinin başlıklarını görebildiğini keşfettikten sonra kısa bir süreliğine çevrimdışı duruma getirildi.

elma yapay zekası

(İmaj kredisi: Elma)

Veri güvenliğiyle ilgili raporların artmasının ardından OpenAI, hassas belgelerde AI yardımı için bir ‘Gizli mod’un yanı sıra yeni gizlilik kontrolleri getirdi. Belki de bu adımlar Apple için yeterince ileri gitmemiştir. WSJ raporunda özel olarak bahsedilen bir diğer yapay zeka aracı, geliştiriciler tarafından akıllı kod otomatik tamamlama işleviyle zamandan tasarruf etmek için kullanılan GitHub’ın Copilot’udur (Microsoft).



genel-21