Apple’ın sistemlerinin derinliklerinde, GenAI Apple Intelligence mekanizmasına verdiği çeşitli talimatlar bulunmaktadır. bu talimatların ekran görüntüleri Apple’ın GenAI dağıtımını etkileme çabalarına bir göz atın ve ayrıca yalnızca cevapları tahmin etmeye çalışan bir algoritmayı kontrol etmenin zorlu zorluklarını gösterin.

GenAI’nin talimatı anlaması ve uyması ne kadar açık ve kapsamlıysa, o kadar kolay olur. Bu nedenle, “Tam cümleler yerine cümlecikler kullanmayı tercih edersiniz” ve “Lütfen girdinizin özetini 10 kelimelik bir sınır içinde tutun” gibi bazı Apple talimatlarının işe yarayacağını AI uzmanları söyledi.

Ancak Apple ekran görüntülerindeki “Halüsinasyon görmeyin. Gerçek bilgiler uydurmayın” gibi daha yorumlanabilir diğer komutlar neredeyse hiç etkili olmayabilir.

AnswerRocket’ta CTO olan Michael Finley, “Halüsinasyon görmemesini söylemekte pek başarılı olamadım. Ne zaman halüsinasyon gördüğünü ve ne zaman görmediğini bildiği benim için net değil. Bu şey duyarlı değil,” dedi. “İşe yarayan şey, ondan çalışması üzerinde düşünmesini istemek veya birincisinin sonuçlarını kontrol etmek için bir zincirdeki ikinci bir istemi kullanmaktır. Sonuçları iki kez kontrol etmesini istemek yaygındır. Bunun sonuçlar üzerinde doğrulanabilir derecede iyi bir etkisi vardır.”

Finley ayrıca sisteme “sadece geçerli JSON çıktısı verin ve başka hiçbir şey vermeyin” diyen bir yorum karşısında şaşkına döndü.

Finley, “Sadece geçerli JSON kullanmasını söylemelerine şaşırdım. Model ya kullanacak ya da kullanmayacak,” dedi ve geçerliliği değerlendirmek için pratik veya anlamlı bir yolu olmadığını ekledi. “Bütün mesele gerçekten basit. Bunun özünde yatan şey olduğuna şaşırdım.” “Bir şekilde bir araya getirilmişti. Bu ille de kötü bir şey değil.” diyerek, Apple geliştiricilerinin yazılımı hızla çıkarmak için baskı altında olduklarını kastetti.

İncelenen talimatlar, Apple’ın Siri’sine eklenen yeni GenAI yetenekleri içindi. Apple’ın kullanacağı veri seti, önceki çabalardan çok daha büyük olduğundan, yalnızca en güçlü CPU beygir gücüne ve en fazla RAM’e sahip en son cihazlarda mevcut olacak.

“Apple’ın Siri modelleri şimdiye kadar küçüktü. GPT’yi kullanmak – tartışmasız en büyük modellerden bazıları – yeni yetenekler anlamına geliyor,” dedi Finley. “Parametre sayıları büyüdükçe, modeller daha dolaylı şeyler yapmayı öğreniyor. Küçük modeller rol yapamaz, daha büyük modeller yapabilir. Küçük modeller aldatmacayı bilmez, daha büyük modeller bilir.”

Protegrity’de ürün güvenliği mimarı olan Clyde Williamson, Apple müşterilerinin görmesi amaçlanmayan yorumların herkese açık bir forumda yer almasının, GenAI’daki genel gizlilik/veri güvenliği zorluklarını güzel bir şekilde göstermesi karşısında eğlendiğini belirtti.

“Bu, AI’daki güvenliğin biraz belirsiz hale geldiği fikrini vurguluyor. Bir AI’ya söylediğimiz her şeyi başka biri de söyleyebilir,” dedi Williamson. “Apple’ın bu istem şablonunu güvence altına almaya çalıştığına dair bir kanıt göremiyorum, ancak son kullanıcıların istemleri görmesini amaçlamadıklarını beklemek makul. Ne yazık ki, LLM’ler sır saklamada iyi değiller.”

Başka bir AI uzmanı olan Rasa CTO’su Alan Nichol, yorumların çoğunu alkışladı. Nichol, “Çok pragmatik ve basitti,” dedi ancak “bir modelin ne zaman yanlış olduğunu bilemeyeceğini” ekledi.

“Bu modeller bazen gerçekle örtüşen makul metinler üretiyor. Ve bazen, tamamen tesadüfen ve rastlantı eseri, doğru oluyor,” diyor Nichol. “Bu modellerin nasıl eğitildiğini düşünürseniz, son kullanıcıyı memnun etmeye çalışıyorlar, kullanıcının ne istediğini düşünmeye çalışıyorlar.”

Nichol yorumların çoğunu beğendi ve “Her şeyi kısa tutma talimatları var, ben her zaman bu tür yorumları kullanırım” dedi, çünkü aksi takdirde LLM’ler “inanılmaz ayrıntılı ve yüzeysel” olma eğiliminde oluyor.



genel-13