Microsoft Salı günü, bir AI modelinin yanlış bilgi ürettiği durumları tespit edip düzeltecek yeni bir yapay zeka (AI) yeteneği başlattı. “Düzeltme” olarak adlandırılan özellik, Azure AI İçerik Güvenliği’nin topraklama tespit sistemine entegre ediliyor. Bu özellik yalnızca Azure aracılığıyla kullanılabildiğinden, muhtemelen teknoloji devinin kurumsal müşterilerine yöneliktir. Şirket ayrıca AI halüsinasyon durumlarını azaltmak için başka yöntemler üzerinde de çalışıyor. Özellikle, özellik metnin bir bölümünün neden yanlış bilgi olarak vurgulandığına dair bir açıklama da gösterebiliyor.
Microsoft “Düzeltmeler” Özelliği Başlatıldı
Birinde blog yazısıRedmond merkezli teknoloji devi, yapay zekanın yanlış bilgiyle yanıt vermesi ve bu bilginin yanlışlığını fark edememesi olarak tanımlanan yapay zeka halüsinasyonu vakalarıyla mücadele ettiği iddia edilen yeni özelliğin ayrıntılarını açıkladı.
Bu özellik Microsoft’un Azure hizmetleri aracılığıyla kullanılabilir. Azure AI İçerik Güvenliği sisteminin groundedness detection adlı bir aracı vardır. Üretilen bir yanıtın gerçekliğe dayalı olup olmadığını belirler. Araç halüsinasyon örneklerini tespit etmek için birçok farklı şekilde çalışırken, Correction özelliği belirli bir şekilde çalışır.
Düzeltmenin çalışması için kullanıcıların, belge özetleme ve Alma-Artırma-Üretme tabanlı (RAG) Soru-Cevap senaryolarında kullanılan Azure’un temellendirme belgelerine bağlı olması gerekir. Bağlandıktan sonra kullanıcılar özelliği etkinleştirebilir. Bundan sonra, temellendirilmemiş veya yanlış bir cümle oluşturulduğunda, özellik bir düzeltme isteğini tetikler.
Basitçe söylemek gerekirse, temellendirme belgeleri, AI sisteminin bir yanıt üretirken uyması gereken bir kılavuz olarak anlaşılabilir. Sorgu veya daha büyük bir veritabanı için kaynak materyal olabilir.
Daha sonra, özellik ifadeyi temellendirme belgesine göre değerlendirecek ve yanlış bilgi olduğu tespit edilirse filtrelenecektir. Ancak, içerik temellendirme belgesiyle uyumluysa, özellik yanlış yorumlanmamasını sağlamak için cümleyi yeniden yazabilir.
Ek olarak, kullanıcılar yeteneği ilk kez kurarken akıl yürütmeyi etkinleştirme seçeneğine de sahip olacaklar. Bunu etkinleştirmek, AI özelliğinin neden bilginin yanlış olduğunu ve bir düzeltmeye ihtiyaç duyduğunu düşündüğüne dair bir açıklama eklemesini sağlayacaktır.
Bir şirket sözcüsü söylenmiş Verge, Düzeltme özelliğinin çıktıları temellendirme belgeleriyle hizalamak için küçük dil modelleri (SLM’ler) ve büyük dil modelleri (LLM’ler) kullandığını söyledi. Yayın, sözcünün “Temellendirme tespitinin ‘doğruluk’ için çözüm sağlamadığını, ancak üretken AI çıktılarını temellendirme belgeleriyle hizalamaya yardımcı olduğunu belirtmek önemlidir” dediğini aktardı.