RAG (Retrieval-Augmented Generation) sistemlerinde, anlam veya konu bakımından ilişkili metin parçalarının birleştirilerek daha büyük bir blok haline getirilmesi işlemidir. Bu sayede model daha bütünlüklü bir bağlam alır ve yanıt kalitesi yükselir.
Bir ajanın bilgi kaynağından (ör. vektör veritabanı) sorguya karşılık getirebileceği maksimum sonuç sayısını sınırlar. Daha yüksek bir değer, daha geniş bir bilgi havuzuna erişim sağlayarak kapsamlı yanıtlar üretmeye yardımcı olur.
Tam Kapsama İçin Ayarlama
Örneğin, kullanıcıdan yüklenen bir dosya 100 vektöre bölündüyse, Search Limit’i 100 olarak ayarlamak, tüm parçaların ilk taramada göz önünde bulundurulmasını sağlar. Böylece kritik satırların atlanma riski ortadan kalkar.
Not: Maksimum limit sayısı, knowledge’a belge yüklenip asistan kaydedildikten sonra arama limiti barının üzerinde görüntülenir.
Bir bilginin, kullanıcı sorgusuna ne kadar benzemesi gerektiğini belirler. Bu eşik, alakasız sonuçların filtrelenmesini sağlar. Belirlenen skorun altındaki sonuçlar görmezden gelinir.
Teknik Detay ve Pratik İpuçları (İleri Kullanıcılar için):
Reranking işleminden sonra en alakalı N sonuç seçilerek LLM’e gönderilir. Böylece model, yalnızca en faydalı belgelerle çalışır ve gereksiz bilgi yükünden korunur.LLM’in context window’u sınırlıdır (örn. 4K, 8K, 32K token). Fazla belge yüklemek performansı düşürür.
Ayar önerileri:
Pratik İpuçları
Reranking sonrası belgeler için minimum bir skor belirler. Bu eşik değerinin altındaki belgeler elenir, yalnızca en yüksek puanlı içerikler modele aktarılır. Böylece modelin kullandığı bilgi güvenilir ve odaklı kalır.
Yüksek eşik (≥ 0.7): Yalnızca çok ilgili belgeler kalır → yüksek hassasiyet, düşük kapsam.
Düşük eşik (≈ 0.1-0.4): Daha fazla belge kalır → yüksek kapsam, ancak ilgisiz içerik riski.