Prompt Temelleri: Few-shot, Chain-of-Thought ve RAG Metodolojileri
AI Konsept ve Metodolojileri

Prompt Temelleri: Few-shot, Chain-of-Thought ve RAG Metodolojileri

AI Konsept ve Metodolojileri

8 dk okuma süresi
Bu rehber, prompt engineering kapsamında few-shot, chain-of-thought ve RAG yaklaşımlarını kullanıcı odaklı şekilde açıklar. Her yöntemin ne zaman işe yaradığını, nasıl uygulanacağını, hangi sınırlılıkları olduğunu ve basit test adımlarıyla nasıl doğrulanacağını pratik örneklerle gösterir.
Prompt Temelleri: Few-shot, Chain-of-Thought ve RAG Metodolojileri

Metin üreten yapay zeka modelleriyle (LLM) daha tutarlı ve daha denetlenebilir çıktılar almak çoğu zaman “daha uzun yazmakla” değil, doğru yöntemi doğru soruna uygulamakla ilgilidir. Bu rehberde üç temel yaklaşımı aynı çerçevede ele alacağız:

  • Few-shot prompting: Modele, beklediğiniz formatı ve yaklaşımı birkaç örnekle göstermek.
  • Chain-of-Thought (CoT): Bazı muhakeme türlerinde ara akıl yürütmeyi teşvik ederek doğruluğu artırmaya çalışmak.
  • RAG (Retrieval-Augmented Generation): Modeli, dış kaynaklardan getirilen doküman parçalarıyla yanıtını dayanaklandırmaya yönlendirmek.

Not: Bu yöntemlerin etkisi; kullandığınız model, alan (domain), istek (prompt) tasarımı ve değerlendirme biçiminize göre değişir. Bu yüzden yazı boyunca ne zaman denemeye değer olduklarını ve nasıl test edileceğini özellikle vurgulayacağım.


Hızlı karar: Hangi yöntemi ne zaman seçmeli?

  • Çıktı formatı kritikse (JSON, tablo, maddeleme, belirli ton): Few-shot ile başlayın.
  • Çok adımlı muhakeme gerekiyorsa (mantık, planlama, çok aşamalı hesap): CoT yaklaşımını veya daha pratik bir alternatif olarak kısa gerekçe + kontrol kurgusunu deneyin. Bazı modern muhakeme odaklı modellerde “adım adım düşün” gibi talimatların her zaman fayda sağlamayabileceğine dair sağlayıcı uyarıları vardır: OpenAI Reasoning Best Practices.
  • Yanıtın belirli kaynaklara dayanması gerekiyorsa (kurumsal doküman, politika metni, ürün dokümanı): RAG düşünün; başarı büyük ölçüde retrieval (getirme) kalitesine bağlıdır: A Survey on Knowledge‑Oriented RAG.
  • Bilgi dayanağı + format zorunluluğu birlikteyse: Çoğu ekip pratikte RAG + few-shot kombinasyonunu, “içerik” ile “format”ı ayrı ayrı kontrol ettiği için başlangıç noktası olarak dener; yine de kendi verinizle ölçerek doğrulayın.

Mini sözlük (hızlı)

  • Token: Modelin okuduğu/yazdığı metnin küçük parçalara bölünmüş birimi (maliyet ve bağlam sınırları token ile ilişkilidir).
  • Chunk: RAG’de dokümanın arama için bölündüğü parça.
  • Embedding: Metni sayısal bir vektöre dönüştürerek benzerlik araması yapmayı kolaylaştıran temsil.
  • Retriever: Soruya göre en ilgili chunk’ları seçip getiren bileşen.

1) Few-shot prompting: “Göstererek” yönlendirme

Tanım (kısa)

Few-shot prompting, prompt içinde birkaç örnek (exemplar) vererek modelin istenen çıktı biçimini ve yaklaşımı “bağlam içinde” yakalamasını hedefleyen bir tekniktir. Bu yaklaşım, örnekli istemlerin muhakeme ve görev performansını nasıl etkileyebileceğini tartışan çalışmalarda da (CoT bağlamında) kullanılır: Wei et al., 2022.

Kaç örnek? Evrensel bir sayı yoktur; çoğu pratik senaryoda “az sayıda” örnekle başlamak (ör. genellikle 1–8 arası bir başlangıç aralığı) makul bir sezgidir. Ancak bunu kendi görev setinizde kısa bir ablation (k-shot denemesi) ile doğrulamak gerekir.

Ne zaman güçlüdür?

  • Yapılandırılmış çıktı: Özet şablonu, karşılaştırma tablosu, kontrol listesi.
  • Marka tonu: Kısa, resmi, teknik, kullanıcı dostu gibi ton hedefleri.
  • Sınıflandırma/etiketleme: Mesajları kategoriye ayırma, niyet tespiti.
  • “İyi cevap” kriteri somutsa: Örnekle gösterilebilen kalite standardı.

Sınırlılıklar

  • Örnekler yanlışsa model yanlış paterni taklit edebilir.
  • Örnekler birbirine çok benzerse genelleme zayıflayabilir.
  • Bağlam bütçesi: Çok örnek, token maliyetini artırır ve asıl talebi gölgede bırakabilir.

Pratik bir şablon (kopyala-uyarla)

Rol: Sen bir editörsün.
Görev: Aşağıdaki girdiden 5 maddelik bir kontrol listesi üret.
Kurallar: Kısa maddeler, her madde fiille başlasın, tekrar olmasın.
Örnek 1:
Girdi: “Yeni başlayanlar için evde kahve demleme”
Çıktı:
1) Öğütme seviyesini seç.
2) Su sıcaklığını kontrol et.
3) Oranı belirle.
4) Demleme süresini ayarla.
5) Tadım notu al.
Örnek 2:
Girdi: “Takvim uygulaması seçimi”
Çıktı:
1) Platform uyumunu doğrula.
2) Paylaşım seçeneklerini incele.
3) Bildirim ayarlarını test et.
4) Entegrasyonları kontrol et.
5) Ücret planını karşılaştır.
Şimdi sen üret:
Girdi: “_____”

Few-shot için mini test (10 dakikalık)

  • Baseline: Hiç örneksiz aynı görevi çalıştırın.
  • 1-shot: Tek iyi örnek ekleyin, farkı gözleyin.
  • 3-shot: 3 örnek ekleyin (çeşitlendirilmiş), tekrar ölçün.
  • Karşılaştırma: Tutarlılık, format uyumu, hata oranı gibi kriterlerle en küçük etkili seti seçin.

2) Chain-of-Thought (CoT): Muhakemeyi teşvik etmek (ama ölçerek)

Tanım (kısa)

Chain-of-Thought prompting, modelin ara muhakeme adımlarını üretmesine alan açarak bazı görevlerde doğruluğu artırmayı hedefler. Bu yaklaşımın özellikle aritmetik ve sembolik muhakeme görevlerinde (özellikle daha büyük modellerde) kazanım sağlayabildiği klasik bir çalışmada raporlanmıştır: Wei et al., 2022.

Neden “her zaman” değil?

Uygulamada, bazı modern muhakeme odaklı modellerde “adım adım düşün” gibi açık talimatların her zaman fayda sağlamayabileceğine (ve gereksiz/uzun çıktıya yol açabileceğine) dair sağlayıcı rehberleri bulunur. Bu nedenle CoT’yi bir varsayılan değil, test edilecek bir seçenek olarak ele almak daha güvenlidir: OpenAI Reasoning Best Practices.

CoT yerine çoğu zaman daha pratik alternatif: Kısa gerekçe + kontrol

  • Sonucu ver,
  • 1–3 maddelik kısa gerekçe ekle (uzun iç muhakeme metni yerine),
  • Kontrol satırı koy: “Varsayımları listele” veya “hesabı yeniden özetle” gibi.

Örnek prompt (hesap/planlama)

Bir etkinlik bütçesi planlıyoruz.
Girdi: Katılımcı=35, kişi başı yemek=18 USD, salon=250 USD, ekipman=90 USD.
Çıktı formatı:
1) Toplam maliyet (tek satır)
2) Kısa gerekçe (en fazla 2 madde)
3) Kontrol: Hesabı yeniden özetle (tek satır)

CoT kullanırken pratik ölçüm önerisi

  • Aynı 10–30 soruluk mini set üzerinde CoT yok vs kısa gerekçe vs daha uzun açıklama karşılaştırın.
  • Doğruluk, tutarlılık (tekrar çalıştırınca benzer sonuç), uzunluk/maliyet (token) metriklerini birlikte izleyin.

3) RAG: Dış kaynakla dayanaklı yanıt üretme

Tanım (kısa)

Retrieval-Augmented Generation (RAG), modelin yanıt üretmeden önce bir bilgi havuzundan ilgili doküman parçalarını getirip (retrieval) bunları yanıtın bağlamına koyarak daha dayanaklı üretim yapmasını amaçlayan bir yaklaşımdır. Bilgi-yoğun görevlerde faydalarını ve bileşenlerini özetleyen bir derleme için: A Survey on Knowledge‑Oriented RAG. Uygulama detaylarında (ör. mimari varyantlar) teknik bir giriş için: Hugging Face RAG Docs.

RAG’in temel bileşenleri (sade anlatım)

  • Kaynak havuzu: PDF’ler, wiki sayfaları, ürün dokümanları, veri tabanları.
  • Parçalama (chunking): Dokümanları daha küçük parçalara bölme.
  • İndeksleme: Parçaları arama için uygun hale getirme (sıklıkla embedding + vektör arama).
  • Retriever: Soruya en uygun parçaları seçme.
  • Üretim: Modelin, getirilen parçaları kullanarak yanıt yazması.

Neden RAG tek başına “garanti” değildir?

RAG, uydurma yanıtları azaltmaya yardımcı olabilir; ancak retriever kalitesi, kaynak güvenilirliği ve parçaların yanıta nasıl “birleştirildiği” (fusion) zayıfsa hatalı sonuçlar görülebilir. Bu bağımlılık hem derlemelerde hem de uygulama dokümantasyonunda vurgulanır: RAG Survey, Hugging Face RAG Docs.

RAG’de birleştirme stratejilerine kısa not

Hugging Face dokümantasyonu, RAG uygulamalarında farklı birleştirme stratejilerine (ör. RAG-sequence ve RAG-token) değinir. Hangi stratejinin daha iyi olduğu; göreviniz, doküman uzunluğu ve maliyet/başarım hedeflerinize bağlıdır: Hugging Face RAG Docs.

RAG için örnek prompt (alıntı/kanıt odaklı)

Aşağıdaki kaynak parçalarını kullanarak yanıt ver.
Kurallar:
1) Yanıt, yalnızca verilen kaynaklara dayanmalı.
2) Kaynakta yoksa “bulunamadı” de ve hangi bilginin eksik olduğunu söyle.
3) Yanıt sonunda 2–4 maddelik “Kaynak notları” ekle (parça başlıklarını an).

Soru: “_____”
Kaynak parçaları:
[1] ...
[2] ...

RAG kalite kontrolü: Basit ama etkili kontrol listesi

Kontrol Ne ararsınız? Hızlı test
Retriever uygunluğu Getirilen parçalar soruyla gerçekten ilgili mi? 10 örnek soru seçin, ilk 5 parçayı elle inceleyin.
Kaynak güvenilirliği Kaynaklar tutarlı mı, yetkili mi? Kaynak türlerini etiketleyin (resmi doküman, iç wiki, blog).
Parça boyutu (chunk size) Çok küçükse bağlam kopar, çok büyükse gürültü artar. 2–3 farklı chunk ayarıyla aynı soruları karşılaştırın.
Yanıt-kaynak uyumu Yanıt, kaynakta olmayan iddialar ekliyor mu? Örnek çıktılarda her iddianın kaynağını işaretleyin.

Birlikte kullanma: Few-shot + RAG

RAG, içeriği kaynaklara dayandırmada; few-shot ise çıktı formatını sabitlemede işe yarar. Bu yüzden pratikte sık görülen başlangıç kurgusu şudur:

  • RAG ile ilgili doküman parçalarını getir.
  • Few-shot ile formatı sabitle (ör. “Özet + adımlar + riskler + kaynak notu”).
  • Gerekirse kısa gerekçe ile kritik kararları netleştir.

Kombinasyon örneği (format + dayanak)

Görev: Aşağıdaki kaynak parçalarına dayanarak “Ürün iade politikası”nı özetle.
Çıktı formatı:
- 1 cümlelik özet
- 5 maddelik şartlar listesi
- 3 maddelik “müşteri için dikkat” notu
- Kaynak notları (hangi parçalara dayandın)

Soru: “Politika nedir?”
Kaynak parçaları: [1] ... [2] ...


Uygulama adımları: 1 saatlik başlangıç planı

Adım 1: Tek bir başarı ölçütü seçin

Örnekler: “format hatası sayısı”, “yanıt-kaynak uyumu”, “ilk denemede doğru cevap oranı”, “edit süresi”. Birini seçip önce onu iyileştirin.

Adım 2: Baseline oluşturun

Aynı 15–20 soruyu, mevcut prompt’unuzla çalıştırın ve çıktıları saklayın.

Adım 3: Few-shot ile formatı sabitleyin

2–3 güçlü örnekle başlayın. Örneklerinizin:

  • Birbirinden farklı olmasına,
  • Hedeflediğiniz formatı tam göstermesine,
  • Sık görülen bir hatayı doğrudan önlemesine

dikkat edin.

Adım 4: Muhakeme gerekiyorsa “kısa gerekçe”yi deneyin

Modelinize göre değişmekle birlikte, gereksiz uzun açıklamalar yerine kısa gerekçe ve kontrol satırı daha iyi bir denge sağlayabilir. (Modern modeller için yaklaşım uyarıları: OpenAI Reasoning Best Practices.)

Adım 5: Bilgi dayanağı gerekiyorsa RAG’i devreye alın

  • Kaynak havuzunu tanımlayın (kurumsal dokümanlar, yardım merkezi, teknik notlar).
  • Retriever çıktısını görünür kılın: “Hangi parçalar geldi?” sorusuna cevap verebilmelisiniz.
  • Yanıta “bulunamadı” seçeneği ekleyin; modelin bilmediği yerde durması çoğu zaman daha güvenlidir.

Hızlı SSS (FAQ)

CoT mi, kısa gerekçe mi?

CoT bazı muhakeme görevlerinde faydalı olabilir (akademik bulgular için: Wei et al., 2022). Ancak bazı modern muhakeme odaklı modellerde “adım adım düşün” istemek her zaman önerilmeyebilir; üretimde sık kullanılan pratik alternatif, kısa gerekçe + kontrol kurgusunu A/B test etmektir: OpenAI Reasoning Best Practices.

RAG ne zaman gereksiz olabilir?

Göreviniz güncel/kurumsal kaynaklara dayanmak zorunda değilse ve modelin genel bilgisi yeterliyse, RAG ek karmaşıklık getirebilir. RAG’in asıl avantajı, yanıtı belirli bir doküman havuzuna dayandırmak ve güncellik ihtiyacını yönetmektir: RAG Survey.

Retrieval kalitesini nasıl değerlendiririm?

En basit yöntem, örnek sorular seçip getirilen ilk parçaların gerçekten ilgili olup olmadığını elle incelemektir. Retrieval bileşeni ve mimari pratikleri için: Hugging Face RAG Docs.

Few-shot örnek sayısını nasıl seçmeliyim?

Kesin bir sayı yerine, küçük bir aralıkla başlayıp (ör. 1–3) kademeli artırın ve kendi veri setinizde “en küçük etkili” örnek setini bulun. Örnekli istemlerin kullanımı ve etkilerine dair temel bağlam için: Wei et al., 2022.


Sonuç: Prompt engineering bir “yazma” işi değil, bir sistem tasarımı işidir

Few-shot, CoT ve RAG; aynı hedefe (daha kontrollü çıktı) farklı yollardan yaklaşır. Few-shot format ve beklenti hizalaması için hızlı kazanç sağlayabilir. CoT, bazı muhakeme görevlerinde faydalı olabilir ama modele göre ölçmek gerekir: Wei et al., 2022; ayrıca modern sağlayıcı rehberlerindeki uyarılar dikkate alınmalıdır: OpenAI Reasoning Best Practices. RAG ise doğru kurulduğunda yanıtı kaynaklara dayandırarak güveni artırır; fakat retrieval kalitesi işin merkezindedir: RAG Survey, Hugging Face RAG Docs.

Kaynaklar: Chain-of-Thought Prompting (Wei et al., 2022), Reasoning best practices (OpenAI), A Survey on Knowledge‑Oriented RAG (2025), RAG — Hugging Face Transformers Documentation.

Yorumlar

Henüz yorum yapılmamış. İlk yorumu sen yaz.