# İstem Önbellekleme (Prompt Caching)

## 🎯 TL;DR
İstem önbellekleme, Büyük Dil Modellerine (BDM) gönderilen önceki istemlerin sonuçlarını saklayan bir tekniktir. Bu sayede, aynı istemler tekrar çalıştırılmak yerine hızlıca geri çağrılıp yeniden kullanılabilir. Bu yöntem, sık kullanılan veya hesaplama açısından maliyetli istemlerde verimliliği artırır ve maliyetleri düşürür.

## 📚 Anahtar Kavramlar
- **Prompt Caching** → İstem Önbellekleme (Önceki istem sonuçlarını saklayıp yeniden kullanma tekniği)
- **LLM (Large Language Model)** → Büyük Dil Modeli (İnsan dilini anlama ve üretme yeteneğine sahip yapay zeka modeli)
- **Retrieve** → Geri Getirme/Erişim (Saklanan veriye tekrar ulaşma)
- **Reuse** → Yeniden Kullanma (Daha önce elde edilmiş bir sonucu tekrar değerlendirme)
- **Efficiency** → Verimlilik (Kaynakları en iyi şekilde kullanarak istenen sonuca ulaşma)
- **Costs** → Maliyetler (Bir işlemi gerçekleştirmenin gerektirdiği finansal veya hesaplama giderleri)

## 🔍 Detay (Orijinal İngilizce)
Prompt caching is a technique that stores the results of previous LLM prompts, allowing you to quickly retrieve and reuse them instead of re-running the prompt every time. This can significantly improve efficiency and reduce costs when dealing with frequently used or computationally expensive prompts.

Visit the following resources to learn more:

- [@article@What is Prompt Caching?](https://www.ibm.com/think/topics/prompt-caching)
- [@video@What is Prompt Caching? Optimize LLM Latency with AI Transformers](https://www.youtube.com/watch?v=u57EnkQaUTY)

## 🔗 Daha Detay İstersen
roadmap.sh ekibinin seçtiği kaynaklar:
- 📖 [What is Prompt Caching?](https://www.ibm.com/think/topics/prompt-caching) — Bu makale, istem önbelleklemenin ne olduğunu ve nasıl çalıştığını açıklar.
- 🎥 [What is Prompt Caching? Optimize LLM Latency with AI Transformers](https://www.youtube.com/watch?v=u57EnkQaUTY) — Bu video, istem önbellekleme ile BDM gecikmesinin nasıl optimize edileceğini gösterir.
