# Parçalama

## 🎯 TL;DR
Parçalama, büyük belgeleri veya veri kaynaklarını daha küçük, yönetilebilir parçalara ayırma işlemidir. Bu, algoritmanın büyük miktarda veriyi etkili bir şekilde aramasını ve modelin token veya girdi sınırlarına uymasını sağlar.

## 📚 Anahtar Kavramlar
- **Chunking** → Parçalama (büyük verileri daha küçük parçalara ayırma)
- **Retrieval-Augmented Generation (RAG)** → Aramayı Artırmalı Oluşturma (veri arama ve oluşturma işlemi)
- **Embedding** → Gömme (verileri vektörler olarak temsil etme)
- **Vector Database** → Vektör Veritabanı (gömme verileri depolama)

## 🔍 Detay (Orijinal İngilizce)
The chunking step in Retrieval-Augmented Generation (RAG) involves breaking down large documents or data sources into smaller, manageable chunks. This is done to ensure that the retriever can efficiently search through large volumes of data while staying within the token or input limits of the model. Each chunk, typically a paragraph or section, is converted into an embedding, and these embeddings are stored in a vector database. When a query is made, the retriever searches for the most relevant chunks rather than the entire document, enabling faster and more accurate retrieval.

## 🔗 Daha Detay İstersen
roadmap.sh ekibinin seçtiği kaynaklar:
- 📖 [Understanding LangChain's RecursiveCharacterTextSplitter](https://dev.to/eteimz/understanding-langchains-recursivecharactertextsplitter-2846) — LangChain'in parçalama stratejisini anlama
- 📖 [Chunking Strategies for LLM Applications](https://www.pinecone.io/learn/chunking-strategies/) — Büyük Dil Modelleri için parçalama stratejileri
- 📖 [A Guide to Chunking Strategies for Retrieval Augmented Generation](https://zilliz.com/learn/guide-to-chunking-strategies-for-rag) — Aramayı Artırmalı Oluşturma için parçalama stratejileri rehberi