# Kendi Sunucularında Barındırılan Yapay Zeka Modelleri (Self-Hosted AI Models)

## 🎯 TL;DR
Kendi sunucularında barındırılan yapay zeka modelleri, bir üçüncü taraf hizmet veya bulut sağlayıcı yerine kendi altyapınızda çalıştırdığınız modellerdir. Bu yaklaşım, donanım, yazılım ve veri üzerinde tam kontrol sağlayarak daha fazla özelleştirme, güvenlik ve potansiyel olarak daha düşük uzun vadeli maliyetler sunar.

## 📚 Anahtar Kavramlar
- **Self-hosted AI models** → Kendi Sunucularında Barındırılan Yapay Zeka Modelleri (Yapay zeka modellerinin kendi altyapınızda çalıştırılması.)
- **Infrastructure** → Altyapı (Bir sistemin çalışması için gereken donanım ve yazılım bileşenleri.)
- **Third-party service** → Üçüncü Taraf Hizmet (Birincil hizmet sağlayıcısı dışındaki bir şirket tarafından sunulan hizmet.)
- **Cloud provider** → Bulut Sağlayıcı (Bulut bilişim hizmetleri sunan şirket, örn. AWS, Azure, GCP.)
- **Customization** → Özelleştirme (Modelin veya sistemin belirli ihtiyaçlara göre ayarlanabilmesi.)
- **Security** → Güvenlik (Verilerin ve sistemlerin yetkisiz erişimden veya kötü niyetli saldırılardan korunması.)
- **Inference** → Çıkarım (Eğitilmiş bir modelin yeni veriler üzerinde tahminler yapması veya sonuçlar üretmesi.)

## 🔍 Detay (Orijinal İngilizce)
Self-hosted AI models are machine learning models that are deployed and run on your own infrastructure, rather than relying on a third-party service or cloud provider. This means you have complete control over the hardware, software, and data used to run the model, allowing for greater customization, security, and potentially lower long-term costs, depending on your specific needs and scale.

Visit the following resources to learn more:

- [@article@Self-Hosted LLM: A Practical Guide for DevOps](https://www.plural.sh/blog/self-hosting-large-language-models/)
- [@article@Serverless vs. self-hosted LLM inference](https://bentoml.com/llm/llm-inference-basics/serverless-vs-self-hosted-llm-inference)

## 🔗 Daha Detay İstersen
roadmap.sh ekibinin seçtiği kaynaklar:
- 📖 [Kendi Sunucularında Barındırılan LLM: DevOps için Pratik Bir Rehber](https://www.plural.sh/blog/self-hosting-large-language-models/) — Büyük dil modellerini kendi sunucularında barındırmak için DevOps odaklı pratik bir rehber sunan makale.
- 📖 [Sunucusuz vs. Kendi Sunucularında Barındırılan LLM Çıkarımı](https://bentoml.com/llm/llm-inference-basics/serverless-vs-self-hosted-llm-inference) — Büyük dil modelleri için sunucusuz ve kendi sunucularında barındırılan çıkarım yaklaşımlarını karşılaştıran makale.
