# Düşmanca Test Uygulama

## 🎯 TL;DR
Makine öğrenimi modellerinin dayanıklılığını değerlendirmek ve zayıflıkları tespit etmek için kasıtlı olarak aldatıcı, değiştirilmiş veya özenle hazırlanmış girdilere maruz bırakma işlemi olan düşmanca test, modellerin potansiyel saldırılara veya kenar durumlarda başarısız olma olasılığını simüle eder. Bu, özellikle siber güvenlik, otonom sistemler ve finans gibi duyarlı uygulamalarda model dayanıklılığını geliştirmeye yardımcı olur.

## 📚 Anahtar Kavramlar
- **Adversarial testing** → Düşmanca test (makine öğrenimi modellerinin dayanıklılığını değerlendirmek için kullanılan bir yöntem)
- **Machine learning models** → Makine öğrenimi modelleri (veriden öğrenen ve öngörüler yapan sistemler)
- **Robustness** → Dayanıklılık (modellerin çeşitli girdilere ve saldırılara karşı direnci)
- **Vulnerabilities** → Zayıflıklar (modellerin saldırıya açık noktaları)
- **Edge cases** → Kenar durumlar (modellerin beklenmedik veya olağandışı girdilere verdiği yanıtlar)

## 🔍 Detay (Orijinal İngilizce)
Adversarial testing involves intentionally exposing machine learning models to deceptive, perturbed, or carefully crafted inputs to evaluate their robustness and identify vulnerabilities. The goal is to simulate potential attacks or edge cases where the model might fail, such as subtle manipulations in images, text, or data that cause the model to misclassify or produce incorrect outputs. This type of testing helps to improve model resilience, particularly in sensitive applications like cybersecurity, autonomous systems, and finance.

## 🔗 Daha Detay İstersen
roadmap.sh ekibinin seçtiği kaynaklar:
- 📖 [Düşmanca Test için Makine Öğrenimi Kaynakları](https://developers.google.com/machine-learning/resources/adv-testing) — Google'ın düşmanca test için makine öğrenimi kaynakları
- 📖 [Düşmanca Test: Tanım, Örnekler ve Kaynaklar](https://www.leapwork.com/blog/adversarial-testing) — Düşmanca testin tanımı, örnekleri ve kaynakları hakkında bilgi