Halüsinasyon (yapay zekâ)
Görünüm
Bu madde, İngilizce Vikipedi'de yer alan aynı konulu maddeden Türkçeye çeviri yapılarak genişletilebilir. Başlıca çeviri yönergeleri için [genişlet] düğmesine tıklayınız.
|

Halüsinasyon, büyük dil modellerinin (LLM – Large Language Model) kullanıcıya gerçeğe dayanmayan, uydurma veya hatalı bilgi vermesi durumudur. Bu, modelin eğitildiği verilerdeki boşluklar, öğrenme sürecindeki sınırlamalar veya cevap üretme aşamasındaki olasılıksal yapıdan kaynaklanabilir. Terim, tıpta kullanılan "halüsinasyon" kavramından ödünç alınmıştır; zira model, gerçek olmayan verileri “varmış” gibi sunar.
Türleri
[değiştir | kaynağı değiştir]LLM halüsinasyonları iki ana kategoriye ayrılır:
| Tür | Alt Tür | Açıklama ve Örnek |
|---|---|---|
| Gerçeklik Halüsinasyonu | Gerçeklik Çelişkisi | Örneğin "Thomas Edison telefonu icat etti" gibi açıkça yanlış bilgi |
| Gerçeğe Dayalı Uydurma | Gerçek kişi ya da olay hakkında uydurma detaylar verilmesi | |
| Sadakat Halüsinasyonu | Talimat Tutarsızlığı | Kullanıcı Türkçe sorduğunda İngilizce cevap verilmesi gibi |
| Bağlam Tutarsızlığı | Özet istenirken alakasız veya hatalı bir içerik özetlenmesi | |
| Mantık Uyuşmazlığı | Basit matematik problemlerinde mantık hataları yapılması |
Nedenleri
[değiştir | kaynağı değiştir]Halüsinasyonların başlıca nedenleri şunlardır:
- Eğitim verilerindeki eksiklik ve önyargılar: Model yanlış bilgiyle eğitildiyse, doğru cevap veremez.
- Yetersiz yönlendirme: Model, kullanıcı isteğini anlamazsa alakasız cevap verebilir.
- Cevap üretme sürecindeki rastgelelik: LLM’ler deterministik değil; olasılıksal seçim yapar (örneğin “temperature” parametresi).
Azaltma Yöntemleri
[değiştir | kaynağı değiştir]Halüsinasyonları azaltmak için kullanılan başlıca yaklaşımlar:
- Veri iyileştirme: Güncel, doğru ve kapsamlı veri setleriyle eğitim.
- İnce ayar (fine-tuning): Belirli görevler için hassaslaştırılmış model eğitimi.
- RAG (Retrieval-Augmented Generation): Modelin dış bilgi kaynaklarına erişerek doğruluğu artırması.
- Düşünme zinciri (Chain-of-Thought): Modelin cevapları adım adım üretmesini sağlayan teknik.
Ayrıca bakınız
[değiştir | kaynağı değiştir]Kaynakça
[değiştir | kaynağı değiştir]- LLM’leri ve Halüsinasyonları Anlamak
- Vaswani et al. (2017). Attention is All You Need. NeurIPS.
- Devlin et al. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.
- Huang et al. (2024). *A Survey on Hallucination in Large Language Models*.
- Wei et al. (2023). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models.
- Lakera.ai . The Beginner’s Guide to Hallucinations in LLMs.