Markov karar süreci - Vikipedi
İçeriğe atla
Ana menü
Gezinti
  • Anasayfa
  • Hakkımızda
  • İçindekiler
  • Rastgele madde
  • Seçkin içerik
  • Yakınımdakiler
Katılım
  • Deneme tahtası
  • Köy çeşmesi
  • Son değişiklikler
  • Dosya yükle
  • Topluluk portalı
  • Wikimedia dükkânı
  • Yardım
  • Özel sayfalar
Vikipedi Özgür Ansiklopedi
Ara
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç

İçindekiler

  • Giriş
  • 1 Kaynakça

Markov karar süreci

  • العربية
  • Català
  • Čeština
  • Deutsch
  • English
  • Español
  • فارسی
  • Français
  • עברית
  • Íslenska
  • İtaliano
  • 日本語
  • 한국어
  • Português
  • Русский
  • Simple English
  • Српски / srpski
  • Українська
  • Tiếng Việt
  • 中文
  • 粵語
Bağlantıları değiştir
  • Madde
  • Tartışma
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Araçlar
Eylemler
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Genel
  • Sayfaya bağlantılar
  • İlgili değişiklikler
  • Kalıcı bağlantı
  • Sayfa bilgisi
  • Bu sayfayı kaynak göster
  • Kısaltılmış URL'yi al
  • Karekodu indir
Yazdır/dışa aktar
  • Bir kitap oluştur
  • PDF olarak indir
  • Basılmaya uygun görünüm
Diğer projelerde
  • Vikiveri ögesi
Görünüm
Vikipedi, özgür ansiklopedi
Markov Karar Süreci (MDP) otomasyonunun diyagramı.

Markov karar süreci (MDP), ayrık zamanlı stokastik bir kontrol sürecidir. Sonuçların bazen rastgele bazen de karar verenin kontrolünde olan durumlarda karar vermeyi matematiksel olarak inceler. Dinamik programlama ve pekiştirmeli öğrenme ile çözülen optimizasyon problemlerinde kullanılır. Markov karar süreci araştırmalarının temellerinin büyük bir kısmı Ronald Howard'ın 1960 yılında basılan Dinamik Programlama ve Markov Süreçleri (Dynamic Programming and Markov Processes) adlı kitabında atılmıştır.[1] Robotik, ekonomi, üretim gibi farklı alanlarda kullanılır. İsmini Markov zincirinin mucidi Rus Matematikçi Andrey Markov'dan alır.

Kaynakça

[değiştir | kaynağı değiştir]
  1. ^ Howard, Ronald A. "Dynamic Programming and Markov Processes" (PDF). The M.I.T. Press. 9 Ekim 2011 tarihinde kaynağından arşivlendi (PDF). Erişim tarihi: 2 Mayıs 2020. 
"https://tr.wikipedia.org/w/index.php?title=Markov_karar_süreci&oldid=32948985" sayfasından alınmıştır
Kategoriler:
  • Stokastik süreçler
  • Markov modelleri
  • Pekiştirmeli öğrenme
  • Karar teorisi
  • Dinamik programlama
  • Sayfa en son 18.38, 30 Mayıs 2024 tarihinde değiştirildi.
  • Metin Creative Commons Atıf-AynıLisanslaPaylaş Lisansı altındadır ve ek koşullar uygulanabilir. Bu siteyi kullanarak Kullanım Şartlarını ve Gizlilik Politikasını kabul etmiş olursunuz.
    Vikipedi® (ve Wikipedia®) kâr amacı gütmeyen kuruluş olan Wikimedia Foundation, Inc. tescilli markasıdır.
  • Gizlilik politikası
  • Vikipedi hakkında
  • Sorumluluk reddi
  • Davranış Kuralları
  • Geliştiriciler
  • İstatistikler
  • Çerez politikası
  • Mobil görünüm
  • Wikimedia Foundation
  • Powered by MediaWiki
Markov karar süreci
Konu ekle