Yinelemeli sinir ağı - Vikipedi
İçeriğe atla
Ana menü
Gezinti
  • Anasayfa
  • Hakkımızda
  • İçindekiler
  • Rastgele madde
  • Seçkin içerik
  • Yakınımdakiler
Katılım
  • Deneme tahtası
  • Köy çeşmesi
  • Son değişiklikler
  • Dosya yükle
  • Topluluk portalı
  • Wikimedia dükkânı
  • Yardım
  • Özel sayfalar
Vikipedi Özgür Ansiklopedi
Ara
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç

İçindekiler

  • Giriş
  • 1 Tarihçe
  • 2 Çeşitleri
    • 2.1 Tam yinelemeli
    • 2.2 Geçitli yineleme birimi
  • 3 Kaynakça

Yinelemeli sinir ağı

  • العربية
  • বাংলা
  • Català
  • Čeština
  • Deutsch
  • English
  • Español
  • Eesti
  • Euskara
  • فارسی
  • Suomi
  • Français
  • Galego
  • İtaliano
  • 日本語
  • 한국어
  • Македонски
  • Polski
  • Runa Simi
  • Русский
  • Simple English
  • Slovenčina
  • Српски / srpski
  • ไทย
  • Українська
  • Tiếng Việt
  • 吴语
  • 中文
  • 粵語
Bağlantıları değiştir
  • Madde
  • Tartışma
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Araçlar
Eylemler
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Genel
  • Sayfaya bağlantılar
  • İlgili değişiklikler
  • Kalıcı bağlantı
  • Sayfa bilgisi
  • Bu sayfayı kaynak göster
  • Kısaltılmış URL'yi al
  • Karekodu indir
Yazdır/dışa aktar
  • Bir kitap oluştur
  • PDF olarak indir
  • Basılmaya uygun görünüm
Diğer projelerde
  • Vikiveri ögesi
Görünüm
Vikipedi, özgür ansiklopedi
Makine öğrenmesi ve
veri madenciliği
Problemler
  • Sınıflandırma
  • Kümeleme
  • Regresyon
  • Anomali tespiti
  • Association rules
  • Pekiştirmeli öğrenme
  • Yapılandırılmış tahmin
  • Öznitelik mühendisliği
  • Öznitelik öğrenmesi
  • Öznitelik çıkarımı
  • Online öğrenme
  • Yarı-gözetimli öğrenme
  • Gözetimsiz öğrenme
  • Sıralama öğrenme
  • Gramer Tümevarımı
Gözetimli öğrenme
  • Karar ağacı
  • Birlik öğrenmesi
  • k-YK
  • Doğrusal regresyon
  • Naive Bayes
  • Sinir ağları
  • Lojistik regresyon
  • Relevance vector machine (RVM)
  • Support vector machine (SVM)
  • Rastgele orman
Kümeleme
  • BIRCH
  • Hiyerarşik
  • k-means
  • Beklenti maksimizasyon

  • DBSCAN
  • OPTICS
  • Mean-shift
Boyut indirgeme
  • Faktör analizi
  • CCA
  • ICA
  • LDA
  • NMF
  • PCA
  • t-SNE
Yapılandırılmış tahmin
  • Grafiksel modeller (Bayes ağları, CRF, HMM)
Anomali tespiti
  • k-NN
  • Local outlier factor
Sinir ağları
  • Perseptron
  • Otokodlayıcı
  • Derin öğrenme
  • RNN
  • LSTM
  • Kısıtlı Boltzmann makinesi
  • SOM
  • Kıvrımlı sinir ağları
Pekiştirmeli öğrenme
  • Q-Learning
  • SARSA
  • Temporal Difference (TD)
Teori
  • Bias-variance ikilemi
  • Hesaplamalı öğrenme teorisi
  • Empirik risk minimizasyonu
  • Occam learning
  • PAC learning
  • İstatistiki öğrenme teorisi
  • VC theory
Konferanslar ve dergiler
  • NIPS
  • ICML
  • ML
  • JMLR
  • ArXiv:cs.LG
  • g
  • t
  • d

Yinelemeli sinir ağı, düğümler arası bağların zamansal bir dizi doğrultusunda yönlü çizge oluşturduğu bir yapay sinir ağı çeşididir. Yaygın olarak İngilizce kısaltması olan RNN (İngilizce: Recurrent neural network) olarak anılır. İleri beslemeli sinir ağından türetilen RNN yöntemi, bir iç durum belleği kullanarak değişik uzunluktaki dizileri işleyebilir.[1][2][3] Bu sayede yazı tanıma[4] ve konuşma tanıma[5][6] gibi problemlere uygulanabilir. Teorik olarak Turing makinesine denk (Turing-complete) olan yinelemeli sinir ağları, herhangi uzunluktaki bir girdiyi işleyebilen herhangi bir programı çalıştırabilir.[7]

Tarihçe

[değiştir | kaynağı değiştir]

Yinelemeli sinir ağları David Rumelhart'ın 1986 yılındaki çalışmasına dayanır.[8] Hopfield ağı denen özel bir RNN türü de John Hopfield tarafından 1982 yılında geliştirilmiştir. 1993 yılında, bir RNN çalışması 1000'den fazla katman gerektiren birçok derin öğrenme görevini başarmıştır.[9] Long short-term memory (LSTM) ağları Hochreiter ve Schmidhuber tarafından 1997 yılında geliştirilmiş ve çeşitli uygulama alanlarında en iyi performansları kaydetmiştir.[10]

Çeşitleri

[değiştir | kaynağı değiştir]

Birçok farklı RNN mimarisi vardır.

Tam yinelemeli

[değiştir | kaynağı değiştir]
Bir yinelemeli sinir ağı özyinelemeli bağlantılarla (sol) ya da açılmış halde gösterilebilir (sağ). Açılmış biçimde, her düğüm farklı bir katman gibi görünse de, aynı renkli düğümler aynı katmanın farklı zamanlardaki halidir.

Tam yinelemeli sinir ağlarında tüm nöronların çıktısı tüm nöronların girdisine bağlanır. En genel RNN mimarisi budur, çünkü diğer tüm mimariler, buradaki bazı bağların ağırlıkları sıfırlanarak elde edilebilir. RNN'ler iki farklı biçimde gösterilir: kapalı biçimde, özyineleme bağlantıları düğümlerin kendilerinin bir sonraki adımdaki durumuna olan bağlantılarıdır; açılmış biçimde, düğümlerin her zaman adımındaki durumları ayrı ayrı gösterilir.

Geçitli yineleme birimi

[değiştir | kaynağı değiştir]
Geçitli yineleme birimi

Geçitli yineleme birimi (İngilizce: gated recurrent unit, GRU) 2014 yılında önerilmiş bir yinelemeli ağ birimidir. Bu birimler, nöronlar arasındaki geçişi düzenleyen bir takım öğeler barındırır.[11][12] LSTM'e benzer şekilde unutma kapısı bulunur, ancak GRU yapıları genellikle daha basittir.[13] Polifonik müzik ve konuşma sinyali modelleme gibi işlerde LSTM'e benzer bir başarıyla çalışır.[14]

Kaynakça

[değiştir | kaynağı değiştir]
  1. ^ Dupond, Samuel (2019). "A thorough review on the current advance of neural network structures". Annual Reviews in Control. Cilt 14. ss. 200-230. 3 Haziran 2020 tarihinde kaynağından arşivlendi3 Kasım 2021. 
  2. ^ Abiodun, Oludare Isaac; Jantan, Aman; Omolara, Abiodun Esther; Dada, Kemi Victoria; Mohamed, Nachaat Abdelatif; Arshad, Humaira (1 Kasım 2018). "State-of-the-art in artificial neural network applications: A survey". Heliyon (İngilizce). 4 (11). ss. e00938. doi:10.1016/j.heliyon.2018.e00938 Özgürce erişilebilir. ISSN 2405-8440. PMC 6260436 Özgürce erişilebilir. PMID 30519653. 
  3. ^ Tealab, Ahmed (1 Aralık 2018). "Time series forecasting using artificial neural networks methodologies: A systematic review". Future Computing and Informatics Journal (İngilizce). 3 (2). ss. 334-340. doi:10.1016/j.fcij.2018.10.003 Özgürce erişilebilir. ISSN 2314-7288. 29 Kasım 2021 tarihinde kaynağından arşivlendi3 Kasım 2021. 
  4. ^ Graves, Alex; Liwicki, Marcus; Fernandez, Santiago; Bertolami, Roman; Bunke, Horst; Schmidhuber, Jürgen (2009). "A Novel Connectionist System for Improved Unconstrained Handwriting Recognition" (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5). ss. 855-868. CiteSeerX 10.1.1.139.4502 Özgürce erişilebilir. doi:10.1109/tpami.2008.137. PMID 19299860. 2 Ocak 2014 tarihinde kaynağından arşivlendi (PDF)3 Kasım 2021. 
  5. ^ Sak, Haşim; Senior, Andrew; Beaufays, Françoise (2014). "Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling" (PDF). 6 Eylül 2015 tarihinde kaynağından (PDF) arşivlendi. 
  6. ^ Li, Xiangang; Wu, Xihong (15 Ekim 2014). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arXiv:1410.4281 Özgürce erişilebilir. 
  7. ^ Hyötyniemi, Heikki (1996). "Turing machines are recurrent neural networks". Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13-24. 
  8. ^ Williams, Ronald J.; Hinton, Geoffrey E.; Rumelhart, David E. (October 1986). "Learning representations by back-propagating errors". Nature. 323 (6088): 533-536. Bibcode:1986Natur.323..533R. doi:10.1038/323533a0. ISSN 1476-4687. 
  9. ^ Schmidhuber, Jürgen (1993). Habilitation thesis: System modeling and optimization (PDF). s. 150. [ölü/kırık bağlantı]
  10. ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1 Kasım 1997). "Long Short-Term Memory". Neural Computation. 9 (8): 1735-1780. doi:10.1162/neco.1997.9.8.1735. PMID 9377276. 
  11. ^ Heck, Joel; Salem, Fathi M. (12 Ocak 2017). "Simplified Minimal Gated Unit Variations for Recurrent Neural Networks". arXiv:1701.03452 Özgürce erişilebilir. 
  12. ^ Dey, Rahul; Salem, Fathi M. (20 Ocak 2017). "Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks". arXiv:1701.05923 Özgürce erişilebilir. 
  13. ^ Britz, Denny (27 Ekim 2015). "Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML". Wildml.com. 27 Ekim 2015 tarihinde kaynağından arşivlendi. Erişim tarihi: 18 Mayıs 2016. 
  14. ^ Chung, Junyoung; Gulcehre, Caglar; Cho, KyungHyun; Bengio, Yoshua (2014). "Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling". arXiv:1412.3555 Özgürce erişilebilir. 
Otorite kontrolü Bunu Vikiveri'de düzenleyin
  • GND: 4379549-3
"https://tr.wikipedia.org/w/index.php?title=Yinelemeli_sinir_ağı&oldid=36324605" sayfasından alınmıştır
Kategoriler:
  • Yapay zekâ
  • Yapay sinir ağları
Gizli kategoriler:
  • Ölü dış bağlantıları olan maddeler
  • GND tanımlayıcısı olan Vikipedi maddeleri
  • Sayfa en son 19.25, 1 Kasım 2025 tarihinde değiştirildi.
  • Metin Creative Commons Atıf-AynıLisanslaPaylaş Lisansı altındadır ve ek koşullar uygulanabilir. Bu siteyi kullanarak Kullanım Şartlarını ve Gizlilik Politikasını kabul etmiş olursunuz.
    Vikipedi® (ve Wikipedia®) kâr amacı gütmeyen kuruluş olan Wikimedia Foundation, Inc. tescilli markasıdır.
  • Gizlilik politikası
  • Vikipedi hakkında
  • Sorumluluk reddi
  • Davranış Kuralları
  • Geliştiriciler
  • İstatistikler
  • Çerez politikası
  • Mobil görünüm
  • Wikimedia Foundation
  • Powered by MediaWiki
Yinelemeli sinir ağı
Konu ekle