Kovaryans matrisi - Vikipedi
İçeriğe atla
Ana menü
Gezinti
  • Anasayfa
  • Hakkımızda
  • İçindekiler
  • Rastgele madde
  • Seçkin içerik
  • Yakınımdakiler
Katılım
  • Deneme tahtası
  • Köy çeşmesi
  • Son değişiklikler
  • Dosya yükle
  • Topluluk portalı
  • Wikimedia dükkânı
  • Yardım
  • Özel sayfalar
Vikipedi Özgür Ansiklopedi
Ara
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç
  • Bağış yapın
  • Hesap oluştur
  • Oturum aç

İçindekiler

  • Giriş
  • 1 Tanımlama
  • 2 Kullanılan notasyonlarda ve isimlendirmede çatışmalar
  • 3 Özellikleri
  • 4 Bir doğrusal operatör olarak
  • 5 Hangi matrisler kovaryans matrisleridir?
  • 6 Uygun bir kovaryans matrisi nasıl bulunur
  • 7 Kompleks rassal vektorler
  • 8 Kestirim
  • 9 Olasılık yoğunluk fonksiyonu
  • 10 Dipnotlar
  • 11 Ayrıca bakınız
  • 12 Dış bağlantılar

Kovaryans matrisi

  • العربية
  • Català
  • Čeština
  • Deutsch
  • English
  • Español
  • فارسی
  • Français
  • Magyar
  • İtaliano
  • 日本語
  • 한국어
  • Nederlands
  • Polski
  • Português
  • Русский
  • Slovenčina
  • Slovenščina
  • Sunda
  • Українська
  • Tiếng Việt
  • 中文
  • 粵語
Bağlantıları değiştir
  • Madde
  • Tartışma
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Araçlar
Eylemler
  • Oku
  • Değiştir
  • Kaynağı değiştir
  • Geçmişi gör
Genel
  • Sayfaya bağlantılar
  • İlgili değişiklikler
  • Kalıcı bağlantı
  • Sayfa bilgisi
  • Bu sayfayı kaynak göster
  • Kısaltılmış URL'yi al
  • Karekodu indir
Yazdır/dışa aktar
  • Bir kitap oluştur
  • PDF olarak indir
  • Basılmaya uygun görünüm
Diğer projelerde
  • Vikiveri ögesi
Görünüm
Vikipedi, özgür ansiklopedi
Merkezi noktası (1, 3) olan ve yaklaşık (0,878,0,778) yönde standart sapma değeri 3 ve ona dikey ortogonal yönde 1 olan bir çokdeğişirli normal dağılım. x ve y ortakca değiştikleri için, x ve y kısım varyansları bu dağılımı tam olarak tanımlamamaktadır ve tüm tanımlama için (2 x 2) dereceli bir kovaryans matrisi verilmesi gerekir. Grafikteki okların yönleri bu kovaryans matrisinin eigenvektörlerini göstermektedir. (Bunlar karşıt eigendeğerlerin kare kökleri ile yeniden boyutlandırılmışlardır.)

İstatistikte, kovaryans matrisi (veya varyans-kovaryans matrisi veya varyans matrisi), rassal vektörlerin elemanları arasındaki kovaryansları içeren matristir. Kovaryans matrisi, skaler-değerli rassal değişkenler için var olan varyans kavramının çok boyutlu durumlara genelleştirilmesidir.

Tanımlama

[değiştir | kaynağı değiştir]

Eğer şu sütun vektörü içine

X = [ X 1 ⋮ X n ] {\displaystyle \mathbf {X} ={\begin{bmatrix}X_{1}\\\vdots \\X_{n}\end{bmatrix}}} {\displaystyle \mathbf {X} ={\begin{bmatrix}X_{1}\\\vdots \\X_{n}\end{bmatrix}}}

giren değişkenlerin her biri sonlu varyansı olan rassal değişken iseler, o halde (i, j) elemanı bir kovaryans olan matris Σ kovaryans matrisi olur:

Σ i j = c o v ( X i , X j ) = E [ ( X i − μ i ) ( X j − μ j ) ] {\displaystyle \Sigma _{ij}=\mathrm {cov} (X_{i},X_{j})=\mathrm {E} {\begin{bmatrix}(X_{i}-\mu _{i})(X_{j}-\mu _{j})\end{bmatrix}}} {\displaystyle \Sigma _{ij}=\mathrm {cov} (X_{i},X_{j})=\mathrm {E} {\begin{bmatrix}(X_{i}-\mu _{i})(X_{j}-\mu _{j})\end{bmatrix}}}

burada

μ i = E ( X i ) {\displaystyle \mu _{i}=\mathrm {E} (X_{i})\,} {\displaystyle \mu _{i}=\mathrm {E} (X_{i})\,}

X vektöründeki iinci değişkenin beklenen değeri olur. Diğer bir deyişle, elimizde şu vardır:

Σ = [ E [ ( X 1 − μ 1 ) ( X 1 − μ 1 ) ] E [ ( X 1 − μ 1 ) ( X 2 − μ 2 ) ] ⋯ E [ ( X 1 − μ 1 ) ( X n − μ n ) ] E [ ( X 2 − μ 2 ) ( X 1 − μ 1 ) ] E [ ( X 2 − μ 2 ) ( X 2 − μ 2 ) ] ⋯ E [ ( X 2 − μ 2 ) ( X n − μ n ) ] ⋮ ⋮ ⋱ ⋮ E [ ( X n − μ n ) ( X 1 − μ 1 ) ] E [ ( X n − μ n ) ( X 2 − μ 2 ) ] ⋯ E [ ( X n − μ n ) ( X n − μ n ) ] ] . {\displaystyle \Sigma ={\begin{bmatrix}\mathrm {E} [(X_{1}-\mu _{1})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{1}-\mu _{1})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{1}-\mu _{1})(X_{n}-\mu _{n})]\\\\\mathrm {E} [(X_{2}-\mu _{2})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{2}-\mu _{2})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{2}-\mu _{2})(X_{n}-\mu _{n})]\\\\\vdots &\vdots &\ddots &\vdots \\\\\mathrm {E} [(X_{n}-\mu _{n})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{n}-\mu _{n})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{n}-\mu _{n})(X_{n}-\mu _{n})]\end{bmatrix}}.} {\displaystyle \Sigma ={\begin{bmatrix}\mathrm {E} [(X_{1}-\mu _{1})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{1}-\mu _{1})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{1}-\mu _{1})(X_{n}-\mu _{n})]\\\\\mathrm {E} [(X_{2}-\mu _{2})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{2}-\mu _{2})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{2}-\mu _{2})(X_{n}-\mu _{n})]\\\\\vdots &\vdots &\ddots &\vdots \\\\\mathrm {E} [(X_{n}-\mu _{n})(X_{1}-\mu _{1})]&\mathrm {E} [(X_{n}-\mu _{n})(X_{2}-\mu _{2})]&\cdots &\mathrm {E} [(X_{n}-\mu _{n})(X_{n}-\mu _{n})]\end{bmatrix}}.}

Bu matrisin tersi' olan matris, yani Σ − 1 {\displaystyle \Sigma ^{-1}} {\displaystyle \Sigma ^{-1}}, ters kovaryans matrisi ya da konsantrasyon matrisi veya kesinlik matrisi olarak anılır.[1] Bu "ters kovaryans matrisi"nın elemanları kısmî korelasyonlar veya kısmî varyanslara yapılan atıflarla açıklanabilirler.

Kullanılan notasyonlarda ve isimlendirmede çatışmalar

[değiştir | kaynağı değiştir]

İstatistik literatüründe bu kavram için isimlendirme tek-örnek olarak değil, değişik şekillerde yapılmaktadır:

  • Amerikan olasılık teoricisi William Feller'in takipçileri bu matrise X rassal vektörünün Varyans matrisi adını verirler; çünkü bu tek-boyutlu varyans kavramının doğal olarak daha yüksek boyutlarda genelleştirilmesidir.
  • Diğerleri bu matris covaryans matris olarak isimlendirirler, çünkü bu X {\displaystyle X} {\displaystyle X} matrisinin skaler parçalarının arasında olan kovaryansların matrisidir.

Böylece

var ⁡ ( X ) = cov ⁡ ( X ) = E [ ( X − E [ X ] ) ( X − E [ X ] ) ⊤ ] . {\displaystyle \operatorname {var} ({\textbf {X}})=\operatorname {cov} ({\textbf {X}})=\mathrm {E} \left[({\textbf {X}}-\mathrm {E} [{\textbf {X}}])({\textbf {X}}-\mathrm {E} [{\textbf {X}}])^{\top }\right].} {\displaystyle \operatorname {var} ({\textbf {X}})=\operatorname {cov} ({\textbf {X}})=\mathrm {E} \left[({\textbf {X}}-\mathrm {E} [{\textbf {X}}])({\textbf {X}}-\mathrm {E} [{\textbf {X}}])^{\top }\right].}

Ama iki vektör arasındaki karşılıklı-kovaryans için notasyon sadece tek bir standarta uyar:

cov ⁡ ( X , Y ) = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ⊤ ] . {\displaystyle \operatorname {cov} ({\textbf {X}},{\textbf {Y}})=\mathrm {E} \left[({\textbf {X}}-\mathrm {E} [{\textbf {X}}])({\textbf {Y}}-\mathrm {E} [{\textbf {Y}}])^{\top }\right].} {\displaystyle \operatorname {cov} ({\textbf {X}},{\textbf {Y}})=\mathrm {E} \left[({\textbf {X}}-\mathrm {E} [{\textbf {X}}])({\textbf {Y}}-\mathrm {E} [{\textbf {Y}}])^{\top }\right].}

Özel var notasyonu William Feller'in An Introduction to Probability Theory and Its Applications, adlı eserinde kullanılır; ama her iki alternatif notasyon da standart olarak kullanılmaktadır; bu iki değişik başta açılanıp öğrenilmekte ve anlayıp kullananlar için bir anlam karışıklığına neden olmamaktadır.

Σ {\displaystyle \Sigma } {\displaystyle \Sigma } matrisi ise çok zaman varyans-kovaryans matris olarak anılır; çünkü bu matrisin diagonal elemanları varyanslardır.

Özellikleri

[değiştir | kaynağı değiştir]

X p-boyutlu bir rassal değişken ve Y q-boyutlu bir rassal değişken için Σ = E [ ( X − E [ X ] ) ( X − E [ X ] ) ⊤ ] {\displaystyle \Sigma =\mathrm {E} \left[\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)^{\top }\right]} {\displaystyle \Sigma =\mathrm {E} \left[\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)^{\top }\right]} ve μ = E ( X ) {\displaystyle \mu =\mathrm {E} ({\textbf {X}})} {\displaystyle \mu =\mathrm {E} ({\textbf {X}})}, olarak verilmişse, su temel ozellikler bulunmaktadır:

  1. Σ = E ( X X ⊤ ) − μ μ ⊤ {\displaystyle \Sigma =\mathrm {E} (\mathbf {XX^{\top }} )-\mathbf {\mu } \mathbf {\mu ^{\top }} } {\displaystyle \Sigma =\mathrm {E} (\mathbf {XX^{\top }} )-\mathbf {\mu } \mathbf {\mu ^{\top }} }
  2. Σ {\displaystyle \Sigma \,} {\displaystyle \Sigma \,} bir positif semi-definit matrisdir.
  3. var ⁡ ( A X + a ) = A var ⁡ ( X ) A ⊤ {\displaystyle \operatorname {var} (\mathbf {AX} +\mathbf {a} )=\mathbf {A} \,\operatorname {var} (\mathbf {X} )\,\mathbf {A^{\top }} } {\displaystyle \operatorname {var} (\mathbf {AX} +\mathbf {a} )=\mathbf {A} \,\operatorname {var} (\mathbf {X} )\,\mathbf {A^{\top }} }
  4. cov ⁡ ( X , Y ) = cov ⁡ ( Y , X ) ⊤ {\displaystyle \operatorname {cov} (\mathbf {X} ,\mathbf {Y} )=\operatorname {cov} (\mathbf {Y} ,\mathbf {X} )^{\top }} {\displaystyle \operatorname {cov} (\mathbf {X} ,\mathbf {Y} )=\operatorname {cov} (\mathbf {Y} ,\mathbf {X} )^{\top }}
  5. cov ⁡ ( X 1 + X 2 , Y ) = cov ⁡ ( X 1 , Y ) + cov ⁡ ( X 2 , Y ) {\displaystyle \operatorname {cov} (\mathbf {X} _{1}+\mathbf {X} _{2},\mathbf {Y} )=\operatorname {cov} (\mathbf {X} _{1},\mathbf {Y} )+\operatorname {cov} (\mathbf {X} _{2},\mathbf {Y} )} {\displaystyle \operatorname {cov} (\mathbf {X} _{1}+\mathbf {X} _{2},\mathbf {Y} )=\operatorname {cov} (\mathbf {X} _{1},\mathbf {Y} )+\operatorname {cov} (\mathbf {X} _{2},\mathbf {Y} )}
  6. Eğer p = q ise o zaman var ⁡ ( X + Y ) = var ⁡ ( X ) + cov ⁡ ( X , Y ) + cov ⁡ ( Y , X ) + var ⁡ ( Y ) {\displaystyle \operatorname {var} (\mathbf {X} +\mathbf {Y} )=\operatorname {var} (\mathbf {X} )+\operatorname {cov} (\mathbf {X} ,\mathbf {Y} )+\operatorname {cov} (\mathbf {Y} ,\mathbf {X} )+\operatorname {var} (\mathbf {Y} )} {\displaystyle \operatorname {var} (\mathbf {X} +\mathbf {Y} )=\operatorname {var} (\mathbf {X} )+\operatorname {cov} (\mathbf {X} ,\mathbf {Y} )+\operatorname {cov} (\mathbf {Y} ,\mathbf {X} )+\operatorname {var} (\mathbf {Y} )}
  7. cov ⁡ ( A X , B ⊤ Y ) = A cov ⁡ ( X , Y ) B {\displaystyle \operatorname {cov} (\mathbf {AX} ,\mathbf {B} ^{\top }\mathbf {Y} )=\mathbf {A} \,\operatorname {cov} (\mathbf {X} ,\mathbf {Y} )\,\mathbf {B} } {\displaystyle \operatorname {cov} (\mathbf {AX} ,\mathbf {B} ^{\top }\mathbf {Y} )=\mathbf {A} \,\operatorname {cov} (\mathbf {X} ,\mathbf {Y} )\,\mathbf {B} }
  8. Eğer X {\displaystyle \mathbf {X} } {\displaystyle \mathbf {X} } ve Y {\displaystyle \mathbf {Y} } {\displaystyle \mathbf {Y} } birbirlerinden bağımsız iseler, o halde

cov ⁡ ( X , Y ) = 0 {\displaystyle \operatorname {cov} (\mathbf {X} ,\mathbf {Y} )=0} {\displaystyle \operatorname {cov} (\mathbf {X} ,\mathbf {Y} )=0}

burada X , X 1 {\displaystyle \mathbf {X} ,\mathbf {X} _{1}} {\displaystyle \mathbf {X} ,\mathbf {X} _{1}} ve X 2 {\displaystyle \mathbf {X} _{2}} {\displaystyle \mathbf {X} _{2}} rassal p×1 derecede vektör, Y {\displaystyle \mathbf {Y} } {\displaystyle \mathbf {Y} } rassal q×1 derecede vektör, a {\displaystyle \mathbf {a} } {\displaystyle \mathbf {a} } ise q×1 derecede vektör, A {\displaystyle \mathbf {A} } {\displaystyle \mathbf {A} } ve B {\displaystyle \mathbf {B} } {\displaystyle \mathbf {B} } (q×p) dereceli matrislerdir.

Bu kovaryans matrisi değişik alanlarda uygulamaları bulunan bir matematik araçtır. Bu matrisden bir transformayon matrisi çıkartılabilir ve bu veride bulunan bütün korelasyonların elimine edilebilmesini mümkün kılar. Bu transformasyon matrisi bularak tüm korelasyonları elimine etme analizine temel bileşenler ("principal components) analizi adı verilir.

Bir doğrusal operatör olarak

[değiştir | kaynağı değiştir]

Hangi matrisler kovaryans matrisleridir?

[değiştir | kaynağı değiştir]

Uygun bir kovaryans matrisi nasıl bulunur

[değiştir | kaynağı değiştir]

Bazı uygulamalarda (örneğin sadece kısmen gözümlenen verilerden veri modeli kurmada) bir verilmiş belirli (gözümlenen kovaryanslardan oluşmuş) bir simetrik matrise "en yakın" kovaryans matrisi bulmak istenebilir. 2002 yılında, Higham [2] "ağırlıklı Frobenius normu" kullanarak en yakınlılık kavramını formalize etmiştir ve böylece en yakın kovaryans matrisi bulmak için gereken yöntemi vermiştir.

Kompleks rassal vektorler

[değiştir | kaynağı değiştir]

Kestirim

[değiştir | kaynağı değiştir]

Bir çoklu değişirli normal dağılım için kovaryans matrisinin maksimum-olabilirlilik kestrimcisininin elde edilmesi, belki çok zeki bir ince tranformasyon ile kolayca yapılabilir. Bakın kovaryans matrisleri kestimi

Olasılık yoğunluk fonksiyonu

[değiştir | kaynağı değiştir]

Bir n {\displaystyle n} {\displaystyle n} tane korelasyonlu rassal değişken dizisi için olasılık yoğunluk fonksiyonu, n dereceli bir Gauss-tipi vektor olan birlesik olasılık fonksiyonu olup Maksimum olabilirlik maddesinde açıklanmaktadır.

Dipnotlar

[değiştir | kaynağı değiştir]
  1. ^ Wasserman, Larry (2004), All of Statistics: A Concise Course in Statistical Inference (İngilizce)
  2. ^ Higham, Nicholas J. ""Computing the nearest correlation matrix—a problem from finance" IMA Journal of Numerical Analysis, Cilt 22 No.3 say.329

Ayrıca bakınız

[değiştir | kaynağı değiştir]
  • Kovaryans matrisleri kestrimi
  • Çok değişirli istatistik
  • Örneklem kovaryans matrisi
  • Gramian matrisi
  • eigendeğer dekompozisyon

Dış bağlantılar

[değiştir | kaynağı değiştir]
  • Weisstein, Eric W., "Covariance Matrix", MathWorld--A Wolfram Web Resource26 Temmuz 2019 tarihinde Wayback Machine sitesinde arşivlendi. (İngilizce) (Erişme:17.12.2009)
  • N.G. van Kampen, (1981) Stochastic processes in physics and chemistry. New York: North-Holland, (İngilizce)
"https://tr.wikipedia.org/w/index.php?title=Kovaryans_matrisi&oldid=36436426" sayfasından alınmıştır
Kategoriler:
  • Kovaryans ve korelasyon
  • Matrisler
  • Veri analizi
Gizli kategori:
  • Webarşiv şablonu wayback bağlantıları
  • Sayfa en son 15.54, 23 Kasım 2025 tarihinde değiştirildi.
  • Metin Creative Commons Atıf-AynıLisanslaPaylaş Lisansı altındadır ve ek koşullar uygulanabilir. Bu siteyi kullanarak Kullanım Şartlarını ve Gizlilik Politikasını kabul etmiş olursunuz.
    Vikipedi® (ve Wikipedia®) kâr amacı gütmeyen kuruluş olan Wikimedia Foundation, Inc. tescilli markasıdır.
  • Gizlilik politikası
  • Vikipedi hakkında
  • Sorumluluk reddi
  • Davranış Kuralları
  • Geliştiriciler
  • İstatistikler
  • Çerez politikası
  • Mobil görünüm
  • Wikimedia Foundation
  • Powered by MediaWiki
Kovaryans matrisi
Konu ekle