Fleiss'in Kappa Katsayısı

Kısaca: Fleiss'in kappa katsayısı ikiden fazla sabit sayida değerleyici arasındaki karşılaştirmalı uyuşmanın güvenirliğini ölçen bir istatistik yöntemidir.. ...devamı ☟

Fleiss'in kappa katsayısı ikiden fazla sabit sayida değerleyici arasındaki karşılaştirmalı uyuşmanın güvenirliğini ölçen bir istatistik yöntemidir.. Fleiss'in kappa ölçüsü sabit sayıda (n tane) değerleyicinin her birinin, (N tane) maddeyi veya kişiyi (C tane) birbirinden karşılıklı hariç olan kategoriye göre ayırmaları süreci sonunda ortaya çıkan değerleyiciler arasındaki uyuşmayı ölçer. Fleiss'in kappa ölçüsü bu uyuşmanın bir şans eseri olabileceğini de ele aldığı için basit yüzde orantı olarak bulunan uyuşmadan daha güçlü bir sonuç verdiği kabul edilir. Ortaya çıkan kategorik değişken olduğu için Fleiss'in kappa katsayısı bir parametrik olmayan istatistik türüdür. Fleiss'in kappa katsayısı iki değerleyicinin uyuşmaları sorunu inceleyen Scott'un pi katsayısı nın bir genelleştirilmesidir.. Benzer şekilde Cohen'in kappa katsayısına da ilişkilidir.. Ancak Scott'un pi katsayısı ve Cohen'in kappa katsayısı iki değerleyici olması gerektirirken, Fleiss'in kappa katsayisi ikiden daha çok herhangi bir sayıda değerleyici için uygulanabilir. Aynı onlar gibi, yine sabit sayıda değerleyicinin aralarındaki uyuşmanın ne kadar rastgelelik eseri olmadığı ve bu nedenle ne kadar guvenilir olduğunun sayısal olarak 0 ve 1 değerleri arasında ifade edilmektedir. Açıklamalar Bu konu şöyle daha genişletilebilir: Sabit n sayıda değerleyici vardır; bunların inceledikleri değerlendikleri haller N sayıdadır; herbir değerleyici her bir hal için k sayıda kategori sayısı verecektir. Eğer bir hal için iki değişik değerleyici aynı kategori sayısı vermişlerse, bu iki değerleyicinin uyuştuğunu gösterir; eğer kategori sayısı değişikse verilen kategori sayıları arasındaki farka dayanarak değişik derecede uyuşmazlık bulunur. Bu uyuşma ya rastgelelik sonucunda doğmuştur yahutta değerleyicilerin inanç ve davranışları birbirine benzemektedir. Fleiss'in kappa katsayısı tek bir hal için iki tane değerleyiciyi değil; n tane değerleyici tarafından N tane hal için yapılan değerlendirmelerle ilgilidir ve bu değerlendirmeler arasındaki uyuşmanın ne derecede rastgelelikten ayrıldığının sayısal ifadesidir. Fleiss'in kappa katsayısı şöyle tanımlanmıştır: :\kappa = \frac - \bar}} Burada 1 - \bar faktorü rastgelelik ötesinde ne derece uyuşma olabilmesinin mümkün olduğunu gösterir; \bar - \bar gözümlenen gerçekte ne derecede rastgelelik ötesinde uyuşma derecesinin ortaya çıktığını açıklar. Aşağıda Fleiss'in kappa katsayısını bulmak için hesaplar için örneğinde şu araştırma sorunu ele alınmaktadir: :Büyük bir psikiyatri kliniği olan bir hastanede 10 hasta için 14 tane doktor ve psikiyatrist tedavi için hastaları 5 kategoride değerlendirmektedirler. Her hasta için her doktor/psikiyatrist beş kategoriden birini seçmektedir. Bu değerlendirmeler bir tabloda aşağıda verilmiştir. Fleiss'in kappa katsayısı bulunup doktor/psikiyatristlerin değerlendirmelerinde kendi aralarında, şans eseri olmayan bir şekilde, ne ölçüde uyuştuklari incelenecektir. Formüller N değerlendirilecek hallerin sayısı; n toplam değerleyici sayısı ve k ise degerlemede kullanılacak kategori sayısı olsun. Haller i indeks sayısı ile belirlensin i=1,...,N; değer kategorileri j ile indekslensin j=1,...,k. nij i-inci hali j-inci kategoriye koyan değerleyiciyi temsil etmektedir. * Önce j-inci kategoriye koyulmuş değerlendirme oranı, p_ olarak, hesaplanır: (1) :p_ = \frac \sum_^N n_,\quad\quad 1 = \frac \sum_^k n_ * Sonra i-inci hal için değerleyicilerin ne derece uyuştuklarını gösteren P_\,, hesaplanir: (2) :P_ = \frac \sum_^k n_ (n_ - 1) :: = \frac \left(\sum_^k (n_^2 - n_)\right) :: = \frac \left(\sum_^k n_^2 - n\right) * Simdi P_i\,lerin ortalaması olan \bar hesaplanır: (3) :\bar = \frac \sum_^N P_ :: = \frac \left(\sum_^N \sum_^k n_^2 - N n\right) * En son toplam ortalama \sum_^k p_ ^2 olan \bar hesaplanır: (4) :\bar = \sum_^k p_ ^2 * Sonuç olarak bunlar yukarıda verilen formüle konulup Fleiss'in kappa katsayısı bulunur: (5) :\kappa = \frac - \bar}} Fleiss'in kappa katsayisi için şu değerler hemen yorumlanır: * κ=1 : Tum değerleyiciler hep birlikte birbirine uyuşmaktadırlar. * κ=0 : Değerleyiciler aralarinda uyuşmalar sadece şans ile belirlenmiştir ve diğer hallerde hiçbir uyuşma yoktur. == Örneğin Veri serisi Bu orneginde 14 tane degerleyici (yani n=14), 10 sayida bir orneklem hallerini (yani N=10) degerlendirip 5 kategoriye (yani k=5) ayirmaktadirler. Asagida orneklem halleri satirlarda ve kategorilerde sutunlarda gosterilmistir. Burada kullanilan kutucizim girdileri ve hesap sonucları verilecektir:
Veri ozetleri sunlardir: N = 10, n = 14, k = 5 Tum gozeler icin toplam = 140 P_\, icin toplam= 3.780

Formül ve hesaplar

Birinci kategori sütunu toplamı için toplam orantı şöyle bulunur: :p_1 = \frac = 0.143 İkinci satır hali için toplam orantı şöyle bulunur: :P_2 = \frac \left(0^2 + 2^2 + 6^2 + 4^2 + 2^2 - 14\right) = 0.253 \bar değerini hesaplamak için, P_i toplamı bulunur: ::~ = 1.000 + 0.253 + ... + 0.286 + 0.286 = 3.780 Tüm veri serisi ve hesaplama sayfası için :\bar = \frac \left((3.780) (14) (14-1)\right) = 0.378 :\bar_ = 0.143^2 + 0.200^2 + 0.279^2 + 0.150^2 + 0.229^2 = 0.210 Sonuç olarak Kappa formülü kullanılır: :\kappa = \frac = 0.211 == Sonuç yorumlaması == Landis ve Koch (1977) elde edilen \kappa değerlerini yorumlamak için şu tabloyu sunmuşlardır. Verilen örneğinde :\kappa = 0.211 bulunduğu için ancak orta dereceli bir uyuşma olduğu sonucu çıkarılabilir. Ancak bu tabloda verilen yorumlar ve hatta verilen aralıklar hakkında istatistikçiler arasında anlaşmazlık vardır. Landis ve Koch yazılarında verdikleri aralıklar ve yorumlar için teorik delil vermemişlerdir ve bu ifadeler ancak birer şahsi inanç olarak kabul edilebilirler. Bazı istatistikçilere göre bu aralıklar ve yorumlar araştırmacılara zararlı olabilirler. . Bu aralıklar ve yorumlar araştırıcılara Kappa değerinin değişken kategori sayısından da (yani Cden) etkilendiği gerçeğini unutturabilir. Bilinmektedir ki kategori sayısı ne kadar küçük olursa kappa değeri de büyük olmaktadır. == İçsel kaynaklar == * Cohen'in kappa katsayısı * Pearson'un çarpım-moment korelasyon katsayısı == Referanslar Dışsal kaynaklar == * Kappa: Pros and Cons Katsayı hakkında kapsamlı bir makaleler bibliyografyası vermektedir.

Kaynaklar

Vikipedi

Bu konuda henüz görüş yok.
Görüş/mesaj gerekli.
Markdown kullanılabilir.