T Testi

Araştırmalarda t testini sıklıkla duymuş olduğunuzu tahmin ediyoruz. En sık kullanılan istatistiksel tekniklerden biridir. T testi denilince ilk olarak iki grup arasındaki test puanlarının anlamlılığının inceleneceği akla gelmektedir. Gerçekten de öyledir ancak bazı durumlarda illa iki grup olması da gerekmemektedir. T testi üç değişik şekilde uygulanabilmektedir. (Tek grup t testi, bağımsız örneklemler t testi ve ilişkili örneklemler t testi). Bu üç yöntem aşağıda açıklanmıştır.

Tek Grup T Testi (One sample test)

Eğer bir grubun bir özellikle ilgili ortalama puanı biliniyorsa ve araştırmacının ilgilendiği grupla bu bilinen değer arasında anlamlı fark olup olmadığı öğrenilmek isteniyorsa tek grup t testi kullanılır. Örnek: Diyelim ki bir öğretmen altıncı sınıf öğrencileri için geliştirilmiş bir matematik testini kendi öğrencilerine uyguluyor. Testin ortalamasının 60 olduğunu bilen araştırmacı kendi öğrencilerinin performansının ortalamadan anlamlı farklılık gösterip göstermediğini incelemek için tek grup t testi kullanmalıdır. Araştırma sorusunu ise şu şekilde sormalıdır: “Öğrencilerin ortalama matematik test puanları 60’tan farklı mıdır?”

Bağımsız Örneklemler T Testi (Independent Samples T Test)

İki farklı grubun aynı özellikle ilgili puan ortalamaları karşılaştırıldığında bağımsız ya da ilişkisiz örneklemler t testi kullanılmalıdır. Örnek: Bir araştırmacı aynı şirkette çalışan kadın ve erkek çalışanların aylık gelir ortalamalarının birbirinden farklı olup olmadığını araştırmak isteyebilir. Bu durumda kullanması gereken istatistiksel teknik bağımsız örneklemler t testidir. Örnek: Kadın ve erkek çalışanların aylık gelir ortalamaları arasında anlamlı farklılık var mıdır?

İlişkili Örneklemler T Testi (Paired Samples T Test) 

Eğer aynı grubun farklı iki zamandaki puan ortalamaları arasındaki fark incelenecekse bu durumda ilişkili örneklemler t testi kullanılmalıdır. Burada dikkat edilmesi gereken nokta grubun aynı olmasıdır. Ancak bazı durumlarda ölçülen özellik bakımından birbirine denk olduğu varsayılan ya da denk olduğu istatistiksel olarak kanıtlanan iki grup da aynı grup olarak değerlendirilmektedir. Örnek: Farelerin A ilacı verilmeden ve verildikten sonra gram cinsinden günlük yeme miktarları arasında anlamlı farklılık var mıdır?

NOT: T testi parametrik bir tekniktir ve uygulanması için bazı varsayımların karşılanması gerekmektedir. Bunlardan en önemlisi puan dağılımlarının normallik varsayımı karşılamasıdır. Verilerin analiz yapılmadan önce mutlaka analize hazır hale getirilmesi gerekmektedir.

Tek Yönlü Varyans Analizi (One Way ANOVA)

İki grubun sürekli bir özelliğinin (örneğin test puanlarının) anlamlı farklılık gösterip göstermediğini T Testi ile inceliyorduk. Peki ikiden daha fazla grup olursa ne yapmak gerekir? Bu durumda varsayımları karşılandığında Tek Yönlü Varyans Analizi kullanmak gerekmektedir. Bu durumu biraz daha açalım. Diyelim ki bir araştırmacı A şirketindeki personelin iş doyumunun çalışılan birime göre anlamlı farklılık gösterip göstermediğini merak etsin. A şirketinde ikiden daha fazla birim varsa (muhtemelen öyle olacaktır) bu durumda t testi yapması mümkün olmayacaktır. Uygulanması gereken istatistiksel teknik Tek Yönlü Varyans Analizi olacaktır. Bu arada iki grup için de tek yönlü varyans analizi yapılabilir. Bu durumda t testi ile aynı sonuç ortaya çıkacaktır.

Örnek

Öğrencilerin matematik dersine yönelik tutumları bulundukları düzeye göre (ilkokul, ortaokul, lise) anlamlı farklılık göstermekte midir? Yukarıdaki örneği yaptığımızı düşünelim. Analizi yaptık ve analiz sonucunda anlamlı fark olduğunu gördük. Ne anlama gelmektedir? Bu sonuca göre en az iki grup puanları arasında anlamlı farklılık bulunmaktadır. Bu sonuç illa ki üç grup puanı arasında da fark olduğu anlamına gelmemektedir. Hangi gruplar arasında fark olduğunu öğrenmek için de post-hoc testleri yapmamız gerekecektir.

Açımlayıcı Faktör Analizi (AFA)

Araştırmacıların ölçek geliştirdikleri zaman genelde kullanmaları gereken bir yöntemdir. Yapı geçerliği için kanıt olarak kullanılmaktadır. Ölçek geliştirirken araştırmacılar teorik olarak ölçeklerinin bazı faktörlerden oluştuğunu düşünerek o faktörler için maddeler yazarlar. Daha sonra bu taslak ölçeği bir grup üzerinde denerler. Bu denemeden sonra AFA yapıldığında teorik olarak oluşturulan yapının doğrulanıp doğrulanmadığı, ölçeğin kaç alt boyutunun olduğu, hangi maddelerin ölçekten çıkarılması gerektiği büyük oranda netleşecektir. Bu anlamda son derece kullanışlı bir yöntemdir. Faktör analizi keşfetmek ya da doğrulamak amacıyla yapılabilir. Burada keşfedici faktör analizinden bahsedilmektedir. Faktör analizi yapılırken ölçülen psikolojik özelliğe ve kullanılan tekniğe hâkim olmak gerekmektedir, bir başka ifadeyle profesyonellik önemlidir. Özellikle ölçeğin kaç boyutlu olduğuna ve ölçekten çıkarılacak maddelere karar verirken dikkatli olunmalıdır.

Doğrulayıcı Faktör Analizi (DFA)

Doğrulayıcı faktör analizi bir grup gözlenen değişkenin faktör yapısını doğrulamak için kullanılan istatistiksel bir tekniktir. AFA ile temel farkı AFA’nın keşfetme amaçlı, DFA’nın ise doğrulama amaçlı olmasıdır. Bir araştırmacı başka kültürde geliştirilmiş bir ölçme aracını kendi kültürüne göre uyarlamak istediğinde maddeleri denedikten sonra AFA değil DFA kullanmalıdır. Türkiye’de çok sayıda çalışmada DFA kullanılması gereken yerlerde AFA kullanıldığı görülmektedir. Bu bazı durumlarda araştırmacının eksik araştırma ve istatistik bilgisinden bazen de DFA yapmak AFA yapmaya göre daha zor olduğu için kasıtlı olarak AFA yapmasından kaynaklanmaktadır. Oysa ölçme aracını ilk geliştiren araştırmacının elinde tüm madde havuzu vardır ve keşfetme amacı taşıdığı için AFA kullanması gayet normaldir. Ölçme aracını uyarlayan araştırmacının ise elinde sadece ölçekte yer alan son maddeler bulunmaktadır. Zaten mantıklı bir şekilde düşünüldüğünde bu tür bir durumda DFA kullanmak gerektiği kendiliğinden ortaya çıkmaktadır. DFA yapmadan önce diğer analizlerde olduğu gibi mutlaka varsayımlarının test edilmesi gerekmektedir.

Regresyon Analizi

Regresyon analizi bir değişkenin başka değişken ya da değişkenlerce tahmin edilmesi amacıyla yapılan istatistiksel bir tekniktir. Regresyon tekniği ile doğrusal bir denklem oluşturulmak ve gelecek durumlarda bu denklem yardımıyla bireysel olaylar ya da gruplar hakkında tahminler yürütmek amaçlanır. Bir başka ifadeyle aslında yapılan düz bir çizgi ve bu çizgiye ait denklem elde etmektir. Düz bir çizgi elde edilmesi için ilişkinin doğrusal olması beklenir. Regresyon analizinde yordayıcı ve yordanan değişkenler bulunmaktadır. Yordanan değişken bir tanedir. Yordayıcı değişken(ler) bir ya da birden fazla olabilir. Eğer yordayıcı değişken bir taneyse basit, birden fazlaysa çoklu doğrusal regresyon analizi adını alır. Çoklu doğrusal regresyon analizinde yordayıcı değişkenlerin analize dahil edilme şekillerine göre çeşitli yöntemler kullanılabilir. Regresyon analizinde normallik varsayımı ile birlikte değişkenler arasında çoklu bağlantılılık sorunu olup olmadığının iyi incelenmesi gerekmektedir. Çoklu bağlantılılık sorunu iki değişkenin yüksek düzeyde korelasyon göstermesi sonucu olmaktadır. Bunun pratikteki anlamı iki değişkenin aslında neredeyse bir değişken gibi davranmasıdır. Bu durumda değişkenlerden birinin analiz dışında bırakılması gerekir. Bu gibi sorunlarla karşılaşmamak için alanyazının iyi taranması, regresyon analizinden önce mutlaka korelasyon analizinin yapılması gerekir.

Örnek:

Bir araştırmacı ailenin bazı özelliklerinin öğrencilerin fen başarısını ne derece tahmin ettiğini merak etmiş olabilir. Bu durumda araştırmacı aşağıdaki araştırma sorusunu sormalıdır: Sekizinci sınıf öğrencilerinin anne babalarının eğitim düzeyi, evlerindeki olanaklar ve evlerindeki eğitimsel kaynaklar öğrencilerin fen başarılarının anlamlı yordayıcıları mıdır?

CHAID Analizi

Bilimsel araştırmaların bir amacı da mevcut verilerden yola çıkarak bilinmeyenlerle ilgili tahminlerde bulunmaktır. Bu konuda çeşitli istatistiksel tekniklerden yararlanılmaktadır. Regresyon analizi, yapısal eşitlik modellemesi (YEM) ve hiyerarşik lineer modelleme (HLM) bu tekniklere örnek olarak verilebilir. Bu teknikler güçlüdür ancak analizin kuvveti arttıkça karşılanması gereken varsayımlar da güçlenmektedir. Ayrıca analize dahil edilecek değişken sayısı arttıkça model daha da karmaşıklaşmaktadır. CHAID analizi bu noktada araştırmacıların imdadına yetişmekte, parametrik ve parametrik olmayan teknikleri bir araya getirmektedir. Bu analizde karşılanması zor olan varsayımlar bulunmamaktadır. Ayrıca kategorik ve sürekli tüm değişkenler analize rahatlıkla dahil edilebilmektedir. Günümüz dünyasında üretilen veriler arttıkça bu verilerin analizinde klasik yöntemleri kullanmak giderek anlamsız hale gelmektedir. Veri madenciliği son yıllarda giderek artan bir öneme sahip olmaktadır. Veri madenciliğinde de karar ağaçları sınıflamaya dayalı algoritmaların regresyon analiziyle bütünleştirildiği çok boyutlu bir analiz yaklaşımıdır. Karar ağaçlarında CHAID, Exhaustive CHAID, CRT ve QUEST yöntemleri kullanılabilmektedir. Burada CHAID analizi ele alınmıştır. CHAID analizi kümeleme analizinin regresyon analizi ile birleşimi olarak düşünülebilir. Verileri, o veriyi en iyi açıklayan değişkene göre ikiye ayırmaktadır. Daha sonra ortaya çıkan yeni verileri tekrar en iyi açıklayan değişkene göre ikiye ayırmaktadır.

CHAID analizine örnek olarak aşağıda linki verilen makalemi okumanızı öneririm: http://ilkogretim-online.org.tr/vol13say2/v13s2m21.pdf

KÜMELEME Analizi

Kümeleme analizi, gözlemleri sahip oldukları özelliklere göre gruplara ayıran bir grup çok değişkenli teknik olarak tanımlanmaktadır. Kümeleme analizi, seçilen özellikler açısından birbirine diğerlerinden daha çok benzeyen gözlemleri (bireyleri ya da nesneleri) bir kümede toplar. Böylece küme içi homojenlikler, kümeler arası heterojenlikler maksimum kılınır. Eğer kümeleme işlemi başarılı ise, geometrik gösterimde küme içinde yer alan gözlemler birbirine yakın iken, farklı kümelerde yer alan gözlemler birbirinden uzakta olacaklardır (Hair, Anderson, Tatham ve Black, 1998). Kümeleme analizinin amacı büyük heterojen gruplardan yola çıkarak homojen özelliklere sahip kümeler oluşturmaktır. Gruplar ya da kümeler olabildiğince homojen, değişik kümeler ya da gruplar arasındaki farklılıklar da olabildiğince büyük olmalıdır.

Kümeleme analizi iki temel adıma ayrılabilir.
  1. Yakınlık ölçüsünün seçimi: Her bir gözlem çifti sahip olduğu değerlerin benzerliklerine göre kontrol edilir. Gözlemlerin yakınlığını (closeness) ölçmek için bir yakınlık ölçüsü tanımlanır. Gözlemler ne kadar yakınsa o kadar homojen olarak değerlendirilir.
  2. Küme oluşturma algoritmasının seçimi: Birinci maddede oluşturulan yakınlık ölçüleri temel alınarak gözlemler ya da nesneler gruplara gruplar arası farklılıklar büyük, grup içindeki nesneler ya da gözlemler de olabildiğince homojen olacak şekilde atanır (Härdle ve Simar, 2003).
Kümeleme analizinin bir takım özel amaçlar için de kullanılabileceğini Tatlıdil (1996) aşağıdaki gibi açıklamaktadır:
  1. Gerçek tiplerin belirlenmesi,
  2. Model uydurmanın kolaylaştırılması,
  3. Gruplar için ön tahmin,
  4. Hipotezlerin testi,
  5. Veri yapısının netleştirilmesi,
  6. Veri indirgemesi (veriler yerine kümelerin değerlendirilmesi),
  7. Uç değerlerin belirlenmesi.

Varsayımları

Diğer çok değişkenli tekniklerde oldukça önemli olan normallik, doğrusallık, varyansların homojenliği kümeleme analizinde çok az önem taşımaktadır. Yalnız araştırmacı iki kritik noktaya odaklanmalıdır. Bunlar: örneklemin temsililiği ve çoklu bağlantı (Hair ve diğ., 1998).

Benzerlik Ölçülerinin Seçimi

Kümeleme analizinin ilk adımı benzerlik ya da uzaklık matrisinin oluşturulmasıdır. Bu matris, satırlarında ve sütunlarında analiz birimleri olan ve hücrelerinde her bir gözlem çifti için benzerlik ya da uzaklık ölçümleri olan bir tablodur. Birbirine en yakın kümelerin geniş gruplar olarak birleştirilmesi ya da bir gözlem ile bir küme arasındaki ilişkinin ölçüt olarak kullanıldığı gözlemler arası uzaklıklar ya da kümeler arası benzerlik ve uzaklıklar için çeşitli ölçümler mevcuttur. Uzaklık ölçümleri, iki gözlemin birbirinden ne kadar uzak olduğunu gösterir. Birbirine benzer olan gözlemler arası uzaklıklar azdır. Benzerlik ölçümleri ise iki gözlemin birbirine ne kadar benzer olduğunu gösterir. Ancak tüm ölçümleri aslında “uzaklık ölçümü” olarak adlandırmak mümkündür; çünkü aynı işlevi görürler. Burada dikkat edilmesi gereken önemli bir nokta, eğer uzaklıkları tanımlamak için iki ya da daha fazla değişken kullanılıyorsa, bunlardan birinin daha baskın olacağıdır. Bunu önlemek için değişkenlerin standardizasyonu yararlı olacaktır (Hair ve ark., 2006). Veri tiplerine göre aşağıdaki tabloda verilen uzaklık ve benzerlik ölçüleri kullanılabilir.

Diskriminant Analizi

Çok değişkenli istatistiksel tekniklerden biri olan diskriminant analizi ilk kez 1936 yılında Ronald A. Fisher tarafından ortaya atılmıştır. Tek faktör çok değişkenli varyans analizinin bir uzantısıdır. Bu analiz sayesinde belirli bir veri setindeki değişkenlerin iki ya da daha fazla gruba atanmaları sağlanır. Bu gruplama yapılırken grupların örneğin p tane özelliği ele alınır. Bireyler ya da nesneler belirli gruplara optimum düzeyde sınıflandırılabilirler. Bazı özellikleri bilinen bir birey ya da nesnenin önceden belirlenmiş grupların hangisine ait olduğu da bu yöntemle belirlenebilir. Aşağıdaki amaçlarla kullanılabilir:

  1. Grup üyeliğini tahmin etmek, başka bir deyişle, bir verinin (gözlem, denek, vaka) hangi değişken grubuna gireceğine karar vermek için kullanılabilir.
  2. Ayırma (diskriminant) fonksiyon eşitliğini kullanarak, verilerin gruplara ayrılmasına yardımcı olur.
  3. Bağımsız değişkenlerin aritmetik ortalamalarının gruplar arasında nasıl değiştiğini tespit etmek amacıyla kullanılabilir.
  4. Bağımlı değişkenin varyansının ne kadarının bağımsız değişkenler tarafından açıklanabildiğini belirlemek için kullanılabilir.
  5. Grupları ayırmada etkili olan ve olamayan değişkenleri belirlemek için kullanılabilir.
  6. Verilerin tahmin edildiği gibi sınıflandırılıp sınıflandırılmadığını test etmek için kullanılabilir.
Diskriminant analizi MANOVA’nın tersi olarak da düşünülebilir.

Varsayımları

Diskriminant analizi güçlü bir istatistiksel yöntemdir ancak her güçlü yöntemde olduğu gibi bazı varsayımları karşılaması gerekmektedir. Varsayımları aşağıda verilmiştir:
  1. Örneklem Büyüklüğü:
  2. Normal dağılım
  3. Varyans-kovaryans matrislerinin homojenliği
  4. Uç değerler
  5. Çoklu doğrusal bağlantı

Örnekler

Diskriminant analizinin tam olarak anlaşılması için bir örnek verelim. Diyelim ki üniversitede bir bölümün öğretim üyeleri son dönemlerde lisansüstü eğitime başlayıp bitirmeyen çok sayıda öğrenci olduğunu fark ettiler. Lisansüstü eğitime başlayıp bitiren ve zamanında bitiremeyen 40’ar öğrenciyi belirlediler. Daha sonra bu öğrencilere ait ALES, YDS, Lisans ortalaması vb. bazı puanları kullandılar. Bu 80 öğrenci normalde rastgele başarılı ya da başarısız gruplarına atansalar doğru atanma oranı %50 olmalıdır. Ancak diskriminant analizi gibi güçlü bir teknik kullanıldığında doğru tahmin oranı %90’ları geçebilmektedir. Tabii ki varsayımlarını karşılamak koşuluyla. Başka bir örnek verelim. Bir sigorta şirketi bazı özelliklerini kullanarak müşterilerini diskriminant analizi ile sınıflandırdığında primini düzenli ödeyecek ve ödemeyecek müşterileri çok büyük bir doğrulukla belirleyebilecektir. Diskriminant analizi ile siz neleri araştırabilirsiniz?

Lojistik Regresyon

Regresyon analizinde yordayıcı değişken(ler) ve yordanan değişken arasında doğrusal bir ilişki kurulmak istenir. Yordanan değişken sürekli değişkendir. Yordanan değişkenin kategorik olduğunu düşünelim. Bu durumda basit ya da çoklu doğrusal regresyon kullanılamaz, lojistik regresyon kullanmak gerekir. Aslında aynı durumda diskriminant analizinin de kullanılabileceğini gördük daha önce. Diskriminant analizinin varsayımlarını karşılamak her zaman mümkün olamamaktadır. Lojistik regresyon bu anlamda daha kullanışlı bir teknik olarak ortaya çıkmaktadır. Lojistik regresyonun kullanılabileceği bir örnek vermek gerekirse bir hastalığın bazı özellikleri biliniyorsa ve bir kişiden de elde edilen bazı verilerden o kişinin bahsedilen hastalığı taşıyıp taşımadığı hakkında tahminde bulunulabilir.

Lojistik regresyon analizi bağımlı değişkenin ölçüldüğü ölçek türüne ve bağımlı değişkenin kategori sayısına göre 3’e ayrılmaktadır:

  1. İkili Lojistik Regresyon
  2. Sınıflamalı (Nominal) Lojistik Regresyon
  3. Sıralı Lojistik Regresyon

Lojistik Regresyon Analizini yapabilmek için tabii ki bazı varsayımlar vardır. Bu varsayımlar aşağıda verilmiştir:

  1. Kategorilerde yer alan birey sayısı/oranı
  2. Çoklu Doğrusal Bağlantı (Multicollinearity)
  3. Uç Değerler
  4. Doğrusallık (Bağımsız değişken-Logit değer)
  5. Hataların bağımsızlığı

Yapısal Eşitlik Modellemesi (YEM)

Yapısal Eşitlik Modellemesi (YEM) denildiği zaman tek bir istatistiksel teknik akla gelmemelidir. Çok sayıda istatistiksel tekniği barındıran istatistiksel teknikler topluluğu ya da ailesi olarak düşünülebilir. YEM’de en temel amaç, elinizdeki veri ile kafanızdaki kavramsal dünyanın önermelerini eşleştirmek ve bunların birbiriyle ne kadar uyuştuğunu belirlemektir. Bu anlamda keşfedici değil doğrulayıcı yapısı ön plana çıkmaktadır. YEM çalışmalarında teorik yapının çok iyi kurgulanması gerekmektedir. Yoksa sükutu hayale uğrayabilirsiniz.

YEM çalışmaları üç türe ayrılabilir:

  1. Doğrulayıcı modelleme stratejisi
  2. Alternatif modeller stratejisi.
  3. Model geliştirme stratejisi

YEM’de değişkenler çeşitli şekillerde sınıflandırılabilirler. En yaygın olanı gözlenen değişkenler ve gizil değişkenler olarak yapılan sınıflandırmadır. YEM’de gizil, gözlenen haricinde içsel, dışsal ve referans değişken kavramları mevcuttur.

Gizli değişken:

Teorik olarak varoldukları varsayılan ancak doğrudan ölçülemeyen değişkenlere denir.

Gözlenen değişken:

Doğrudan ölçülemeyen gizil değişkenlerin göstergeleri ya da maddeleri gözlenen değişken olarak adlandırılır.

Dışsal değişken:

Modelin başlangıç noktası olarak düşünülebilir. Bu değişken(ler) başka hiç bir değişken tarafından yordanmamaktadır.

İçsel değişken:

Modelde başka değişken(ler) tarafından yordanan değişkendir.

Referans değişken:

YEM’de gizil değişkenler o değişkenleri en iyi ölçtüğü düşünülen değişkenlere sabitlenirler. Bu sabitlenen değişkenlere referans değişken adı verilir.

Serbestlik derecesi diğer istatistiksel tekniklerde örneklem büyüklüğüne bağlıdır. YEM’de ise modelle ifade edilmiş doğrusal ilişkilerin sayısı aracılığı ile ifade edilen bir değerdir. YEM’de değişkenlerin doğrudan mı dolaylı mı yoksa aracılık etkisinin mi olduğu önemlidir. YEM’in Varsayımları

  1. Örneklem büyüklüğü ve kayıp veri
  2. Çok değişkenli normallik ve uç değerler
  3. Doğrusallık
  4. Çoklu bağlantı ve tekillik
  5. Artıklar
YEM güçlü bir istatistiksel tekniktir ancak sonuçlar yorumlanırken dikkatli olunmalıdır. Çünkü nedensellik ilişkisi ancak deneysel modellerde söz konusu olmaktadır. Tabiri yerindeyse analize haddi aşan anlam yüklememek gereklidir.

Hiyerarşik Lineer Modelleme (HLM)

Klasik regresyon yöntemlerinin önemli varsayımlarından biri gözlemlerin birbirinden bağımsız olmasıdır. Ancak veriler kümelenmiş ya da iç içe geçmiş bir yapıda olduğunda bu varsayım ihlal edilmektedir. Bu tür verilerde çok aşamalı regresyon modelleri uygulanmaktadır.

Peki verilerin iç içe geçmesi ya da aşamalı olması ne demektir? Bu neden sorun olmaktadır? Klasik analizler yapılırken veri setinde yer alan tüm bireyler aynı şekilde değerlendirilir. Örneğin bütün öğrencilerin başarı puanları ve çeşitli özelliklerine ait puanlar ele alınarak çoklu doğrusal regresyon analizi yapılabilir. Oysa bu öğrenciler farklı sınıflarda, farklı okullarda, farklı, ilçelerde, farklı illerde, farklı bölgelerde, farklı ülkelerde yer almaktadır. Eğer veri setinde bireyler ile ilgili yeterince veri varsa hepsi sanki aynı okulda ya da aynı sınıfta bulunuyor gibi davranmanın da gereği yoktur. Çünkü aynı sınıftaki öğrenciler diğer sınıftakilere göre birbirine daha çok benzer. Aynı okuldakiler diğer okullara göre, aynı ildekiler diğer illerdekine göre, aynı ülkedekiler de diğer ülkedekilere göre birbirine daha çok benzerler. İşte böyle bir veri setinde gözlemlerin birbirinden bağımsızlığı ihlal edilmektedir.

Çok aşamalı modellerde her bir grup için ayrı modeller kurulur ve bu modeller birleştirilerek birleşik modele ulaşılır.

Şimdi sosyal bilimlerde yapılan araştırmaları düşünelim. Bu araştırmaların çoğu aslında hiyerarşik (aşamalı) bir veri yapısına sahiptir. Peki bu veri yapısına hangi istatistiksel çözümlemeler yapılmaktadır? HLM ile ilgili üç yazarlı ve benim birinci yazar olduğum makaleye aşağıdaki linkten ulaşabilirsiniz:

https://edergi.mehmetakif.edu.tr/index.php/efd/article/view/1098/914

Çok Değişkenli Varyans Analizi (MANOVA)

Varyans analizinde bir bağımlı değişken bulunması durumunda ANOVA, birden fazla bağımlı değişken bulunması durumunda ise çok değişkenli varyans analizi (MANOVA) kullanmak gerekmektedir.

MANOVA’da bağımsız değişkenin bir tane olması durumunda çok değişkenli tek faktör varyans analizi, bağımsız değişkenin iki tane olması durumunda ise çok değişkenli iki faktör varyans analizi adını alır.

Kovaryans Analizi (ANCOVA)

Kovaryans analizi özellikle deneysel araştırmalarda deneysel kontrol amacıyla kullanılmaktadır. Deneysel kontrol; deneklerin gruplara tesadüfi atanmasıyla, deneklerin homojen gruplarda toplanması ve istatistiksel kontrol yapılması ile mümkün olmaktadır. Kovaryans analizi de istatistiksel kontrolü sağlamaktadır. Pratikte ortak bir değişken kontrol edilmektedir. Bu değişken kontrol edilmediğinde hatalı sonuçlar elde edilebilmektedir. ANCOVA regresyon ve ANOVA’yı birleştiren istatistiksel bir tekniktir. Deneysel bir araştırmada deneklere ön-test ve son-test uygulanmış olsun. Eğer ön-test puanları kontrol edilmez sadece son-test puanlarına bakılarak değerlendirme yapılırsa hataya düşülebilir. Belki de son-testte daha başarılı olan grup ön testte de zaten başarılıydı ve ön-test puanları kontrol edildiğinde arada anlamlı bir fark oluşmayacak ya da başarısız görünen grup aslında daha büyük bir ilerleme göstermiş olacak.

Doğru bir şekilde uygulanması durumunda ANCOVA’nın ANOVA’ya göre iki temel avantajı söz konusudur. Bu avantajlar;

  1. Hata varyansının azalmasıyla daha büyük bir istatistiksel güç sağlaması,
  2. Bir deneyin başlangıcında gruplar arası farkların olduğu durumlarda deneydeki yanlılıkta azalma sağlamasıdır.

ANCOVA tek yönlü ANCOVA ve iki yönlü ANCOVA olmak üzere iki şekilde adlandırılmaktadır.

Tek yönlü ANCOVA’da iki ya da daha fazla düzeyi olan kategorik bir bağımsız değişken, bir bağımlı değişken ve bir ya da daha fazla kovaryant değişken bulunmaktadır.

İki yönlü ANCOVA’da iki ya da daha fazla düzeyi olan iki bağımsız değişken, bir sürekli bağımlı değişken ve bir ya da daha fazla kovaryant değişken bulunmaktadır.

Varsayımları

Daha önce ANOVA ile regresyon analizinin birleşimi olduğunu söylemiştik. Bu durumda iki tekniğin de varsayımlarını karşılaması gerekmektedir. Bu varsayımlar şunlardır:
  1. Gruplar birbirinden bağımsız olmalıdır.
  2. Varyanslar homojen olmalıdır.
  3. Bağımlı değişken eşit aralık ya da oran ölçeğinde olmalıdır.
  4. Bağımlı değişkenin dağılımı normalden önemli bir sapma göstermemelidir.
  5. Kovaryant değişken eşit aralık ya da oran ölçeğinde olmalıdır.
  6. Birden fazla ortak değişken olması durumunda bu değişkenlerin birbiriyle güçlü korelasyon göstermemelidirler.
  7. Ortak değişken ve bağımlı değişken doğrusal bir ilişki içinde olmalıdır. Bu ilişki doğrusal olmazsa analizin gücü zayıflar.
  8. Ortak değişken ve bağımlı değişken arasındaki ilişkinin gücü ve yönü her grupta benzer olmalıdır. Bir başka ifadeyle ortak değişken ve bağımlı değişken arasındaki ilişki üzerinde bağımsız değişkenin etkisi olmamalıdır. Bu varsayımın karşılanmaması durumunda ANCOVA’nın yapılmaması önerilmektedir.

Çok Değişkenli Kovaryans Analizi (MANCOVA)

Kovaryans analizinde bağımlı değişken sayısının birden fazla olması durumunda ANCOVA uygulanamamaktadır. Bu durumda kullanılması gereken istatistiksel teknik çok değişkenli kovaryans analizi yani MANCOVA’dır. MANCOVA; MANOVA ile ANCOVA’nın birleşimi gibi de düşünülebilir. MANCOVA tek faktörlü ya da … olabilir. Tek faktörlü MANCOVA’da 2 bağımlı değişken, 1 bağımsız değişken, 1 ya da daha fazla ortak (kovaryant) değişken bulunmaktadır.

Örnek

Üniversite öğrencilerinin, istatistiğe yönelik tutum puanları kontrol edildiğinde motivasyon ve başarı puanları bölümlerine göre anlamlı farklılık göstermekte midir?

Tek faktörlü MANCOVA’nın varsayımları 1.Gruplar birbirinden bağımsız olmalıdır. 2.Bağımlı değişkenlere ilişkin puanlar, tek değişkenli ve çok değişkenli normal dağılım gösterir. Bağımlı değişkenlerin her biri, bağımsız değişkenin her bir düzeyinde (alt grubunda) normal dağılır (tek değişkenli normallik); bağımlı değişkenler bağımsız değişkenin düzeylerinde çok değişkenli normal dağılır (çok değişkenli normallik). 3.Bağımlı değişkenler arasında doğrusal ilişki vardır. Bağımlı değişkenlerin olası tüm ikili kombinasyonları arasında doğrusal bir ilişki vardır. 4.Bağımlı değişkene ilişkin puanların varyans-kovaryans matrisleri homojendir. Bağımlı değişkenlerin her biri için grupların varyanslarının eşitliği ve bağımlı değişkenlerin olası tüm ikili kombinasyonları için kovaryansların eşit olduğu varsayılır. 5.Birden fazla kovaryant değişken kullanılacaksa, seçilen kovaryant değişkenler arasında güçlü bir korelasyon olmamalıdır. Eğer yüksek derecede bir korelasyon (r=0,8 ve daha fazla) varsa, kovaryant değişkenlerden biri ya da birkaçı çıkarılmalıdır. 6.Bağımlı değişken ve kovaryant değişken doğrusal bir ilişki içinde olmalıdır. Değilse, hata varyansını çok az azaltılabilecektir. Kovaryant değişken ve bağımlı değişken arasındaki korelasyonun 0,30’dan yüksek olduğu durumlar etkilidir. 7.Kovaryant değişken ve bağımlı değişken arasındaki ilişkinin gücü ve yönü her grupta benzer olmalıdır. 8.Deneysel modelde kullanılan bağımsız değişkenin, kovaryant değişken üzerinde etkisi olmaması gerekir. 9.Gruplar içi regresyon katsayıları eşit olmalıdır. 10.Çok değişkenli kovaryans analizinde, bağımlı değişken ve Kovaryant değişkenler, metrik değişkenler olmalıdır. Bu nedenle çok değişkenli normalliğin karşılanması gerekir. Grup değişkenleri (bağımsız değişkenler) sınıflama ölçeğinde olmalıdır.

Korelasyon Analizi

Korelasyon değişkenler arasında ilişki olup olmadığını ilişki varsa yönünü ve büyüklüğünü hesaplamak amacıyla yapılan bir analizdir. Burada sıklıkla kullanılan bazı tekniklere yer verilmiştir. Diğer tekniklerde olduğu gibi korelasyonda da verinin sürekli mi yoksa kategorik mi olduğu, normal dağılım sergileyip sergilemediği hangi korelasyon analizinin yapılması gerektiği kararını etkilemektedir.

Pearson Korelasyon Katsayısı

Eğer ilişkisi incelenecek değişkenler (iki ya da daha fazla değişken) sürekli ise ve normal dağılım gösteriyorlarsa bu korelasyon katsayısının hesaplanması gerekmektedir. Hemen örnek verelim: Öğrencilerin zeka testi puanları ile matematik testi puanları arasındaki ilişkiyi incelemek istediğimizde bu puanların ikisinin de sürekli (eşit aralık düzeyinde) olduğunu görürüz. Eğer her iki puan da normal dağılım sergiliyorsa Pearson korelasyon katsayısını hesaplarız. Korelasyon katsayısı çeşitli alt testlerden oluşan ölçeklerde yapı geçerliğine kanıt olarak da sunulmaktadır.

Spearman Sıra Farkları Korelasyon Katsayısı

Yukarıda verilen örnekte az sayıda öğrenciden veri toplanmışsa ya da veriler normal dağılım sergilemiyorsa Pearson korelasyon katsayısı kullanılamaz, bu durumda Spearman sıra farkları korelasyon katsayısını kullanmak gerekmektedir.

Çift Serili Korelasyon Katsayısı

Biri sürekli diğeri yapay olarak iki kategorili hale getirilmiş iki değişken arasındaki ilişkiyi incelemek amacıyla bu korelasyon katsayısı kullanılır. Örnekle demek istediklerimizi daha somut hale getirelim: Diyelim ki elimizde bireylerin hafıza testi sonuçları ve yaşları bulunsun. Aslında iki değişken de sürekli veridir. 70 yaş üstü bireylerle 70 yaş altı bireylerin hafıza testi sonuçları arasındaki ilişkiyi incelemek istediğimizde yaş sürekli değişkenini öncelikle kategorik hale getirmemiz gerekir. Aslında sürekli olan değişkeni yapay olarak iki kategorili hale getirdik. Bu durumda kullanmamız gereken korelasyon katsayısı çift serili korelasyon katsayısıdır.

Nokta Çift Serili Korelasyon Katsayısı

Biri sürekli diğeri gerçek süreksiz ve iki kategorili iki değişken arasındaki ilişkiyi incelemek amacıyla bu korelasyon katsayısı kullanılır. Yine hemen örnek verelim: Diyelim ki çalışanların iş doyumu puanları ve cinsiyet bilgilerine sahibiz. İş doyumu puanları sürekli, cinsiyet ise gerçekten iki kategorili süreksiz bir değişkendir. Bu durumda nokta çift serili korelasyon katsayısını kullanarak kadın ve erkek çalışanların iş doyumu puanları arasında anlamlı ilişki olup olmadığını inceleyebiliriz. Yukarıda kısaca açıklanan korelasyon katsayılarının dışında da çeşitli korelasyon katsayıları bulunmaktadır. Araştırmanın amacına ve verinin yapısına göre kullanılması gereken korelasyon katsayısına karar vermek gerekmektedir. Ayrıca bir çok başka teknik için de bir alt basamak olarak değişkenlerin korelasyon katsayısı hesaplanmaktadır. Örneğin regresyon analizi yapmak için değişkenlerin belirli bir düzeyde korelasyon göstermeleri gerekmektedir.

Betimsel İstatistikler

Betimsel istatistik deyince akla frekans dağılımı, ortalama, ortanca, tepedeğer, standart sapma, varyans vb. değerler gelmektedir. Araştırmalarda raporlaştırma yapılırken kullanılan ölçme araçlarından elde edilen bu tğr değerlerin verilmesi gerekmektedir. Bu aşamada gerekli görülmesi halinde verilerin yeniden kodlanması, kategorilerin birleştirilmesi vb. verileri analize hazırlama işlemleri yapılmalıdır.

Ki Kare Analizi

Sürekli değişkenlerin çeşitli değişkenlere göre farkını incelemek amacıyla çeşitli testler olduğunu gördük. Peki bağımsız değişkenimiz sürekli değil de kategorik ise bu durumda ne yapmak gerekir?

Mann Whitney U Testi

İlişkisiz örneklemler t-testinin non-parametrik karşılığıdır. Bağımlı değişkenin normallik varsayımını karşılamaması ya da örneklem sayısının az olması durumlarında tercih edilmelidir. Verinin eşit aralıklı değil sıralama ölçeğinde toplanması durumunda da Mann Whitney U testi uygulanmalıdır.

Wilcoxon İşaretli Sıralar Testi

Daha önce bağımsız örneklemler t-testinin non-parametrik karşılığının Mann Whitney U testi olduğunu görmüştük. Peki, bağımlı örneklemler t-testi yapmak isteyen bir araştırmacı verilerin normal dağılmadığını görürse ne yapacak? Bu durumda Wilcoxon İşaretli Sıralar Testini kullanmak gerekmektedir.

Kruskal Wallis Testi

Tek yönlü ANOVA testinin non-parametrik karşılığıdır. ANOVA’da olduğu gibi kategoriler üç ya da daha fazla olmalıdır. Eğer en az iki grup arasında fark olduğu tespit edilirse farkın hangi gruplar arasında olduğunu anlamak için uygulanabilecek post-hoc testleri yoktur. Post-hoc testi olarak ikili ikili Mann Whitney U testi uygulanabilir.

Friedman Testi

Tek yönlü tekrarlı ANOVA testinin non-parametrik karşılığıdır. Non-parametrik olduğu için veriler normal dağılmamalıdır. Ayrıca üç ya da daha fazla kategorinin olduğu durumlarda kullanılabilir ve her kategorideki veriler aynı bireylere aittir.

Test Analizleri

    Cronbach’ın Alfa Güvenirlik Katsayısı

Daha çok tipik davranışların ölçüldüğü ölçme araçlarının güvenirliğini kestirmek amacıyla kullanılır. Alternatif sayısının ikiden fazla olması gerekir. Alternatif sayısı iki olduğunda formül KR-20 katsayısını verir. Bir başka ifadeyle KR-20 katsayısı Cronbach’ın alfa katsayısının özel bir halidir. Genelde 0-1 arasında değerler alır ve 1’e mümkün olduğunca yaklaşması istenir.

    KR-20 Güvenirlik Katsayısı

İç tutarlılık yöntemlerinden bir diğeri KR-20’dir. Cronbach’ın alfa katsayısının iki kategorili veriler için özel bir halidir.

    KR-21 Güvenirlik Katsayısı

Bu katsayı testteki maddelerin birbirine yaklaşık güçlük düzeylerinde (yaklaşık olarak .50) olduğunda kullanılır. KR-20’nin özel bir halidir.

    Madde Analizi

Testlerde teste ait analizlerin dışında her bir madde için de analizler yapılmalıdır. Madde analizi sayesinde maddelerin güçlük ve ayırt edicilik düzeyleri hakkında bilgi edinilebilir.

Wald Wolfowitz Testi

Testlerde teste ait analizlerin dışında her bir madde için de analizler yapılmalıdır. Madde analizi sayesinde maddelerin güçlük ve ayırt edicilik düzeyleri hakkında bilgi edinilebilir.

Doğrulayıcı Faktör Analizi (DFA)

Açımlayıcı Faktör Analizinin (AFA) keşfedici bir yönü vardır. DFA’da ise keşfedilen bu yapının doğrulanması gerekmektedir. Türkiye’de yapılan akademik çalışmalarda DFA’nın kullanılması gerekirken kullanılmaması gibi yaygın bir hataya rastlanmaktadır. Ölçme aracını ilk geliştiren araştırmacının elinde madde havuzu bulunduğu için AFA yapması normaldir ve gereklidir. Tabii ki pilot uygulama sonunda yapılan AFA’dan sonra asıl uygulamadan sonra DFA yapmalıdır. Aynı ölçme aracını kullanmak isteyen bir diğer araştırmacı da genelde DFA uygulamalıdır. Ancak bazı çalışmalarda DFA yerine AFA kullanıldığı görülmektedir.

© Copyright 2016 - .::MsHaKaN::.