Pasek boczny

pl:statpqpl:porown3grpl

Porównanie - więcej niż 2 grupy

{\footnotesize
\begin{center}
\begin{pspicture}(0,2.5)(15,14.5)
\rput(2,14){Skala interwałowa}
\rput[tl](.1,13.4){\ovalnode{A}{\hyperlink{rozkład_normalny}{\begin{tabular}{c}Czy rozkład\\zmiennych jest\\rozkładem\\normalnym?\end{tabular}}}}
\rput[tl](0.15,10){\ovalnode{B}{\hyperlink{zalezne_niezalezne}{\begin{tabular}{c}Czy zmienne\\są powiązane?\end{tabular}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{A}{B}
\rput[tl](4.5,9.8){\ovalnode{M}{\hyperlink{sferycznosc}{\begin{tabular}{c}Czy\\sferyczność\\jest spełniona?\end{tabular}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{B}{M}
\rput[br](10.9,8){\rnode{P}{\psframebox{\hyperlink{anovar}{\begin{tabular}{c}ANOVA\\dla grup\\zależnych\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{M}{P}
\rput[br](7.7,5.5){\rnode{R}{\psframebox{\hyperlink{kor_br_sf}{\begin{tabular}{c}MANOVA\\lub ANOVA\\z korekta\\Epsilon, GG, H-F\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{M}{R}
\rput[tl](0.1,8){\ovalnode{C}{\hyperlink{wariancja}{\begin{tabular}{c}Czy wariancje\\zmiennych\\w populacjach\\ są równe?\end{tabular}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{B}{C}
\rput[br](3,3){\rnode{D}{\psframebox{\hyperlink{anova_one_way}{\begin{tabular}{c}ANOVA\\dla grup\\niezależnych\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{C}{D}
\rput[br](7.75,3.4){\rnode{N}{\psframebox{\hyperlink{anova_one_way_cor}{\begin{tabular}{c}ANOVA\\dla grup\\niezależnych\\z korekta $F^*$ i $F''$\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{C}{N}
\psline{->}(3.7,12.3)(6,12.3)
\rput(2.2,10.4){T}
\rput(2.2,8.3){N}
\rput(2.2,5.0){T}
\rput(4.8,12.5){N}
\rput(6.8,11.4){T}
\rput(8.9,11.4){N}
\rput(11.9,11.4){T}
\rput(14.1,11.4){N}
\rput(4.2,9.5){T}
\rput(4.1,6.1){N}
\rput(8.5,9.1){T}
\rput(6.5,7.7){N}
\rput(8,14){Skala porządkowa}
\rput[tl](6,13){\ovalnode{E}{\hyperlink{zalezne_niezalezne}{\begin{tabular}{c}Czy zmienne\\są powiązane?\end{tabular}}}}
\rput[br](7.8,10){\rnode{F}{\psframebox{\hyperlink{anova_friedmana}{\begin{tabular}{c}ANOVA\\Friedmana\end{tabular}}}}}
\rput[br](10.0,9.6){\rnode{G}{\psframebox{\hyperlink{anova_kruskal-wallis}{\begin{tabular}{c}ANOVA\\Kruskala\\Wallisa\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{E}{F}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{E}{G}
\rput(13,14){Skala nominalna}
\rput[tl](11,13){\ovalnode{H}{\hyperlink{zalezne_niezalezne}{\begin{tabular}{c}Czy zmienne\\są powiązane?\end{tabular}}}}
\rput[br](13.1,10){\rnode{I}{\psframebox{\hyperlink{anova_q_cochrana}{\begin{tabular}{c}ANOVA\\Q-Cochrana\end{tabular}}}}}
\rput[br](16.1,8.41){\rnode{J}{\psframebox{\hyperlink{chi_kwadrat_olbrzymi}{\begin{tabular}{c}test $\chi^2$ dla\\ wielowymiarowych\\tabel kontngencji\end{tabular}}}}}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{H}{I}
\ncline[angleA=-90, angleB=90, arm=.5, linearc=.2]{->}{H}{J}
\rput(3.5,4.9){\hyperlink{test_levenea}{test Levenea,}} 
\rput(3.5,4.6){\hyperlink{test_levenea}{Browna-Forsythea}} 
\psline[linestyle=dotted]{<-}(2.6,5.6)(3.5,5.0)
\rput(4,11){\hyperlink{testy_normalnosci}{testy normalnosci}}
\rput(4,10.7){\hyperlink{testy_normalnosci}{rozkladu}}
\psline[linestyle=dotted]{<-}(3.2,11.4)(3.9,11.2)
\rput(9.0,7.0){\hyperlink{sferycznosc}{test Mauchlya}} 
\psline[linestyle=dotted]{<-}(7.9,8.1)(9.0,7.3)
\end{pspicture}
\end{center}}

Uwaga!

Zaproponowany schemat wyboru testów do porównania wielu grup nie jest jedynym możliwym schematem i nie zawiera wszystkich zaproponowanych w programie testów przeznaczonych do tego porównania.

Uwaga!

Jednoczesne porównywanie większej liczby grup NIE może być zastąpione wielokrotnym wykonywaniem testów dla porównania dwóch grup. Wynika to z konieczności kontrolowania błędu pierwszego rodzaju $\alpha$. Wybierając poziom $\alpha$ i stosując $k$-krotnie wybrany test dla porównania dwóch grup zwiększylibyśmy znacznie założony poziom $\alpha$. Tego błędu unikniemy stosując odpowiednie testy ANOVA (ang. Analysis of Variance) oraz dedykowane im kontrasty, czy też testy POST-HOC.

 

Testy parametryczne

ANOVA dla grup niezależnych

Jednoczynnikowa analiza wariancji (ANOVA) dla grup niezależnych (ang. one-way analysis of variance) zaproponowana przez Ronalda Fishera, służy do weryfikacji hipotezy o równości średnich badanej zmiennej w kilku ($k\geq2$) populacjach.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & \mu_1=\mu_2=...=\mu_k,\\
\mathcal{H}_1: & $nie wszystkie $\mu_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\mu_1$,$\mu_2$,…,$\mu_k$ $-$ średnie badanej zmiennej w populacjach, z których pobrano próby.

Statystyka testowa ma postać:

\begin{displaymath}
F=\frac{MS_{BG}}{MS_{WG}},
\end{displaymath}

gdzie:

$\displaystyle MS_{BG} = \frac{SS_{BG}}{df_{BG}}$ - średnia kwadratów między grupami,

$\displaystyle MS_{WG} = \frac{SS_{WG}}{df_{WG}}$ - średnia kwadratów wewnątrz grup,

$\displaystyle SS_{BG} = \sum_{j=1}^k{\frac{\left(\sum_{i=1}^{n_j}x_{ij}\right)^2}{n_j}}-\frac{\left(\sum_{j=1}^k{\sum_{i=1}^{n_j}x_{ij}}\right)^2}{N}$ - suma kwadratów między grupami,

$\displaystyle SS_{WG} = SS_{T}-SS_{BG}$ - suma kwadratów wewnątrz grup,

$\displaystyle SS_{T} = \left(\sum_{j=1}^k{\sum_{i=1}^{n_j}x_{ij}^2}\right)-\frac{\left(\sum_{j=1}^k{\sum_{i=1}^{n_j}x_{ij}}\right)^2}{N}$ - całkowita suma kwadratów,

$df_{BG}=k-1$ - stopnie swobody (między grupami),

$df_{WG}=df_{T}-df_{BG}$ - stopnie swobody (wewnątrz grup),

$df_{T}=N-1$ - całkowite stopnie swobody,

$N=\sum_{j=1}^k n_j$,

$n_j$ - liczności prób dla $(j=1,2,...k)$,

$x_{ij}$ - wartości zmiennej w próbach dla $(i=1,2,...n_j)$, $(j=1,2,...k)$.

Statystyka ta podlega rozkładowi F Snedecora z $df_{BG}$ i $df_{WG}$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Wielkość efektu - cząstkowa $\eta^2$

Wielkość ta określa proporcję wariancji wyjaśnionej do wariancji całkowitej związanej z danym czynnikiem. Zatem w modelu jednoczynnikowej ANOVA dla grup niezależnych wskazuje jaka część wewnątrzosobowej zmienności wyników może być przypisana badanemu czynnikowi wyznaczającemu grupy niezależne.

\begin{displaymath}
\eta^2=\frac{SS_{BG}}{SS_{BG}+SS_{res}}
\end{displaymath}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC

Okno z ustawieniami opcji jednoczynnikowej ANOVA dla grup niezależnych wywołujemy poprzez menu StatystykaTesty parametryczneANOVA dla grup niezależnych lub poprzez Kreator.

Przykład (plik wiek ANOVA.pqs)

W pewnym doświadczeniu bierze udział 150 osób wybranych w sposób losowy z populacji pracowników 3 różnych firm przewozowych. Z każdej firmy do próby wybrano 50 osób. Przed przystąpieniem do eksperymentu należy sprawdzić czy średni wiek pracowników tych firm jest podobny, od tego bowiem zależeć będzie kolejny etap eksperymentu. Wiek każdego uczestnika eksperymentu zapisano w latach.

Wiek (przewoźnik 1): 27, 33, 25, 32, 34, 38, 31, 34, 20, 30, 30, 27, 34, 32, 33, 25, 40, 35, 29, 20, 18, 28, 26, 22, 24, 24, 25, 28, 32, 32, 33, 32, 34, 27, 34, 27, 35, 28, 35, 34, 28, 29, 38, 26, 36, 31, 25, 35, 41, 37

Wiek (przewoźnik 2): 38, 34, 33, 27, 36, 20, 37, 40, 27, 26, 40, 44, 36, 32, 26, 34, 27, 31, 36, 36, 25, 40, 27, 30, 36, 29, 32, 41, 49, 24, 36, 38, 18, 33, 30, 28, 27, 26, 42, 34, 24, 32, 36, 30, 37, 34, 33, 30, 44, 29

Wiek (przewoźnik 3): 34, 36, 31, 37, 45, 39, 36, 34, 39, 27, 35, 33, 36, 28, 38, 25, 29, 26, 45, 28, 27, 32, 33, 30, 39, 40, 36, 33, 28, 32, 36, 39, 32, 39, 37, 35, 44, 34, 21, 42, 40, 32, 30, 23, 32, 34, 27, 39, 37, 35

Przed przystąpieniem do analizy ANOVA potwierdzono normalność rozkładu danych.

W oknie analizy sprawdzono założenie równości wariancji, uzyskując w obydwu testach p>0.05.

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & $średnia wieku dla pracowników wszystkich badanych firm przewozowych $\\
&$jest taka sama,$\\   
\mathcal{H}_1: & $przynajmniej 2 średnie są różne.$
\end{array}
$

Porównując wartość $p=0.0051$ jednoczynnikowej analizy wariancji z poziomem istotności $\alpha=0.05$ stwierdzamy, że średni wiek pracowników tych firm przewozowych jest różny. Na podstawie wyniku samej ANOVA nie możemy odpowiedzieć sobie na pytanie, które grupy różnią się pod względem wieku. By uzyskać taką wiedzę wykorzystany zostanie jeden z testów POST-HOC, np. test Tukeya. W tym celu {wznawiamy analizę} przyciskiem i w oknie opcji testu wybieramy Tukey HSD oraz dołączmy wykres.

Najmniejsza istotna różnica (NIR) wyznaczona dla każdej pary porównań jest taka sama (ponieważ liczności grup są sobie równe) i wynosi 2.7309. Porównanie wartości NIR z wartością różnicy średnich wskazuje, że istotne różnice występują tylko pomiędzy wartością średnią dla wieku pracowników pierwszej i trzeciej firmy przewozowej (tylko w przypadku porównania tych dwóch grup wartość NIR jest mniejsza od różnicy średnich). Ten sam wniosek wyciągniemy porównując wartości $p$ testu POST-HOC z poziomem istotności $\alpha=0.05$. Pracownicy pierwszej firmy są młodsi średnio o nieco ponad 3 lata od pracowników trzeciej firmy. Uzyskano dwie, zazębiające się grupy jednorodne, które zaznaczono również na wykresie.

Dokładny opis danych możemy przedstawić wybierając w oknie analizy statystyki opisowe

2014/08/22 20:00

Kontrasty i testy POST-HOC

Analiza wariancji daje informację tylko o tym, czy między populacjami występują istotne statystycznie różnice. Nie mówi ona, które populacje różnią się między sobą. By uzyskać wiedzę o różnicach dla fragmentu naszego złożonego układu stosujemy kontrasty (gdy dokonujemy wcześniej zaplanowanych i zwykle tylko wybranych porównań - tzw. a'priori), lub procedury porównań wielokrotnych czyli testy POST-HOC (gdy po wykonanej analizie wariancji szukamy różnic, zwykle pomiędzy wszystkimi parami).

Liczba wszystkich możliwych porównań prostych wyliczana jest z wzoru:

\begin{displaymath}
c={k \choose 2}=\frac{k(k-1)}{2}
\end{displaymath}

Hipotezy:

Przykład 1 - porównania proste (porównanie pomiędzy sobą 2 wybranych średnich):

\begin{array}{cc}
\mathcal{H}_0: & \mu_1=\mu_2,\\
\mathcal{H}_1: & \mu_1 \neq \mu_2.
\end{array}

Przykład 2 - porównania złożone (porównanie kombinacji wybranych średnich):

\begin{array}{cc}
\mathcal{H}_0: & \mu_1=\frac{\mu_2+\mu_3}{2},\\[0.1cm]
\mathcal{H}_1: & \mu_1\neq\frac{\mu_2+\mu_3}{2}.
\end{array}

By można było zdefiniować wybrane hipotezy należy dla każdej średniej przypisać wartość kontrastu $c_j$, $(j=1,2,...k)$. Wartości $c_j$ są tak wybierane by ich sumy dla porównywanych stron były liczbami przeciwnymi, a ich wartość dla średnich nie biorących udziału w analizie wynosi 0.

  • Przykład 1: $c_1=1$, $c_2=-1$, $c_3=0, ...c_k=0$.
  • Przykład 2: $c_1=2$, $c_2=-1$, $c_3=-1$, $c_4=0$,…, $c_k=0$.

Wyboru właściwej hipotezy możemy dokonać:

  • $\mathfrak{(i)}$ Porównując różnicę wybranych średnich z najmniejszą istotną różnicą (NIR) wyznaczoną odpowiednim testem POST-HOC :

\begin{array}{ccl}
$ jeżeli $ $różnica średnich $ \ge NIR & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ $różnica średnich $ < NIR & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Test LSD Fishera

Dla porównań prostych i złożonych, zarówno równolicznych jak i różnolicznych grup, gdy wariancje nie różnią się istotnie.

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,df_{WG}}}\cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}},
\end{displaymath}

gdzie:

$F_{\alpha,1,df_{WG}}$ - to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz dla stopni swobody odpowiednio: 1 i $df_{WG}$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_j\overline{x}_j}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}}}.
\end{displaymath}

Statystyka ta podlega rozkładowi t-Studenta z $df_{WG}$ stopniami swobody.

Test Scheffego

Dla porównań prostych zarówno równolicznych jak i różnolicznych grup, gdy wariancje nie różnią się istotnie.

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,df_{BG},df_{WG}}}\cdot \sqrt{(k-1)\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}},
\end{displaymath}

gdzie:

$F_{\alpha,df_{BG},df_{WG}}$ - to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz $df_{BG}$ i $df_{WG}$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
F=\frac{\left(\sum_{j=1}^k c_j\overline{x}_j\right)^2}{(k-1)\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}}.
\end{displaymath}

Statystyka ta podlega rozkładowi F Snedecora z $df_{BG}$ i $df_{WG}$ stopniami swobody.

Test Tukeya.

Dla porównań prostych zarówno równolicznych jak i różnolicznych grup, gdy wariancje nie różnią się istotnie.

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\frac{\sqrt{2}\cdot q_{\alpha,df_{WG},k} \cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}}}{2},
\end{displaymath}

gdzie:

$q_{\alpha,df_{WG},k}$ - to wartość krytyczna (statystyka) rozkładu studentyzowanego rozstępu dla zadanego poziomu istotności $\alpha$ oraz $df_{WG}$ i $k$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
q=\sqrt{2}\frac{\sum_{j=1}^k c_j\overline{x}_j}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n_j}\right)MS_{WG}}}.
\end{displaymath}

Statystyka ta podlega rozkładowi studentyzowanego rozstępu z $df_{WG}$ i $k$ stopniami swobody.

Info.

Algorytm obliczania wartości p i statystyki rozkładu studentyzowanego rozstępu w PQStat bazuje na pracy Lunda (1983)1). Inne programy lub strony internetowe mogą wyliczać nieco inne wartości niż PQStat, gdyż mogą bazować na mniej precyzyjnych lub bardziej restrykcyjnych algorytmach (Copenhaver i Holland (1988), Gleason (1999)).

Test dla trendu.

Test badający istnienie trendu może być wyliczany w takiej samej sytuacji jak ANOVA dla zmiennych niezależnych, gdyż bazuje na tych samych założeniach, inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu wartości średnich dla kolejnych populacji. Analiza trendu w ułożeniu średnich oparta jest na kontrastach LSD Fishera. Budując odpowiednie kontrasty można badać dowolny rodzaj trendu np. liniowy, kwadratowy, sześcienny, itd. Poniżej znajduje się tabela przykładowych wartości kontrastów dla wybranych trendów.

\begin{tabular}{|cc||c|c|c|c|c|c|c|c|c|c|}
\hline
&&\multicolumn{10}{c|}{Kontrast}\\\hline
Liczba grup&Trend&$c_1$&$c_2$&$c_3$&$c_4$&$c_5$&$c_6$&$c_7$&$c_8$&$c_9$&$c_{10}$\\\hline\hline
\multirow{2}{*}{3}&liniowy&-1&0&1&&&&&&&\\
&kwadratowy&1&-2&1&&&&&&&\\\hline
\multirow{3}{*}{4}&liniowy&-3&-1&1&3&&&&&&\\
&kwadratowy&1&-1&-1&1&&&&&&\\
&sześcienny&-1&3&-3&1&&&&&&\\\hline
\multirow{3}{*}{5}&liniowy&-2&-1&0&1&2&&&&&\\
&kwadratowy&2&-1&-2&-1&2&&&&&\\
&sześcienny&-1&2&0&-2&1&&&&&\\\hline
\multirow{3}{*}{6}&liniowy&-5&-3&-1&1&3&5&&&&\\
&kwadratowy&5&-1&-4&-4&-1&5&&&&\\
&sześcienny&-5&7&4&-4&-7&5&&&&\\\hline
\multirow{3}{*}{7}&liniowy&-3&-2&-1&0&1&2&3&&&\\
&kwadratowy&5&0&-3&-4&-3&0&5&&&\\
&sześcienny&-1&1&1&0&-1&-1&1&&&\\\hline
\multirow{3}{*}{8}&liniowy&-7&-5&-3&-1&1&3&5&7&&\\
&kwadratowy&7&1&-3&-5&-5&-3&1&7&&\\
&sześcienny&-7&5&7&3&-3&-7&-5&7&&\\\hline
\multirow{3}{*}{9}&liniowy&-4&-3&-2&-1&0&1&2&3&4&\\
&kwadratowy&28&7&-8&-17&-20&-17&-8&7&28&\\
&sześcienny&-14&7&13&9&0&-9&-13&-7&14&\\\hline
\multirow{3}{*}{10}&liniowy&-9&-7&-5&-3&-1&1&3&5&7&9\\
&kwadratowy&6&2&-1&-3&-4&-4&-3&-1&2&6\\
&sześcienny&-42&14&35&31&12&-12&-31&-35&-14&42\\\hline
\end{tabular}

Trend liniowy

Trend liniowy, tak jak pozostałe trendy, możemy analizować wpisując odpowiednie wartości kontrastów. Jeśli jednak znany jest kierunek trendu liniowego, wystarczy skorzystać z opcji Trend liniowy i wskazać oczekiwaną kolejność populacji przypisując im kolejne liczby naturalne.

Analiza przeprowadzana jest w oparciu o kontrast liniowy, czyli wskazanym według naturalnego uporządkowania grupom przypisane są odpowiednie wartości kontrastu i wyliczona zostaje statystyka LSD Fishera.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Grupy jednorodne

Dla każdego testu post-hoc, budowane są grupy jednorodne. Każda grupa jednorodna przedstawia zbiór grup, które nie różnią się od siebie w sposób istotny statystycznie. Na przykład, załóżmy, że podzieliliśmy badanych na sześć grup odnośnie statusu palenia: Nonsmokers (NS), Passive smokers (PS), Noninhaling smokers (NI), Light smokers (LS), Moderate smokers (MS), Heavy smokers (HS) i badamy dla nich parametry wydechowe. W przeprowadzonej analizie typu ANOVA uzyskaliśmy istotne statystycznie różnice w parametrach wydechowych pomiędzy badanymi grupami. Chcąc wskazać które grupy różnią się istotnie, a które nie, wykonujemy testy typu post-hoc. W rezultacie oprócz tabeli z wynikami poszczególnych par porównań i podanej istotności statystycznej w postaci wartości $p$

uzyskujemy podział na grupy jednorodne:

W tym przypadku uzyskano 4 grupy jednorodne tzn. A, B, C i D, co wskazuje na możliwość przeprowadzania badania w oparciu o mniejszy podział tzn. zamiast sześciu grup, które badaliśmy pierwotnie można prowadzić dalsze analizy w oparciu o cztery wyznaczone tu grupy jednorodne. Kolejność grup ustalona została na podstawie średnich ważonych wyliczonych dla poszczególnych grup jednorodnych, w taki sposób, by litera A przypisana została go grupy o najniższej średniej ważonej średniej ważonej, a dalsze litery alfabetu kolejno do grup o coraz wyższych średnich.

Okno z ustawieniami opcji jednoczynnikowej ANOVA dla grup niezależnych wywołujemy poprzez menu StatystykaTesty parametryczneANOVA dla grup niezależnych lub poprzez Kreator.

2014/08/22 20:00

ANOVA dla grup niezależnych z korektą F* i F''

Poprawki $F^*$ (Brown-Forsythe, 19742)) oraz $F''$ (Welch, 19513)) dotyczą ANOVA dla grup niezależnych i są wyliczane wówczas, gdy nie jest spełnione założenie równości wariancji.

Statystyka testowa ma postać:

\begin{displaymath}
F^*=\frac{SS_{BG}}{\sum_{j=1}^k\left(1-\frac{n_j}{n}sd_j^2\right)},
\end{displaymath}

\begin{displaymath}
F''=\frac{\frac{\sum_{j=1}^kw_j(\overline{x}_j-\widetilde{x})}{k-1}}{1+\frac{2(k-2)}{k^2-1}\sum_{j=1}^kh_j},
\end{displaymath}

gdzie:

$sd_j$ $-$ odchylenie standardowe grupy $j$,

$w_j=\frac{n_j}{sd_j^2}$ $-$ waga grupy $j$,

$\widetilde{x}$ $-$ średnia ważona,

$h_j=\frac{\left(1-\frac{w_j}{\sum_{j=1}^kw_j}\right)^2}{n_j-1}$.

Statystyka ta podlega rozkładowi F Snedecora z $k-1$ i skorygowanymi $df_{WG_k}$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test T2 Tamhane

Dla porównań prostych i złożonych zarówno równolicznych jak i różnolicznych grup, gdy wariancje różnią się istotnie (Tamhane A. C., 19774)).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha_{Sidak},1,df_v}}\cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)},
\end{displaymath}

gdzie:

$F_{\alpha_{Sidak},1,df_v}$ - to|wartość krytyczna (statystyka) rozkładu F Snedecora dla zmodyfikowanego poziomu istotności $\alpha_{Sidak}$ oraz dla stopni swobody 1 i $df_{v}$ odpowiednio,

$\alpha_{Sidak}=1-(1-\alpha)^{(1/k)}$,

$df_v=\frac{\left(\sum_{j=1}^k\frac{c_j^2sd_j^2}{n_j}\right)^2}{\sum_{j=1}^k\frac{c_j^4sd_j^4}{n_j^2(n_j-1)}}$

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\left(\sum_{j=1}^k c_j\overline{x}_j\right)^2}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)}}.
\end{displaymath}

Statystyka ta podlega rozkładowi t-Studenta z $df_v$ stopniami swobody, a wartość p jest korygowana o liczbę możliwych porównań prostych.

Test BF (Brown-Forsythe)

Dla porównań prostych zarówno równolicznych jak i różnolicznych grup, gdy wariancje różnią się istotnie (Brown M. B. i Forsythe A. B. (1974)5)).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,k-1,df_v}}\cdot \sqrt{(k-1)\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)},
\end{displaymath}

gdzie:

$F_{\alpha,k-1,df_v}$ - to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz $k-1$ i $df_v$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
F=\frac{\left(\sum_{j=1}^k c_j\overline{x}_j\right)^2}{(k-1)\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)}.
\end{displaymath}

Statystyka ta podlega rozkładowi F Snedecora z $k-1$ i $df_v$ stopniami swobody.

Test GH (Games-Howell).

Dla porównań prostych zarówno równolicznych jak i różnolicznych grup, gdy wariancje różnią się istotnie (Games P. A. i Howell J. F. 19766)).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\frac{q_{\alpha,k,df_v} \cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)}}{\sqrt{2}},
\end{displaymath}

gdzie:

$q_{\alpha,k,df_v}$ - to wartość krytyczna (statystyka) rozkładu studentyzowanego rozstępu dla zadanego poziomu istotności $\alpha$oraz $k$ i $df_v$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
q=\sqrt{2}\frac{\sum_{j=1}^k c_j\overline{x}_j}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2sd_j^2}{n_j}\right)}}.
\end{displaymath}

Statystyka ta podlega rozkładowi studentyzowanego rozstępu z $k$ i $df_v$ stopniami swobody.

Test dla trendu.

Test badający istnienie trendu może być wyliczany w takiej samej sytuacji jak ANOVA dla grup niezależnych z korektą $F^*$ i $F''$, gdyż bazuje na tych samych założeniach, inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu wartości średnich dla kolejnych populacji. Analiza trendu w ułożeniu średnich oparta jest na kontrastach (T2 Tamhane). Budując odpowiednie kontrasty można badać dowolny rodzaj trendu np. liniowy, kwadratowy, sześcienny, itd. Tabela przykładowych wartości kontrastów dla wybranych trendów znajduje się w opisie testu dla trendu dla ANOVA bez korekty dla różnych wariancji.

Trend liniowy

Trend liniowy, tak jak pozostałe trendy, możemy analizować wpisując odpowiednie wartości kontrastów. Jeśli jednak znany jest kierunek trendu liniowego, wystarczy skorzystać z opcji Trend liniowy i wskazać oczekiwaną kolejność populacji przypisując im kolejne liczby naturalne.

Analiza przeprowadzana jest w oparciu o kontrast liniowy, czyli wskazanym według naturalnego uporządkowania grupom przypisane są odpowiednie wartości kontrastu i wyliczona zostaje statystyka T2 Tamhane.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji jednoczynnikowej ANOVA dla grup niezależnych z korektą F* i F„ wywołujemy poprzez menu StatystykaTesty parametryczneANOVA dla grup niezależnych lub poprzez Kreator.

Przykład (plik bezrobocie.pqs)

Jest wiele czynników regulujących czas poszukiwania pracy w dobie kryzysu gospodarczego. Jednym z najważniejszych może być poziom wykształcenia. Przykładowe dane dotyczące wykształcenia oraz czasu (w miesiącach) pozostawania bezrobotnym zebrano w pliku. Chcemy sprawdzić czy istnieją różnice w średnim czasie poszukiwania pracy dla poszczególnych kategorii wykształcenia.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $średni czas poszukiwania pracy jest taki sam $\\
& $dla każdej kategorii wykształcenia,$\\
\mathcal{H}_1: & $przynajmniej jedna kategoria wykształcenia (jedna populacja)$\\
& $  charakteryzuje się innym średnim czasem poszukiwania pracy.$\\
\end{array}
$

Ze względu na różnice dotyczące wariancji pomiędzy poszczególnymi populacjami (dla testu Levene wartość $p=0.0001$, a dla testu Brown-Forsythe wartość $p=0.0002$):

analizę przeprowadzamy przy włączonej korekcie różnych wariancji. Uzyskany wynik skorygowanej statystyki $F$ jest przedstawiony poniżej.

Porównując wartość $p<0.0001$ (dla testu $F^*$) oraz wartość $p<0.0001$ (dla testu $F''$) z poziomem istotności $\alpha=0.05$ stwierdzamy, że średni czas poszukiwania pracy różni się w zależności od posiadanego wykształcenia. Wykonując jeden z testów POST-HOC, dedykowany porównaniu grup o różnych wariancjach, dowiadujemy się których kategorii wykształcenia dotyczą stwierdzone różnice:

Najmniejsza istotna różnica (NIR) wyznaczona dla każdej pary porównań nie jest taka sama (mimo, że liczności grup są sobie równe), ponieważ nie są równe wariancje. Odnosząc wartość NIR do uzyskanych różnic wartości średnich uzyskamy ten sam rezultat co porównując wartość $p$ z poziomem istotności $\alpha=0.05$. Różnice dotyczą wykształcenia podstawowego i wyższego, wykształcenia podstawowego i średniego oraz wykształcenia zawodowego i wyższego. Powstałe grupy jednorodne zazębiają się. Generalnie jednak, spoglądając na wykres, możemy oczekiwać, że czym bardziej wykształcona osoba, tym mniej czasu zajmuje jej poszukiwanie pracy.

By móc sprawdzić tak postawioną hipotezę, należy podjąć analizę dla trendu. W tym celu {wznawiamy analizę} przyciskiem i w oknie opcji testu wybieramy: metodę Tamhane's T2, opcję Kontrasy (i ustawiamy odpowiedni kontrast) lub opcję Dla trendu (i wskazujemy kolejność kategorii wykształcenia podając kolejne liczby naturalne).

W zależności od tego czy kierunek zależności pomiędzy wykształceniem a czasem poszukiwania pracy jest nam znany, wykorzystujemy jednostronną lub dwustronną wartość $p$. Obie te wartości są mniejsze niż zadany poziom istotności. Przewidywany przez nas trend został potwierdzony, czyli na poziomie istotności $\alpha=0.05$ możemy powiedzieć, że ów trend istnieje rzeczywiście w populacji z której pochodzi próba.

2014/12/18 00:41 · admin

Test Browna-Forsythea i Levenea

Obydwa testy: test Levenea (ang. Levene test), Levene (1960)7) i test Browna-Forsythea (ang. Brown-Forsythe test), Brown i Forsythe (1974)8), służą do weryfikacji hipotezy o równości wariancji badanej zmiennej w kilku ($k>=2$) populacjach.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & \sigma_1^2=\sigma_2^2=...=\sigma_k^2,\\
\mathcal{H}_1: & $nie wszystkie $\sigma_j^2$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\sigma_1^2$,$\sigma_2^2$,…,$\sigma_k^2$ - wariancje badanej zmiennej w populacjach, z których pobrano próby.

Analiza polega na wyznaczaniu bezwzględnego odchylenia wyników pomiarowych od średniej (w teście Levenea) lub od mediany (w teście Browna-Forsythea), w każdej z badanych grup. Owo bezwzględne odchylenie stanowi dane, które zostają poddane dokładnie tej samej procedurze, którą wykonuje się dla analizy wariancji dla grup niezależnych. Stąd statystyka testowa przyjmuje postać:

\begin{displaymath}
F=\frac{MS_{BG}}{MS_{WG}},
\end{displaymath}

Statystyka ta podlega rozkładowi F Snedecora z $df_{BG}$ i $df_{WG}$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Uwaga!

Test Browna-Forsythea jest mniej wrażliwy niż test Levenea na niespełnienie założenia dotyczącego normalności rozkładu.

Okno z ustawieniami opcji testu Levenea, Browna-Forsythea wywołujemy poprzez menu StatystykaTesty parametryczneLevene, Brown-Forsythe.

2014/08/22 20:00

ANOVA powtarzanych pomiarów

Jednoczynnikowa analiza wariancji dla powtarzanych pomiarów, czyli ANOVA dla grup zależnych (ang. single-factor repeated-measures analysis of variance) stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie ($k\geq2$) w różnych warunkach (przy czym zakładamy, że wariancje różnic pomiędzy wszystkimi parami pomiarów są sobie bliskie).

Test ten służy do weryfikacji hipotezy o równości średnich badanej zmiennej w kilku ($k\geq2$) populacjach.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & \mu_1=\mu_2=...=\mu_k,\\
\mathcal{H}_1: & $nie wszystkie $\mu_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\mu_1$,$\mu_2$,…,$\mu_k$ - średnie badanej zmiennej w kolejnych pomiarach z badanej populacji.

Statystyka testowa ma postać: \begin{displaymath}
F=\frac{MS_{BC}}{MS_{res}}
\end{displaymath}

gdzie:

$\displaystyle MS_{BC} = \frac{SS_{BC}}{df_{BC}}$ -średnia kwadratów między pomiarami,

$\displaystyle MS_{res} = \frac{SS_{res}}{df_{res}}$ - średnia kwadratów dla reszt,

$\displaystyle SS_{BC} = \sum_{j=1}^k\left({\frac{\left(\sum_{i=1}^{n}x_{ij}\right)^2}{n}}\right)-\frac{\left(\sum_{j=1}^k{\sum_{i=1}^{n}x_{ij}}\right)^2}{N}$ - suma kwadratów między pomiarami,

$\displaystyle SS_{res} = SS_{T}-SS_{BS}-SS_{BC}$ - suma kwadratów dla reszt,

$\displaystyle SS_{T} = \left(\sum_{j=1}^k{\sum_{i=1}^{n}x_{ij}^2}\right)-\frac{\left(\sum_{j=1}^k{\sum_{i=1}^{n}x_{ij}}\right)^2}{N}$ - całkowita suma kwadratów,

$\displaystyle SS_{BS} = \sum_{i=1}^n\left(\frac{\left(\sum_{j=1}^k x_{ij}\right)^2}{k}\right)-\frac{\left(\sum_{j=1}^k{\sum_{i=1}^{n}x_{ij}}\right)^2}{N}$ - suma kwadratów między obiektami,

$df_{BC}=k-1$ - stopnie swobody (między pomiarami),

$df_{res}=df_{T}-df_{BC}-df_{BS}$ - stopnie swobody (dla reszt),

$df_{T}=N-1$ - całkowite stopnie swobody,

$df_{BS}=n-1$ - stopnie swobody (między obiektami),

$N=nk$,

$n$ - liczność próby,

$x_{ij}$ - wartości zmiennej dla $i$ obiektów $(i=1,2,...n)$ w $j$ pomiarach $(j=1,2,...k)$.

Statystyka ta podlega rozkładowi F Snedecora z $df_{BC}$ i $df_{res}$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Wielkość efektu - cząstkowa $\eta^2$

Wielkość ta określa proporcję wariancji wyjaśnionej do wariancji całkowitej związanej z danym czynnikiem. Zatem w modelu powtarzanych pomiarów wskazuje jaka część wewnątrzosobowej zmienności wyników może być przypisana powtarzanym pomiarom zmiennej.

\begin{displaymath}
\eta^2=\frac{SS_{BC}}{SS_{BC}+SS_{res}}
\end{displaymath}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test LSD Fishera

Dla porównań prostych i złożonych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Hipotezy:

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych średnich):

\begin{array}{cc}
\mathcal{H}_0: & \mu_j=\mu_{j+1},\\
\mathcal{H}_1: & \mu_j \neq \mu_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,df_{res}}}\cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}},
\end{displaymath}

gdzie:

$F_{\alpha,1,df_{res}}$ - to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz dla stopni swobody odpowiednio: 1 i $df_{res}$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_j\overline{x}_j}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}}}.
\end{displaymath}

Statystyka ta podlega rozkładowi t-Studenta z $df_{res}$ stopniami swobody.

Uwaga!

Dla kontrastów wielkość $\sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}}$ zastąpiona jest błędem kontrastu $SE_{contrast}$, a stopnie swobody to $df_{BS}$.

Test Scheffego

Dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,df_{BC},df_{res}}}\cdot \sqrt{(k-1)\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}},
\end{displaymath}

gdzie:

$F_{\alpha,df_{BC},df_{res}}$ - to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz $df_{BC}$ i $df_{res}$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
F=\frac{\left(\sum_{j=1}^k c_j\overline{x}_j\right)^2}{(k-1)\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}}.
\end{displaymath}

Statystyka ta podlega rozkładowi F Snedecora z $df_{BC}$ i $df_{ref}$ stopniami swobody.

Test Tukeya.

Dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\frac{\sqrt{2}\cdot q_{\alpha,df_{res},k} \cdot \sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}}}{2},
\end{displaymath}

gdzie:

$q_{\alpha,df_{res},k}$ - to wartość krytyczna (statystyka) rozkładu studentyzowanego rozstępu dla zadanego poziomu istotności $\alpha$ oraz $df_{res}$ i $k$ stopni swobody.

  • $\mathfrak{(ii)}$] Statystyka testowa ma postać:

\begin{displaymath}
q=\sqrt{2}\frac{\sum_{j=1}^k c_j\overline{x}_j}{\sqrt{\left(\sum_{j=1}^k \frac{c_j^2}{n}\right)MS_{res}}}.
\end{displaymath}

Statystyka ta podlega rozkładowi studentyzowanego rozstępu $df_{res}$ i $k$ stopniami swobody.

Info.

Algorytm obliczania wartości p i statystyki rozkładu studentyzowanego rozstępu w PQStat bazuje na pracy Lunda (1983)9). Inne programy lub strony internetowe mogą wyliczać nieco inne wartości niż PQStat, gdyż mogą bazować na mniej precyzyjnych lub bardziej restrykcyjnych algorytmach (Copenhaver i Holland (1988), Gleason (1999)).

Test dla trendu.

Test badający istnienie trendu może być wyliczany w takiej samej sytuacji jak ANOVA dla zmiennych zależnych, gdyż bazuje na tych samych założeniach, inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu wartości średnich w kolejnych pomiarach. Analiza trendu w ułożeniu średnich oparta jest na kontrastach Test LSD Fishera. Budując odpowiednie kontrasty można badać dowolny rodzaj trendu np. liniowy, kwadratowy, sześcienny, itd. Tabela przykładowych wartości kontrastów dla wybranych trendów znajduje się w opisie testu dla trendu dla ANOVA zmiennych niezależnych.

Trend liniowy

Trend liniowy, tak jak pozostałe trendy, możemy analizować wpisując odpowiednie wartości kontrastów. Jeśli jednak znany jest kierunek trendu liniowego, wystarczy skorzystać z opcji Trend liniowy i wskazać oczekiwaną kolejność populacji przypisując im kolejne liczby naturalne.

Analiza przeprowadzana jest w oparciu o kontrast liniowy, czyli wskazanym według naturalnego uporządkowania grupom przypisane są odpowiednie wartości kontrastu i wyliczona zostaje statystyka Test LSD Fishera.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji jednoczynnikowej ANOVA dla grup zależnych wywołujemy poprzez menu StatystykaTesty parametryczneANOVA dla grup zależnych lub poprzez Kreator.

Patrz przykład (plik ciśnienie.pqs)

2014/08/22 20:00

ANOVA powtarzanych pomiarów z korektą Epsilon i MANOVA

Poprawki Epsilon i MANOVA dotyczą ANOVA powtarzanych pomiarów i są wyliczane wówczas, gdy nie jest spełnione założenie sferyczności lub wariancje różnic pomiędzy wszystkimi parami pomiarów nie są sobie bliskie.

Korekta braku sferyczności

Stopień w jakim sferyczność jest spełniona jest reprezentowany przez wartość $W$ w teście Mauchly’a, ale również przez wartości Epsilon ($\varepsilon$) wyliczane wraz z korektami. $\varepsilon=1$ oznacza ścisłe przestrzeganie warunku sferyczności. Im mniejsza od 1 jest wartość Epsilon, tym założenie sferyczności jest bardziej naruszone. Dolna granica jaką Epsilon może osiągnąć to $\frac{1}{k-1}$.

W celu zminimalizowania skutków braku sferyczności można wykorzystać trzy korekty zmieniające liczbę stopni swobody przy testowaniu z rozkładu F. Najprostszą lecz najsłabszą jest korekta dolnej granicy Epsilon. Nieco silniejszą lecz również konserwatywną jest korekta Greenhouse-Geisser (1959)10). Największą mocą charakteryzuje się korekta Huynh-Feldt (1976)11). Przy znacznym naruszeniu sferyczności najbardziej wskazanym rozwiązaniem jest jednak wykonanie analizy, która tego założenie nie wymaga, czyli MANOVA.

Podejście wielowymiarowe - MANOVA

MANOVA (ang. multivariate analysis of variance) czyli wielowymiarowa ANOVA jest analizą nie zakładającą sferyczności. W przypadku niespełnienia tego założenia jest to metoda najefektywniejsza, więc powinna być wybierana w zastępstwie analizy wariancji dla powtarzanych pomiarów. Omówienie tej metody można znaleźć w rozdziale jednoczynnikowa MANOVA. Zastosowanie jej do pomiarów powtarzanych (bez czynnika grup niezależnych) ogranicza jej działanie do danych będących różnicą sąsiadujących pomiarów i zapewnia testowanie tej samej hipotezy, co ANOVA dla zmiennych zależnych.

Okno z ustawieniami opcji jednoczynnikowej ANOVA dla grup zależnych z korektą Epsilon i MANOVA wywołujemy poprzez menu StatystykaTesty parametryczneANOVA dla grup zależnych lub poprzez Kreator.

Przykład (plik ciśnienie.pqs)

Badano skuteczność dwóch metod leczenia nadciśnienia. W tym celu zebrano próbę 56 chorych i przydzielono ich losowo do dwóch grup: grupy leczonej lekiem A i grupy leczonej lekiem B. Pomiaru ciśnienia skurczowego w każdej grupie dokonano trzykrotnie: przed leczeniem, w trakcie leczenia i po 6 miesiącach prowadzenia kuracji.

Hipotezy dla leczonych lekiem A:


$
\begin{array}{cl}
\mathcal{H}_0: & $średnia wartość ciśnienia skurczowego krwi jest taka sama$\\
& $na każdym etapie leczenia - dla leczonych lekiem A,$\\
\mathcal{H}_1: & $przynajmniej na jednym etapie leczenia lekiem A$\\
& $  średnia wartość ciśnienia skurczowego jest inna.$\\
\end{array}
$

Hipotezy dla leczonych lekiem B brzmią analogicznie.

Ponieważ dane mają rozkład normalny, analizę rozpoczynamy od sprawdzenia założenia o sferyczności. Testowanie wykonujemy dla każdej grupy osobno wykorzystując filtr wielokrotny.

Na niespełnienie założenia sferyczności przez grupę leczoną lekiem B wskazują zarówno obserwowane wartości macierzy kowariancji i korelacji, jak i wynik testu Mauchly’a ($W=0.68$, wartość $p=0.0063$).

Wznawiamy analizę i w oknie opcji testu wybieramy filtr podstawowy, by wykonać ANOVA powtarzanych pomiarów - dla leczonych lekiem A, a następnie korektę tej analizy i statystykę MANOVA - dla leczonych lekiem B.

Wyniki dla leczonych lekiem A:

wskazują na istotne (na poziomie istotności $\alpha=0.05$) różnice pomiędzy średnimi wartościami ciśnienia skurczowego (wartość $p<0.0001$ dla ANOVA powtarzanych pomiarów). Ponad 66% wewnątrzosobowego zróżnicowania wyników może być tłumaczona zastosowaniem leku A ($\eta=0.66$). Różnice dotyczą wszystkich porównywanych etapów leczenia (wynik POST-HOC). Istotny jest również trend spadku ciśnienia skurczowego na skutek leczenia (wartość $p<0.0001$). Zatem Lek A możemy uznać za lek skuteczny.

Wyniki dla leczonych lekiem B:

wskazują na brak istotnych różnic pomiędzy średnimi wartościami ciśnienia skurczowego, zarówno wtedy, gdy korzystamy z poprawek epsilon, jak i Lambda Wilksa (MANOVA). Zaledwie niecałe 17% wewnątrzosobowego zróżnicowania wyników może być tłumaczone zastosowaniem leku B ($\eta=0.17$).

2014/12/18 16:03 · admin

Sferyczność Mauchly’a

Założenie sferyczności jest podobne ale silniejsze niż założenie równości wariancji. Jest ono spełnione, jeśli wariancje dla różnic pomiędzy parami powtarzanych pomiarów są takie same. Zwykle w zastępstwie założenia o sferyczności rozważa się prostszy, ale bardziej rygorystyczny warunek symetrii połączonej (ang. compound symmetry). Można tak postąpić ponieważ spełnienie warunku symetrii połączonej pociąga za sobą spełnienie założenia sferyczności.

Warunek symetrii połączonej zakłada symetrię w macierzy kowariancji, a zatem równość wariancji zmiennych (elementów głównej przekątnej macierzy kowariancji) oraz równość kowariancji (elementów poza główną przekątną macierzy kowariancji).

Naruszenie założenia sferyczności lub symetrii połączonej zmniejsza w nieuzasadniony sposób konserwatyzm testu F (ułatwia odrzucenie hipotezy zerowej).

Dla sprawdzenia założenia sferyczności używa się testu Mauchly’a (1940)12). Istotność wyniku ($p\le \alpha$) oznacza tu naruszenie założenia sferyczności.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & \sigma_{diff(1)}=\sigma_{diff(2)}=...=\sigma_{diff(s)},\\
\mathcal{H}_1: & $nie wszystkie $\sigma_{diff(i)}$ są sobie równe $(i=1,2,...,s)$$,
\end{array}

gdzie:

$\sigma_{diff(i)}$ - populacyjna wariancja różnic pomiędzy $i$-tą parą powtarzanych pomiarów,

$s$ - liczba par.

Wartość $W$ Mauchly’a definiowana jest następująco:

\begin{displaymath}
W=\frac{\prod_{j=1}^{k-1}\lambda_j}{\left(\frac{1}{k-1}\sum_{j=1}^{k-1}\lambda_j\right)^{k-1}}.
\end{displaymath}

Statystyka testowa ma postać:

\begin{displaymath}
\chi^2=(f-1)(n-1)\ln W,
\end{displaymath}

gdzie:

$f=\frac{2(k-1)^2+(k-1)+2}{6(k-1)(n-1)}$,

$\lambda_j$ - wartość własna oczekiwanej macierzy kowariancji,

$k$ - liczba analizowanych zmiennych.

Statystyka ta ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=\frac{k(k-1)}{2}-1$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Wartość $W\approx1$ oznacza spełnienie założenia sferyczności. W interpretacji wyników tego testu należy jednak pamiętać, że jest on wrażliwy na złamanie założenia normalności rozkładu.

Patrz przykład (plik ciśnienie.pqs)

2014/12/18 15:58 · admin
2014/08/22 20:00

Testy nieparametryczne

ANOVA Kruskala-Wallisa

Jednoczynnikowa analiza wariancji dla rang Kruskala-Walisa, czyli ANOVA Kruskala-Wallisa (ang. Kruskal-Wallis one-way analysis of variance by ranks) opisana przez Kruskala (1952)13) oraz Kruskala i Wallisa (1952)14) jest rozszerzeniem testu U-Manna-Whitneya na więcej niż dwie populacje. Test ten służy do weryfikacji hipotezy o braku przesunięcia porównywanych rozkładów tzn. najczęsciej nieistotności różnic pomiędzy medianami badanej zmiennej w kilku ($k\geq2$) populacjach (przy czym zakładamy, że rozkłady zmiennej są sobie bliskie - porównanie wariancji rang można sprawdzić testem dla rang Conovera).

Dodatkowe analizy:

Podstawowe warunki stosowania:

Hipotezy dotyczą równości średnich rang dla kolejnych populacji lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \phi_1=\phi_2=...=\phi_k,\\
\mathcal{H}_1: & $nie wszystkie $\phi_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\phi_1,\phi_2,...\phi_k$ to rozkłady badanej zmiennej w populacjach, z których pobrano próby.

Statystyka testowa ma postać:

\begin{displaymath}
H=\frac{1}{C}\left(\frac{12}{N(N+1)}\sum_{j=1}^k\left(\frac{\left(\sum_{i=1}^{n_j}R_{ij}\right)^2}{n_j}\right)-3(N+1)\right),
\end{displaymath}

gdzie:

$N=\sum_{j=1}^k n_j$,

$n_j$ - liczności prób dla $(j=1,2,...k)$,

$R_{ij}$ - rangi przypisane do wartości zmiennej, dla $(i=1,2,...n_j)$, $(j=1,2,...k)$,

$\displaystyle C=1-\frac{\sum(t^3-t)}{N^3-N}$ - korekta na rangi wiązane,

$t$ - liczba przypadków wchodzących w skład rangi wiązanej.

Wzór na statystykę testową $H$ zawiera poprawkę na rangi wiązane $C$. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, gdyż wówczas $C=1$).

Statystyka $H$ ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df = (k - 1)$.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Dla porównań prostych, zarówno równolicznych jak i różnolicznych grup.

Test Dunna (Dunn 196415)) zawiera poprawkę na rangi wiązane (Zar 201016)) i jest testem korygowanym ze względu na wielokrotne testowanie. Najczęściej wykorzystuje się tu korektę Bonferroniego lub Sidaka, chociaż dostępne są również inne, nowsze korekty opisane szerzej w dziale Wielokrotne porównania.

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / średnich rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=Z_{\alpha(corrected)}\sqrt{\left(\frac{N(N+1)}{12}-\frac{\sum(t^3-t)}{12(N-1)}\right)\sum_{j=1}^k \frac{c_j^2}{n_j}},
\end{displaymath}

gdzie:

$t$ $-$ liczba przypadków wchodzących w skład rangi wiązanej

$\displaystyle Z_{\alpha(corrected)}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{\left(\frac{N(N+1)}{12}-\frac{\sum(t^3-t)}{12(N-1)}\right)\sum_{j=1}^k \frac{c_j^2}{n_j}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ - średnia rang $j$-tej grupy, dla $(j=1,2,...k)$,

Wzór na statystykę testową $Z$ zawiera poprawkę na rangi wiązane. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, ponieważ $\sum(t^3-t)=0$).

Statystyka ta ma asymptotycznie (dla dużych liczności próby) rozkład normalny, a wartość p jest korygowana o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

Test Conover-Iman

Nieparametryczny odpowiednik LSD Fishera17), stosowany dla porównań prostych zarówno równolicznych jak i różnolicznych grup.

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,N-k}}\cdot\sqrt{S^2\frac{N-1-H}{N-k}\sum_{j=1}^k \frac{c_j^2}{n_j}},
\end{displaymath}

gdzie:

$\displaystyle S^2=\frac{1}{N-1}\left(\sum_{j=1}^k\sum_{i=1}^{n_j}R_{ij}^2-N\frac{(N+1)^2}{4}\right)$

$\displaystyle F_{\alpha,1,N-k}$ to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz dla stopni swobody odpowiednio: 1 i $N-k$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{S^2\frac{N-1-H}{N-k}\sum_{j=1}^k \frac{c_j^2}{n_j}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ - średnia rang $j$-tej grupy, dla $(j=1,2,...k)$,

Statystyka ta podlega rozkładowi t-Studenta z $N-k$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Kruskala-Wallisa wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Kruskala-Wallisa lub poprzez Kreator.

Przykład (satysfakcjaZpracy.pqs)

Przepytano grupę 120 osób, dla których wykonywane zajęcie jest ich pierwszą pracą uzyskaną po otrzymaniu odpowiedniego wykształcenia. Ankietowani oceniali satysfakcję z wykonywanej pracy w pięciostopniowej skali, gdzie:

1- praca niesatysfakcjonująca,

2- praca dająca niewielką satysfakcję,

3- praca dająca przeciętny poziom satysfakcji,

4- praca dająca dość dużą satysfakcję ,

5- praca bardzo satysfakcjonująca.

Sprawdzimy czy poziom deklarowanej satysfakcji z pracy nie zmienia się dla poszczególnych kategorii wykształcenia.

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & $poziom satysfakcji z pracy jest taki sam dla każdej kategorii wykształcenia,$\\
\mathcal{H}_1: & $przynajmniej jedna kategoria wykształcenia (jedna populacja) charakteryzuje się  $ \\
&$innym poziomem satysfakcji z pracy.$
\end{array}
$

Uzyskana wartość $p=0.001034$ świadczy o istotnej różnicy poziomu satysfakcji pomiędzy porównywanymi kategoriami wykształcenia. Przeprowadzona analiza POST-HOC Dunna z korektą Bonferroniego wskazuje, że istotne różnice dotyczą osób z wykształceniem podstawowym i średnim oraz z wykształceniem podstawowym i wyższym. Nieco więcej różnic możemy potwierdzić wybierająć silniejszy POST-HOC Conover-Iman.

Na wykresie przedstawiającym mediany i kwartyle możemy zobaczyć grupy jednorodne wyznaczone przez test POST-HOC. Jeśli zdecydujemy się na przedstawienie wyników Dunna z korektą Bonferroniego zobaczymy dwie grupy jednorodne, które nie są zupełnie odrębne, tzn. grupę (a) - osoby słabiej oceniające satysfakcję z pracy i grupę (b)- osoby lepiej oceniające tę satysfakcję. Wykształcenie zawodowe przynależy do obydwu tych grup, co oznacza, że osoby z tym wykształceniem oceniają satysfakcję z pracy dość różnorodnie. Ten sam opis grup jednorodnych możemy znaleźć w wynikach testów POST-HOC.

Dokładny opis danych możemy przedstawić wybierając w oknie analizy statystyki opisowe i wskazując na dodanie do opisu liczności i procentów.

Rozkład odpowiedzi możemy też przedstawić na wykresie liczności.

2014/08/22 20:00

Test Jonckheere-Terpstra dla trendu

Test Jonckheere-Terpstra dla trendu (ang. the Jonckheere-Terpstra test for ordered alternatives) opisany niezależnie przez Jonckheere (1954) 18) i Terpstra (1952)19) może być wyliczany w takiej samej sytuacji jak ANOVA Kruskala-Wallisa, gdyż bazuje na tych samych założeniach. Test Jonckheere-Terpstra inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu dla kolejnych populacji.

Hipotezy są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & \theta_1\geq\theta_2\geq...\geq\theta_k, $ z co najmniej jedną nierównością ścisłą$
\end{array}

Uwaga!

Określenie: „z co najmniej jedną nierównością ścisłą” zapisane w hipotezie alternatywnej tego testu oznacza, że co najmniej mediana jednej populacji powinna być większa niż mediana innej populacji w kolejności określonej.

Statystyka testowa ma postać: \begin{displaymath}
Z=\frac{L-\left[\frac{N^2-\sum_{j=1}^kn_j^2}{4}\right]}{SE}
\end{displaymath}

gdzie:

$L=$ - suma wartości $l_{ij}$ uzyskanych dla każdej pary porównywanych populacji,

$l_{ij}$ - liczba wyników wyższych niż zadana wartość w grupie występującej w następnej kolejności,

$SE=\sqrt{\frac{A}{72}+\frac{B}{36N(N-1)(N-2)}+\frac{C}{8N(N-1)}}$,

$A=N(N-1)(2N+5)-\sum_{j=1}^kn_j(n_j-1)(2n_j+5)-\sum_{l=1}^gt_l(t_l-1)(2t_l+5)$,

$B=\sum_{j=1}^kn_j(n_j-1)(n_j-2)\cdot\sum_{l=1}^gt_l(t_l-1)(t_l-2)$,

$C=\sum_{j=1}^kn_j(n_j-1)\cdot\sum_{l=1}^gt_l(t_l-1)$,

$g$ - liczba grup różnych rang wiązanych,

$t_l$ -liczba przypadków wchodzących w skład rangi wiązanej,

$N=\sum_{j=1}^k n_j$,

$n_j$ - liczności prób dla $(j=1,2,...k)$.

Uwaga!

By można było przeprowadzić analizę trendu, należy wskazać oczekiwaną kolejność populacji przypisując im kolejne liczby naturalne.

Wzór na statystykę testową $Z$ zawiera poprawkę na rangi wiązane. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych wzór na statystykę testową sprowadza się do oryginalnej formuły Jonckheere-Terpstra nie zawierającej tej poprawki).

Statystyka $Z$ ma asymptotycznie (dla dużych liczności) rozkład normalny.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji testu Jonckheere-Terpstra wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Kruskala-Wallisa lub poprzez Kreator.

Pprzykład c.d. (plik satysfakcjaZpracy.pqs)

Podejrzewa się, że osoby lepiej wykształcone mają wysokie wymagania zawodowe, co może zmniejszać poziom satysfakcji z pierwszej pracy, która często takich wymagań nie spełnia. Dlatego też warto przeprowadzić analizę trendu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak wskazanego trendu w poziomie satysfakcji $\\
& $z pierwszej pracy,$\\
\mathcal{H}_1: & $istnieje wskazany trend w poziomie satysfakcji z pierwszej pracy.$
\end{array}
$

W tym celu wznawiamy analizę przyciskiem , zaznaczamy opcję Test trendu Jonckheere-Terpstra i kolejnym kategoriom wykształcenia przypisujemy kolejne liczby naturalne.

Uzyskana jednostronna wartość $p=0.000045$ i jest mniejsza niż zadany poziom istotności $\alpha=0.05$, co przemawia na rzecz rzeczywiście występującego trendu zgodnego z oczekiwaniami badacza.

Istnienie tego trendu możemy również potwierdzić przedstawiając procentowy rozkład uzyskanych odpowiedzi.

2014/12/18 19:10 · admin

Test wariancji rang Conover

Test kwadratów rang Conovera służy, podobnie jak test Fishera-Snedecora (dla $k=2$), test Levene i test Browna-Forsythea (dla $k>=2$) do weryfikacji hipotezy podobnym zróżnicowaniu badanej zmiennej w kilku populacjach. Jest on nieparametrycznym odpowiednikiem wskazanych wyżej testów, przez to nie zakłada normalności rozkładu danych i opiera się na rangach 20). Jednak test ten bada zróżnicowanie, a więc odległości do średniej, dlatego podstawowym warunkiem jego stosowania jest:

Hipotezy:

\begin{array}{cc}
\mathcal{H}_0: & $rozproszenie danych w porównywanych populacjach jest takie samo $\\
\mathcal{H}_1: & $przynajmniej dwie populacje różnią się wielkością rozproszenia danych$.
\end{array}

Statystyka testowa ma postać: \begin{displaymath}
\chi^2=\frac{1}{D^2}\left(\sum_{j=1}^k\frac{S_j^2}{n_j}-N\overline{S}^2\right)
\end{displaymath}

gdzie:

$N=n_1+n_2+...+n_k$,

$n_j$ - liczność w poszczególnych grupach,

$S_j$ - suma kwadratów rang w $j$-tej grupie,

$\overline{S}=\frac{1}{N}\sum_{j=1}^k\S_j$ - średnia wszystkich kwadratów rang,

$D^2=\frac{1}{N-1}\left(\sum_{ji=1}^NR_i^4-N\overline{S}^2\right)$,

$R_i$ -rangi dla wartości przedstawiających odległość pomiaru od średniej danej grupy.

Statystyka ta ma rozkład chi-kwadrat z $k-1$ stopniem swobody.

wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji testu wariancji rang Conovera wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Kruskala-Wallisa, opcja testu wariancji rang Conovera lub StatystykaTesty nieparametryczneMann-Whitney, opcja testu wariancji rang Conovera.

Przykład (metodaOperacji.pqs)

Przygotowano chorych do operacji kręgosłupa. Chorzy będą operowani jedną z trzech metod. Dokonano wstępnego przydziału każdej osoby chorej do poszczególnych typów operacji. Na późniejszym etapie zamierzamy porównywać stan chorych po przebytych operacjach, dlatego zależy nam by grupy chorych były porównywalne. Powinny być podobne min. pod względem wysokości przestrzeni międzytrzonowej (WPMT) przed operacją. Podobieństwo powinno dotyczyć nie tylko wartości przeciętnych ale również zróżnicowania grup.

Sprawdzono rozkład danych.

Okazuje się, że w przypadku dwóch metod operacji WPMT wykazuje odstępstwa od normalności, których przyczyną w dużej mierze jest skośność danych. Dalsza analiza porównawcza przeprowadzona zostanie przy pomocy testu Kruskala-Wallisa, by porównać czy poziom WPMT różni się pomiędzy metodami oraz testu Conovera, który wskaże, czy w każdej metodzie rozpiętość wyników WPMT jest podobna.

Hipotezy dla testu wariancji Conovera:

$
\begin{array}{cl}
\mathcal{H}_0: & $różnorodność (zakres) WPMT jest taka sama dla każdej metody operacji,$\\
\mathcal{H}_1: & $różnorodność (zakres) WPMT jest wyższa/niższa przynajmniej dla jednej metody operacji.$
\end{array}
$

Hipotezy dla testu Kruskala-Wallisa :

$
\begin{array}{cl}
\mathcal{H}_0: & $poziom WPMT jest taki sam dla każdej metody operacji,$\\
\mathcal{H}_1: & $poziom WPMT jest wyższy/niższy przynajmniej dla jednej metody operacji.$
\end{array}
$

Najpierw interpretacji podlega wartość testu wariancji Conovera, która wskazuje na istotne statystycznie różnice w zakresach porównywanych grup (p=0.0022). Z wykresu możemy wnioskować, że różnice dotyczą głównie grupy 3. Ponieważ wykryto różnice w zakresie WPMT, to interpretacja wyniku testu Kruskala-Wallisa, porównującego poziom WPMT dla tych metod, powinna być ostrożna, gdyż test ten jest wrażliwy na niejednorodność wariancji. Mimo iż test Kruskala-Wallisa nie wykazał istotnych różnic (p=0.2057), to zaleca się by chorych o niskich WPMT (którzy zostali przypisani głównie do operacji metodą B) rozmieścić bardziej równomiernie tzn. by sprawdzić, czy nie można im zaproponować wykonania operacji metodą A lub C. Po ponownym przydziale chorych należy powtórzyć analizę.}

2021/01/11 21:38

ANOVA Friedmana

Analiza wariancji powtarzanych pomiarów dla rang Friedmana, czyli ANOVA Friedmana (ang. Friedman repeated measures analysis of variance by ranks) opisana została przez Friedmana (1937)21). Test ten stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie ($k\geq2$) w różnych warunkach. Stosowana jest również, gdy dysponujemy rankingami pochodzącymi z różnych źródeł (od różnych sędziów) i dotyczącymi kilku ($k\geq2$) obiektów a zależy nam na ocenie zgodności tych rankingów.

Iman Davenport (198022)) pokazał, że w wielu przypadkach statystka Friedmana jest nadmiernie konserwatywna i dokonał pewnej jej modyfikacji. Modyfikacja ta jest nieparametrycznym odpowiednikiem ANOVA powtarzanych pomiarów co sprawia, że jest obecnie rekomendowana do stosowania w zastępstwie tradycyjnej statystyki Friedmana.

Dodatkowe analizy:

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\theta_1,\theta_2,...\theta_k$ mediany badanej cechy w kolejnych pomiarach z badanej populacji.

Wyznacza się dwie statystyki testowe: statystykę Friedmana i modyfikację Imana-Davenport tej statystyki.

Statystyka Friedmana ma postać:

\begin{displaymath}
T_1=\frac{1}{C}\left(\frac{12}{nk(k+1)}\left(\sum_{j=1}^k\left(\sum_{i=1}^n R_{ij}\right)^2\right)-3n(k+1)\right),
\end{displaymath}

gdzie:

$n$ $-$ liczność próby,

$R_{ij}$ $-$ rangi przypisane kolejnym pomiarom $(j=1,2,...k)$, oddzielnie dla każdego z badanych obiektów $(i=1,2,...n)$,

$\displaystyle C=1-\frac{\sum(t^3-t)}{n(k^3-k)}$ $-$ korekta na rangi wiązane,

$t$ $-$ liczba przypadków wchodzących w skład rangi wiązanej.

Modyfikacjia Imana-Davenport statystyki Friedmana ma postać:

\begin{displaymath}
T_2=\frac{(n_j-1)T_1}{n_j(k-1)-T_1}
\end{displaymath}

Wzór na statystykę $T_1$ i $T_2$ zawiera poprawkę na rangi wiązane $C$. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, gdyż wówczas $C=1$).

Statystyka $T_1$ ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=k - 1$ stopniami swobody.

Statystyka $T_2$ podlega rozkładowi F Snedecora z $df_1=k-1$ i $df_2=(n_j-1)(k-1)$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Test Dunna (Dunn 196423)) jest testem korygowanym ze względu na wielokrotne testowanie. Najczęściej wykorzystuje się tu korektę Bonferroniego lub Sidaka, chociaż dostępne są również inne, nowsze korekty opisane szerzej w dziale Wielokrotne porównania.

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / średnich rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=Z_{\alpha(corrected)}\sqrt{\frac{k(k+1)}{6n}},
\end{displaymath}

gdzie:

$\displaystyle Z_{\alpha(corrected)}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

  • $\mathfrak{(ii)}$Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{\frac{k(k+1)}{6n}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ $-$ średnia rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta ma asymptotycznie (dla dużych liczności próby) rozkład normalny, a wartość p jest korygowana o liczbę możliwych porównań prostych zgodnie z wybraną poprawką.

Test Conover-Inman

Nieparametryczny odpowiednik LSD Fishera24), stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,df_2}}\cdot\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}},
\end{displaymath}

gdzie:

$\displaystyle A=\sum_{i=1}^{n_j}\sum_{j=1}^kR_{ij}^2$ $-$ suma kwadratów dla rang,

$\displaystyle F_{\alpha,1,df_2}$ to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$oraz dla stopni swobody odpowiednio: 1 i $df_2$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_jR_j}{\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}}},
\end{displaymath}

gdzie:

$R_j$ - suma rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta podlega rozkładowi t-Studenta z $df_2$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Friedmana wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Przykład (plik baton.pqs)

Badano kwartalną wielkość sprzedaży pewnego batonu czekoladowego w 14 losowo wybranych marketach. Badanie rozpoczęto w styczniu a zakończono w grudniu. W czasie drugiego kwartału trwała intensywna billboardowa kampania reklamowa tego produktu. Sprawdzimy, czy kampania miała wpływ na wielkość sprzedaży reklamowanego batonu.

\begin{tabular}{|c|c|c|c|c|}
\hline
sklep&Kwartał I&Kwartał II&Kwartał III&Kwartał IV\\\hline
SK1&3415&4556&5772&5432\\
SK2&1593&1937&2242&2794\\
SK3&1976&2056&2240&2085\\
SK4&1526&1594&1644&1705\\
SK5&1538&1634&1866&1769\\
SK6&983&1086&1135&1177\\
SK7&1050&1209&1245&977\\
SK8&1861&2087&2054&2018\\
SK9&1714&2415&2361&2424\\
SK10&1320&1621&1624&1551\\
SK11&1276&1377&1522&1412\\
SK12&1263&1279&1350&1490\\
SK13&1271&1417&1583&1513\\
SK14&1436&1310&1357&1468\\\hline
\end{tabular}

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy pomiędzy wielkością sprzedaży dla porównywanych $\\
& $kwartałów w populacji reprezentowanej przez zebraną próbę, $\\
\mathcal{H}_1: & $różnica w sprzedaży dla populacji reprezentowanej przez zebraną próbę $\\
& $pomiędzy przynajmniej dwoma kwartałami jest istotna.$
\end{array}
$

Porównując wartość p testu Friedmana (jak i wartość p korekty Iman-Davenport testu Friedmana) z poziomem istotności $\alpha=0.05$, stwierdzamy, że sprzedaż batonu nie jest taka sama w każdym kwartale. Wykonana analiza POST-HOC Dunna z korektą Bonferroniego wskazuje na różnice wielkości sprzedaży dotyczące kwartału I i III oraz I i IV, a analogiczna analiza przeprowadzona silniejszym testem Conover-Iman wskazuje na różnice pomiędzy wszystkimi kwartałami za wyjątkiem kwartału III i IV.

Na wykresie przedstawiliśmy grupy jednorodne wyznaczone testem Conover-Iman.

Dokładny opis danych możemy przedstawić wybierając w oknie analizy statystyki opisowe .

Gdyby dane były opisane skalą porzadkową o niewielu kategoriach, warto by było przedstawić je rownież w licznościach i procentach. W naszym przykładzie nie byłaby to dobra metoda opisu.

2014/08/22 20:00

Test Page dla trendu

Test Page dla trendu (ang. the Page test for ordered alternative) opisany w roku 1963 przez Page E. B. 25) może być wyliczany w takiej samej sytuacji jak ANOVA Friedmana, gdyż bazuje na tych samych założeniach. Test Page inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu w kolejnych pomiarach.

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & \theta_1\geq\theta_2\geq...\geq\theta_k, $ z co najmniej jedną nierównością ścisłą$
\end{array}

Uwaga!

Określenie: „z co najmniej jedną nierównością ścisłą” zapisane w hipotezie alternatywnej tego testu oznacza, że co najmniej jedna mediana powinna być większa niż mediana innej grupy pomiarów w kolejności określonej.

Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{L-\left[\frac{nk(k+1)^2}{4}\right]}{\sqrt{\frac{n(k^3-k)^2}{144(k-1)}}}
\end{displaymath}

gdzie:

$L=\sum_{j=1}^kR_jc_j$,

$R_j$ $-$ suma rang $j$-tego pomiaru,

$c_j$ $-$ waga dla $j$-tego pomiaru informująca o naturalnym porządku tego pomiaru w śród innych pomiarów (wagi to kolejne liczby naturalne).

Uwaga!

By można było przeprowadzić analizę trendu, należy wskazać oczekiwane uporządkowanie pomiarów przypisując kolejne liczby naturalne kolejnym grupom pomiarowym. Liczby te w analizie traktowane są jako wagi $c_1$, $c_2$, …, $c_k$.

Wzór na statystykę testową $Z$ nie zawiera poprawki na rangi wiązane, przez co staje się nieco bardziej konserwatywny, gdy rangi wiązane występują. Jednakże stosowanie korekty na rangi wiązane w przypadku tego testu nie jest rekomendowane.

Statystyka $Z$ ma asymptotycznie (dla dużych liczności) rozkład normalny.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji testu Page wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Przykład c.d. (plik baton.pqs)

Oczekiwanym skutkiem prowadzenia przez firmę intensywnej kampanii reklamowej jest stały wzrost sprzedaży oferowanego batonu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak wskazanego trendu w sprzedaży batonu,$\\
\mathcal{H}_1: & $istnieje wskazany trend w sprzedaży batonu.$
\end{array}
$

Porównując jednostronną wartość $p=0,000004$ z poziomem istotności $\alpha=0.05$, stwierdzamy, że kampania przyniosła oczekiwany trend wzrostu sprzedaży produktu.

2014/12/18 22:10 · admin

ANOVA Durbina (brakujących danych)

Analiza wariancji powtarzanych pomiarów dla rang Durbina została zaproponowana przez Durbina (1951)26). Test ten stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie - czyli w podobnej sytuacji w jakiej stosowana jest ANOVA Friedmana. Oryginalny test Durbina i test Friedmana dają ten sam wynik w sytuacji, gdy dysponujemy kompletnym zestawem danych. Test Durbina ma jednak pewną przewagę - można go również wyliczać dla niekompletnego zestawu danych. Przy czym braki danych nie mogą być zlokalizowane dowolnie, ale dane muszą tworzyć tzw. zbalansowany i niekompletny blok, czyli:

  • liczba pomiarów dla każdego obiektu wynosi $k$ ($k \leq t$),
  • każdy pomiar dokonywany jest na $r$ obiektach ($r \leq b$),
  • liczba obiektów dla których wykonano jednocześnie tą sama parę pomiarów jest stała i wynosi $\lambda$.

gdzie:

$t$ - łączna liczba rozpatrywanych pomiarów,

$b$ - łączna liczba badanych obiektów

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów ($R_{j}$) lub są upraszczane do median ($\theta_j$):

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_t,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,t)$$,
\end{array}

Wyznacza się dwie statystyki testowe o następującej postaci:

\begin{displaymath}
T_1=\frac{(t-1)\left[\sum_{j=1}^tR_j^2-tC\right]}{A-C},
\end{displaymath}

\begin{displaymath}
T_2=\frac{T_1/(t-1)}{(b(k-1)-T_1)/(bk-b-t+1)},
\end{displaymath}

gdzie:

$R_{j}$ - suma rang dla kolejnych pomiarów $(j=1,2,...t)$,

$R_{ij}$ - rangi przypisane kolejnym pomiarom, oddzielnie dla każdego z badanych obiektów $(i=1,2,...b)$,

$\displaystyle A=\sum_{i=1}^b\sum_{j=1}^tR_{ij}^2$ $-$ suma kwadratów dla rang,

$\displaystyle C=\frac{bk(k+1)^2}{4}$ $-$ współczynnik korekcji.

Wzór na statystykę $T_1$ i $T_2$ zawiera poprawkę na rangi wiązane.

W przypadku danych kompletnych statystyka $T_1$ jest tożsama z testem Friedmana. Ma ona asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=t - 1$ stopniami swobody.

Statystyka $T_2$ to odpowiednik korekty Iman-Davenport ANOVA Friedmana, więc podlega rozkładowi F Snedecora z $df_1=t-1$ i $df_2=bk-b-t+1$ stopniami swobody. Uznaje się ją obecnie za bardziej precyzyjną niż statystykę $T_1$ i rekomenduje jej stosowanie27).

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Conover-Inman

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Hipotezy:

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / sum rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=t_{1-\alpha /2, bk-b-t+1}\sqrt{\frac{(A-C)2r}{bk-b-t+1}\left(1-\frac{T_1}{b(k-1)}\right)},
\end{displaymath}

gdzie:

$t_{1-\alpha /2, bk-b-t+1}$ - to wartość krytyczna (statystyka) rozkładu t-Studenta dla poziomu istotności $\alpha$ i $df=bk-b-t+1$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_jR_j}{\sqrt{\frac{(A-C)2r}{bk-b-t+1}\left(1-\frac{T_1}{b(k-1)}\right)}},
\end{displaymath}

Statystyka ta podlega rozkładowi t-Studenta z $df=bk-b-t+1$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Durbina wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Uwaga!

By rekordy w których występują braki danych były brane pod uwagę wymagane jest zaznaczenie opcji Akceptuj braki danych. Jako braki danych traktowane są puste komórki oraz komórki o wartościach nieliczbowych. W analizie biorą udział tylko rekordy zawierające więcej niż jedną wartość liczbową.

Przykład (plik mirror.pqs)

Przeprowadzono eksperyment wśród 20 pacjentów szpitala psychiatrycznego (Ogilvie 1965 28)). Eksperyment ten polegał na odrysowaniu linii prostych według zaprezentowanego wzoru. Wzór przedstawiał 5 linii rysowanych pod różnym kątem ($0^o, 22.5^o, 45^o, 67.5^o, 90^o$) względem wskazanego środka. Zadaniem pacjentów było odwzorowanie linii mając zasłoniętą dłoń. Jako wynik eksperymentu zapisano czas w jakim pacjent kreślił daną linię. W idealnym przypadku każdy pacjent kreśliłby linię pod każdym kątem, jednak upływający czas i zmęczenie miałyby znaczny wpływ na wydajność pracy. Ponadto trudno jest utrzymać zainteresowanie pacjenta i chęć współpracy przez dłuższy czas. W związku z tym projekt zaplanowano i przeprowadzono w zbalansowanych i niekompletnych blokach. Każdy z 20 pacjentów wyrysowywał linię pod dwoma kontami (możliwych kątów było pięć). W ten sposób każdy kąt wyrysowywany był ośmiokrotnie. Czas w jakim każdy pacjent wyrysowywał linię pod zadanym kątem zapisano w tabeli.

\begin{tabular}{|c||c|c|c|c|c|}
\hline
nr pacjenta &$0^o$&$22.5^o$&$45^o$&$67.5^o$&$90^o$\\\hline
1&7&15&&&\\
2&20&&72&&\\
3&8&&&26&\\
4&33&&&&36\\
5&7&16&&&\\
6&&68&67&&\\
7&&33&&64&\\
8&&34&&&12\\
9&10&&96&&\\
10&&29&59&&\\
11&&&17&9&\\
12&&&100&&15\\
13&16&&&32&\\
14&&19&&32&\\
15&&&36&39&\\
16&&&&44&54\\
17&16&&&&38\\
18&&17&&&12\\
19&&&37&&11\\
20&&&&56&6\\
\hline
\end{tabular}

Chcemy sprawdzić, czy czas jaki został poświęcony na wyrysowanie poszczególnych linii jest zupełnie losowy, czy też są linie, których wyrysowywanie zajęło więcej lub mniej czasu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy pomiędzy czasem poświęconym na $\\
& $wyrysowanie poszczególnych linii przez pacjentów, $\\
\mathcal{H}_1: & $przynajmniej jedna linia rysowana jest w czasie krótszym/dłuższym.$
\end{array}
$

Porównując wartość $p=0,014541$ dla statystyki $T_2$ (lub wartość $p=0.034203$ dla statystyki $T_1$) z poziomem istotności $\alpha=0.05$ stwierdzamy, że linie nie są rysowane w tym samym czasie. Wykonana analiza POST-HOC wskazuje na różnice czasu poświęconego na narysowanie linii pod kątem $0^o$. Jest ona rysowana szybciej niż linie pod kątem $22.5^o$, $45^o$ oraz $67.5^o$.

Na wykresie zaznaczono grupy jednorodne wskazane przez test post-hoc.

2014/12/18 22:18 · admin

ANOVA Skillings-Mack (brakujących danych)

Analiza wariancji powtarzanych pomiarów dla rang Skillings-Mack została zaproponowana przez Skillings'a i Mack'a w roku 1981 29). Jest to test, który może być wykorzystywany w przypadku występowania braków danych, ale braki te nie muszą występować w żadnym szczególnym układzie. Każdy obiekt musi mieć jednak przynajmniej dwie obserwacje. Jeśli nie ma rang wiązanych a braki nie występują jest tożsamy z ANOVA Friedmana, a jeśli braki danych występują w układzie zbalansowanym odpowiada wynikom ANOVA Durbina.

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów ($R_{j}$) lub są upraszczane do median ($\theta_j$):

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

Statystyka testowa ma postać:

\begin{displaymath}
\chi^2=A\Sigma_0^{-1}A^T
\end{displaymath}

gdzie:

$A=(A_1,A_2,...,A_{k-1}$

$A_j=\sum_{i=1}^n\sqrt{\frac{12}{s_i+1}}\left(R_{ij}-\frac{s_i+1}{2}\right)$,

$s_i$ - liczba obserwacji dla $i$-tego obiektu,

$R_{ij}$ - rangi przypisane kolejnym pomiarom ($j = 1, 2, ...k$), oddzielnie dla każdego z badanych obiektów ($i = 1, 2, ...n$), przy czym rangi dla braków danych równe są średniej randze dla danego obiektu,

$\Sigma_0$ - macierz wyznaczająca kowariancje dla $A$ przy prawdziwości $\mathcal{H}_0$30).

Gdy każda para pomiarów występuje równocześnie dla przynajmniej jednej obserwacji, statystyka ta ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $k-1$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji ANOVA Skillings-Mack wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Uwaga!

By rekordy w których występują braki danych były brane pod uwagę wymagane jest zaznaczenie opcji Akceptuj braki danych. Jako braki danych traktowane są puste komórki oraz komórki o wartościach nieliczbowych. W analizie biorą udział tylko rekordy zawierające więcej niż jedną wartość liczbową.

Przykład (plik ankietyzacja.pqs)

Pewien nauczyciel akademicki, chcąc poprawić sposób prowadzenia zajęć postanowił zweryfikować swoje umiejętności dydaktyczne. W kilku losowo wybranych grupach studenckich, podczas ostatnich zajęć, prosił o wypełnienie krótkiej anonimowej ankiety. Ankieta składała się z 6 pytań dotyczących sposobu ilustrowania sześciu wyszczególnionych partii materiału. Studenci mogli dokonać oceny w skali pięciostopniowej , gdzie 1-zupełnie niezrozumiały sposób przedstawiana materiału, 5 - bardzo jasny i ciekawy sposób ilustrowania materiału. Uzyskane w ten sposób dane okazały się nie być kompletne ze względu na brak odpowiedzi studentów na pytania dotyczące tej części materiału, na której byli nieobecni. W 30-osobowej grupie wypełniającej ankietę, tylko 15 osób udzieliło kompletu odpowiedzi. Wykonanie analizy nie uwzględniającej braków danych (w tym przypadku analizy Friedmana) będzie miało ograniczoną moc poprzez tak drastyczne obcięcie liczności grupy i nie doprowadzi do wykrycia istotnych różnic. Braki danych nie były zaplanowane i nie występują w bloku zbalansowanym, a więc nie można wykonać tego zadania przy użyciu analizy Durbina wraz z jego testem POST-HOC.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy w ocenach poszczególnych części materiału przez$\\
& $studentów, $\\
\mathcal{H}_1: & $przynajmniej jedna część materiału jest oceniana przez studentów inaczej.$
\end{array}
$

Wyniki analizy ANOVA Skillings-Mack przedstawia następujący raport:

Uzyskaną wartość $p$ należy traktować ostrożnie ze względu na możliwe rangi wiązane. Jednak w przypadku tego badania wartość $p=0.006739$ znajduje się znacznie poniżej przyjętego poziomu istotności $\alpha=0.05$, co świadczy o występowaniu istotnych różnic. Różnice w odpowiedziach można obserwować na wykresie, nie ma jednak możliwości przeprowadzenia analizy POST-HOC dla tego testu.

2014/12/18 22:31 · admin

Test chi-kwadrat dla wielowymiarowych tabel kontyngencji

Test $\chi^2$ dla wielowymiarowych tabel kontyngencji (ang. Chi-square test for multidimensional contingency tables) jest rozszerzeniem testu chi-kwadrat dla tabel (RxC) na więcej niż dwie cechy.

Podstawowe warunki stosowania:

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & O_{ij...}=E_{ij...} $ dla wszystkich kategorii,$\\
\mathcal{H}_1: & O_{ij...} \neq E_{ij...} $ dla przynajmniej jednej kategorii,$
\end{array}
$

gdzie:

$O_{ij...}$ i $E_{ij...}$ to liczności obserwowane w tabeli kontyngencji i odpowiadające im liczności oczekiwane.

Statystyka testowa ma postać:

\begin{displaymath}
\chi^2=\sum_{i=1}^r\sum_{j=1}^c\sum...\sum\frac{(O_{ij...}-E_{ij...})^2}{E_{ij...}}.
\end{displaymath}

Statystyka ta ma asymptotycznie (dla dużych liczności oczekiwanych) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df = (r - l)(c - 1)(l - 1) + (r- l)(c- 1) + (r- 1)(l- 1) + (c- 1)(l- 1)$ - dla tabeli o 3 wymiarach.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji wielowymiarowego testu chi-kwadrat wywołujemy poprzez menu StatystykaTesty nieparametrycznechi-kwadrat (wielowymiarowy) lub poprzez ''Kreator''.

Uwaga!

Test ten jest możliwy do wyliczenia tylko na podstawie danych surowych.

2014/08/22 20:00

ANOVA Q-Cochrana

Analiza wariancji Q-Cochrana oparta na teście Q-Cochrana (ang. Q-Cochran test) opisana została przez Cochrana (1950)32). Test ten jest rozszerzeniem testu McNemara do $k\geq2$ grup zależnych. Służy do weryfikacji hipotezy o symetryczności pomiędzy wynikami kilkukrotnych pomiarów $X^{(1)}, X^{(2)},..., X^{(k)}$ cechy $X$. Badana cecha może mieć tylko 2 wartości, do których (dla potrzeb analizy) przypisywane są liczby 0 i 1.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & $wszystkie "niezgodne" liczności obserwowane są sobie równe,$ \\
\mathcal{H}_1: & $nie wszystkie "niezgodne" liczności obserwowane są równe,$
\end{array}

gdzie:

„niezgodne” liczności obserwowane, to liczności obserwowane wyliczone, gdy wartość badanej cechy jest różna w kolejnych pomiarach.

Statystyka testowa ma postać:

\begin{displaymath}
Q=\frac{(k-1)\left(kC-T^2\right)}{kT-R}
\end{displaymath}

gdzie:

$T=\sum_{i=1}^n\sum_{j=1}^kx_{ij}$,

$R=\sum_{i=1}^n\left(\sum_{j=1}^kx_{ij}\right)^2$,

$C=\sum_{j=1}^k\left(\sum_{i=1}^nx_{ij}\right)^2$,

$x_{ij}$ $-$ wartość $j$-tego pomiaru dla $i$-tego obiektu (czyli 0 lub 1).

Statystyka ta ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df=k-1$.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Hipotezy:

Przykład - porównania proste (dla różnicy proporcji 1 wybranej pary pomiarów):

\begin{array}{cl}
\mathcal{H}_0: & $wybrane "niezgodne" liczności obserwowane są sobie równe,$ \\
\mathcal{H}_1: & $wybrane "niezgodne" liczności obserwowane są różne,$
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest ze wzoru:

\begin{displaymath}
NIR=Z_{\frac{\alpha}{c}}\sqrt{2\frac{kT-R}{n^2k(k-1)}},
\end{displaymath}

gdzie:

$\displaystyle Z_{\frac{\alpha}{c}}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_jp_j}{\sqrt{2\frac{kT-R}{n^2k(k-1)}}},
\end{displaymath}

gdzie:

$p_j$ $-$ proporcja $j$-tego pomiaru $(j=1,2,...k)$,

Statystyka ta ma asymptotycznie (dla dużych liczności) rozkład normalny, a wartość $p$ jest korygowana o liczbę możliwych porównań prostych $c$.

Okno z ustawieniami opcji ANOVA Q Cochrana wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Q Cochrana lub poprzez ''Kreator''.

Uwaga!

Test ten jest możliwy do wyliczenia tylko na podstawie danych surowych.

Przykład (plik test.pqs)

Chcemy porównać trudność 3 pytań testowych. W tym celu z badanej populacji osób, do których adresowany jest test wybieramy 20 osobową próbę. Każda osoba z próby daje odpowiedzi na 3 pytania zawarte w teście. Następnie sprawdzamy poprawność tych odpowiedzi (osoba może odpowiedzieć poprawnie lub błędnie). Wyniki zawiera poniższa tabela:

\begin{tabular}{|c|c|c|c|}
\hline
Nr&Odpowiedź-pytanie1&Odpowiedź-pytanie2&Odpowiedź-pytanie3\\\hline
1&poprawna&poprawna&błędna\\
2&błędna&poprawna&błędna\\
3&poprawna&poprawna&poprawna\\
4&błędna&poprawna&błędna\\
5&błędna&poprawna&błędna\\
6&błędna&poprawna&poprawna\\
7&błędna&błędna&błędna\\
8&błędna&poprawna&błędna\\
9&poprawna&poprawna&błędna\\
10&błędna&poprawna&błędna\\
11&błędna&błędna&błędna\\
12&błędna&błędna&poprawna\\
13&błędna&poprawna&błędna\\
14&błędna&błędna&poprawna\\
15&poprawna&błędna&błędna\\
16&błędna&błędna&błędna\\
17&błędna&poprawna&błędna\\
18&błędna&poprawna&błędna\\
19&błędna&błędna&błędna\\
20&poprawna&poprawna&błędna\\\hline
\end{tabular}

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & $poszczególne pytania uzyskały taką samą liczbę poprawnych odpowiedzi$\\
& $udzielonych przez osoby reprezentujące badaną populację,$\\
\mathcal{H}_1: & $liczba poprawnych odpowiedzi udzielonych przez osoby reprezentujące badaną$\\
& $populację jest inna w poszczególnych pytaniach testu.$
\end{array}
$

Porównując wartość $p=0.007699$ z poziomem istotności $\alpha=0.05$ stwierdzamy, że pytanie testowe wykazują różny stopień trudności. Wznawiamy analizę przyciskiem by wykonać test POST-HOC i w oknie opcji testu wybieramy POST-HOC Dunn.

Wykonana analiza POST-HOC wskazuje, że różnice dotyczą pytania 2 i 1 oraz 2 i 3. Różnica ta polega na tym, że pytanie 2 jest łatwiejsze niż 1 i 3 (liczba poprawnych odpowiedzi jest tu wyższa).

2014/08/22 20:00
2014/08/22 20:00
1) , 9)
Lund R.E., Lund J.R. (1983), Algorithm AS 190, Probabilities and Upper Quantiles for the Studentized Range. Applied Statistics; 34
2)
Brown M. B., Forsythe A. B. (1974), The small sample behavior of some statistics which test the equality of several means. Technometrics, 16, 385-389
3)
Welch B. L. (1951), On the comparison of several mean values: an alternative approach. Biometrika 38: 330–336
4)
Tamhane A. C. (1977), Multiple comparisons in model I One-Way ANOVA with unequal variances. Communications in Statistics, A6 (1), 15-32
5)
Brown M. B., Forsythe A. B. (1974), The ANOVA and multiple comparisons for data with heterogeneous variances. Biometrics, 30, 719-724
6)
Games P. A., Howell J. F. (1976), Pairwise multiple comparison procedures with unequal n's and/or variances: A Monte Carlo study. Journal of Educational Statistics, 1, 113-125
7)
Levene H. (1960), Robust tests for the equality of variance. In I. Olkin (Ed.) Contributions to probability and statistics (278-292). Palo Alto, CA: Stanford University Press
8)
Brown M.B., Forsythe A. B. (1974a), Robust tests for equality of variances. Journal of the American Statistical Association, 69,364-367
10)
Greenhouse S. W., Geisser S. (1959), On methods in the analysis of profile data. Psychometrika, 24, 95–112
11)
Huynh H., Feldt L. S. (1976), Estimation of the Box correction for degrees of freedom from sample data in randomized block and split=plot designs. Journal of Educational Statistics, 1, 69–82
12)
Mauchly J. W. (1940), Significance test for sphericity of n-variate normal population. Annals of Mathematical Statistics, 11, 204-209
13)
Kruskal W.H. (1952), A nonparametric test for the several sample problem. Annals of Mathematical Statistics, 23, 525-540
14)
Kruskal W.H., Wallis W.A. (1952), Use of ranks in one-criterion variance analysis. Journal of the American Statistical Association, 47, 583-621
15) , 23)
Dunn O. J. (1964), Multiple comparisons using rank sums. Technometrics, 6: 241–252
16)
Zar J. H., (2010), Biostatistical Analysis (Fifth Editon). Pearson Educational
17) , 20) , 24) , 27)
Conover W. J. (1999), Practical nonparametric statistics (3rd ed). John Wiley and Sons, New York
18)
Jonckheere A. R. (1954), A distribution-free k-sample test against ordered alternatives. Biometrika, 41: 133–145
19)
Terpstra T. J. (1952), The asymptotic normality and consistency of Kendall's test against trend, when ties are present in one ranking. Indagationes Mathematicae, 14: 327–333
21)
Friedman M. (1937), The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, 32,675-701
22)
Iman R. L., Davenport J. M. (1980), Approximations of the critical region of the friedman statistic, Communications in Statistics 9, 571–595
25)
Page E. B. (1963), Ordered hypotheses for multiple treatments: A significance test for linear ranks. Journal of the American Statistical Association 58 (301): 216–30
26)
Durbin J. (1951), Incomplete blocks in ranking experiments. British Journal of Statistical Psychology, 4: 85–90
28)
Ogilvie J. C. (1965), Paired comparison models with tests for interaction. Biometrics 21(3): 651-64
29) , 30)
Skillings J.H., Mack G.A. (1981) On the use of a Friedman-type statistic in balanced and unbalanced block designs. Technometrics, 23:171–177
31)
Cochran W.G. (1952), The chi-square goodness-of-fit test. Annals of Mathematical Statistics, 23, 315-345
32)
Cochran W.G. (1950), The comparison ofpercentages in matched samples. Biometrika, 37, 256-266
pl/statpqpl/porown3grpl.txt · ostatnio zmienione: 2019/12/17 17:27 (edycja zewnętrzna)

Narzędzia strony