Testy nieparametryczne

ANOVA Kruskala-Wallisa

Jednoczynnikowa analiza wariancji dla rang Kruskala-Walisa, czyli ANOVA Kruskala-Wallisa (ang. Kruskal-Wallis one-way analysis of variance by ranks) opisana przez Kruskala (1952)1) oraz Kruskala i Wallisa (1952)2) jest rozszerzeniem testu U-Manna-Whitneya na więcej niż dwie populacje. Test ten służy do weryfikacji hipotezy o nieistotności różnic pomiędzy medianami badanej zmiennej w kilku ($k\geq2$) populacjach (przy czym zakładamy, że rozkłady zmiennej są sobie bliskie).

Podstawowe warunki stosowania:

Hipotezy dotyczą równości średnich rang dla kolejnych populacji lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\theta_1,\theta_2,...\theta_k$ to mediany badanej zmiennej w populacjach, z których pobrano próby.

Statystyka testowa ma postać:

\begin{displaymath}
H=\frac{1}{C}\left(\frac{12}{N(N+1)}\sum_{j=1}^k\left(\frac{\left(\sum_{i=1}^{n_j}R_{ij}\right)^2}{n_j}\right)-3(N+1)\right),
\end{displaymath}

gdzie:

$N=\sum_{j=1}^k n_j$,

$n_j$ - liczności prób dla $(j=1,2,...k)$,

$R_{ij}$ - rangi przypisane do wartości zmiennej, dla $(i=1,2,...n_j)$, $(j=1,2,...k)$,

$\displaystyle C=1-\frac{\sum(t^3-t)}{N^3-N}$ - korekta na rangi wiązane,

$t$ - liczba przypadków wchodzących w skład rangi wiązanej.

Wzór na statystykę testową $H$ zawiera poprawkę na rangi wiązane $C$. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, gdyż wówczas $C=1$).

Statystyka $H$ ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df = (k - 1)$.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Dla porównań prostych, zarówno równolicznych jak i różnolicznych grup.

Test Dunna (Dunn 19643)) zawiera poprawkę na rangi wiązane (Zar 20104)) i jest testem korygowanym ze względu na wielokrotne testowanie. Najczęściej wykorzystuje się tu korektę Bonferroniego lub Sidaka, chociaż dostępne są również inne, nowsze korekty opisane szerzej w dziale Wielokrotne porównania.

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / średnich rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=Z_{\alpha(corrected)}\sqrt{\left(\frac{N(N+1)}{12}-\frac{\sum(t^3-t)}{12(N-1)}\right)\sum_{j=1}^k \frac{c_j^2}{n_j}},
\end{displaymath}

gdzie:

$t$ $-$ liczba przypadków wchodzących w skład rangi wiązanej

$\displaystyle Z_{\alpha(corrected)}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{\left(\frac{N(N+1)}{12}-\frac{\sum(t^3-t)}{12(N-1)}\right)\sum_{j=1}^k \frac{c_j^2}{n_j}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ - średnia rang $j$-tej grupy, dla $(j=1,2,...k)$,

Wzór na statystykę testową $Z$ zawiera poprawkę na rangi wiązane. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, ponieważ $\sum(t^3-t)=0$).

Statystyka ta ma asymptotycznie (dla dużych liczności próby) rozkład normalny, a wartość p jest korygowana o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

Test Conover-Iman

Nieparametryczny odpowiednik LSD Fishera5), stosowany dla porównań prostych zarówno równolicznych jak i różnolicznych grup.

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,N-k}}\cdot\sqrt{S^2\frac{N-1-H}{N-k}\sum_{j=1}^k \frac{c_j^2}{n_j}},
\end{displaymath}

gdzie:

$\displaystyle S^2=\frac{1}{N-1}\left(\sum_{j=1}^k\sum_{i=1}^{n_j}R_{ij}^2-N\frac{(N+1)^2}{4}\right)$

$\displaystyle F_{\alpha,1,N-k}$ to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$ oraz dla stopni swobody odpowiednio: 1 i $N-k$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{S^2\frac{N-1-H}{N-k}\sum_{j=1}^k \frac{c_j^2}{n_j}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ - średnia rang $j$-tej grupy, dla $(j=1,2,...k)$,

Statystyka ta podlega rozkładowi t-Studenta z $N-k$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Kruskala-Wallisa wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Kruskala-Wallisa lub poprzez Kreator.

Przykład (satysfakcjaZpracy.pqs)

Przepytano grupę 120 osób, dla których wykonywane zajęcie jest ich pierwszą pracą uzyskaną po otrzymaniu odpowiedniego wykształcenia. Ankietowani oceniali satysfakcję z wykonywanej pracy w pięciostopniowej skali, gdzie:

1- praca niesatysfakcjonująca,

2- praca dająca niewielką satysfakcję,

3- praca dająca przeciętny poziom satysfakcji,

4- praca dająca dość dużą satysfakcję ,

5- praca bardzo satysfakcjonująca.

Sprawdzimy czy poziom deklarowanej satysfakcji z pracy nie zmienia się dla poszczególnych kategorii wykształcenia.

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & $poziom satysfakcji z pracy jest taki sam dla każdej kategorii wykształcenia,$\\
\mathcal{H}_1: & $przynajmniej jedna kategoria wykształcenia (jedna populacja) charakteryzuje się  $ \\
&$innym poziomem satysfakcji z pracy.$
\end{array}
$

Uzyskana wartość $p=0.001034$ świadczy o istotnej różnicy poziomu satysfakcji pomiędzy porównywanymi kategoriami wykształcenia. Przeprowadzona analiza POST-HOC Dunna z korektą Bonferroniego wskazuje, że istotne różnice dotyczą osób z wykształceniem podstawowym i średnim oraz z wykształceniem podstawowym i wyższym. Nieco więcej różnic możemy potwierdzić wybierająć silniejszy POST-HOC Conover-Iman.

2014/08/22 20:00

Test Jonckheere-Terpstra dla trendu

Test Jonckheere-Terpstra dla trendu (ang. the Jonckheere-Terpstra test for ordered alternatives) opisany niezależnie przez Jonckheere (1954) 6) i Terpstra (1952)7) może być wyliczany w takiej samej sytuacji jak ANOVA Kruskala-Wallisa, gdyż bazuje na tych samych założeniach. Test Jonckheere-Terpstra inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu dla kolejnych populacji.

Hipotezy są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & \theta_1\geq\theta_2\geq...\geq\theta_k, $ z co najmniej jedną nierównością ścisłą$
\end{array}

Uwaga!

Określenie: „z co najmniej jedną nierównością ścisłą” zapisane w hipotezie alternatywnej tego testu oznacza, że co najmniej mediana jednej populacji powinna być większa niż mediana innej populacji w kolejności określonej.

Statystyka testowa ma postać: \begin{displaymath}
Z=\frac{L-\left[\frac{N^2-\sum_{j=1}^kn_j^2}{4}\right]}{SE}
\end{displaymath}

gdzie:

$L=$ - suma wartości $l_{ij}$ uzyskanych dla każdej pary porównywanych populacji,

$l_{ij}$ - liczba wyników wyższych niż zadana wartość w grupie występującej w następnej kolejności,

$SE=\sqrt{\frac{A}{72}+\frac{B}{36N(N-1)(N-2)}+\frac{C}{8N(N-1)}}$,

$A=N(N-1)(2N+5)-\sum_{j=1}^kn_j(n_j-1)(2n_j+5)-\sum_{l=1}^gt_l(t_l-1)(2t_l+5)$,

$B=\sum_{j=1}^kn_j(n_j-1)(n_j-2)\cdot\sum_{l=1}^gt_l(t_l-1)(t_l-2)$,

$C=\sum_{j=1}^kn_j(n_j-1)\cdot\sum_{l=1}^gt_l(t_l-1)$,

$g$ - liczba grup różnych rang wiązanych,

$t_l$ -liczba przypadków wchodzących w skład rangi wiązanej,

$N=\sum_{j=1}^k n_j$,

$n_j$ - liczności prób dla $(j=1,2,...k)$.

Uwaga!

By można było przeprowadzić analizę trendu, należy wskazać oczekiwaną kolejność populacji przypisując im kolejne liczby naturalne.

Wzór na statystykę testową $Z$ zawiera poprawkę na rangi wiązane. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych wzór na statystykę testową sprowadza się do oryginalnej formuły Jonckheere-Terpstra nie zawierającej tej poprawki).

Statystyka $Z$ ma asymptotycznie (dla dużych liczności) rozkład normalny.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji testu Jonckheere-Terpstra wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Kruskala-Wallisa lub poprzez Kreator.

Pprzykład c.d. (plik satysfakcjaZpracy.pqs)

Podejrzewa się, że osoby lepiej wykształcone mają wysokie wymagania zawodowe, co może zmniejszać poziom satysfakcji z pierwszej pracy, która często takich wymagań nie spełnia. Dlatego też warto przeprowadzić analizę trendu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $w badanej populacji wraz ze wzrostem wykształcenia maleje poziom satysfakcji $\\
& $z pierwszej pracy,$\\
\mathcal{H}_1: & $w badanej populacji poziom satysfakcji z pierwszej pracy nie maleje wraz ze $\\
& $wzrostem wykształcenia.$
\end{array}
$

W tym celu wznawiamy analizę przyciskiem , zaznaczamy opcję Test trendu Jonckheere-Terpstra i kolejnym kategoriom wykształcenia przypisujemy kolejne liczby naturalne.

Uzyskana jednostronna wartość $p=0.000045$ i jest mniejsza niż zadany poziom istotności $\alpha=0.05$, co przemawia na rzecz rzeczywiście występującego trendu zgodnego z oczekiwaniami badacza.

2014/12/18 19:10 · admin

ANOVA Friedmana

Analiza wariancji powtarzanych pomiarów dla rang Friedmana, czyli ANOVA Friedmana (ang. Friedman repeated measures analysis of variance by ranks) opisana została przez Friedmana (1937)8). Test ten stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie ($k\geq2$) w różnych warunkach. Stosowana jest również, gdy dysponujemy rankingami pochodzącymi z różnych źródeł (od różnych sędziów) i dotyczącymi kilku ($k\geq2$) obiektów a zależy nam na ocenie zgodności tych rankingów.

Iman Davenport (19809)) pokazał, że w wielu przypadkach statystka Friedmana jest nadmiernie konserwatywna i dokonał pewnej jej modyfikacji. Modyfikacja ta jest nieparametrycznym odpowiednikiem ANOVA powtarzanych pomiarów co sprawia, że jest obecnie rekomendowana do stosowania w zastępstwie tradycyjnej statystyki Friedmana.

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\theta_1,\theta_2,...\theta_k$ mediany badanej cechy w kolejnych pomiarach z badanej populacji.

Wyznacza się dwie statystyki testowe: statystykę Friedmana i modyfikację Imana-Davenport tej statystyki.

Statystyka Friedmana ma postać:

\begin{displaymath}
T_1=\frac{1}{C}\left(\frac{12}{nk(k+1)}\left(\sum_{j=1}^k\left(\sum_{i=1}^n R_{ij}\right)^2\right)-3n(k+1)\right),
\end{displaymath}

gdzie:

$n$ $-$ liczność próby,

$R_{ij}$ $-$ rangi przypisane kolejnym pomiarom $(j=1,2,...k)$, oddzielnie dla każdego z badanych obiektów $(i=1,2,...n)$,

$\displaystyle C=1-\frac{\sum(t^3-t)}{n(k^3-k)}$ $-$ korekta na rangi wiązane,

$t$ $-$ liczba przypadków wchodzących w skład rangi wiązanej.

Modyfikacjia Imana-Davenport statystyki Friedmana ma postać:

\begin{displaymath}
T_2=\frac{(n_j-1)T_1}{n_j(k-1)-T_1}
\end{displaymath}

Wzór na statystykę $T_1$ i $T_2$ zawiera poprawkę na rangi wiązane $C$. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, gdyż wówczas $C=1$).

Statystyka $T_1$ ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=k - 1$ stopniami swobody.

Statystyka $T_2$ podlega rozkładowi F Snedecora z $df_1=k-1$ i $df_2=(n_j-1)(k-1)$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Test Dunna (Dunn 196410)) jest testem korygowanym ze względu na wielokrotne testowanie. Najczęściej wykorzystuje się tu korektę Bonferroniego lub Sidaka, chociaż dostępne są również inne, nowsze korekty opisane szerzej w dziale Wielokrotne porównania.

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / średnich rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=Z_{\alpha(corrected)}\sqrt{\frac{k(k+1)}{6n}},
\end{displaymath}

gdzie:

$\displaystyle Z_{\alpha(corrected)}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

  • $\mathfrak{(ii)}$Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{\frac{k(k+1)}{6n}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ $-$ średnia rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta ma asymptotycznie (dla dużych liczności próby) rozkład normalny, a wartość p jest korygowana o liczbę możliwych porównań prostych zgodnie z wybraną poprawką.

Test Conover-Inman

Nieparametryczny odpowiednik LSD Fishera11), stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,df_2}}\cdot\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}},
\end{displaymath}

gdzie:

$\displaystyle A=\sum_{i=1}^{n_j}\sum_{j=1}^kR_{ij}^2$ $-$ suma kwadratów dla rang,

$\displaystyle F_{\alpha,1,df_2}$ to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$oraz dla stopni swobody odpowiednio: 1 i $df_2$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_jR_j}{\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}}},
\end{displaymath}

gdzie:

$R_j$ - suma rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta podlega rozkładowi t-Studenta z $df_2$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Friedmana wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Przykład (plik baton.pqs)

Badano kwartalną wielkość sprzedaży pewnego batonu czekoladowego w 14 losowo wybranych marketach. Badanie rozpoczęto w styczniu a zakończono w grudniu. W czasie drugiego kwartału trwała intensywna billboardowa kampania reklamowa tego produktu. Sprawdzimy, czy kampania miała wpływ na wielkość sprzedaży reklamowanego batonu.

\begin{tabular}{|c|c|c|c|c|}
\hline
sklep&Kwartał I&Kwartał II&Kwartał III&Kwartał IV\\\hline
SK1&3415&4556&5772&5432\\
SK2&1593&1937&2242&2794\\
SK3&1976&2056&2240&2085\\
SK4&1526&1594&1644&1705\\
SK5&1538&1634&1866&1769\\
SK6&983&1086&1135&1177\\
SK7&1050&1209&1245&977\\
SK8&1861&2087&2054&2018\\
SK9&1714&2415&2361&2424\\
SK10&1320&1621&1624&1551\\
SK11&1276&1377&1522&1412\\
SK12&1263&1279&1350&1490\\
SK13&1271&1417&1583&1513\\
SK14&1436&1310&1357&1468\\\hline
\end{tabular}

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy pomiędzy wielkością sprzedaży dla porównywanych $\\
& $kwartałów w populacji reprezentowanej przez zebraną próbę, $\\
\mathcal{H}_1: & $różnica w sprzedaży dla populacji reprezentowanej przez zebraną próbę $\\
& $pomiędzy przynajmniej dwoma kwartałami jest istotna.$
\end{array}
$

Porównując wartość $p=0.000026$ testu Friedmana (jak i wartość $p<0.000001$ korekty Iman-Davenport testu Friedmana) z poziomem istotności $\alpha=0.05$, stwierdzamy, że sprzedaż batonu nie jest taka sama w każdym kwartale. Wykonana analiza POST-HOC Dunna z korektą Bonferroniego wskazuje na różnice wielkości sprzedaży dotyczące kwartału I i III oraz I i IV, a analogiczna analiza przeprowadzona silniejszym testem Conover-Iman wskazuje na różnice pomiędzy wszyskimi kwartałami za wyjątkiem kwartału III i IV.

2014/08/22 20:00

Test Page dla trendu

Test Page dla trendu (ang. the Page test for ordered alternative) opisany w roku 1963 przez Page E. B. 12) może być wyliczany w takiej samej sytuacji jak ANOVA Friedmana, gdyż bazuje na tych samych założeniach. Test Page inaczej jednak ujmuje hipotezę alternatywną - wskazując w niej na istnienie trendu w kolejnych pomiarach.

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & \theta_1\geq\theta_2\geq...\geq\theta_k, $ z co najmniej jedną nierównością ścisłą$
\end{array}

Uwaga!

Określenie: „z co najmniej jedną nierównością ścisłą” zapisane w hipotezie alternatywnej tego testu oznacza, że co najmniej jedna mediana powinna być większa niż mediana innej grupy pomiarów w kolejności określonej.

Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{L-\left[\frac{nk(k+1)^2}{4}\right]}{\sqrt{\frac{n(k^3-k)^2}{144(k-1)}}}
\end{displaymath}

gdzie:

$L=\sum_{j=1}^kR_jc_j$,

$R_j$ $-$ suma rang $j$-tego pomiaru,

$c_j$ $-$ waga dla $j$-tego pomiaru informująca o naturalnym porządku tego pomiaru w śród innych pomiarów (wagi to kolejne liczby naturalne).

Uwaga!

By można było przeprowadzić analizę trendu, należy wskazać oczekiwane uporządkowanie pomiarów przypisując kolejne liczby naturalne kolejnym grupom pomiarowym. Liczby te w analizie traktowane są jako wagi $c_1$, $c_2$, …, $c_k$.

Wzór na statystykę testową $Z$ nie zawiera poprawki na rangi wiązane, przez co staje się nieco bardziej konserwatywny, gdy rangi wiązane występują. Jednakże stosowanie korekty na rangi wiązane w przypadku tego testu nie jest rekomendowane.

Statystyka $Z$ ma asymptotycznie (dla dużych liczności) rozkład normalny.

Przy znanym oczekiwanym kierunku trendu, hipoteza alternatywna jest jednostronna i interpretacji podlega jednostronna wartość $p$. Interpretacja dwustronnej wartości $p$ oznacza, że badacz nie zna (nie zakłada) kierunku ewentualnego trendu. Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji testu Page wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Przykład c.d. (plik baton.pqs)

Oczekiwanym skutkiem prowadzenia przez firmę intensywnej kampanii reklamowej jest stały wzrost sprzedaży oferowanego batonu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak wskazanego trendu w sprzedaży batonu,$\\
\mathcal{H}_1: & $istnieje wskazany trend w sprzedaży batonu.$
\end{array}
$

Porównując jednostronną wartość $p=0,000004$ z poziomem istotności $\alpha=0.05$, stwierdzamy, że kampania przyniosła oczekiwany trend wzrostu sprzedaży produktu.

2014/12/18 22:10 · admin

ANOVA Durbina (brakujących danych)

Analiza wariancji powtarzanych pomiarów dla rang Durbina została zaproponowana przez Durbina (1951)13). Test ten stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie - czyli w podobnej sytuacji w jakiej stosowana jest ANOVA Friedmana. Oryginalny test Durbina i test Friedmana dają ten sam wynik w sytuacji, gdy dysponujemy kompletnym zestawem danych. Test Durbina ma jednak pewną przewagę - można go również wyliczać dla niekompletnego zestawu danych. Przy czym braki danych nie mogą być zlokalizowane dowolnie, ale dane muszą tworzyć tzw. zbalansowany i niekompletny blok, czyli:

  • liczba pomiarów dla każdego obiektu wynosi $k$ ($k \leq t$),
  • każdy pomiar dokonywany jest na $r$ obiektach ($r \leq b$),
  • liczba obiektów dla których wykonano jednocześnie tą sama parę pomiarów jest stała i wynosi $\lambda$.

gdzie:

$t$ - łączna liczba rozpatrywanych pomiarów,

$b$ - łączna liczba badanych obiektów

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów ($R_{j}$) lub są upraszczane do median ($\theta_j$):

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_t,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,t)$$,
\end{array}

Wyznacza się dwie statystyki testowe o następującej postaci:

\begin{displaymath}
T_1=\frac{(t-1)\left[\sum_{j=1}^tR_j^2-tC\right]}{A-C},
\end{displaymath}

\begin{displaymath}
T_2=\frac{T_1/(t-1)}{(b(k-1)-T_1)/(bk-b-t+1)},
\end{displaymath}

gdzie:

$R_{j}$ - suma rang dla kolejnych pomiarów $(j=1,2,...t)$,

$R_{ij}$ - rangi przypisane kolejnym pomiarom, oddzielnie dla każdego z badanych obiektów $(i=1,2,...b)$,

$\displaystyle A=\sum_{i=1}^b\sum_{j=1}^tR_{ij}^2$ $-$ suma kwadratów dla rang,

$\displaystyle C=\frac{bk(k+1)^2}{4}$ $-$ współczynnik korekcji.

Wzór na statystykę $T_1$ i $T_2$ zawiera poprawkę na rangi wiązane.

W przypadku danych kompletnych statystyka $T_1$ jest tożsama z testem Friedmana. Ma ona asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=t - 1$ stopniami swobody.

Statystyka $T_2$ to odpowiednik korekty Iman-Davenport ANOVA Friedmana, więc podlega rozkładowi F Snedecora z $df_1=t-1$ i $df_2=bk-b-t+1$ stopniami swobody. Uznaje się ją obecnie za bardziej precyzyjną niż statystykę $T_1$ i rekomenduje jej stosowanie14).

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Conover-Inman

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Hipotezy:

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / sum rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest z wzoru:

\begin{displaymath}
NIR=t_{1-\alpha /2, bk-b-t+1}\sqrt{\frac{(A-C)2r}{bk-b-t+1}\left(1-\frac{T_1}{b(k-1)}\right)},
\end{displaymath}

gdzie:

$t_{1-\alpha /2, bk-b-t+1}$ - to wartość krytyczna (statystyka) rozkładu t-Studenta dla poziomu istotności $\alpha$ i $df=bk-b-t+1$ stopni swobody.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_jR_j}{\sqrt{\frac{(A-C)2r}{bk-b-t+1}\left(1-\frac{T_1}{b(k-1)}\right)}},
\end{displaymath}

Statystyka ta podlega rozkładowi t-Studenta z $df=bk-b-t+1$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Durbina wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych).

Uwaga!

By rekordy w których występują braki danych były brane pod uwagę wymagane jest zaznaczenie opcji Akceptuj braki danych. Jako braki danych traktowane są puste komórki oraz komórki o wartościach nieliczbowych. W analizie biorą udział tylko rekordy zawierające więcej niż jedną wartość liczbową.

Przykład (plik mirror.pqs)

Przeprowadzono eksperyment wśród 20 pacjentów szpitala psychiatrycznego (Ogilvie 1965 15)). Eksperyment ten polegał na odrysowaniu linii prostych według zaprezentowanego wzoru. Wzór przedstawiał 5 linii rysowanych pod różnym kątem ($0^o, 22.5^o, 45^o, 67.5^o, 90^o$) względem wskazanego środka. Zadaniem pacjentów było odwzorowanie linii mając zasłoniętą dłoń. Jako wynik eksperymentu zapisano czas w jakim pacjent kreślił daną linię. W idealnym przypadku każdy pacjent kreśliłby linię pod każdym kątem, jednak upływający czas i zmęczenie miałyby znaczny wpływ na wydajność pracy. Ponadto trudno jest utrzymać zainteresowanie pacjenta i chęć współpracy przez dłuższy czas. W związku z tym projekt zaplanowano i przeprowadzono w zbalansowanych i niekompletnych blokach. Każdy z 20 pacjentów wyrysowywał linię pod dwoma kontami (możliwych kątów było pięć). W ten sposób każdy kąt wyrysowywany był ośmiokrotnie. Czas w jakim każdy pacjent wyrysowywał linię pod zadanym kątem zapisano w tabeli.

\begin{tabular}{|c||c|c|c|c|c|}
\hline
nr pacjenta &$0^o$&$22.5^o$&$45^o$&$67.5^o$&$90^o$\\\hline
1&7&15&&&\\
2&20&&72&&\\
3&8&&&26&\\
4&33&&&&36\\
5&7&16&&&\\
6&&68&67&&\\
7&&33&&64&\\
8&&34&&&12\\
9&10&&96&&\\
10&&29&59&&\\
11&&&17&9&\\
12&&&100&&15\\
13&16&&&32&\\
14&&19&&32&\\
15&&&36&39&\\
16&&&&44&54\\
17&16&&&&38\\
18&&17&&&12\\
19&&&37&&11\\
20&&&&56&6\\
\hline
\end{tabular}

Chcemy sprawdzić, czy czas jaki został poświęcony na wyrysowanie poszczególnych linii jest zupełnie losowy, czy też są linie, których wyrysowywanie zajęło więcej lub mniej czasu.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy pomiędzy czasem poświęconym na $\\
& $wyrysowanie poszczególnych linii przez pacjentów, $\\
\mathcal{H}_1: & $przynajmniej jedna linia rysowana jest w czasie krótszym/dłuższym.$
\end{array}
$

Porównując wartość $p=0,014541$ dla statystyki $T_2$ (lub wartość $p=0.034203$ dla statystyki $T_1$) z poziomem istotności $\alpha=0.05$ stwierdzamy, że linie nie są rysowane w tym samym czasie. Wykonana analiza POST-HOC wskazuje na różnice czasu poświęconego na narysowanie linii pod kątem $0^o$. Jest ona rysowana szybciej niż linie pod kątem $22.5^o$, $45^o$ oraz $67.5^o$.

2014/12/18 22:18 · admin

ANOVA Skillings-Mack (brakujących danych)

Analiza wariancji powtarzanych pomiarów dla rang Skillings-Mack została zaproponowana przez Skillings'a i Mack'a w roku 1981 16). Jest to test, który może być wykorzystywany w przypadku występowania braków danych, ale braki te nie muszą występować w żadnym szczególnym układzie. Każdy obiekt musi mieć jednak przynajmniej dwie obserwacje. Jeśli nie ma rang wiązanych a braki nie występują jest tożsamy z ANOVA Friedmana, a jeśli braki danych występują w układzie zbalansowanym odpowiada wynikom ANOVA Durbina.

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów ($R_{j}$) lub są upraszczane do median ($\theta_j$):

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

Statystyka testowa ma postać:

\begin{displaymath}
\chi^2=A\Sigma_0^{-1}A^T
\end{displaymath}

gdzie:

$A=(A_1,A_2,...,A_{k-1}$

$A_j=\sum_{i=1}^n\sqrt{\frac{12}{s_i+1}}\left(R_{ij}-\frac{s_i+1}{2}\right)$,

$s_i$ - liczba obserwacji dla $i$-tego obiektu,

$R_{ij}$ - rangi przypisane kolejnym pomiarom ($j = 1, 2, ...k$), oddzielnie dla każdego z badanych obiektów ($i = 1, 2, ...n$), przy czym rangi dla braków danych równe są średniej randze dla danego obiektu,

$\Sigma_0$ - macierz wyznaczająca kowariancje dla $A$ przy prawdziwości $\mathcal{H}_0$17).

Gdy każda para pomiarów występuje równocześnie dla przynajmniej jednej obserwacji, statystyka ta ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $k-1$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji ANOVA Skillings-Mack wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych).

Uwaga!

By rekordy w których występują braki danych były brane pod uwagę wymagane jest zaznaczenie opcji Akceptuj braki danych. Jako braki danych traktowane są puste komórki oraz komórki o wartościach nieliczbowych. W analizie biorą udział tylko rekordy zawierające więcej niż jedną wartość liczbową.

Przykład (plik ankietyzacja.pqs)

Pewien nauczyciel akademicki, chcąc poprawić sposób prowadzenia zajęć postanowił zweryfikować swoje umiejętności dydaktyczne. W kilku losowo wybranych grupach studenckich, podczas ostatnich zajęć, prosił o wypełnienie krótkiej anonimowej ankiety. Ankieta składała się z 6 pytań dotyczących sposobu ilustrowania sześciu wyszczególnionych partii materiału. Studenci mogli dokonać oceny w skali pięciostopniowej , gdzie 1-zupełnie niezrozumiały sposób przedstawiana materiału, 5 - bardzo jasny i ciekawy sposób ilustrowania materiału. Uzyskane w ten sposób dane okazały się nie być kompletne ze względu na brak odpowiedzi studentów na pytania dotyczące tej części materiału, na której byli nieobecni. W 30-osobowej grupie wypełniającej ankietę, tylko 15 osób udzieliło kompletu odpowiedzi. Wykonanie analizy nie uwzględniającej braków danych (w tym przypadku analizy Friedmana) będzie miało ograniczoną moc poprzez tak drastyczne obcięcie liczności grupy i nie doprowadzi do wykrycia istotnych różnic. Braki danych nie były zaplanowane i nie występują w bloku zbalansowanym, a więc nie można wykonać tego zadania przy użyciu analizy Durbina wraz z jego testem POST-HOC.

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy w ocenach poszczególnych części materiału przez$\\
& $studentów, $\\
\mathcal{H}_1: & $przynajmniej jedna część materiału jest oceniana przez studentów inaczej.$
\end{array}
$

Wyniki analizy ANOVA Skillings-Mack przedstawia następujący raport:

Uzyskaną wartość $p$ należy traktować ostrożnie ze względu na możliwe rangi wiązane. Jednak w przypadku tego badania wartość $p=0.006739$ znajduje się znacznie poniżej przyjętego poziomu istotności $\alpha=0.05$, co świadczy o występowaniu istotnych różnic. Różnice w odpowiedziach można obserwować na wykresie, nie ma jednak możliwości przeprowadzenia analizy POST-HOC dla tego testu.

2014/12/18 22:31 · admin

Test chi-kwadrat dla wielowymiarowych tabel kontyngencji

Test $\chi^2$ dla wielowymiarowych tabel kontyngencji (ang. Chi-square test for multidimensional contingency tables) jest rozszerzeniem testu chi-kwadrat dla tabel (RxC) na więcej niż dwie cechy.

Podstawowe warunki stosowania:

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & O_{ij...}=E_{ij...} $ dla wszystkich kategorii,$\\
\mathcal{H}_1: & O_{ij...} \neq E_{ij...} $ dla przynajmniej jednej kategorii,$
\end{array}
$

gdzie:

$O_{ij...}$ i $E_{ij...}$ to liczności obserwowane w tabeli kontyngencji i odpowiadające im liczności oczekiwane.

Statystyka testowa ma postać:

\begin{displaymath}
\chi^2=\sum_{i=1}^r\sum_{j=1}^c\sum...\sum\frac{(O_{ij...}-E_{ij...})^2}{E_{ij...}}.
\end{displaymath}

Statystyka ta ma asymptotycznie (dla dużych liczności oczekiwanych) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df = (r - l)(c - 1)(l - 1) + (r- l)(c- 1) + (r- 1)(l- 1) + (c- 1)(l- 1)$ - dla tabeli o 3 wymiarach.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Okno z ustawieniami opcji wielowymiarowego testu chi-kwadrat wywołujemy poprzez menu StatystykaTesty nieparametrycznechi-kwadrat (wielowymiarowy) lub poprzez ''Kreator''.

Uwaga!

Test ten jest możliwy do wyliczenia tylko na podstawie danych surowych.

2014/08/22 20:00

ANOVA Q-Cochrana

Analiza wariancji Q-Cochrana oparta na teście Q-Cochrana (ang. Q-Cochran test) opisana została przez Cochrana (1950)19). Test ten jest rozszerzeniem testu McNemara do $k\geq2$ grup zależnych. Służy do weryfikacji hipotezy o symetryczności pomiędzy wynikami kilkukrotnych pomiarów $X^{(1)}, X^{(2)},..., X^{(k)}$ cechy $X$. Badana cecha może mieć tylko 2 wartości, do których (dla potrzeb analizy) przypisywane są liczby 0 i 1.

Podstawowe warunki stosowania:

Hipotezy:

\begin{array}{cl}
\mathcal{H}_0: & $wszystkie "niezgodne" liczności obserwowane są sobie równe,$ \\
\mathcal{H}_1: & $nie wszystkie "niezgodne" liczności obserwowane są równe,$
\end{array}

gdzie:

„niezgodne” liczności obserwowane, to liczności obserwowane wyliczone, gdy wartość badanej cechy jest różna w kolejnych pomiarach.

Statystyka testowa ma postać:

\begin{displaymath}
Q=\frac{(k-1)\left(kC-T^2\right)}{kT-R}
\end{displaymath}

gdzie:

$T=\sum_{i=1}^n\sum_{j=1}^kx_{ij}$,

$R=\sum_{i=1}^n\left(\sum_{j=1}^kx_{ij}\right)^2$,

$C=\sum_{j=1}^k\left(\sum_{i=1}^nx_{ij}\right)^2$,

$x_{ij}$ $-$ wartość $j$-tego pomiaru dla $i$-tego obiektu (czyli 0 lub 1).

Statystyka ta ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z liczbą stopni swobody wyznaczaną według wzoru: $df=k-1$.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Hipotezy:

Przykład - porównania proste (dla różnicy proporcji 1 wybranej pary pomiarów):

\begin{array}{cl}
\mathcal{H}_0: & $wybrane "niezgodne" liczności obserwowane są sobie równe,$ \\
\mathcal{H}_1: & $wybrane "niezgodne" liczności obserwowane są różne,$
\end{array}

  • $\mathfrak{(i)}$ Wartość najmniejszej istotnej różnicy wyliczana jest ze wzoru:

\begin{displaymath}
NIR=Z_{\frac{\alpha}{c}}\sqrt{2\frac{kT-R}{n^2k(k-1)}},
\end{displaymath}

gdzie:

$\displaystyle Z_{\frac{\alpha}{c}}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$.

  • $\mathfrak{(ii)}$ Statystyka testowa ma postać:

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_jp_j}{\sqrt{2\frac{kT-R}{n^2k(k-1)}}},
\end{displaymath}

gdzie:

$p_j$ $-$ proporcja $j$-tego pomiaru $(j=1,2,...k)$,

Statystyka ta ma asymptotycznie (dla dużych liczności) rozkład normalny, a wartość $p$ jest korygowana o liczbę możliwych porównań prostych $c$.

Okno z ustawieniami opcji ANOVA Q Cochrana wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Q Cochrana lub poprzez ''Kreator''.

Uwaga!

Test ten jest możliwy do wyliczenia tylko na podstawie danych surowych.

Przykład (plik test.pqs)

Chcemy porównać trudność 3 pytań testowych. W tym celu z badanej populacji osób, do których adresowany jest test wybieramy 20 osobową próbę. Każda osoba z próby daje odpowiedzi na 3 pytania zawarte w teście. Następnie sprawdzamy poprawność tych odpowiedzi (osoba może odpowiedzieć poprawnie lub błędnie). Wyniki zawiera poniższa tabela:

\begin{tabular}{|c|c|c|c|}
\hline
Nr&Odpowiedź-pytanie1&Odpowiedź-pytanie2&Odpowiedź-pytanie3\\\hline
1&poprawna&poprawna&błędna\\
2&błędna&poprawna&błędna\\
3&poprawna&poprawna&poprawna\\
4&błędna&poprawna&błędna\\
5&błędna&poprawna&błędna\\
6&błędna&poprawna&poprawna\\
7&błędna&błędna&błędna\\
8&błędna&poprawna&błędna\\
9&poprawna&poprawna&błędna\\
10&błędna&poprawna&błędna\\
11&błędna&błędna&błędna\\
12&błędna&błędna&poprawna\\
13&błędna&poprawna&błędna\\
14&błędna&błędna&poprawna\\
15&poprawna&błędna&błędna\\
16&błędna&błędna&błędna\\
17&błędna&poprawna&błędna\\
18&błędna&poprawna&błędna\\
19&błędna&błędna&błędna\\
20&poprawna&poprawna&błędna\\\hline
\end{tabular}

Hipotezy:


$
\begin{array}{cl}
\mathcal{H}_0: & $poszczególne pytania uzyskały taką samą liczbę poprawnych odpowiedzi$\\
& $udzielonych przez osoby reprezentujące badaną populację,$\\
\mathcal{H}_1: & $liczba poprawnych odpowiedzi udzielonych przez osoby reprezentujące badaną$\\
& $populację jest inna w poszczególnych pytaniach testu.$
\end{array}
$

Porównując wartość $p=0.007699$ z poziomem istotności $\alpha=0.05$ stwierdzamy, że pytanie testowe wykazują różny stopień trudności. Wznawiamy analizę przyciskiem by wykonać test POST-HOC i w oknie opcji testu wybieramy POST-HOC Dunn.

Wykonana analiza POST-HOC wskazuje, że różnice dotyczą pytania 2 i 1 oraz 2 i 3. Różnica ta polega na tym, że pytanie 2 jest łatwiejsze niż 1 i 3 (liczba poprawnych odpowiedzi jest tu wyższa).

2014/08/22 20:00
1)
Kruskal W.H. (1952), A nonparametric test for the several sample problem. Annals of Mathematical Statistics, 23, 525-540
2)
Kruskal W.H., Wallis W.A. (1952), Use of ranks in one-criterion variance analysis. Journal of the American Statistical Association, 47, 583-621
3) , 10)
Dunn O. J. (1964), Multiple comparisons using rank sums. Technometrics, 6: 241–252
4)
Zar J. H., (2010), Biostatistical Analysis (Fifth Editon). Pearson Educational
5) , 11) , 14)
Conover W. J. (1999), Practical nonparametric statistics (3rd ed). John Wiley and Sons, New York
6)
Jonckheere A. R. (1954), A distribution-free k-sample test against ordered alternatives. Biometrika, 41: 133–145
7)
Terpstra T. J. (1952), The asymptotic normality and consistency of Kendall's test against trend, when ties are present in one ranking. Indagationes Mathematicae, 14: 327–333
8)
Friedman M. (1937), The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, 32,675-701
9)
Iman R. L., Davenport J. M. (1980), Approximations of the critical region of the friedman statistic, Communications in Statistics 9, 571–595
12)
Page E. B. (1963), Ordered hypotheses for multiple treatments: A significance test for linear ranks. Journal of the American Statistical Association 58 (301): 216–30
13)
Durbin J. (1951), Incomplete blocks in ranking experiments. British Journal of Statistical Psychology, 4: 85–90
15)
Ogilvie J. C. (1965), Paired comparison models with tests for interaction. Biometrics 21(3): 651-64
16) , 17)
Skillings J.H., Mack G.A. (1981) On the use of a Friedman-type statistic in balanced and unbalanced block designs. Technometrics, 23:171–177
18)
Cochran W.G. (1952), The chi-square goodness-of-fit test. Annals of Mathematical Statistics, 23, 315-345
19)
Cochran W.G. (1950), The comparison ofpercentages in matched samples. Biometrika, 37, 256-266

Narzędzia witryny