ANOVA Friedmana

Analiza wariancji powtarzanych pomiarów dla rang Friedmana, czyli ANOVA Friedmana (ang. Friedman repeated measures analysis of variance by ranks) opisana została przez Friedmana (1937)1). Test ten stosuje się w sytuacji, gdy pomiarów badanej zmiennej dokonujemy kilkukrotnie ($k\geq2$) w różnych warunkach. Stosowana jest również, gdy dysponujemy rankingami pochodzącymi z różnych źródeł (od różnych sędziów) i dotyczącymi kilku ($k\geq2$) obiektów a zależy nam na ocenie zgodności tych rankingów.

Iman Davenport (19802)) pokazał, że w wielu przypadkach statystka Friedmana jest nadmiernie konserwatywna i dokonał pewnej jej modyfikacji. Modyfikacja ta jest nieparametrycznym odpowiednikiem ANOVA powtarzanych pomiarów co sprawia, że jest obecnie rekomendowana do stosowania w zastępstwie tradycyjnej statystyki Friedmana.

Dodatkowe analizy:

Podstawowe warunki stosowania:

Hipotezy dotyczą równości sumy rang dla kolejnych pomiarów lub są upraszczane do median:

\begin{array}{cl}
\mathcal{H}_0: & \theta_1=\theta_2=...=\theta_k,\\
\mathcal{H}_1: & $nie wszystkie $\theta_j$ są sobie równe $(j=1,2,...,k)$$,
\end{array}

gdzie:

$\theta_1,\theta_2,...\theta_k$ mediany badanej cechy w kolejnych pomiarach z badanej populacji.

Wyznacza się dwie statystyki testowe: statystykę Friedmana i modyfikację Imana-Davenport tej statystyki.

Statystyka Friedmana ma postać:

\begin{displaymath}
T_1=\frac{1}{C}\left(\frac{12}{nk(k+1)}\left(\sum_{j=1}^k\left(\sum_{i=1}^n R_{ij}\right)^2\right)-3n(k+1)\right),
\end{displaymath}

gdzie:

$n$ $-$ liczność próby,

$R_{ij}$ $-$ rangi przypisane kolejnym pomiarom $(j=1,2,...k)$, oddzielnie dla każdego z badanych obiektów $(i=1,2,...n)$,

$\displaystyle C=1-\frac{\sum(t^3-t)}{n(k^3-k)}$ $-$ korekta na rangi wiązane,

$t$ $-$ liczba przypadków wchodzących w skład rangi wiązanej.

Modyfikacjia Imana-Davenport statystyki Friedmana ma postać:

\begin{displaymath}
T_2=\frac{(n_j-1)T_1}{n_j(k-1)-T_1}
\end{displaymath}

Wzór na statystykę $T_1$ i $T_2$ zawiera poprawkę na rangi wiązane $C$. Poprawka ta jest stosowana, gdy rangi wiązane występują (gdy nie ma rang wiązanych poprawka ta nie jest wyliczana, gdyż wówczas $C=1$).

Statystyka $T_1$ ma asymptotycznie (dla dużych liczności) rozkład chi-kwadrat z $df=k - 1$ stopniami swobody.

Statystyka $T_2$ podlega rozkładowi F Snedecora z $df_1=k-1$ i $df_2=(n_j-1)(k-1)$ stopniami swobody.

Wyznaczoną na podstawie statystyki testowej wartość $p$ porównujemy z poziomem istotności $\alpha$:

\begin{array}{ccl}
$ jeżeli $ p \le \alpha & \Longrightarrow & $ odrzucamy $ \mathcal{H}_0 $ przyjmując $ 	\mathcal{H}_1, \\
$ jeżeli $ p > \alpha & \Longrightarrow & $ nie ma podstaw, aby odrzucić $ \mathcal{H}_0. \\
\end{array}

Testy POST-HOC

Wprowadzenie do kontrastów i testów POST-HOC przeprowadzone zostało w rozdziale dotyczącym jednoczynnikowej analizy wariancji.

Test Dunna

Stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

Test Dunna (Dunn 19643)) jest testem korygowanym ze względu na wielokrotne testowanie. Najczęściej wykorzystuje się tu korektę Bonferroniego lub Sidaka, chociaż dostępne są również inne, nowsze korekty opisane szerzej w dziale Wielokrotne porównania.

Przykład - porównania proste (porównanie pomiędzy sobą 2 wybranych median / średnich rang):

\begin{array}{cc}
\mathcal{H}_0: & \theta_j=\theta_{j+1},\\
\mathcal{H}_1: & \theta_j \neq \theta_{j+1}.
\end{array}

\begin{displaymath}
NIR=Z_{\alpha(corrected)}\sqrt{\frac{k(k+1)}{6n}},
\end{displaymath}

gdzie:

$\displaystyle Z_{\alpha(corrected)}$ - to wartość krytyczna (statystyka) rozkładu normalnego dla poziomu istotności $\alpha$ skorygowanego o liczbę możliwych porównań prostych $c$ zgodnie z wybraną poprawką.

\begin{displaymath}
Z=\frac{\sum_{j=1}^k c_j\overline{R}_j}{\sqrt{\frac{k(k+1)}{6n}}},
\end{displaymath}

gdzie:

$\overline{R}_j$ $-$ średnia rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta ma asymptotycznie (dla dużych liczności próby) rozkład normalny, a wartość p jest korygowana o liczbę możliwych porównań prostych zgodnie z wybraną poprawką.

Test Conover-Inman

Nieparametryczny odpowiednik LSD Fishera4), stosowany dla porównań prostych (liczność w poszczególnych pomiarach zawsze jest taka sama).

\begin{displaymath}
NIR=\sqrt{F_{\alpha,1,df_2}}\cdot\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}},
\end{displaymath}

gdzie:

$\displaystyle A=\sum_{i=1}^{n_j}\sum_{j=1}^kR_{ij}^2$ $-$ suma kwadratów dla rang,

$\displaystyle F_{\alpha,1,df_2}$ to wartość krytyczna (statystyka) rozkładu F Snedecora dla zadanego poziomu istotności $\alpha$oraz dla stopni swobody odpowiednio: 1 i $df_2$.

\begin{displaymath}
t=\frac{\sum_{j=1}^k c_jR_j}{\sqrt{\frac{2\left(n_jA-\sum_{j=1}^tR_j^k\right)}{(n_j-1)(k-1)}}},
\end{displaymath}

gdzie:

$R_j$ - suma rang $j$-tego pomiaru, dla $(j=1,2,...k)$,

Statystyka ta podlega rozkładowi t-Studenta z $df_2$ stopniami swobody.

Okno z ustawieniami opcji ANOVA Friedmana wywołujemy poprzez menu StatystykaTesty nieparametryczneANOVA Friedmana (możliwość braków danych) lub poprzez Kreator.

Przykład (plik baton.pqs)

Badano kwartalną wielkość sprzedaży pewnego batonu czekoladowego w 14 losowo wybranych marketach. Badanie rozpoczęto w styczniu a zakończono w grudniu. W czasie drugiego kwartału trwała intensywna billboardowa kampania reklamowa tego produktu. Sprawdzimy, czy kampania miała wpływ na wielkość sprzedaży reklamowanego batonu.

\begin{tabular}{|c|c|c|c|c|}
\hline
sklep&Kwartał I&Kwartał II&Kwartał III&Kwartał IV\\\hline
SK1&3415&4556&5772&5432\\
SK2&1593&1937&2242&2794\\
SK3&1976&2056&2240&2085\\
SK4&1526&1594&1644&1705\\
SK5&1538&1634&1866&1769\\
SK6&983&1086&1135&1177\\
SK7&1050&1209&1245&977\\
SK8&1861&2087&2054&2018\\
SK9&1714&2415&2361&2424\\
SK10&1320&1621&1624&1551\\
SK11&1276&1377&1522&1412\\
SK12&1263&1279&1350&1490\\
SK13&1271&1417&1583&1513\\
SK14&1436&1310&1357&1468\\\hline
\end{tabular}

Hipotezy:

$
\begin{array}{cl}
\mathcal{H}_0: & $brak jest istotnej różnicy pomiędzy wielkością sprzedaży dla porównywanych $\\
& $kwartałów w populacji reprezentowanej przez zebraną próbę, $\\
\mathcal{H}_1: & $różnica w sprzedaży dla populacji reprezentowanej przez zebraną próbę $\\
& $pomiędzy przynajmniej dwoma kwartałami jest istotna.$
\end{array}
$

Porównując wartość p testu Friedmana (jak i wartość p korekty Iman-Davenport testu Friedmana) z poziomem istotności $\alpha=0.05$, stwierdzamy, że sprzedaż batonu nie jest taka sama w każdym kwartale. Wykonana analiza POST-HOC Dunna z korektą Bonferroniego wskazuje na różnice wielkości sprzedaży dotyczące kwartału I i III oraz I i IV, a analogiczna analiza przeprowadzona silniejszym testem Conover-Iman wskazuje na różnice pomiędzy wszystkimi kwartałami za wyjątkiem kwartału III i IV.

Na wykresie przedstawiliśmy grupy jednorodne wyznaczone testem Conover-Iman.

Dokładny opis danych możemy przedstawić wybierając w oknie analizy statystyki opisowe .

Gdyby dane były opisane skalą porzadkową o niewielu kategoriach, warto by było przedstawić je rownież w licznościach i procentach. W naszym przykładzie nie byłaby to dobra metoda opisu.

1)
Friedman M. (1937), The use of ranks to avoid the assumption of normality implicit in the analysis of variance. Journal of the American Statistical Association, 32,675-701
2)
Iman R. L., Davenport J. M. (1980), Approximations of the critical region of the friedman statistic, Communications in Statistics 9, 571–595
3)
Dunn O. J. (1964), Multiple comparisons using rank sums. Technometrics, 6: 241–252
4)
Conover W. J. (1999), Practical nonparametric statistics (3rd ed). John Wiley and Sons, New York