Analiza wariancji. Temat zajęć: Analiza wariancji Wieloczynnikowa analiza wariancji

Analiza wariancji to zestaw metod statystycznych, których zadaniem jest testowanie hipotez dotyczących związku między określonymi cechami a badanymi czynnikami, które nie mają opisu ilościowego, a także ustalanie stopnia wpływu czynników i ich interakcji. W literaturze specjalistycznej często nazywa się ją ANOVA (od angielskiej nazwy Analysis of Variations). Metodę tę po raz pierwszy opracował R. Fischer w 1925 roku.

Rodzaje i kryteria analizy wariancji

Metodę tę stosuje się do badania zależności pomiędzy cechami jakościowymi (nominalnymi) a zmienną ilościową (ciągłą). W istocie testuje hipotezę o równości średnich arytmetycznych kilku próbek. Można zatem uznać, że jest to parametryczne kryterium porównywania środków kilku próbek jednocześnie. Jeżeli zastosujemy tę metodę dla dwóch próbek, wyniki analizy wariancji będą identyczne z wynikami testu t-Studenta. Jednak w odróżnieniu od innych kryteriów, badanie to pozwala nam na bardziej szczegółowe zbadanie problemu.

Analiza dyspersji w statystyce opiera się na zasadzie: suma kwadratów odchyleń połączonej próby jest równa sumie kwadratów odchyleń wewnątrzgrupowych i sumie kwadratów odchyleń międzygrupowych. W badaniu wykorzystano test Fishera w celu ustalenia istotności różnicy między wariancjami międzygrupowymi i wariancjami wewnątrzgrupowymi. Jednakże niezbędnymi warunkami wstępnymi są normalność rozkładu i homoskedastyczność (równość wariancji) próbek. Wyróżnia się jednoczynnikową (jednoczynnikową) analizę wariancji i wieloczynnikową (wieloczynnikową). Pierwsza uwzględnia zależność badanej wartości od jednej cechy, druga od wielu na raz, a także pozwala zidentyfikować związek między nimi.

Czynniki

Czynniki to kontrolowane okoliczności, które wpływają na wynik końcowy. Jego poziom lub sposób przetwarzania to wartość charakteryzująca konkretny przejaw tego stanu. Liczby te są zwykle przedstawiane w nominalnej lub porządkowej skali pomiarowej. Często wartości wyjściowe mierzone są w skalach ilościowych lub porządkowych. Powstaje wówczas problem grupowania danych wyjściowych w szereg obserwacji, które odpowiadają w przybliżeniu tym samym wartościom liczbowym. Jeżeli liczbę grup uznamy za zbyt dużą, to liczba obserwacji w nich może być niewystarczająca do uzyskania wiarygodnych wyników. Jeśli przyjmiesz zbyt małą liczbę, może to prowadzić do utraty znaczących cech wpływu na system. Konkretny sposób grupowania danych zależy od ilości i charakteru zmienności wartości. Liczbę i wielkość przedziałów w analizie jednoczynnikowej określa się najczęściej na podstawie zasady równych przedziałów lub zasady jednakowych częstotliwości.

Analiza problemów wariancyjnych

Zdarzają się więc przypadki, gdy trzeba porównać dwie lub więcej próbek. Wskazane jest wówczas skorzystanie z analizy wariancji. Nazwa metody wskazuje, że wnioski wyciąga się na podstawie badania składowych wariancyjnych. Istota badania polega na tym, że ogólną zmianę wskaźnika podzielono na części składowe, które odpowiadają działaniu każdego pojedynczego czynnika. Rozważmy szereg problemów, które można rozwiązać za pomocą typowej analizy wariancji.

Przykład 1

W warsztacie znajduje się szereg automatów, które wytwarzają określoną część. Rozmiar każdej części jest zmienną losową zależną od konfiguracji każdej maszyny i przypadkowych odchyleń występujących podczas procesu produkcyjnego części. Na podstawie danych pomiarowych wymiarów części należy określić, czy maszyny są skonfigurowane w ten sam sposób.

Przykład 2

Podczas produkcji urządzenia elektrycznego stosuje się różne rodzaje papieru izolacyjnego: kondensatorowy, elektryczny itp. Urządzenie można impregnować różnymi substancjami: żywicą epoksydową, lakierem, żywicą ML-2 itp. Wycieki można eliminować pod próżnią w temperaturze podwyższone ciśnienie, z ogrzewaniem. Impregnację można wykonać poprzez zanurzenie w lakierze, pod ciągłym strumieniem lakieru itp. Aparat elektryczny jako całość jest wypełniony określonym związkiem, którego istnieje kilka opcji. Wskaźnikami jakości są wytrzymałość elektryczna izolacji, temperatura przegrzania uzwojenia w trybie pracy i wiele innych. Podczas opracowywania procesu technologicznego wytwarzania urządzeń konieczne jest określenie, jak każdy z wymienionych czynników wpływa na wydajność urządzenia.

Przykład 3

Zajezdnia trolejbusowa obsługuje kilka linii trolejbusowych. Obsługują trolejbusy różnego typu, a opłaty pobiera 125 inspektorów. Kierownictwo zajezdni interesuje pytanie: jak porównać wskaźniki ekonomiczne pracy każdego kontrolera (przychody) biorąc pod uwagę różne trasy i różne typy trolejbusów? Jak określić ekonomiczną wykonalność produkcji trolejbusów określonego typu na określonej trasie? Jak ustalić rozsądne wymagania co do wysokości przychodów, jakie konduktor osiąga na każdej trasie w różnych typach trolejbusów?

Zadaniem wyboru metody jest uzyskanie maksymalnej informacji o wpływie każdego czynnika na wynik końcowy, określenie liczbowych charakterystyk tego wpływu, ich wiarygodności przy minimalnych kosztach i w jak najkrótszym czasie. Metody analizy wariancji pozwalają na rozwiązanie takich problemów.

W analizie jednoczynnikowej

Celem badania jest ocena wielkości wpływu konkretnego przypadku na analizowany przegląd. Innym celem analizy jednowymiarowej może być porównanie ze sobą dwóch lub większej liczby okoliczności w celu określenia różnicy w ich wpływie na zapamiętywanie. W przypadku odrzucenia hipotezy zerowej kolejnym krokiem jest ilościowe określenie i skonstruowanie przedziałów ufności dla uzyskanych cech. W przypadku, gdy nie można odrzucić hipotezy zerowej, zazwyczaj zostaje ona przyjęta i wyciągany jest wniosek na temat charakteru wpływu.

Jednokierunkowa analiza wariancji może stać się nieparametrycznym odpowiednikiem metody rang Kruskala-Wallisa. Zostało opracowane przez amerykańskiego matematyka Williama Kruskala i ekonomistę Wilsona Wallisa w 1952 roku. Kryterium to ma na celu sprawdzenie hipotezy zerowej o równości efektów na badanych próbach o nieznanych, ale równych wartościach średnich. W takim przypadku liczba próbek musi być większa niż dwie.

Kryterium Jonckheere-Terpstry zostało zaproponowane niezależnie przez holenderskiego matematyka T. J. Terpstrę w 1952 r. i brytyjskiego psychologa E. R. Jonckheere'a w 1954 r. Stosuje się je, gdy z góry wiadomo, że istniejące grupy wyników są uporządkowane według wzrostu wpływu kryterium badanego czynnika, mierzonego w skali porządkowej.

M – test Bartletta, zaproponowany przez brytyjskiego statystyka Maurice’a Stevensona Bartletta w 1937 roku, służy do testowania hipotezy zerowej o równości wariancji kilku normalnych populacji, z których pobierane są badane próbki, na ogół o różnej wielkości (liczba każdej próbka musi być co najmniej cztery).

G – test Cochrana, który został odkryty przez Amerykanina Williama Gemmella Cochrana w 1941 roku. Służy do testowania hipotezy zerowej o równości wariancji populacji normalnych w próbach niezależnych o jednakowej liczebności.

Nieparametryczny test Levene’a, zaproponowany przez amerykańskiego matematyka Howarda Levene’a w 1960 roku, stanowi alternatywę dla testu Bartletta w warunkach, w których nie ma pewności, że badane próbki mają rozkład normalny.

W 1974 roku amerykańscy statystycy Morton B. Brown i Alan B. Forsythe zaproponowali test (test Browna-Forsytha), który nieznacznie różni się od testu Levene'a.

Analiza dwuczynnikowa

W przypadku powiązanych próbek o rozkładzie normalnym stosuje się dwukierunkową analizę wariancji. W praktyce często stosuje się skomplikowane tabele tej metody, w szczególności takie, w których każda komórka zawiera zbiór danych (powtórzonych pomiarów) odpowiadający ustalonym wartościom. Jeżeli nie są spełnione założenia wymagane do zastosowania dwukierunkowej analizy wariancji, należy skorzystać z nieparametrycznego testu rang Friedmana (Friedmana, Kendalla i Smitha), opracowanego przez amerykańskiego ekonomistę Miltona Friedmana pod koniec 1930 roku. Test ten nie jest zależny od rodzaju dystrybucji.

Zakłada się jedynie, że rozkład wartości jest identyczny i ciągły, a one same są od siebie niezależne. Podczas testowania hipotezy zerowej dane wyjściowe prezentowane są w postaci macierzy prostokątnej, w której wiersze odpowiadają poziomom czynnika B, a kolumny poziomom A. Każdą komórkę tabeli (bloku) można wynik pomiarów parametrów na jednym obiekcie lub na grupie obiektów o stałych wartościach poziomów obu czynników. W tym przypadku odpowiednie dane są prezentowane jako średnie wartości określonego parametru dla wszystkich wymiarów lub obiektów badanej próbki. Aby zastosować kryterium wyjściowe, należy przejść od bezpośrednich wyników pomiarów do ich rangi. Ranking przeprowadza się dla każdego wiersza osobno, to znaczy wartości są porządkowane dla każdej ustalonej wartości.

Test Page’a (test L), zaproponowany przez amerykańskiego statystyka E. B. Page’a w 1963 roku, ma na celu sprawdzenie hipotezy zerowej. W przypadku dużych próbek stosuje się przybliżenie Page’a. Pod warunkiem, że odpowiadają im hipotezy zerowe, podlegają one standardowemu rozkładowi normalnemu. W przypadku, gdy wiersze tabeli źródłowej mają te same wartości, należy zastosować rangi średnie. W tym przypadku trafność wniosków będzie tym gorsza, im większa będzie liczba takich dopasowań.

Q – kryterium Cochrana, zaproponowane przez W. Cochrana w 1937 r. Stosuje się je w przypadkach, gdy grupy jednorodnych podmiotów narażone są na wpływy, których liczba przekracza dwa i dla których możliwe są dwie opcje informacji zwrotnej – warunkowo negatywna (0) i warunkowo dodatni (1) . Hipoteza zerowa zakłada równość efektów leczenia. Dwukierunkowa analiza wariancji pozwala określić istnienie efektów leczenia, ale nie pozwala określić, dla jakich konkretnych kolumn ten efekt występuje. Aby rozwiązać ten problem, stosuje się metodę wielokrotnych równań Scheffa dla powiązanych próbek.

Analiza wielowymiarowa

Problem wielowymiarowej analizy wariancji pojawia się, gdy trzeba określić wpływ dwóch lub więcej warunków na pewną zmienną losową. W badaniu bierze się pod uwagę obecność jednej zależnej zmiennej losowej, mierzonej na skali różnic lub ilorazów, oraz kilku zmiennych niezależnych, z których każda wyrażana jest na skali nazewnictwa lub rangi. Analiza wariancji danych to dość rozwinięta sekcja statystyki matematycznej, która ma wiele możliwości. Koncepcja badań jest wspólna zarówno dla jednoczynnikowego, jak i wieloczynnikowego. Jej istota polega na tym, że wariancja całkowita jest dzielona na składowe, co odpowiada pewnemu grupowaniu danych. Każde grupowanie danych ma swój własny model. Tutaj rozważymy tylko podstawowe przepisy niezbędne do zrozumienia i praktycznego wykorzystania najczęściej używanych opcji.

Analiza wariancji czynników wymaga dość ostrożnego podejścia do gromadzenia i prezentacji danych wejściowych, a zwłaszcza do interpretacji wyników. W odróżnieniu od testu jednoczynnikowego, którego wyniki można warunkowo ułożyć w określonej kolejności, wyniki testu dwuczynnikowego wymagają bardziej złożonego przedstawienia. Sytuacja staje się jeszcze bardziej skomplikowana, gdy zachodzą trzy, cztery lub więcej okoliczności. Z tego powodu dość rzadko uwzględnia się w modelu więcej niż trzy (cztery) warunki. Przykładem może być wystąpienie rezonansu przy określonej wartości pojemności i indukcyjności koła elektrycznego; przejaw reakcji chemicznej z pewnym zestawem elementów, z których zbudowany jest system; występowanie anomalnych efektów w złożonych systemach w wyniku pewnego zbiegu okoliczności. Obecność interakcji może radykalnie zmienić model układu, a czasami doprowadzić do ponownego przemyślenia natury zjawisk, z którymi ma do czynienia eksperymentator.

Wieloczynnikowa analiza wariancji z powtarzanymi eksperymentami

Dane pomiarowe można dość często pogrupować nie według dwóch, ale większej liczby czynników. Jeśli więc weźmiemy pod uwagę analizę dyspersji trwałości opon kół trolejbusowych z uwzględnieniem okoliczności (zakład produkcyjny i trasa, na której opony są eksploatowane), to jako odrębny warunek wyodrębnimy sezon, w którym opona jest eksploatowana. eksploatowane są opony (tj. eksploatacja zimą i latem). W rezultacie będziemy mieli problem metody trójczynnikowej.

Jeżeli warunków jest więcej, podejście jest takie samo, jak w przypadku analizy dwuczynnikowej. We wszystkich przypadkach starają się uprościć model. Zjawisko oddziaływania dwóch czynników nie występuje tak często, a potrójne oddziaływanie występuje jedynie w wyjątkowych przypadkach. Uwzględnij te interakcje, dla których istnieją wcześniejsze informacje i dobre powody, aby uwzględnić je w modelu. Proces identyfikacji poszczególnych czynników i uwzględnienia ich jest stosunkowo prosty. Dlatego często istnieje potrzeba podkreślenia większej liczby okoliczności. Nie powinieneś się tym przejmować. Im więcej warunków, tym mniej niezawodny staje się model i tym większe prawdopodobieństwo błędu. Sam model, który zawiera dużą liczbę zmiennych niezależnych, staje się dość skomplikowany w interpretacji i niewygodny w praktycznym zastosowaniu.

Ogólna koncepcja analizy wariancji

Analiza wariancji statystyki jest metodą uzyskiwania wyników obserwacji zależnych od różnych jednocześnie występujących okoliczności i oceny ich wpływu. Zmienna kontrolowana, która odpowiada sposobowi oddziaływania na przedmiot badań i przyjmuje określoną wartość w określonym czasie, nazywana jest czynnikiem. Mogą być jakościowe i ilościowe. Poziomy warunków ilościowych nabierają określonego znaczenia w skali numerycznej. Przykładami są temperatura, ciśnienie prasowania, ilość substancji. Czynnikami jakościowymi są różne substancje, różne metody technologiczne, urządzenia, wypełniacze. Ich poziomy odpowiadają skali nazw.

Jakość może również obejmować rodzaj materiału opakowaniowego i warunki przechowywania postaci dawkowania. Racjonalne jest także uwzględnienie stopnia rozdrobnienia surowców, składu frakcyjnego granulatów, które mają znaczenie ilościowe, ale są trudne do regulowania w skali ilościowej. Liczba czynników jakościowych zależy od rodzaju postaci dawkowania, a także właściwości fizycznych i technologicznych substancji leczniczych. Na przykład tabletki można otrzymać z substancji krystalicznych poprzez bezpośrednie prasowanie. W tym przypadku wystarczy dobrać substancje ślizgowe i smarujące.

Przykłady czynników jakościowych dla różnych typów postaci dawkowania

  • Nalewki. Skład ekstrahenta, rodzaj ekstraktora, metoda przygotowania surowca, metoda produkcji, metoda filtracji.
  • Ekstrakty (płynne, gęste, suche). Skład ekstrahenta, metoda ekstrakcji, rodzaj instalacji, sposób usuwania ekstrahenta i substancji balastowych.
  • Pigułki. Skład substancji pomocniczych, wypełniaczy, substancji rozsadzających, spoiw, substancji smarujących i smarujących. Sposób otrzymywania tabletek, rodzaj wyposażenia technologicznego. Rodzaj otoczki i jej składniki, substancje błonotwórcze, pigmenty, barwniki, plastyfikatory, rozpuszczalniki.
  • Roztwory wtryskowe. Rodzaj rozpuszczalnika, metoda filtracji, rodzaj stabilizatorów i konserwantów, warunki sterylizacji, sposób napełniania ampułek.
  • Czopki. Skład bazy czopków, sposób wytwarzania czopków, wypełniacze, opakowanie.
  • Maści. Skład bazy, składniki strukturalne, sposób przygotowania maści, rodzaj sprzętu, opakowanie.
  • Kapsułki. Rodzaj materiału otoczki, sposób wytwarzania kapsułek, rodzaj plastyfikatora, konserwant, barwnik.
  • Mazidła. Sposób przygotowania, skład, rodzaj sprzętu, rodzaj emulgatora.
  • Zawieszenia. Rodzaj rozpuszczalnika, rodzaj stabilizatora, metoda dyspersyjna.

Przykłady czynników jakości i ich poziomów badanych podczas procesu produkcji tabletek

  • Proszek do pieczenia. Skrobia ziemniaczana, glinka biała, mieszanina wodorowęglanu sodu z kwasem cytrynowym, zasadowy węglan magnezu.
  • Rozwiązanie wiążące. Woda, pasta skrobiowa, syrop cukrowy, roztwór metylocelulozy, roztwór hydroksypropylometylocelulozy, roztwór poliwinylopirolidonu, roztwór alkoholu poliwinylowego.
  • Substancja ślizgowa. Aerosil, skrobia, talk.
  • Podsadzkarz. Cukier, glukoza, laktoza, chlorek sodu, fosforan wapnia.
  • Smar. Kwas stearynowy, glikol polietylenowy, parafina.

Modele analizy wariancji w badaniu poziomu konkurencyjności państwa

Jednym z najważniejszych kryteriów oceny stanu państwa, za pomocą którego ocenia się poziom jego dobrobytu i rozwoju społeczno-gospodarczego, jest konkurencyjność, czyli zespół właściwości właściwych gospodarce narodowej, które decydują o kondycji państwa. zdolność do konkurowania z innymi krajami. Po ustaleniu miejsca i roli państwa na rynku światowym można ustalić jasną strategię zapewnienia bezpieczeństwa gospodarczego w skali międzynarodowej, ponieważ jest to klucz do pozytywnych relacji Rosji ze wszystkimi uczestnikami rynku światowego: inwestorami , wierzycieli i rządów.

Aby porównać poziom konkurencyjności państw, kraje są klasyfikowane przy użyciu złożonych wskaźników, które obejmują różne wskaźniki ważone. Wskaźniki te opierają się na kluczowych czynnikach wpływających na sytuację gospodarczą, polityczną itp. Zestaw modeli do badania konkurencyjności państwa obejmuje wykorzystanie metod wielowymiarowej analizy statystycznej (w szczególności analizę wariancji (statystyka), modelowanie ekonometryczne, podejmowanie decyzji) i obejmuje następujące główne etapy:

  1. Utworzenie systemu wskaźników.
  2. Ocena i prognozowanie wskaźników konkurencyjności państwa.
  3. Porównanie wskaźników konkurencyjności państw.

Przyjrzyjmy się teraz zawartości modeli każdego z etapów tego kompleksu.

Na pierwszym etapie wykorzystując metody badań eksperckich tworzony jest ugruntowany zestaw wskaźników ekonomicznych do oceny konkurencyjności państwa, uwzględniający specyfikę jego rozwoju w oparciu o międzynarodowe rankingi i dane z urzędów statystycznych, odzwierciedlające stan systemu jako całości i jego procesy. Wybór tych wskaźników uzasadniony jest koniecznością wybrania tych, które najpełniej z praktycznego punktu widzenia pozwalają określić poziom państwa, jego atrakcyjność inwestycyjną oraz możliwość względnej lokalizacji istniejących potencjalnych i rzeczywistych zagrożeń.

Głównymi wskaźnikami międzynarodowych systemów ratingowych są indeksy:

  1. Globalna konkurencyjność (GC).
  2. Wolność gospodarcza (IES).
  3. Rozwój Człowieka (HDI).
  4. Postrzeganie korupcji (CPC).
  5. Zagrożenia wewnętrzne i zewnętrzne (IETH).
  6. Międzynarodowy Potencjał Wpływu (IPIP).

Druga faza przewiduje ocenę i prognozowanie wskaźników konkurencyjności państwa według międzynarodowych rankingów dla 139 badanych krajów świata.

Trzeci etap przewiduje porównanie warunków konkurencyjności państw z wykorzystaniem metod analizy korelacji i regresji.

Korzystając z wyników badania, można określić charakter procesów w ogóle i dla poszczególnych komponentów konkurencyjności państwa; przetestować hipotezę o wpływie czynników i ich związkach na odpowiednim poziomie istotności.

Wdrożenie zaproponowanego zestawu modeli pozwoli nie tylko ocenić aktualną sytuację poziomu konkurencyjności i atrakcyjności inwestycyjnej państw, ale także przeanalizować niedociągnięcia w zarządzaniu, zapobiec błędom błędnych decyzji i zapobiec rozwojowi kryzysu w gospodarce. państwo.

Analiza wariancji

1. Pojęcie analizy wariancji

Analiza wariancji to analiza zmienności cechy pod wpływem dowolnych kontrolowanych czynników zmiennych. W literaturze zagranicznej analizę wariancji często określa się mianem ANOVA, co tłumaczy się jako analizę zmienności (Analiza wariancji).

Problem z ANOVĄ polega na wyodrębnieniu zmienności innego rodzaju od ogólnej zmienności cechy:

a) zmienność wynikająca z działania każdej z badanych zmiennych niezależnych;

b) zmienność wynikająca z interakcji badanych zmiennych niezależnych;

c) zmienność losowa spowodowana wszystkimi innymi nieznanymi zmiennymi.

Zmienność wynikająca z działania badanych zmiennych i ich interakcji jest skorelowana ze zmiennością losową. Wskaźnikiem tej zależności jest test F Fishera.

Wzór na obliczenie kryterium F zawiera estymaty wariancji, czyli parametrów rozkładu atrybutu, dlatego też kryterium F jest kryterium parametrycznym.

Im bardziej zmienność cechy wynika z badanych zmiennych (czynników) lub ich interakcji, tym większa empiryczne wartości kryterialne.

Zero hipoteza w analizie wariancji będzie stwierdzać, że średnie wartości badanej efektywnej cechy są takie same we wszystkich gradacjach.

Alternatywny hipoteza będzie stwierdzać, że średnie wartości wynikowej cechy w różnych gradacjach badanego czynnika są różne.

Analiza wariancji pozwala stwierdzić zmianę cechy, ale jej nie wskazuje kierunek te zmiany.

Rozpocznijmy nasze rozważania na temat analizy wariancji od najprostszego przypadku, kiedy badamy działanie tylko jeden zmienna (jeden czynnik).

2. Jednoczynnikowa analiza wariancji dla niepowiązanych próbek

2.1. Cel metody

Metodę jednoczynnikowej analizy wariancji stosuje się w przypadkach, gdy bada się zmiany efektywnej charakterystyki pod wpływem zmieniających się warunków lub gradacji czynnika. W tej wersji metody wpływ każdej z gradacji współczynnika wynosi różny próbki tematów. Muszą istnieć co najmniej trzy stopnie współczynnika. (Mogą istnieć dwie gradacje, ale w tym przypadku nie uda nam się ustalić zależności nieliniowych i rozsądniej wydaje się zastosowanie prostszych).

Nieparametryczną wersją tego typu analizy jest test Kruskala-Wallisa H.

Hipotezy

H 0: Różnice pomiędzy stopniami czynników (różne warunki) nie są większe niż różnice losowe w obrębie każdej grupy.

H 1: Różnice pomiędzy stopniami czynników (różne warunki) są większe niż różnice losowe w obrębie każdej grupy.

2.2. Ograniczenia jednokierunkowej analizy wariancji dla niepowiązanych próbek

1. Jednoczynnikowa analiza wariancji wymaga co najmniej trzech gradacji czynnika i co najmniej dwóch podmiotów w każdej gradacji.

2. Otrzymana cecha musi mieć rozkład normalny w badanej próbie.

Co prawda zwykle nie jest wskazane, czy mówimy o rozkładzie cechy w całej badanej próbie, czy w jej części tworzącej kompleks dyspersyjny.

3. Przykład rozwiązania problemu metodą jednokierunkowej analizy wariancji dla niepowiązanych próbek na przykładzie:

Trzy różne grupy składające się z sześciu osób otrzymały listy zawierające dziesięć słów. Grupie pierwszej słowa były prezentowane z małą szybkością – 1 słowo na 5 sekund, grupie drugiej ze średnią szybkością – 1 słowo na 2 sekundy, a grupie trzeciej z dużą szybkością – 1 słowo na sekundę. Przewidywano, że wydajność reprodukcji będzie zależała od szybkości prezentacji słów. Wyniki przedstawiono w tabeli. 1.

Liczba powtórzonych słów Tabela 1

Temat nr.

niska prędkość

Średnia prędkość

wysoka prędkość

całkowita kwota

H 0: Różnice w zakresie produkcji słów między grupy nie są bardziej widoczne niż różnice losowe wewnątrz każda grupa.

H1: Różnice w wielkości produkcji słów między grupy są bardziej widoczne niż różnice losowe wewnątrz każda grupa. Korzystając z wartości eksperymentalnych przedstawionych w tabeli. 1 ustalimy pewne wartości, które będą niezbędne do obliczenia kryterium F.

Obliczenie głównych wielkości dla jednoczynnikowej analizy wariancji przedstawiono w tabeli:

Tabela 2

Tabela 3

Kolejność operacji w jednokierunkowej analizie wariancji dla niepowiązanych próbek

Oznaczenie SS, często spotykane w tej i kolejnych tabelach, jest skrótem od „suma kwadratów”. Skrót ten jest najczęściej używany w źródłach tłumaczonych.

SS fakt oznacza zmienność cechy wynikającą z działania badanego czynnika;

SS ogólnie- ogólna zmienność cechy;

S CA-zmienność spowodowana czynnikami nieuwzględnionymi, zmienność „przypadkowa” lub „resztkowa”.

SM- „średni kwadrat” lub matematyczne oczekiwanie sumy kwadratów, średniej wartości odpowiedniego SS.

zm - liczba stopni swobody, którą przy rozpatrywaniu kryteriów nieparametrycznych oznaczyliśmy literą grecką w.

Wniosek: H 0 zostaje odrzucony. H 1 jest akceptowany. Różnice w zapamiętywaniu słów pomiędzy grupami były większe niż różnice losowe w obrębie każdej grupy (α=0,05). Zatem szybkość prezentacji słów wpływa na wielkość ich reprodukcji.

Poniżej przedstawiono przykład rozwiązania problemu w programie Excel:

Wstępne dane:

Używając polecenia: Narzędzia->Analiza danych->Jednokierunkowa ANOVA, otrzymujemy następujące wyniki:

Omówione powyżej techniki testowania hipotez statystycznych dotyczących istotności różnic między dwiema średnimi mają ograniczone zastosowanie w praktyce. Wynika to z faktu, że w celu określenia wpływu wszystkich możliwych warunków i czynników na efektywną cechę, eksperymenty terenowe i laboratoryjne z reguły przeprowadza się przy użyciu nie dwóch, ale większej liczby próbek (1220 lub więcej) ).

Często badacze porównują średnie z kilku próbek połączonych w jeden kompleks. Przykładowo badając wpływ różnych rodzajów i dawek nawozów na plony roślin, eksperymenty powtarza się w różnych wersjach. W takich przypadkach porównania parami stają się uciążliwe, a analiza statystyczna całego kompleksu wymaga zastosowania specjalnej metody. Metoda ta, rozwinięta w statystyce matematycznej, nazywana jest analizą wariancji. Po raz pierwszy zastosował go angielski statystyk R. Fisher podczas przetwarzania wyników eksperymentów agronomicznych (1938).

Analiza wariancji to metoda statystycznej oceny wiarygodności przejawu zależności efektywnej cechy od jednego lub większej liczby czynników. Stosując metodę analizy wariancji, testuje się hipotezy statystyczne dotyczące średnich w kilku populacjach ogólnych, które mają rozkład normalny.

Analiza wariancji jest jedną z głównych metod statystycznej oceny wyników eksperymentów. Coraz częściej wykorzystuje się ją także w analizie informacji gospodarczych. Analiza wariancji pozwala określić, w jakim stopniu przykładowe wskaźniki związku między charakterystyką wypadkową i czynnikową są wystarczające, aby rozszerzyć dane uzyskane z próby na populację ogólną. Zaletą tej metody jest to, że daje dość wiarygodne wnioski na podstawie małych próbek.

Badając zmienność efektywnej cechy pod wpływem jednego lub kilku czynników za pomocą analizy wariancji, można uzyskać, oprócz ogólnych szacunków znaczenia zależności, także ocenę różnic w wielkości utworzonych średnich na różnych poziomach czynników oraz znaczenie interakcji czynników. Analiza wariancji służy do badania zależności zarówno cech ilościowych, jak i jakościowych, a także ich kombinacji.

Istotą tej metody jest statystyczne badanie prawdopodobieństwa wpływu jednego lub większej liczby czynników, a także ich interakcji na wynikową charakterystykę. Zgodnie z tym za pomocą analizy wariancji rozwiązuje się trzy główne zadania: 1) ogólna ocena istotności różnic między średnimi grupowymi; 2) ocena prawdopodobieństwa interakcji między czynnikami; 3) ocena istotności różnic pomiędzy parami średnich. Najczęściej badacze muszą rozwiązywać takie problemy podczas prowadzenia eksperymentów terenowych i zootechnicznych, gdy bada się wpływ kilku czynników na efektywną cechę.

Podstawowy schemat analizy wariancji obejmuje ustalenie głównych źródeł zmienności charakterystyki efektywnej oraz określenie wielkości zmienności (sumy kwadratów odchyleń) według źródeł jej powstawania; określenie liczby stopni swobody odpowiadających składowym całkowitej zmienności; obliczanie dyspersji jako stosunek odpowiednich objętości zmienności do ich liczby stopni swobody; analiza zależności pomiędzy wariancjami; ocena wiarygodności różnicy pomiędzy średnimi i wyciągnięcie wniosków.

Schemat ten jest zachowany zarówno w prostych modelach analizy wariancji, gdy dane są grupowane według jednej cechy, jak i w modelach złożonych, gdy dane są grupowane według dwóch lub więcej cech. Jednak wraz ze wzrostem liczby cech grupowych proces rozkładu zmienności całkowitej ze względu na źródła jej powstawania staje się bardziej skomplikowany.

Zgodnie z diagramem zasadniczym analizę wariancji można przedstawić w postaci pięciu kolejnych etapów:

1) definicja i rozwinięcie zmienności;

2) określenie liczby stopni swobody zmienności;

3) obliczanie wariancji i ich współczynników;

4) analiza wariancji i ich zależności;

5) ocena istotności różnicy pomiędzy średnimi i formułowanie wniosków do sprawdzenia hipotezy zerowej.

Najbardziej pracochłonną częścią analizy wariancji jest etap pierwszy – określenie i rozkład zmienności ze względu na źródła jej powstawania. Kolejność rozkładu całkowitego wolumenu zmienności omówiono szczegółowo w rozdziale 5.

Podstawą rozwiązywania problemów analizy wariancji jest prawo rozszerzania (dodawania) zmienności, zgodnie z którym całkowitą zmienność (wahania) wynikowego atrybutu dzieli się na dwie części: zmienność spowodowaną działaniem badanego(-ych) czynnika(ów) oraz zmienność spowodowaną działaniem przyczyn losowych, tj

Załóżmy, że badaną populację dzielimy według cech czynnikowych na kilka grup, z których każda charakteryzuje się własną średnią wartością wynikowej cechy. Jednocześnie zmienność tych wartości można wytłumaczyć dwoma rodzajami przyczyn: tymi, które działają systematycznie na skuteczny znak i można je regulować w trakcie eksperymentu, oraz tymi, których nie można dostosować. Jest oczywiste, że zmienność międzygrupowa (czynnikowa lub systematyczna) zależy przede wszystkim od działania badanego czynnika, natomiast zmienność wewnątrzgrupowa (resztkowa lub losowa) zależy przede wszystkim od działania czynników losowych.

Aby ocenić wiarygodność różnic między średnimi grupowymi, konieczne jest określenie wariancji międzygrupowych i wewnątrzgrupowych. Jeżeli zmienność międzygrupowa (czynnikowa) znacznie przewyższa zmienność wewnątrzgrupową (resztową), wówczas czynnik wpływał na wynikową charakterystykę, znacząco zmieniając wartości średnich grupowych. Powstaje jednak pytanie, jaki jest związek pomiędzy wariancjami międzygrupowymi i wewnątrzgrupowymi, który można uznać za wystarczający do wnioskowania o wiarygodności (istotności) różnic pomiędzy średnimi grupowymi.

Aby ocenić istotność różnic pomiędzy średnimi i sformułować wnioski do testowania hipotezy zerowej (H0:x1 = x2 =... = xn) w analizie wariancji, stosuje się swego rodzaju standard - kryterium G, prawo dystrybucji która została założona przez R. Fishera. Kryterium to jest stosunkiem dwóch wariancji: silni, powstałej w wyniku działania badanego czynnika i resztowej, wynikającej z działania przyczyn losowych:

Relacja dyspersji Γ = £>u : Amerykański statystyk Snedecor zaproponował oznaczenie £*2 literą G na cześć twórcy analizy wariancji, R. Fishera.

Wariancje °2 io2 są szacunkami wariancji populacji. Jeżeli próbki o wariancjach °2 °2 pochodzą z tej samej populacji ogólnej, gdzie zmienność wartości była losowa, to rozbieżność wartości °2 °2 również jest przypadkowa.

Jeśli w eksperymencie sprawdza się jednocześnie wpływ kilku czynników (A, B, C itd.) na efektywną cechę, to wariancja wynikająca z działania każdego z nich powinna być porównywalna z °np.gP, to jest

Jeżeli wartość rozproszenia czynników jest znacząco większa od reszty, wówczas czynnik istotnie wpływał na wynikową cechę i odwrotnie.

W eksperymentach wieloczynnikowych, oprócz zmienności spowodowanej działaniem każdego czynnika, prawie zawsze występuje zmienność wynikająca z interakcji czynników ($ав: ^лс ^вс $ліс). Istota interakcji polega na tym, że wpływ jednego czynnika zmienia się istotnie na różnych poziomach drugiego (np. efektywność jakości gleby przy różnych dawkach nawozów).

Interakcję czynników należy również ocenić porównując odpowiednie wariancje 3 ^v.gr:

Przy obliczaniu rzeczywistej wartości kryterium B w liczniku uwzględnia się większą z wariancji, więc B > 1. Oczywiście im większe kryterium B, tym większe różnice pomiędzy wariancjami. Jeżeli B = 1, to odpada kwestia oceny istotności różnic w wariancjach.

Aby wyznaczyć granice przypadkowych wahań współczynnika dyspersji, G. Fischer opracował specjalne tablice rozkładu B (załączniki 4 i 5). Kryterium byłoby funkcjonalnie powiązane z prawdopodobieństwem i zależało od liczby stopni swobody zmienności k1 i k2 dwóch porównywanych wariancji. Zwykle do wyciągania wniosków na temat wyjątkowo wysokiej wartości kryterium dla poziomów istotności 0,05 i 0,01 stosuje się dwie tabele. Poziom istotności 0,05 (czyli 5%) oznacza, że ​​jedynie w 5 przypadkach na 100 kryterium B może przyjąć wartość równą lub wyższą od wskazanej w tabeli. Obniżenie poziomu istotności z 0,05 do 0,01 prowadzi do wzrostu wartości kryterium pomiędzy dwiema wariancjami ze względu na wpływ wyłącznie przyczyn losowych.

Wartość kryterium zależy także bezpośrednio od liczby stopni swobody dwóch porównywanych dyspersji. Jeżeli liczba stopni swobody dąży do nieskończoności (k-me), wówczas stosunek B dla dwóch dyspersji dąży do jedności.

Tabelaryczna wartość kryterium B pokazuje możliwą losową wartość stosunku dwóch wariancji na danym poziomie istotności i odpowiadającą jej liczbę stopni swobody dla każdej z porównywanych wariancji. We wskazanych tabelach przedstawiono wartość B dla próbek pochodzących z tej samej populacji ogólnej, gdzie przyczyny zmian wartości są wyłącznie losowe.

Wartość Γ znajdujemy z tablic (załączniki 4 i 5) na przecięciu odpowiedniej kolumny (liczba stopni swobody dla większego rozproszenia – k1) i wiersza (liczba stopni swobody dla mniejszego rozproszenia – k2 ). Jeśli więc większa wariancja (licznik Г) wynosi k1 = 4, a mniejsza wariancja (mianownik Г) wynosi k2 = 9, to Г na poziomie istotności а = 0,05 wyniesie 3,63 (Załącznik 4). Zatem w wyniku przyczyn losowych, ponieważ próbki są małe, wariancja jednej próbki może przy 5% poziomie istotności przewyższyć wariancję drugiej próbki 3,63 razy. Kiedy poziom istotności spadnie z 0,05 do 0,01, tabelaryczna wartość kryterium G, jak zauważono powyżej, wzrośnie. Zatem przy tych samych stopniach swobody k1 = 4 i k2 = 9 i a = 0,01 tabelaryczna wartość kryterium G wyniesie 6,99 (Załącznik 5).

Rozważmy procedurę wyznaczania liczby stopni swobody w analizie wariancji. Liczbę stopni swobody, która odpowiada sumie kwadratów odchyleń, rozkłada się na odpowiednie składowe w podobny sposób, jak przy rozkładzie sum kwadratów odchyleń (^total = No^gr + ]¥vhr), czyli całkowita liczba stopni swobody (k”) jest rozkładana na liczbę stopni swobody dla wariacji międzygrupowych (k1) i wewnątrzgrupowych (k2).

Zatem jeśli próbna populacja składająca się z N obserwacje podzielone przez T grupy (liczba opcji eksperymentalnych) i P podgrup (liczba powtórzeń), to liczba stopni swobody k będzie odpowiednio wynosić:

a) dla całkowitej sumy kwadratów odchyleń (s7zag)

b) dla międzygrupowej sumy kwadratów odchyleń ^m.gP)

c) dla wewnątrzgrupowej sumy kwadratów odchyleń V v.gR)

Zgodnie z zasadą dodawania odmian:

Przykładowo, jeśli w eksperymencie utworzono cztery warianty eksperymentu (t = 4) w pięciu powtórzeniach każdy (n = 5), a łączna liczba obserwacji wynosi N = = T o p = 4 * 5 = 20, wówczas liczba stopni swobody jest odpowiednio równa:

Znając sumę kwadratów odchyleń i liczbę stopni swobody, możemy wyznaczyć bezstronne (skorygowane) oszacowania dla trzech wariancji:

Hipotezę zerową H0 sprawdza się za pomocą kryterium B w taki sam sposób, jak przy użyciu testu t-Studenta. Aby podjąć decyzję o sprawdzeniu H0 należy obliczyć rzeczywistą wartość kryterium i porównać ją z tabelaryczną wartością Ba dla przyjętego poziomu istotności a i liczby stopni swobody k1 i k2 dla dwóch dyspersji.

Jeżeli Bfaq > Ba, to zgodnie z przyjętym poziomem istotności można stwierdzić, że o różnicach w wariancjach prób decydują nie tylko czynniki losowe; są znaczące. W tym przypadku hipoteza zerowa zostaje odrzucona i istnieją podstawy do twierdzenia, że ​​czynnik znacząco wpływa na wynikową charakterystykę. Jeśli< Ба, то нулевую гипотезу принимают и есть основание утверждать, что различия между сравниваемыми дисперсиями находятся в границах возможных случайных колебаний: действие фактора на результативный признак не является существенным.

Zastosowanie konkretnego modelu analizy wariancji zależy zarówno od liczby badanych czynników, jak i od metody doboru próby.

c W zależności od liczby czynników determinujących zmienność wynikowej charakterystyki, próbki można formować według jednego, dwóch lub większej liczby czynników. Zgodnie z tym analizę wariancji dzieli się na jednoczynnikową i wieloczynnikową. W przeciwnym razie nazywany jest także jednoczynnikowym i wieloczynnikowym kompleksem dyspersyjnym.

Schemat rozkładu zmienności całkowitej zależy od tworzenia grup. Może być losowy (obserwacje jednej grupy nie są powiązane z obserwacjami drugiej grupy) i nielosowy (obserwacje dwóch próbek są ze sobą powiązane wspólnymi warunkami eksperymentalnymi). Odpowiednio uzyskuje się próbki niezależne i zależne. Niezależne próbki można tworzyć zarówno z liczbami równymi, jak i nieparzystymi. Tworzenie próbek zależnych zakłada ich równą wielkość.

Jeżeli grupy tworzą się w sposób losowy, to na całkowitą wielkość zmienności wynikowej cechy składa się, wraz ze zmiennością silniową (międzygrupową) i resztową, zmiennością powtórzeń, czyli

W praktyce w większości przypadków konieczne jest uwzględnienie próbek zależnych, gdy warunki dla grup i podgrup są wyrównane. Tak więc w eksperymencie polowym cały teren jest podzielony na bloki o najróżniejszych warunkach. W tym przypadku każdy wariant eksperymentu otrzymuje równe szanse na reprezentację we wszystkich blokach, wyrównując w ten sposób warunki dla wszystkich testowanych wariantów eksperymentu. Ta metoda konstruowania eksperymentu nazywa się metodą bloków losowych. Podobnie przeprowadza się eksperymenty na zwierzętach.

Przetwarzając dane społeczno-gospodarcze metodą analizy wariancji, należy mieć na uwadze, że ze względu na dużą liczbę czynników i ich wzajemne powiązanie, nawet przy najbardziej ostrożnym wyrównaniu warunków trudno jest określić stopień obiektywności wpływ każdego indywidualnego czynnika na wynikową charakterystykę. Zatem o poziomie zmienności resztowej decydują nie tylko przyczyny losowe, ale także istotne czynniki, które nie zostały wzięte pod uwagę przy konstruowaniu modelu analizy wariancji. W rezultacie wariancja resztowa jako podstawa do porównań staje się czasami nieadekwatna do swojego celu, ma wyraźnie zawyżoną wartość i nie może pełnić roli kryterium istotności wpływu czynników. W związku z tym przy konstruowaniu modeli analizy wariancji istotny staje się problem wybrania najważniejszych czynników i wyrównania warunków przejawu działania każdego z nich. Oprócz. zastosowanie analizy wariancji zakłada normalny lub zbliżony do normalnego rozkład badanych populacji statystycznych. Jeżeli warunek ten nie zostanie spełniony, szacunki uzyskane w analizie wariancji będą zawyżone.

Człowiek może rozpoznać swoje umiejętności jedynie próbując je zastosować. (Seneka)

Analiza wariancji

Przegląd wprowadzający

W tej sekcji dokonamy przeglądu podstawowych metod, założeń i terminologii ANOVA.

Należy zauważyć, że w literaturze anglojęzycznej analiza wariancji jest zwykle nazywana analizą zmienności. Dlatego dla zwięzłości poniżej czasami będziemy używać tego terminu ANOVA (Jakiś aliza o F wa racja) dla zwykłej ANOVA i terminu MANOWA do wieloczynnikowej analizy wariancji. W tej sekcji omówimy po kolei główne idee analizy wariancji ( ANOVA), analiza kowariancji ( ANKOWA), wieloczynnikowa analiza wariancji ( MANOWA) i wieloczynnikowa analiza kowariancji ( MANCOVA). Po krótkim omówieniu zalet analizy kontrastu i testów post hoc przyjrzyjmy się założeniom, na których opierają się metody ANOVA. Pod koniec tej sekcji wyjaśniono zalety podejścia wielowymiarowego do analizy pomiarów powtarzanych w porównaniu z tradycyjnym podejściem jednowymiarowym.

Kluczowe pomysły

Cel analizy wariancji. Głównym celem analizy wariancji jest zbadanie istotności różnic pomiędzy średnimi. Rozdział (Rozdział 8) zawiera krótkie wprowadzenie do badania istotności statystycznej. Jeśli po prostu porównujesz średnie z dwóch próbek, analiza wariancji da taki sam wynik jak zwykła analiza. T- badanie dla niezależnych próbek (w przypadku porównywania dwóch niezależnych grup obiektów lub obserwacji) lub T- kryterium dla prób zależnych (w przypadku porównywania dwóch zmiennych na tym samym zbiorze obiektów lub obserwacji). Jeżeli nie są Państwo zaznajomieni z tymi kryteriami, zalecamy zapoznanie się z przeglądem rozdziałów wprowadzających (Rozdział 9).

Skąd wzięła się nazwa Analiza wariancji? Może wydawać się dziwne, że procedura porównywania średnich nazywana jest analizą wariancji. W rzeczywistości dzieje się tak dlatego, że badając istotność statystyczną różnic między średnimi, tak naprawdę analizujemy wariancje.

Dzielenie sumy kwadratów

Dla próby o wielkości n wariancję próbki oblicza się jako sumę kwadratów odchyleń od średniej próbki podzieloną przez n-1 (wielkość próby minus jeden). Zatem dla ustalonej wielkości próby n wariancja jest funkcją sumy kwadratów (odchyłek), oznaczonych dla zwięzłości SS(z angielskiego Suma kwadratów - Suma kwadratów). Podstawą analizy wariancji jest rozdzielenie (lub podzielenie) wariancji na części. Rozważ następujący zestaw danych:

Średnie obu grup różnią się istotnie (odpowiednio 2 i 6). Suma kwadratów odchyleń wewnątrz każda grupa jest równa 2. Dodając je, otrzymamy 4. Jeśli teraz powtórzymy te obliczenia nie licząc przynależność do grupy, to znaczy, jeśli obliczymy SS na podstawie ogólnej średniej z dwóch próbek otrzymujemy 28. Innymi słowy, wariancja (suma kwadratów) oparta na zmienności wewnątrzgrupowej daje znacznie mniejsze wartości niż obliczona na podstawie ogólnej zmienności (w stosunku do Średnia ogólna). Powodem tego jest oczywiście znacząca różnica między średnimi i ta różnica między średnimi wyjaśnia istniejącą różnicę między sumami kwadratów. Tak naprawdę, jeśli użyjesz modułu do analizy podanych danych Analiza wariancji, zostaną uzyskane następujące wyniki:

Jak widać z tabeli, całkowita suma kwadratów SS=28 dzieli się przez sumę kwadratów podaną przez wewnątrzgrupowe zmienność ( 2+2=4 ; patrz drugi wiersz tabeli) i sumę kwadratów ze względu na różnicę wartości średnich. (28-(2+2)=24; patrz pierwszy wiersz tabeli).

SS błędy iSS efekt. Zmienność wewnątrzgrupowa ( SS) jest zwykle nazywane dyspersją błędy. Oznacza to, że zwykle nie da się tego przewidzieć ani wyjaśnić podczas przeprowadzania eksperymentu. Z drugiej strony, SS efekt(lub zmienność międzygrupowa) można wyjaśnić różnicami pomiędzy średnimi badanych grup. Innymi słowy przynależność do określonej grupy wyjaśnia zmienność międzygrupowa, ponieważ wiemy, że te grupy mają różne środki.

Kontrola znaczenia. Podstawowe pojęcia dotyczące testowania istotności statystycznej zostały omówione w rozdziale Podstawowe pojęcia statystyki(Rozdział 8). W tym rozdziale wyjaśniono także powody, dla których w wielu testach stosuje się stosunek wyjaśnionej do niewyjaśnionej wariancji. Przykładem takiego zastosowania jest sama analiza wariancji. Testowanie istotności w ANOVA opiera się na porównaniu wariancji wynikającej z wariancji międzygrupowej (tzw średni efekt kwadratowy Lub SMEfekt) oraz wariancja spowodowana zmiennością wewnątrzgrupową (tzw średni błąd kwadratowy Lub SMbłąd). Jeśli hipoteza zerowa (równość średnich w obu populacjach) jest prawdziwa, wówczas można by oczekiwać stosunkowo niewielkiej różnicy w średnich z próby ze względu na zmienność losową. Zatem przy hipotezie zerowej wariancja wewnątrzgrupowa będzie praktycznie pokrywać się z wariancją całkowitą obliczoną bez uwzględnienia przynależności do grupy. Powstałe wariancje wewnątrzgrupowe można porównać za pomocą F- test sprawdzający, czy współczynnik wariancji jest istotnie większy od 1. W przykładzie omówionym powyżej F- kryterium pokazuje, że różnica pomiędzy średnimi jest istotna statystycznie.

Podstawowa logika analizy wariancji. Podsumowując, celem ANOVA jest sprawdzenie istotności statystycznej różnicy pomiędzy średnimi (dla grup lub zmiennych). Sprawdzenie to przeprowadza się za pomocą analizy wariancji, tj. poprzez podzielenie całkowitej wariancji (wariacji) na części, z których jedna wynika z błędu losowego (czyli zmienności wewnątrzgrupowej), a druga jest związana z różnicami w wartościach średnich. Ostatnią składową wariancji wykorzystuje się następnie do analizy istotności statystycznej różnicy pomiędzy średnimi. Jeżeli różnica ta jest znacząca, hipotezę zerową odrzuca się i przyjmuje hipotezę alternatywną, że istnieje różnica pomiędzy średnimi.

Zmienne zależne i niezależne. Nazywa się zmienne, których wartości są określane na podstawie pomiarów podczas eksperymentu (na przykład wyniku testu). zależny zmienne. Zmienne, którymi można sterować w eksperymencie (na przykład metody nauczania lub inne kryteria podziału obserwacji na grupy) nazywane są czynniki Lub niezależny zmienne. Pojęcia te zostały szczegółowo opisane w rozdziale Podstawowe pojęcia statystyki(Rozdział 8).

Wieloczynnikowa analiza wariancji

W powyższym prostym przykładzie można od razu obliczyć test t dla próbek niezależnych, korzystając z odpowiedniej opcji modułu Podstawowe statystyki i tabele. Uzyskane wyniki będą w naturalny sposób pokrywać się z wynikami analizy wariancji. Jednakże ANOVA zawiera elastyczne i wydajne techniki, które można zastosować w znacznie bardziej złożonych badaniach.

Wiele czynników.Świat jest złożony i wielowymiarowy w swojej naturze. Sytuacje, w których dane zjawisko jest całkowicie opisane jedną zmienną, zdarzają się niezwykle rzadko. Na przykład, jeśli próbujemy nauczyć się uprawiać duże pomidory, powinniśmy wziąć pod uwagę czynniki związane ze strukturą genetyczną rośliny, rodzajem gleby, światłem, temperaturą itp. Zatem przeprowadzając typowy eksperyment, trzeba mieć do czynienia z dużą liczbą czynników. Głównym powodem, dla którego preferuje się stosowanie ANOVA, zamiast powtarzanych porównań dwóch próbek przy różnych poziomach współczynników T- kryterium jest to, że analiza wariancji jest większa skuteczny i, w przypadku małych próbek, bardziej informacyjny.

Zarządzanie czynnikami. Załóżmy, że w omówionym powyżej przykładzie analizy dwóch próbek dodajemy kolejny czynnik, np. Podłoga- Płeć. Niech każda grupa składa się z 3 mężczyzn i 3 kobiet. Schemat tego eksperymentu można przedstawić w formie tabeli 2 na 2:

Eksperyment. Grupa 1 Eksperyment. Grupa 2
Mężczyźni2 6
3 7
1 5
Przeciętny2 6
Kobiety4 8
5 9
3 7
Przeciętny4 8

Przed wykonaniem obliczeń można zauważyć, że w tym przykładzie całkowita wariancja ma co najmniej trzy źródła:

(1) błąd losowy (w wariancji grupowej),

(2) zmienność związana z przynależnością do grupy eksperymentalnej oraz

(3) zmienność ze względu na płeć obiektów obserwacji.

(Zauważ, że istnieje inne możliwe źródło zmienności – interakcja czynników, o czym porozmawiamy później). Co się stanie, jeśli nie uwzględnimy podłogapłeć jako czynnik w analizie i obliczyć zwykle T-kryterium? Jeśli obliczymy sumy kwadratów, ignorując podłoga -płeć(tj. łączenie obiektów różnych płci w jedną grupę przy obliczaniu wariancji wewnątrzgrupowej, uzyskując w ten sposób sumę kwadratów dla każdej grupy równą SS=10 i całkowita suma kwadratów SS= 10+10 = 20), wówczas uzyskujemy większą wartość wariancji wewnątrzgrupowej niż przy dokładniejszej analizie z dodatkowym podziałem na podgrupy według pół- płeć(w tym przypadku średnie wewnątrzgrupowe będą równe 2, a całkowita suma kwadratów wewnątrzgrupowych będzie równa SS = 2+2+2+2 = 8). Różnica ta wynika z faktu, że średnia wartość dla mężczyźni - mężczyźni mniej niż średnia dla kobiety -Kobieta, a ta różnica w średnich zwiększa ogólną zmienność wewnątrzgrupową, gdy płeć nie jest brana pod uwagę. Kontrolowanie wariancji błędu zwiększa czułość (moc) testu.

Przykład ten pokazuje kolejną zaletę analizy wariancji w porównaniu z konwencjonalną T- kryterium dla dwóch próbek. Analiza wariancji pozwala na badanie każdego czynnika poprzez kontrolowanie wartości pozostałych czynników. Jest to w rzeczywistości główny powód jego większej mocy statystycznej (do uzyskania miarodajnych wyników wymagane są mniejsze próbki). Z tego powodu analiza wariancji, nawet na małych próbach, daje statystycznie bardziej istotne wyniki niż zwykła T- kryterium.

Efekty interakcji

Analiza wariancji ma jeszcze jedną zaletę w porównaniu z metodą konwencjonalną T- kryterium: analiza wariancji pozwala nam wykryć interakcja między czynnikami, co pozwala na badanie bardziej złożonych modeli. Aby to zilustrować, rozważmy inny przykład.

Efekty główne, interakcje parami (dwuczynnikowe). Załóżmy, że istnieją dwie grupy uczniów i psychologicznie uczniowie pierwszej grupy są zdeterminowani, aby wykonać powierzone zadania i są bardziej celowi niż uczniowie drugiej grupy, składającej się z uczniów leniwych. Podzielmy losowo każdą grupę na pół i daj jednej połowie każdej grupy trudne zadanie, a drugiej łatwe. Następnie zmierzymy, jak ciężko uczniowie pracują nad tymi zadaniami. Średnie z tego (fikcyjnego) badania przedstawiono w tabeli:

Jaki wniosek można wyciągnąć z tych wyników? Czy możemy stwierdzić, że: (1) uczniowie intensywniej pracują nad złożonym zadaniem; (2) Czy zmotywowani uczniowie pracują ciężej niż leniwi uczniowie? Żadne z tych stwierdzeń nie oddaje istoty systematyki środków przedstawionych w tabeli. Analizując wyniki, trafniejsze byłoby stwierdzenie, że tylko zmotywowani uczniowie pracują ciężej nad trudnymi zadaniami, natomiast leniwi uczniowie pracują ciężej nad łatwymi. Innymi słowy, charakter uczniów i trudność zadania interakcja wpływają na siebie nawzajem w zakresie włożonego wysiłku. To jest przykład interakcja w parach pomiędzy charakterem uczniów a trudnością zadania. Zauważ, że stwierdzenia 1 i 2 opisują główne efekty.

Interakcje wyższego rzędu. Chociaż interakcje parami są nadal stosunkowo łatwe do wyjaśnienia, interakcje wyższego rzędu są znacznie trudniejsze. Wyobraźmy sobie, że w rozważanym powyżej przykładzie wprowadzony zostaje inny czynnik podłoga -Płeć i otrzymaliśmy następującą tabelę średnich:

Jakie wnioski można teraz wyciągnąć z uzyskanych wyników? Wykresy średnich ułatwiają interpretację złożonych efektów. Moduł ANOVA pozwala na zbudowanie tych wykresów niemal jednym kliknięciem myszki.

Obraz na poniższych wykresach przedstawia badaną interakcję trójczynnikową.

Patrząc na wykresy, możemy stwierdzić, że w przypadku kobiet istnieje interakcja między osobowością a trudnością testu: zmotywowane kobiety pracują ciężej nad trudnym zadaniem niż nad łatwym. W przypadku mężczyzn ta sama interakcja jest odwrotna. Można zauważyć, że opis interakcji pomiędzy czynnikami staje się coraz bardziej zagmatwany.

Ogólny sposób opisywania interakcji. Ogólnie interakcję między czynnikami opisuje się jako zmianę jednego efektu pod wpływem innego. W omówionym powyżej przykładzie interakcję dwuczynnikową można opisać jako zmianę efektu głównego czynnika charakteryzującego trudność zadania pod wpływem czynnika opisującego charakter ucznia. Dla interakcji trzech czynników z poprzedniego akapitu możemy powiedzieć, że interakcja dwóch czynników (złożoności zadania i charakteru ucznia) zmienia się pod wpływem płećPłeć. Jeśli zbadamy interakcję czterech czynników, możemy powiedzieć, że interakcja trzech czynników zmienia się pod wpływem czwartego czynnika, tj. Istnieją różne rodzaje interakcji na różnych poziomach czwartego czynnika. Okazuje się, że w wielu obszarach współdziałanie pięciu, a nawet większej liczby czynników nie jest niczym niezwykłym.

Skomplikowane plany

Projekty międzygrupowe i wewnątrzgrupowe (projekty z powtarzanymi pomiarami)

Zwykle używa się go przy porównywaniu dwóch różnych grup T- kryterium dla próbek niezależnych (z modułu Podstawowe statystyki i tabele). Kiedy dwie zmienne są porównywane na tym samym zestawie obiektów (obserwacjach), jest ona używana T-kryterium dla próbek zależnych. Dla analizy wariancji ważne jest również to, czy próbki są zależne, czy nie. Jeżeli powtarzane są pomiary tych samych zmiennych (w różnych warunkach lub w różnym czasie) dla tych samych obiektów, potem mówią o obecności współczynnik powtarzanych pomiarów(nazywane również czynnik wewnątrzgrupowy, ponieważ wewnątrzgrupowa suma kwadratów jest obliczana w celu oceny jej istotności). Jeśli porówna się różne grupy obiektów (na przykład mężczyzn i kobiety, trzy szczepy bakterii itp.), wówczas opisano różnicę między grupami czynnik międzygrupowy. Metody obliczania kryteriów istotności dla dwóch opisanych typów czynników są różne, ale ich ogólna logika i interpretacje są takie same.

Plany między- i wewnątrzgrupowe. W wielu przypadkach eksperyment wymaga uwzględnienia w projekcie zarówno czynnika międzyobiektowego, jak i czynnika powtarzanych pomiarów. Na przykład mierzone są umiejętności matematyczne uczniów i uczennic (gdzie podłoga -Płeć-czynnik międzygrupowy) na początku i na końcu semestru. Dwie miary umiejętności każdego ucznia tworzą czynnik wewnątrzgrupowy (czynnik powtarzanych pomiarów). Interpretacja głównych efektów i interakcji w przypadku czynników międzyobiektowych i czynników powtarzanych pomiarów jest spójna, a oba typy czynników mogą oczywiście oddziaływać na siebie (np. kobiety zdobywają umiejętności w ciągu semestru, podczas gdy mężczyźni je tracą).

Niekompletne (zagnieżdżone) plany

W wielu przypadkach efekt interakcji można pominąć. Dzieje się tak albo wtedy, gdy wiadomo, że nie ma efektu interakcji w populacji, albo gdy realizacja jest całkowita silnia planu jest niemożliwe. Badany jest na przykład wpływ czterech dodatków do paliwa na zużycie paliwa. Wybrano cztery samochody i czterech kierowców. Pełny silnia eksperyment wymaga, aby każda kombinacja: dodatek, kierowca, samochód - wystąpiła przynajmniej raz. Wymaga to co najmniej 4 x 4 x 4 = 64 grup testów, co jest zbyt czasochłonne. Ponadto jest mało prawdopodobne, aby doszło do jakiejkolwiek interakcji pomiędzy sterownikiem a dodatkiem do paliwa. Biorąc to pod uwagę, możesz skorzystać z planu Kwadraty łacińskie, który zawiera tylko 16 grup testowych (cztery dodatki są oznaczone literami A, B, C i D):

Kwadraty łacińskie są opisane w większości książek na temat projektowania eksperymentów (np. Hays, 1988; Lindman, 1974; Milliken i Johnson, 1984; Winer, 1962) i nie będą tutaj omawiane szczegółowo. Zauważ, że kwadraty łacińskie są NieNpełny projekty, w których nie uwzględniono wszystkich kombinacji poziomów czynników. Na przykład kierowca 1 prowadzi samochód 1 tylko z dodatkiem A, kierowca 3 prowadzi samochód 1 tylko z dodatkiem C. Poziomy współczynników dodatki ( A, B, C i D) są zagnieżdżone w komórkach tabeli samochód X kierowca - jak jajka w gniazdach. Ten mnemonik jest przydatny do zrozumienia natury zagnieżdżone lub zagnieżdżone plany. Moduł Analiza wariancji zapewnia proste sposoby analizowania tego typu planów.

Analiza kowariancji

główny pomysł

W rozdziale Kluczowe pomysły Pokrótce omówiono ideę kontroli czynnikowej oraz sposób, w jaki włączenie czynników addytywnych zmniejsza sumę kwadratów błędów i zwiększa moc statystyczną projektu. Wszystko to można rozszerzyć na zmienne o ciągłym zestawie wartości. Kiedy takie zmienne ciągłe są uwzględnione w projekcie jako czynniki, nazywa się je współzmienne.

Naprawiono współzmienne

Załóżmy, że porównujemy umiejętności matematyczne dwóch grup uczniów, których nauczano przy użyciu dwóch różnych podręczników. Załóżmy również, że dane dotyczące ilorazu inteligencji (IQ) są dostępne dla każdego ucznia. Możesz założyć, że IQ jest powiązane z umiejętnościami matematycznymi i wykorzystać te informacje. Dla każdej z dwóch grup uczniów można obliczyć współczynnik korelacji między IQ a umiejętnościami matematycznymi. Korzystając z tego współczynnika korelacji, można wyizolować proporcję wariancji w grupach, którą można wytłumaczyć wpływem IQ i niewyjaśnioną proporcją wariancji (patrz także Podstawowe pojęcia statystyki(Rozdział 8) i Podstawowe statystyki i tabele(rozdział 9)). Pozostała część wariancji jest wykorzystywana w analizie jako wariancja błędu. Jeśli istnieje korelacja między IQ a umiejętnościami matematycznymi, wariancję błędu można znacznie zmniejszyć SS/(N-1) .

Wpływ współzmiennych naF- kryterium. F- kryterium ocenia istotność statystyczną różnicy wartości średnich w grupach i obliczany jest stosunek wariancji międzygrupowej ( SMefekt) do wariancji błędu ( SMbłąd) . Jeśli SMbłąd zmniejsza się, na przykład, biorąc pod uwagę współczynnik IQ, wartość F wzrasta.

Wiele współzmiennych. Rozumowanie zastosowane powyżej dla pojedynczej współzmiennej (IQ) można łatwo rozszerzyć na wiele współzmiennych. Na przykład oprócz IQ możesz uwzględnić pomiary motywacji, myślenia przestrzennego itp. Zamiast zwykłego współczynnika korelacji stosuje się współczynnik korelacji wielokrotnej.

Kiedy wartośćF -kryteria maleją. Czasami wprowadzenie współzmiennych do projektu eksperymentu zmniejsza jego znaczenie F-kryteria . Zwykle wskazuje to, że współzmienne są skorelowane nie tylko ze zmienną zależną (np. umiejętnościami matematycznymi), ale także z czynnikami (np. różnymi podręcznikami). Załóżmy, że IQ jest mierzone na koniec semestru, po prawie roku nauczania dwóch grup uczniów przy użyciu dwóch różnych podręczników. Chociaż uczniów przydzielano do grup losowo, może się zdarzyć, że różnice w podręcznikach są tak duże, że zarówno IQ, jak i umiejętności matematyczne będą się znacznie różnić między grupami. W tym przypadku współzmienne nie tylko zmniejszają wariancję błędu, ale także wariancję międzygrupową. Innymi słowy, po uwzględnieniu różnic w IQ pomiędzy grupami, różnice w umiejętnościach matematycznych nie są już znaczące. Można to powiedzieć inaczej. Po „wykluczeniu” wpływu IQ, w sposób niezamierzony wyklucza się wpływ podręcznika na rozwój umiejętności matematycznych.

Skorygowane średnie. Kiedy współzmienna wpływa na czynnik międzyobiektowy, należy dokonać obliczeń dostosowane środki, tj. te średnie, które uzyskuje się po usunięciu wszystkich oszacowań współzmiennych.

Interakcje pomiędzy współzmiennymi i czynnikami. Podobnie jak bada się interakcje między czynnikami, można badać interakcje między współzmiennymi i między grupami czynników. Załóżmy, że jeden z podręczników jest szczególnie odpowiedni dla inteligentnych uczniów. Drugi podręcznik jest nudny dla inteligentnych uczniów, a ten sam podręcznik jest trudny dla mniej inteligentnych uczniów. W efekcie w pierwszej grupie występuje dodatnia korelacja między IQ a wynikami w nauce (inteligentniejsi uczniowie, lepsze wyniki) i zerowa lub nieznacznie ujemna korelacja w drugiej grupie (im mądrzejszy uczeń, tym mniejsze prawdopodobieństwo, że nabędzie umiejętności matematyczne) z drugiego podręcznika). Niektóre badania omawiają tę sytuację jako przykład naruszenia założeń analizy kowariancji. Ponieważ jednak moduł ANOVA wykorzystuje najpopularniejsze metody analizy kowariancji, możliwa jest w szczególności ocena istotności statystycznej interakcji czynników i współzmiennych.

Zmienne współzmienne

Podczas gdy stałe współzmienne są omawiane w podręcznikach dość często, zmienne współzmienne są wymieniane znacznie rzadziej. Zazwyczaj, przeprowadzając eksperymenty z powtarzającymi się pomiarami, interesują nas różnice w pomiarach tych samych wielkości w różnych momentach. Nas interesuje mianowicie znaczenie tych różnic. Jeśli współzmienne są mierzone jednocześnie z pomiarami zmiennych zależnych, można obliczyć korelację między współzmienną a zmienną zależną.

Na początku i na końcu semestru można na przykład badać zainteresowania i umiejętności matematyczne. Interesujące byłoby sprawdzenie, czy zmiany w zainteresowaniu matematyką są skorelowane ze zmianami w umiejętnościach matematycznych.

Moduł Analiza wariancji V STATYSTYKA tam, gdzie to możliwe, automatycznie ocenia istotność statystyczną zmian współzmiennych w projektach.

Projekty wielowymiarowe: wieloczynnikowa analiza wariancji i kowariancji

Plany międzygrupowe

Wszystkie omówione wcześniej przykłady obejmowały tylko jedną zmienną zależną. Gdy jednocześnie występuje kilka zmiennych zależnych, zwiększa się jedynie złożoność obliczeń, ale treść i podstawowe zasady nie ulegają zmianie.

Na przykład badanie przeprowadza się na dwóch różnych podręcznikach. Jednocześnie badane są sukcesy uczniów w nauce fizyki i matematyki. W tym przypadku istnieją dwie zmienne zależne i trzeba dowiedzieć się, jak wpływają na nie jednocześnie dwa różne podręczniki. W tym celu można zastosować wieloczynnikową analizę wariancji (MANOVA). Zamiast jednowymiarowego F kryterium stosuje się wielowymiarowość F test (test l Wilksa), polegający na porównaniu macierzy kowariancji błędów i macierzy kowariancji międzygrupowych.

Jeżeli zmienne zależne są ze sobą skorelowane, to korelację tę należy uwzględnić przy obliczaniu kryterium istotności. Oczywiście, jeśli ten sam pomiar zostanie powtórzony dwukrotnie, nie da się uzyskać nic nowego. Jeśli do istniejącego wymiaru zostanie dodany skorelowany wymiar, uzyskana zostanie część nowych informacji, lecz nowa zmienna będzie zawierała informacje nadmiarowe, co znajdzie odzwierciedlenie w kowariancji pomiędzy zmiennymi.

Interpretacja wyników. Jeśli ogólny test wieloczynnikowy jest istotny, możemy stwierdzić, że odpowiadający mu efekt (np. typ podręcznika) jest istotny. Jednakże pojawiają się następujące pytania. Czy rodzaj podręcznika wpływa na poprawę tylko umiejętności matematycznych, tylko fizycznych, czy obu umiejętności? W rzeczywistości, po uzyskaniu istotnego testu wieloczynnikowego, bada się test jednoczynnikowy pod kątem indywidualnego efektu głównego lub interakcji. F kryterium. Innymi słowy, zmienne zależne, które wpływają na istotność testu wielowymiarowego, są badane oddzielnie.

Projekty powtarzalnych pomiarów

Jeżeli umiejętności matematyczne i fizyczne uczniów są mierzone na początku i na końcu semestru, wówczas są to pomiary powtarzane. Badanie kryterium istotności w takich planach jest logicznym rozwinięciem przypadku jednowymiarowego. Należy zauważyć, że techniki wielowymiarowej analizy wariancji są również powszechnie stosowane do badania znaczenia jednoczynnikowych czynników powtarzanych pomiarów mających więcej niż dwa poziomy. Odpowiednie zastosowania zostaną omówione w dalszej części tej części.

Sumowanie wartości zmiennych i wielowymiarowa analiza wariancji

Nawet doświadczeni użytkownicy jednowymiarowej i wielowymiarowej analizy wariancji często mają trudności z uzyskaniem różnych wyników, stosując wieloczynnikową analizę wariancji na przykład do trzech zmiennych i stosując jednoczynnikową analizę wariancji do sumy tych trzech zmiennych, jak gdyby były pojedynczą zmienną.

Pomysł podsumowanie zmiennych polega na tym, że każda zmienna zawiera pewną zmienną prawdziwą, która jest badana, a także losowy błąd pomiaru. Dlatego przy uśrednianiu wartości zmiennych błąd pomiaru będzie bliższy 0 dla wszystkich pomiarów, a wartości uśrednione będą bardziej wiarygodne. W rzeczywistości w tym przypadku zastosowanie analizy ANOVA do sumy zmiennych jest rozsądną i skuteczną techniką. Jeśli jednak zmienne zależne mają charakter wielowymiarowy, sumowanie wartości zmiennych jest niewłaściwe.

Załóżmy na przykład, że zmienne zależne składają się z czterech wskaźników sukces w społeczeństwie. Każdy wskaźnik charakteryzuje całkowicie niezależny aspekt działalności człowieka (na przykład sukces zawodowy, sukces w biznesie, dobrobyt rodziny itp.). Dodawanie tych zmiennych przypomina dodawanie jabłek i pomarańczy. Suma tych zmiennych nie byłaby odpowiednią miarą jednowymiarową. Dlatego takie dane należy traktować jako wielowymiarowe wskaźniki w wieloczynnikowa analiza wariancji.

Analiza kontrastu i badania post hoc

Dlaczego porównuje się oddzielne zestawy średnich?

Zazwyczaj hipotezy dotyczące danych eksperymentalnych formułuje się nie tylko w kategoriach głównych efektów lub interakcji. Przykładem może być następująca hipoteza: pewien podręcznik poprawia umiejętności matematyczne tylko u uczniów płci męskiej, podczas gdy inny podręcznik jest w przybliżeniu równie skuteczny dla obu płci, ale wciąż mniej skuteczny w przypadku mężczyzn. Można przewidzieć, że efektywność podręczników oddziałuje na płeć uczniów. Jednak ta prognoza również ma zastosowanie Natura interakcje. Oczekuje się znacznej różnicy między płciami w przypadku uczniów korzystających z jednej książki i praktycznie niezależnych wyników według płci w przypadku uczniów korzystających z drugiej książki. Tego typu hipotezy są zwykle badane za pomocą analizy kontrastu.

Analiza kontrastów

Krótko mówiąc, analiza kontrastu pozwala ocenić istotność statystyczną pewnych kombinacji liniowych złożonych efektów. Analiza kontrastu jest głównym i obowiązkowym elementem każdego złożonego planu ANOVA. Moduł Analiza wariancji ma dość różnorodne możliwości analizy kontrastu, które pozwalają izolować i analizować dowolny rodzaj porównania średnich.

A posteriori porównania

Czasami w wyniku przetworzenia eksperymentu odkrywany jest nieoczekiwany efekt. Choć w większości przypadków kreatywny badacz będzie w stanie wyjaśnić dowolny wynik, nie pozwala to na dalszą analizę i szacunki w celu przewidywania. Ten problem jest jednym z tych, dla których kryteria a posteriori, czyli kryteria, których nie stosuje się apriorycznie hipotezy. Aby to zilustrować, rozważmy następujący eksperyment. Załóżmy, że jest 100 kart zawierających liczby od 1 do 10. Układając wszystkie te karty w kapeluszu, losujemy 5 kart 20 razy i obliczamy średnią wartość (średnią z liczb zapisanych na kartach) dla każdej próbki. Czy można się spodziewać, że będą dwie próbki, których średnie znacząco się różnią? To bardzo prawdopodobne! Wybierając dwie próbki ze średnią maksymalną i minimalną, można uzyskać różnicę średnich znacznie różniącą się od różnicy średnich, na przykład dwóch pierwszych próbek. Różnicę tę można zbadać na przykład za pomocą analizy kontrastu. Nie wchodząc w szczegóły, istnieje kilka tzw a posteriori kryteria oparte dokładnie na pierwszym scenariuszu (pobranie ekstremalnych średnich z 20 próbek), tj. kryteria te opierają się na wyborze najbardziej różnych środków w celu porównania wszystkich średnich w projekcie. Kryteria te stosuje się, aby zapewnić, że sztuczny efekt nie zostanie uzyskany całkowicie przypadkowo, na przykład w celu wykrycia istotnej różnicy między średnimi, gdy jej nie ma. Moduł Analiza wariancji oferuje szeroką gamę takich kryteriów. Kiedy w eksperymencie obejmującym kilka grup zostaną napotkane nieoczekiwane wyniki, wówczas a posteriori procedury badania istotności statystycznej uzyskanych wyników.

Suma kwadratów typu I, II, III i IV

Regresja wielowymiarowa i analiza wariancji

Istnieje ścisły związek pomiędzy metodą regresji wielowymiarowej a analizą wariancji (analizą wariancji). W obu metodach badany jest model liniowy. Krótko mówiąc, prawie wszystkie projekty eksperymentów można zbadać za pomocą regresji wieloczynnikowej. Rozważmy następujący prosty projekt międzygrupowy 2 x 2.

D.V. A B Topór B
3 1 1 1
4 1 1 1
4 1 -1 -1
5 1 -1 -1
6 -1 1 -1
6 -1 1 -1
3 -1 -1 1
2 -1 -1 1

Kolumny A i B zawierają kody charakteryzujące poziomy czynników A i B, kolumna AxB zawiera iloczyn dwóch kolumn A i B. Dane te możemy analizować za pomocą regresji wieloczynnikowej. Zmienny D.V. zdefiniowana jako zmienna zależna, zmienne z A zanim Topór B jako zmienne niezależne. Badanie istotności współczynników regresji zbiegnie się z obliczeniami w analizie wariancji istotności głównych efektów czynników A I B i efekt interakcji Topór B.

Niezrównoważone i zrównoważone plany

Obliczając macierz korelacji dla wszystkich zmiennych, takich jak dane przedstawione powyżej, można zauważyć, że główne efekty czynników A I B i efekt interakcji Topór B nieskorelowane. Ta właściwość efektów nazywana jest również ortogonalnością. Mówią, że efekty A I B - prostokątny Lub niezależny od siebie nawzajem. Jeśli wszystkie efekty w planie są względem siebie ortogonalne, jak w powyższym przykładzie, wówczas mówimy, że plan jest zrównoważony.

Zrównoważone plany mają „dobrą właściwość”. Obliczenia potrzebne do analizy takich planów są bardzo proste. Wszystkie obliczenia sprowadzają się do obliczenia korelacji pomiędzy efektami a zmiennymi zależnymi. Ponieważ efekty są ortogonalne, częściowe korelacje (w całości wielowymiarowy regresje) nie są obliczane. Jednak w prawdziwym życiu plany nie zawsze są zrównoważone.

Rozważmy rzeczywiste dane z nierówną liczbą obserwacji w komórkach.

Czynnik A Czynnik B
B1 B2
A1 3 4, 5
A2 6, 6, 7 2

Jeśli zakodujemy te dane jak powyżej i obliczymy macierz korelacji dla wszystkich zmiennych, odkryjemy, że czynniki projektowe są ze sobą skorelowane. Czynniki w planie nie są już ortogonalne i takie plany nazywa się niezrównoważony. Należy zauważyć, że w rozważanym przykładzie korelacja między czynnikami wynika całkowicie z różnicy częstotliwości 1 i -1 w kolumnach macierzy danych. Innymi słowy, projekty eksperymentów z nierównymi objętościami komórek (dokładniej: nieproporcjonalnymi objętościami) będą niezrównoważone, co oznacza, że ​​główne efekty i interakcje zostaną zakłócone. W takim przypadku należy obliczyć pełną regresję wieloczynnikową, aby obliczyć istotność statystyczną efektów. Jest tu kilka strategii.

Suma kwadratów typu I, II, III i IV

Typ sumy kwadratówIIIII. Aby zbadać znaczenie każdego czynnika w modelu wielowymiarowym, można obliczyć częściową korelację każdego czynnika, pod warunkiem, że wszystkie pozostałe czynniki są już uwzględnione w modelu. Można także wprowadzać czynniki do modelu krok po kroku, przechwytując wszystkie czynniki już wprowadzone do modelu i ignorując wszystkie inne czynniki. Ogólnie rzecz biorąc, jest to różnica między typ III I typI suma kwadratów (ta terminologia została wprowadzona w SAS, zob. np. SAS, 1982; szczegółowe omówienie można znaleźć także w: Searle, 1987, s. 461; Woodward, Bonett i Brecht, 1990, s. 216; czy Milliken i Johnson, 1984, s. 138).

Typ sumy kwadratówII. Następna „pośrednia” strategia tworzenia modelu polega na: kontrolowaniu wszystkich efektów głównych podczas badania znaczenia pojedynczego efektu głównego; w kontrolowaniu wszystkich efektów głównych i wszystkich interakcji parami podczas badania znaczenia indywidualnej interakcji parami; w kontrolowaniu wszystkich głównych efektów wszystkich interakcji parami i wszystkich interakcji trzech czynników; podczas badania indywidualnej interakcji trzech czynników itp. Sumy kwadratów tak obliczonych efektów nazywane są sumami kwadratów typII suma kwadratów. Więc, typII suma kwadratów kontroli dla wszystkich efektów tego samego rzędu i niższych, ignorując wszystkie efekty wyższego rzędu.

Typ sumy kwadratówIV. Wreszcie dla niektórych planów specjalnych, w których brakuje komórek (plany niekompletne), możliwe jest obliczenie tzw typ IV suma kwadratów. Metoda ta zostanie omówiona później w odniesieniu do projektów niekompletnych (projektów z brakującymi ogniwami).

Interpretacja hipotezy sumy kwadratów typów I, II i III

Suma kwadratów typIII najłatwiej zinterpretować. Przypomnijmy, że sumy kwadratów typIII zbadaj efekty po uwzględnieniu wszystkich pozostałych efektów. Na przykład po znalezieniu statystycznie istotnego typIII wpływ na czynnik A w module Analiza wariancji, możemy powiedzieć, że istnieje jeden znaczący wpływ czynnika A, po wprowadzeniu wszystkich pozostałych efektów (czynników) i odpowiednio zinterpretować ten efekt. Prawdopodobnie w 99% wszystkich zastosowań ANOVA jest to rodzaj testu, który interesuje badacza. Ten typ sumy kwadratów jest zwykle obliczany modulo Analiza wariancji domyślnie, niezależnie od tego, czy opcja jest zaznaczona Podejście regresyjne czy nie (podejścia standardowe przyjęte w module Analiza wariancji omówione poniżej).

Efekty istotne uzyskane przy użyciu sum kwadratów typ Lub typII sumy kwadratów nie są tak łatwe do interpretacji. Najlepiej je interpretować w kontekście stopniowej regresji wieloczynnikowej. Jeśli, używając sumy kwadratów typI efekt główny czynnika B był istotny (po uwzględnieniu w modelu czynnika A, ale przed dodaniem interakcji pomiędzy A i B), możemy stwierdzić, że istnieje istotny efekt główny czynnika B, pod warunkiem, że nie ma interakcji pomiędzy czynnikami A i B. (W przypadku stosowania kryterium typIII, czynnik B również okazał się istotny, to po wprowadzeniu do modelu wszystkich pozostałych czynników i ich interakcji można stwierdzić, że istnieje istotny efekt główny czynnika B).

W zakresie hipotezy środków krańcowych typI I typII zwykle nie mają prostej interpretacji. W takich przypadkach mówi się, że nie można interpretować znaczenia efektów, patrząc jedynie na średnie marginalne. Raczej przedstawione Pśrednie są powiązane ze złożoną hipotezą, która łączy średnie i wielkość próby. Na przykład, typII hipotezy dotyczące czynnika A w prostym przykładzie układu 2 x 2 omówione wcześniej byłyby następujące (patrz Woodward, Bonett i Brecht, 1990, s. 219):

nie- liczba obserwacji w komórce

uij- średnia wartość w komórce

N. J- średnia marginalna

Bez wchodzenia w szczegóły (więcej szczegółów można znaleźć w Milliken i Johnson, 1984, rozdział 10), jasne jest, że nie są to proste hipotezy i w większości przypadków żadna z nich nie jest szczególnie interesująca dla badacza. Są jednak przypadki, gdy hipotezy typI może być interesujące.

Domyślne podejście obliczeniowe w module Analiza wariancji

Wartość domyślna, jeśli opcja nie jest zaznaczona Podejście regresyjne, moduł Analiza wariancji wykorzystuje model średniej komórki. Cechą charakterystyczną tego modelu jest to, że sumy kwadratów dla różnych efektów są obliczane dla liniowych kombinacji średnich komórek. W pełnym eksperymencie silni daje to sumy kwadratów, które są takie same, jak sumy kwadratów omówione wcześniej jako typ III. Jednak w opcji Planowane porównania(w oknie Wyniki ANOVA), użytkownik może przetestować hipotezę w oparciu o dowolną liniową kombinację średnich ważonych i nieważonych komórek. Dzięki temu użytkownik może testować nie tylko hipotezy typIII, ale hipotezy dowolnego typu (w tym typIV). To ogólne podejście jest szczególnie przydatne podczas badania projektów z brakującymi komórkami (tzw. projektów niekompletnych).

W przypadku pełnych planów czynnikowych podejście to jest również przydatne, gdy chce się analizować ważone średnie krańcowe. Załóżmy na przykład, że w rozważanym wcześniej prostym projekcie 2 x 2 musimy porównać ważone (według poziomów współczynników). B) średnie krańcowe dla czynnika A. Jest to przydatne, gdy rozkład obserwacji pomiędzy komórkami nie został przygotowany przez eksperymentatora, ale został skonstruowany losowo, a losowość ta znajduje odzwierciedlenie w rozkładzie liczby obserwacji na poziomach czynnika B w agregat.

Na przykład istnieje czynnik - wiek wdów. Możliwą próbę respondentów dzieli się na dwie grupy: do 40. roku życia i powyżej 40. roku życia (czynnik B). Drugim czynnikiem (czynnikiem A) w planie było to, czy wdowy otrzymywały wsparcie społeczne od jakiejś agencji (niektóre wdowy zostały wybrane losowo, inne służyły jako kontrola). W tym przypadku rozkład wdów ze względu na wiek w próbie odzwierciedla faktyczny rozkład wdów ze względu na wiek w populacji. Ocena efektywności społecznej grupy wsparcia dla wdów wszystkich grup wiekowych będzie odpowiadać średniej ważonej dla dwóch grup wiekowych (z wagami odpowiadającymi liczbie obserwacji w grupie).

Planowane porównania

Należy pamiętać, że suma wprowadzonych współczynników kontrastu nie musi być równa 0 (zero). Zamiast tego program automatycznie dokona korekt, aby upewnić się, że odpowiednie hipotezy nie zostaną pomylone z ogólną średnią.

Aby to zilustrować, wróćmy do omówionego wcześniej prostego planu 2 x 2. Przypomnijmy, że liczby obserwacji w komórkach tego niezrównoważonego układu wynoszą -1, 2, 3 i 1. Załóżmy, że chcemy porównać ważone średnie krańcowe dla czynnika A (ważone częstotliwością poziomów czynnika B). Można wprowadzić współczynniki kontrastu:

Należy pamiętać, że współczynniki te nie sumują się do 0. Program ustawi współczynniki tak, aby sumowały się do 0, a ich wartości względne zostaną zachowane, tj.:

1/3 2/3 -3/4 -1/4

Te kontrasty pozwolą porównać średnie ważone dla czynnika A.

Hipotezy dotyczące średniej głównej. Hipotezę, że nieważona średnia główna wynosi 0, można zbadać za pomocą współczynników:

Hipotezę, że średnia ważona główna wynosi 0, testuje się za pomocą:

W żadnym przypadku program nie reguluje współczynników kontrastu.

Analiza planów z brakującymi komórkami (plany niekompletne)

Projekty czynnikowe zawierające puste komórki (przetwarzające kombinacje komórek, które nie zawierają obserwacji) nazywane są niekompletnymi. W takich projektach niektóre czynniki zwykle nie są ortogonalne, a niektórych interakcji nie można obliczyć. Generalnie nie ma lepszej metody analizy takich planów.

Podejście regresyjne

W niektórych starszych programach, które opierają się na analizie projektów ANOVA przy użyciu regresji wielowymiarowej, współczynniki w niekompletnych projektach są domyślnie określane w zwykły sposób (tak jakby projekt był kompletny). Następnie na tych zakodowanych fikcyjnie czynnikach przeprowadza się wieloczynnikową analizę regresji. Niestety metoda ta daje wyniki, które są bardzo trudne, jeśli nie niemożliwe, do interpretacji, ponieważ nie jest jasne, w jaki sposób każdy efekt przyczynia się do liniowej kombinacji średnich. Rozważmy następujący prosty przykład.

Czynnik A Czynnik B
B1 B2
A1 3 4, 5
A2 6, 6, 7 Pominięty

Jeśli wykonamy regresję wielowymiarową postaci Zmienna zależna = stała + współczynnik A + współczynnik B, wówczas hipoteza o znaczeniu czynników A i B w aspekcie liniowych kombinacji średnich wygląda następująco:

Czynnik A: Komórka A1, B1 = Komórka A2, B1

Czynnik B: Komórka A1, B1 = Komórka A1, B2

Sprawa jest prosta. W bardziej skomplikowanych projektach nie da się właściwie określić, co dokładnie będzie badane.

Oznacza komórki, podejście ANOVA , Hipotezy typu IV

Podejściem zalecanym w literaturze i wydaje się preferowanym jest badanie znaczące (pod względem pytań badawczych) apriorycznie hipotezy dotyczące środków obserwowanych w komórkach planu. Szczegółowe omówienie tego podejścia można znaleźć u Dodge'a (1985), Heibergera (1989), Millikena i Johnsona (1984), Searle'a (1987) lub Woodwarda, Bonetta i Brechta (1990). Sumy kwadratów powiązane z hipotezami dotyczącymi liniowej kombinacji średnich w niekompletnych projektach, które badają szacunki części efektów, nazywane są również sumami kwadratów IV.

Automatyczne generowanie hipotez typuIV. Gdy projekty wielowymiarowe mają złożone wzorce brakujących komórek, pożądane jest zdefiniowanie ortogonalnych (niezależnych) hipotez, których badanie jest równoznaczne z badaniem głównych efektów lub interakcji. Opracowano strategie algorytmiczne (obliczeniowe) (oparte na macierzy pseudoodwrotnej) w celu generowania odpowiednich wag do takich porównań. Niestety, ostateczne hipotezy nie są określone w sposób jednoznaczny. Oczywiście zależą one od kolejności identyfikacji skutków i rzadko pozwalają na prostą interpretację. Dlatego zaleca się dokładne zbadanie charakteru brakujących komórek, a następnie sformułowanie hipotez typIV, które w największym stopniu odpowiadają celom badania. Następnie przeanalizuj te hipotezy, korzystając z opcji Planowane porównania w oknie wyniki. Najłatwiej określić porównania w tym przypadku, wymagając wprowadzenia wektora kontrastów dla wszystkich czynników razem w oknie Planowane porównania. Po wywołaniu okna dialogowego Planowane porównania Wyświetlone zostaną wszystkie grupy w bieżącym planie, a te, których brakuje, zostaną zaznaczone.

Brakujące komórki i badanie pod kątem konkretnego efektu

Istnieje kilka rodzajów projektów, w których lokalizacja brakujących komórek nie jest przypadkowa, ale jest starannie zaplanowana, co pozwala na prostą analizę efektów głównych bez wpływu na inne efekty. Na przykład, gdy wymagana liczba komórek w planie nie jest dostępna, często stosuje się plany Kwadraty łacińskie oszacować główne skutki kilku czynników na dużej liczbie poziomów. Na przykład układ czynnikowy 4 x 4 x 4 x 4 wymaga 256 komórek. Jednocześnie możesz używać Plac grecko-łaciński oszacować efekty główne przy użyciu tylko 16 komórek w projekcie (rozdział Planowanie eksperymentu, tom IV, zawiera szczegółowy opis takich planów). Projekty niekompletne, w których efekty główne (i niektóre interakcje) można oszacować za pomocą prostych liniowych kombinacji średnich, nazywane są zrównoważone niekompletne plany.

W projektach zrównoważonych standardowa (domyślna) metoda generowania kontrastów (wag) dla efektów głównych i interakcji spowoduje utworzenie tabeli analizy wariancji, w której sumy kwadratów odpowiednich efektów nie zostaną ze sobą pomieszane. Opcja Konkretne efekty okno wyniki wygeneruje brakujące kontrasty, wpisując zero do brakujących komórek planu. Natychmiast po zażądaniu opcji Konkretne efekty użytkownikowi sprawdzającemu jakąś hipotezę pojawia się tabela wyników z rzeczywistymi wagami. Należy zauważyć, że w zrównoważonym projekcie sumy kwadratów odpowiednich efektów są obliczane tylko wtedy, gdy efekty te są ortogonalne (niezależne) od wszystkich innych efektów głównych i interakcji. W przeciwnym razie musisz skorzystać z tej opcji Planowane porównania w celu zbadania znaczących porównań między średnimi.

Brakujące komórki i zbiorcze efekty/warunki błędów

Jeśli opcja Podejście regresyjne w panelu startowym modułu Analiza wariancji nie jest zaznaczone, do obliczenia sumy kwadratów efektów zostanie użyty model średniej komórki (ustawienie domyślne). Jeśli projekt nie jest zrównoważony, wówczas przy łączeniu efektów nieortogonalnych (patrz omówienie opcji powyżej Pominięte komórki i specyficzny efekt) można otrzymać sumę kwadratów składających się z elementów nieortogonalnych (lub nakładających się). Uzyskanych wyników zwykle nie można interpretować. Dlatego należy zachować szczególną ostrożność przy wyborze i wdrażaniu złożonych, niekompletnych projektów eksperymentalnych.

Istnieje wiele książek zawierających szczegółowe omówienie różnych typów planów. (Dodge, 1985; Heiberger, 1989; Lindman, 1974; Milliken i Johnson, 1984; Searle, 1987; Woodward i Bonett, 1990), ale tego typu informacje wykraczają poza zakres tego podręcznika. Jednakże analiza różnych typów planów zostanie przedstawiona w dalszej części tej sekcji.

Założenia i skutki naruszenia założeń

Odchylenie od założenia o rozkładach normalnych

Załóżmy, że zmienna zależna jest mierzona na skali numerycznej. Załóżmy również, że zmienna zależna ma rozkład normalny w każdej grupie. Analiza wariancji zawiera szeroką gamę wykresów i statystyk potwierdzających to założenie.

Skutki zakłóceń. W ogóle F test jest bardzo odporny na odchylenia od normalności (szczegółowe wyniki można znaleźć w Lindman, 1974). Jeśli kurtoza jest większa niż 0, wówczas wartość statystyki wynosi F może stać się bardzo mały. Hipoteza zerowa zostaje przyjęta, chociaż może nie być prawdziwa. Sytuacja ulega odwróceniu, gdy kurtoza jest mniejsza niż 0. Skośność rozkładu ma zwykle niewielki wpływ F Statystyka. Jeśli liczba obserwacji w komórce jest wystarczająco duża, wówczas odchylenie od normalności nie jest szczególnie istotne ze względu na centralne twierdzenie graniczne, zgodnie z którym rozkład wartości średniej jest zbliżony do normalnego, niezależnie od rozkładu początkowego. Szczegółowe omówienie zrównoważonego rozwoju F statystyki można znaleźć u Boxa i Andersona (1955) lub Lindmana (1974).

Jednolitość wariancji

Założenia. Zakłada się, że wariancje różnych grup projektowych są takie same. To założenie nazywa się założeniem jednorodność wariancji. Przypomnijmy, że na początku tego rozdziału opisując obliczenie sumy kwadratów błędów, przeprowadziliśmy sumowanie w obrębie każdej grupy. Jeśli wariancje w dwóch grupach różnią się od siebie, to zsumowanie ich nie jest zbyt naturalne i nie pozwala na oszacowanie całkowitej wariancji wewnątrzgrupowej (ponieważ w tym przypadku wariancja całkowita nie występuje). Moduł Analiza wariancji -ANOVA/MANOWA zawiera duży zestaw kryteriów statystycznych do wykrywania odchyleń od założeń o jednorodności wariancji.

Skutki zakłóceń. Lindman (1974, s. 33) to pokazuje F kryterium jest dość stabilne pod względem naruszenia założeń o jednorodności wariancji ( niejednorodność wariancja, patrz także Ramka, 1954a, 1954b; Hsu, 1938).

Przypadek szczególny: korelacja średnich i wariancji. Są chwile, kiedy F statystyki mogą wprowadzić w błąd. Dzieje się tak, gdy średnie komórek projektowych są skorelowane z wariancją. Moduł Analiza wariancji umożliwia wykreślenie wykresów rozrzutu wariancji lub odchylenia standardowego względem średniej w celu wykrycia takiej korelacji. Powód, dla którego ta korelacja jest niebezpieczna, jest następujący. Wyobraźmy sobie, że w planie jest 8 komórek, z czego 7 ma prawie taką samą średnią, a w jednej komórce średnia jest znacznie wyższa niż w pozostałych. Następnie F test może wykryć statystycznie istotny efekt. Załóżmy jednak, że w komórce o dużej wartości średniej wariancja jest znacznie większa niż w pozostałych, tj. średnia wartość i wariancja w komórkach są zależne (im wyższa średnia, tym większa wariancja). W tym przypadku duża średnia jest niewiarygodna, ponieważ może być spowodowana dużą wariancją danych. Jednakże F statystyki oparte na zjednoczony wariancja w komórkach uchwyci średnią ogólną, chociaż testy oparte na wariancji w każdej komórce nie uznają wszystkich różnic w średnich za istotne.

Tego typu dane (duża średnia i duża wariancja) często pojawiają się, gdy występują obserwacje odstające. Jedna lub dwie obserwacje odstające znacznie przesuwają średnią i znacznie zwiększają wariancję.

Jednorodność wariancji i kowariancji

Założenia. W projektach wielowymiarowych z miarami zależnymi na wiele zmiennych stosuje się również opisane wcześniej założenie o jednorodności wariancji. Ponieważ jednak istnieją wielowymiarowe zmienne zależne, wymagane jest również, aby ich korelacje krzyżowe (kowariancje) były jednakowe we wszystkich komórkach projektu. Moduł Analiza wariancji oferuje różne sposoby testowania tych założeń.

Skutki zakłóceń. Wielowymiarowy analog F- kryterium - test λ Wilksa. Niewiele wiadomo na temat odporności testu Wilksa λ na naruszenia powyższych założeń. Jednakże, ponieważ interpretacja wyników modułu Analiza wariancji opiera się zazwyczaj na istotności efektów jednowymiarowych (po ustaleniu istotności kryterium ogólnego), dyskusja na temat odporności dotyczy głównie jednowymiarowej analizy wariancji. Dlatego należy dokładnie zbadać znaczenie efektów jednoczynnikowych.

Przypadek szczególny: analiza kowariancji. Szczególnie poważne naruszenia jednorodności wariancji/kowariancji mogą wystąpić, gdy w projekcie uwzględnione zostaną współzmienne. W szczególności, jeśli korelacja między współzmiennymi i miarami zależnymi różni się w poszczególnych komórkach projektu, może nastąpić błędna interpretacja wyników. Należy pamiętać, że analiza kowariancji zasadniczo przeprowadza analizę regresji w każdej komórce w celu wyizolowania tej części wariancji, która jest uwzględniana przez współzmienną. Założenie dotyczące jednorodności wariancji/kowariancji zakłada, że ​​analiza regresji jest prowadzona przy następującym ograniczeniu: wszystkie równania regresji (nachylenia) dla wszystkich komórek są takie same. Jeśli nie zostanie to założone, mogą pojawić się duże błędy. Moduł Analiza wariancji ma kilka specjalnych kryteriów sprawdzających to założenie. Zaleca się stosowanie tych kryteriów, aby zapewnić, że równania regresji dla różnych komórek będą w przybliżeniu takie same.

Sferyczność i złożona symetria: powody stosowania podejścia wielowymiarowego do powtarzalnych miar w analizie wariancji

W projektach zawierających czynniki powtarzalnych pomiarów o więcej niż dwóch poziomach, zastosowanie jednowymiarowej ANOVA wymaga dodatkowych założeń: założenia o złożonej symetrii i założenia o kulistości. Założenia te są rzadko spotykane (patrz poniżej). Dlatego też w ostatnich latach w takich układach popularność zyskała wielowymiarowa analiza wariancji (oba podejścia są połączone w module Analiza wariancji).

Założenie złożonej symetrii Założeniem symetrii złożonej jest to, że wariancje (wspólne w grupach) i kowariancje (wspólne w grupach) dla różnych powtarzanych miar są jednorodne (takie same). Jest to warunek wystarczający, aby jednoczynnikowy test F dla powtarzanych pomiarów był ważny (tj. podawane wartości F są średnio zgodne z rozkładem F). Jednak w tym przypadku warunek ten nie jest konieczny.

Założenie sferyczności. Założenie o kulistości jest warunkiem koniecznym i wystarczającym, aby test F był ważny. Polega ona na tym, że w obrębie grup wszystkie obserwacje są niezależne i równomiernie rozłożone. Charakter tych założeń i skutki ich naruszenia nie są zwykle dobrze opisane w książkach o ANOVA - zostanie to omówione w kolejnych akapitach. Pokazane zostanie również, że wyniki podejścia jednowymiarowego mogą różnić się od wyników podejścia wielowymiarowego i zostanie wyjaśnione, co to oznacza.

Potrzeba niezależności hipotez. Ogólny sposób analizy danych w ANOVA jest następujący dopasowanie modelu. Jeśli w stosunku do modelu, który pasuje do danych, są pewne apriorycznie hipotezy, następnie wariancja jest dzielona w celu sprawdzenia tych hipotez (kryteria dla efektów głównych, interakcje). Z obliczeniowego punktu widzenia podejście to generuje zestaw kontrastów (zestaw porównań średnich planowych). Jeśli jednak kontrasty nie są od siebie niezależne, podział wariancji staje się bezsensowny. Na przykład, jeśli dwa kontrasty A I B są identyczne i wyodrębnia się odpowiadającą im część wariancji, następnie tę samą część wyodrębnia się dwukrotnie. Na przykład głupie i bezcelowe jest identyfikowanie dwóch hipotez: „średnia w komórce 1 jest wyższa niż średnia w komórce 2” i „średnia w komórce 1 jest wyższa niż średnia w komórce 2”. Zatem hipotezy muszą być niezależne lub ortogonalne.

Niezależne hipotezy w powtarzanych pomiarach. Ogólny algorytm zaimplementowany w module Analiza wariancji, spróbuje wygenerować niezależne (ortogonalne) kontrasty dla każdego efektu. W przypadku czynnika powtarzanych pomiarów kontrasty te dostarczają wielu hipotez dotyczących różnice pomiędzy poziomami rozpatrywanego czynnika. Jeśli jednak różnice te są skorelowane w obrębie grup, wówczas powstałe kontrasty nie są już niezależne. Na przykład w nauczaniu, w którym studenci są mierzeni trzy razy w semestrze, może się zdarzyć, że zmiana między pierwszym a drugim pomiarem będzie ujemnie skorelowana ze zmianą między drugim a trzecim pomiarem przedmiotów. Ci, którzy opanowali większość materiału pomiędzy 1. a 2. wymiarem, opanowują mniejszą część w czasie, który upłynął pomiędzy 2. a 3. wymiarem. W rzeczywistości w większości przypadków, gdy do powtarzanych pomiarów stosuje się analizę ANOVA, można założyć, że zmiany na różnych poziomach są skorelowane między pacjentami. Jednak gdy tak się stanie, założenie o złożonej symetrii i założenie o kulistości nie jest spełnione i nie można obliczyć niezależnych kontrastów.

Skutki naruszeń i sposoby ich korygowania. Jeżeli złożone założenia dotyczące symetrii lub kulistości nie są spełnione, analiza ANOVA może dawać błędne wyniki. Zanim procedury wielowymiarowe zostały dostatecznie rozwinięte, zaproponowano kilka założeń kompensujących naruszenia tych założeń. (Patrz na przykład Greenhouse i Geisser, 1959 oraz Huynh i Feldt, 1970). Metody te są nadal szeroko stosowane (dlatego zostały zaprezentowane w module Analiza wariancji).

Wieloczynnikowa analiza wariancji podejścia do powtarzanych miar. Generalnie problemy złożonej symetrii i sferyczności wiążą się z faktem, że zbiory kontrastów uwzględnione w badaniu efektów czynników powtarzanych pomiarów (o więcej niż 2 poziomach) nie są od siebie niezależne. Jednak nie muszą być niezależne, jeśli są używane wielowymiarowy test do jednoczesnego testowania istotności statystycznej kontrastów czynników dwóch lub więcej powtarzanych pomiarów. Z tego powodu coraz częściej stosuje się wieloczynnikową analizę wariancji do testowania istotności jednoczynnikowych czynników powtarzanych pomiarów o więcej niż 2 poziomach. Podejście to jest powszechnie akceptowane, ponieważ generalnie nie wymaga złożonej symetrii ani sferyczności.

Przypadki, w których nie można zastosować podejścia wieloczynnikowej analizy wariancji. Istnieją przykłady (projekty), w których nie można zastosować podejścia wielowymiarowej analizy wariancji. Są to zazwyczaj przypadki, w których w projekcie występuje niewielka liczba tematów i wiele poziomów współczynnika powtarzanych pomiarów. Może wówczas być zbyt mało obserwacji, aby przeprowadzić analizę wieloczynnikową. Na przykład, jeśli jest 12 przedmiotów, P = 4 współczynnik powtarzanych pomiarów, a każdy czynnik ma k = 3 poziomy. Wtedy interakcja 4 czynników „pochłonie” (k-1)P = 2 4 = 16 stopnie swobody. Jednakże jest tylko 12 podmiotów, więc w tym przykładzie nie można przeprowadzić testu wieloczynnikowego. Moduł Analiza wariancji niezależnie wykryje te obserwacje i obliczy tylko kryteria jednowymiarowe.

Różnice w wynikach jednowymiarowych i wieloczynnikowych. Jeżeli badanie obejmuje dużą liczbę powtarzanych pomiarów, mogą zaistnieć przypadki, w których jednowymiarowa metoda ANOVA z powtarzanymi pomiarami daje wyniki bardzo różniące się od tych uzyskanych przy podejściu wieloczynnikowym. Oznacza to, że różnice pomiędzy poziomami odpowiednich powtarzanych pomiarów są skorelowane między podmiotami. Czasami fakt ten ma jakieś niezależne znaczenie.

Wieloczynnikowa analiza wariancji i modelowanie równań strukturalnych

W ostatnich latach popularne stało się modelowanie równań strukturalnych jako alternatywa dla wieloczynnikowej analizy wariancji (patrz na przykład Bagozzi i Yi, 1989; Bagozzi, Yi i Singh, 1991; Cole, Maxwell, Arvey i Salas, 1993). . Podejście to pozwala na testowanie hipotez nie tylko dotyczących średnich w różnych grupach, ale także macierzy korelacji zmiennych zależnych. Na przykład można złagodzić założenia dotyczące jednorodności wariancji i kowariancji i wyraźnie uwzględnić w modelu wariancje i kowariancje błędów dla każdej grupy. Moduł STATYSTYKAModelowanie równań strukturalnych (SEPATH) (patrz tom III) pozwala na taką analizę.

Wykorzystanie statystyk w tej nocie zostanie zilustrowane przekrojowym przykładem. Załóżmy, że jesteś kierownikiem produkcji w Perfect Parachute. Spadochrony są wykonane z włókien syntetycznych dostarczanych przez czterech różnych dostawców. Jedną z głównych cech spadochronu jest jego siła. Należy upewnić się, że wszystkie dostarczone włókna mają tę samą wytrzymałość. Aby odpowiedzieć na to pytanie, należy zaprojektować projekt eksperymentalny, w którym zmierzy się wytrzymałość spadochronów tkanych z włókien syntetycznych pochodzących od różnych dostawców. Informacje uzyskane w wyniku tego eksperymentu pozwolą określić, który dostawca zapewnia najtrwalsze spadochrony.

Wiele zastosowań obejmuje eksperymenty, które uwzględniają wiele grup lub poziomów pojedynczego czynnika. Niektóre czynniki, takie jak temperatura wypalania ceramiki, mogą mieć wiele poziomów liczbowych (tj. 300°, 350°, 400° i 450°). Inne czynniki, takie jak lokalizacja artykułów w supermarkecie, mogą mieć poziomy kategoryczne (np. pierwszy dostawca, drugi dostawca, trzeci dostawca, czwarty dostawca). Eksperymenty jednoczynnikowe, w których jednostki eksperymentalne są losowo przydzielane do grup lub poziomów czynników, nazywane są całkowicie randomizowanymi.

StosowanieF-kryteria oceny różnic pomiędzy kilkoma oczekiwaniami matematycznymi

Jeżeli pomiary numeryczne czynnika w grupach mają charakter ciągły i spełnione są dodatkowe warunki, do porównania oczekiwań matematycznych kilku grup stosuje się analizę wariancji (ANOVA). Jakiś aliza o F W racja). Analiza wariancji przy użyciu całkowicie losowych planów nazywana jest jednokierunkową procedurą ANOVA. W pewnym sensie termin analiza wariancji jest błędny, ponieważ porównuje różnice między oczekiwanymi wartościami grup, a nie między wariancjami. Porównanie oczekiwań matematycznych odbywa się jednak właśnie na podstawie analizy zmienności danych. W procedurze ANOVA całkowitą zmienność wyników pomiarów dzieli się na międzygrupowe i wewnątrzgrupowe (ryc. 1). Zmienność wewnątrzgrupową wyjaśnia się błędem eksperymentalnym, a zmienność międzygrupową wyjaśnia się wpływem warunków eksperymentalnych. Symbol Z oznacza liczbę grup.

Ryż. 1. Podział zmienności w całkowicie losowym eksperymencie

Pobierz notatkę w formacie lub, przykłady w formacie

Udawajmy, że Z grupy wyodrębnia się z niezależnych populacji o rozkładzie normalnym i równej wariancji. Hipoteza zerowa głosi, że matematyczne oczekiwania populacji są takie same: H 0: μ 1 = μ 2 = ... = μ s. Hipoteza alternatywna stwierdza, że ​​nie wszystkie oczekiwania matematyczne są takie same: H 1: nie wszystkie μj są takie same J= 1, 2,…, s).

Na ryc. Na rycinie 2 przedstawiono prawdziwą hipotezę zerową dotyczącą oczekiwań matematycznych pięciu porównywanych grup, pod warunkiem, że populacje mają rozkład normalny i taką samą wariancję. Pięć populacji związanych z różnymi poziomami czynnika jest identycznych. W rezultacie nakładają się na siebie, mając te same matematyczne oczekiwania, zmienność i kształt.

Ryż. 2. Pięć populacji ogólnych ma te same oczekiwania matematyczne: μ 1 = μ 2 = μ 3 = μ 4 = μ 5

Z drugiej strony załóżmy, że w rzeczywistości hipoteza zerowa jest fałszywa, przy czym czwarty poziom ma najwyższą wartość oczekiwaną, pierwszy poziom ma nieco niższą wartość oczekiwaną, a pozostałe poziomy mają takie same, a nawet niższe wartości oczekiwane ( Rysunek 3). Należy zauważyć, że z wyjątkiem wartości oczekiwanych wszystkie pięć populacji jest identycznych (tzn. mają tę samą zmienność i kształt).

Ryż. 3. Obserwuje się wpływ warunków doświadczalnych: μ 4 > μ 1 > μ 2 = μ 3 = μ 5

Testując hipotezę o równości oczekiwań matematycznych kilku populacji ogólnych, zmienność całkowitą dzieli się na dwie części: zmienność międzygrupową, wynikającą z różnic między grupami, oraz zmienność wewnątrzgrupową, wynikającą z różnic między elementami należącymi do tej samej grupy. Całkowite zróżnicowanie wyraża się całkowitą sumą kwadratów (SST – suma kwadratów ogółem). Ponieważ hipoteza zerowa jest taka, że ​​matematyczne oczekiwania wszystkich Z grupy są sobie równe, całkowita wariancja jest równa sumie kwadratów różnic pomiędzy poszczególnymi obserwacjami i średnią ogólną (średnią średnich), obliczoną dla wszystkich próbek. Pełna odmiana:

Gdzie - Średnia ogólna, X ij - I-e obserwacja w J-grupa lub poziom, n j- liczba obserwacji w J grupa, N- łączna liczba obserwacji we wszystkich grupach (tj. N = N 1 + nr 2 + … + n c), Z- liczba badanych grup lub poziomów.

Zmienność międzygrupowa, zwykle nazywana międzygrupową sumą kwadratów (SSA – suma kwadratów wśród grup), jest równa sumie kwadratów różnic między średnią z próby każdej grupy J i ogólnie średnia , pomnożone przez objętość odpowiedniej grupy n j:

Gdzie Z- liczba studiowanych grup lub poziomów, n j- liczba obserwacji w J grupa, J- Średnia wartość J grupa, - ogólna średnia.

Zróżnicowanie wewnątrzgrupowe, zwykle nazywana wewnątrzgrupową sumą kwadratów (SSW – suma kwadratów w grupach), jest równa sumie kwadratów różnic pomiędzy elementami każdej grupy i średniej próby tej grupy J:

Gdzie Xja - I element J grupa, J- Średnia wartość J grupa.

Ponieważ są porównywane Z poziomów czynników, ma międzygrupowa suma kwadratów s – 1 stopnie swobody. Każdy z Z poziomy ma n j – 1 stopni swobody, więc wewnątrzgrupowa suma kwadratów ma N- Z stopnie swobody i

Ponadto całkowita suma kwadratów ma N – 1 stopni swobody, ponieważ każda obserwacja Xja porównuje się z ogólną średnią obliczoną dla wszystkich N obserwacje. Jeśli każdą z tych sum podzielimy przez odpowiednią liczbę stopni swobody, powstaną trzy rodzaje dyspersji: międzygrupowa(średni kwadrat wśród - MSA), wewnątrzgrupowe(średni kwadrat w obrębie - MSW) i pełny(średnia suma kwadratowa – MST):

Pomimo tego, że głównym celem analizy wariancji jest porównanie oczekiwań matematycznych Z grup w celu identyfikacji wpływu warunków eksperymentalnych, swoją nazwę zawdzięcza temu, że głównym narzędziem jest analiza wariancji różnego typu. Jeśli hipoteza zerowa jest prawdziwa i pomiędzy oczekiwaniami matematycznymi Z pomiędzy grupami nie ma istotnych różnic, wszystkie trzy wariancje – MSA, MSW i MST – są estymatorami wariancji σ 2 nieodłącznie związane z analizowanymi danymi. Zatem, aby przetestować hipotezę zerową H 0: μ 1 = μ 2 = ... = μ s i hipoteza alternatywna H 1: nie wszystkie μj są takie same J = 1, 2, …, Z), konieczne jest obliczenie statystyk F-kryterium, które jest stosunkiem dwóch wariancji, MSA i MSW. Test F-statystyka w jednoczynnikowej analizie wariancji

Statystyka F-z zastrzeżeniem kryteriów F-dystrybucja z s – 1 stopnie swobody w liczniku M.S.A. I n – s stopnie swobody w mianowniku MSW. Dla danego poziomu istotności α hipoteza zerowa jest odrzucana w przypadku obliczenia F FU, nieodłączny F-dystrybucja z s – 1 n – s stopnie swobody w mianowniku. Zatem, jak pokazano na rys. 4, regułę decyzyjną formułuje się następująco: hipoteza zerowa H 0 odrzucone, jeśli F>FU; w przeciwnym razie nie zostanie odrzucony.

Ryż. 4. Krytyczny obszar analizy wariancji przy testowaniu hipotezy H 0

Jeśli hipoteza zerowa H 0 jest prawdziwe, obliczone F-statystyka jest bliska 1, gdyż jej licznik i mianownik są oszacowaniami tej samej wielkości - dyspersji σ 2 występującej w analizowanych danych. Jeśli hipoteza zerowa H 0 jest fałszywe (i istnieje znacząca różnica między oczekiwaniami matematycznymi różnych grup). F-statystyka będzie znacznie większa od jedności, ponieważ jej licznik, MSA, oprócz naturalnej zmienności danych, szacuje wpływ warunków eksperymentalnych lub różnicę między grupami, podczas gdy mianownik MSW szacuje jedynie naturalną zmienność danych . Zatem procedura ANOVA jest F-kryterium, w którym przy danym poziomie istotności α hipoteza zerowa jest odrzucana w przypadku obliczenia F-statystyki są większe niż górna wartość krytyczna FU, nieodłączny F-dystrybucja z s – 1 stopnie swobody w liczniku i n – s stopnie swobody w mianowniku, jak pokazano na rys. 4.

Aby zilustrować jednokierunkową analizę wariancji, wróćmy do scenariusza nakreślonego na początku notatki. Celem doświadczenia jest sprawdzenie, czy spadochrony utkane z włókien syntetycznych pochodzących od różnych dostawców mają tę samą wytrzymałość. Każda grupa ma pięć spadochronów. Grupy podzielone są ze względu na dostawcę – Dostawca 1, Dostawca 2, Dostawca 3 i Dostawca 4. Pomiar wytrzymałości spadochronów odbywa się za pomocą specjalnego urządzenia, które bada tkaninę pod kątem rozdarcia z obu stron. Siłę potrzebną do rozbicia spadochronu mierzy się na specjalnej skali. Im większa siła zrywająca, tym silniejszy spadochron. Excel pozwala na analizę F-statystyki jednym kliknięciem. Przejdź przez menu DaneAnaliza danych i wybierz linię Jednokierunkowa ANOVA, wypełnij okno, które się otworzy (ryc. 5). Wyniki eksperymentów (wytrzymałość na zrywanie), niektóre statystyki opisowe oraz wyniki jednoczynnikowej analizy wariancji przedstawiono na rys. 6.

Ryż. 5. Okno Pakiet analizy jednokierunkowej analizy wariancji Przewyższać

Ryż. 6. Wskaźniki wytrzymałości spadochronów tkanych z włókien syntetycznych uzyskanych od różnych dostawców, statystyki opisowe i wyniki jednokierunkowej analizy wariancji

Analiza rysunku 6 pokazuje, że istnieje pewna różnica pomiędzy średnimi z próbki. Średnia wytrzymałość włókien uzyskanych od pierwszego dostawcy wynosi 19,52, od drugiego 24,26, od trzeciego 22,84, a od czwartego 21,16. Czy ta różnica jest istotna statystycznie? Rozkład siły rozrywającej przedstawiono na wykresie punktowym (rys. 7). Wyraźnie pokazuje różnice zarówno pomiędzy grupami, jak i wewnątrz grup. Gdyby każda grupa była większa, do ich analizy można by zastosować diagram łodyg i liści, wykres pudełkowy lub wykres dzwonkowy.

Ryż. 7. Wykres rozrzutu wytrzymałości spadochronów tkanych z włókien syntetycznych uzyskanych od czterech dostawców.

Hipoteza zerowa stwierdza, że ​​nie ma znaczących różnic pomiędzy średnimi wynikami siły: H 0: μ 1 = μ 2 = μ 3 = μ 4. Alternatywna hipoteza zakłada, że ​​istnieje co najmniej jeden dostawca, którego średnia wytrzymałość włókien różni się od pozostałych: H 1: nie wszystkie μj są takie same ( J = 1, 2, …, Z).

Ogólna średnia (patrz rys. 6) = ŚREDNIA (D12:D15) = 21,945; aby to ustalić, możesz także uśrednić wszystkie 20 oryginalnych liczb: = ŚREDNIA(A3:D7). Obliczane są wartości wariancji Pakiet analityczny i odbijają się na płycie Analiza wariancji(patrz rys. 6): SSA = 63,286, SSW = 97,504, SST = 160,790 (patrz kolumna SS stoły Analiza wariancji Rysunek 6). Średnie oblicza się, dzieląc te sumy kwadratów przez odpowiednią liczbę stopni swobody. Ponieważ Z= 4, a N= 20, otrzymujemy następujące wartości stopni swobody; dla SSA: s – 1= 3; dla SSW: n–c= 16; dla SST: n – 1= 19 (patrz kolumna zm). Zatem: MSA = SSA / ( s – 1)= 21,095; MSW = SSW / ( n–c) = 6,094; MST = SST / ( n – 1) = 8,463 (patrz kolumna SM). F-statystyka = MSA / MSW = 3,462 (patrz kolumna F).

Górna wartość krytyczna FU, Charakterystyka F-rozkład określony wzorem =F.OBR(0,95;3;16) = 3,239. Parametry funkcji =F.OBR(): α = 0,05, licznik ma trzy stopnie swobody, a mianownik 16. Zatem obliczona F-statystyka równa 3,462 przekracza górną wartość krytyczną FU= 3,239, hipoteza zerowa zostaje odrzucona (ryc. 8).

Ryż. 8. Obszar krytyczny analizy wariancji na poziomie istotności 0,05, jeśli licznik ma trzy stopnie swobody, a mianownik wynosi -16

R-wartość, tj. prawdopodobieństwo, że jeśli hipoteza zerowa jest prawdziwa F-statystyka nie mniejsza niż 3,46, równa 0,041 lub 4,1% (patrz kolumna wartość p stoły Analiza wariancji Rysunek 6). Ponieważ wartość ta nie przekracza poziomu istotności α = 5%, hipotezę zerową odrzucamy. Ponadto, R-wartość wskazuje, że prawdopodobieństwo wykrycia takiej lub większej różnicy pomiędzy oczekiwaniami matematycznymi populacji ogólnej, przy założeniu, że są one faktycznie takie same, wynosi 4,1%.

Więc. Istnieje różnica między czterema przykładowymi średnimi. Hipoteza zerowa głosiła, że ​​wszystkie oczekiwania matematyczne czterech populacji są równe. W tych warunkach miarę całkowitej zmienności (tj. całkowitej zmienności SST) wytrzymałości wszystkich spadochronów oblicza się poprzez zsumowanie kwadratów różnic między każdą obserwacją X ij i ogólnie średnia . Całkowitą zmienność następnie podzielono na dwie składowe (patrz ryc. 1). Pierwszym elementem była zmienność międzygrupowa w SSA, a drugą była zmienność wewnątrzgrupowa w SSW.

Co wyjaśnia zmienność danych? Innymi słowy, dlaczego wszystkie obserwacje nie są takie same? Jednym z powodów jest to, że różne firmy dostarczają włókna o różnej wytrzymałości. To częściowo wyjaśnia, dlaczego grupy mają różne oczekiwania matematyczne: im silniejszy wpływ warunków eksperymentalnych, tym większa różnica między oczekiwaniami matematycznymi grup. Inną przyczyną zmienności danych jest naturalna zmienność każdego procesu, w tym przypadku produkcji spadochronów. Nawet jeśli wszystkie włókna zostały zakupione od tego samego dostawcy, ich wytrzymałość nie byłaby taka sama, przy wszystkich pozostałych parametrach takich samych. Ponieważ efekt ten występuje w obrębie każdej grupy, nazywa się go zmiennością wewnątrzgrupową.

Różnice pomiędzy średnimi z próby nazywane są zmiennością międzygrupową SSA. Część zmienności wewnątrzgrupowej, jak już wskazano, można wyjaśnić przynależnością danych do różnych grup. Jednak nawet gdyby grupy były dokładnie takie same (tj. hipoteza zerowa była prawdziwa), nadal istniałoby zróżnicowanie między grupami. Powodem tego jest naturalna zmienność procesu produkcji spadochronów. Ponieważ próbki są różne, ich średnie próbki różnią się od siebie. Dlatego też, jeśli hipoteza zerowa jest prawdziwa, zarówno zmienność międzygrupowa, jak i wewnątrzgrupowa stanowi oszacowanie zmienności populacji. Jeśli hipoteza zerowa jest fałszywa, hipoteza międzygrupowa będzie większa. To właśnie ten fakt leży u podstaw F-kryteria porównywania różnic pomiędzy oczekiwaniami matematycznymi kilku grup.

Po przeprowadzeniu jednokierunkowej analizy ANOVA i stwierdzeniu znaczących różnic między firmami nie wiadomo, który dostawca znacząco różni się od pozostałych. Wiemy tylko, że oczekiwania matematyczne populacji ogólnej nie są równe. Innymi słowy, co najmniej jedno z oczekiwań matematycznych znacząco różni się od pozostałych. Aby określić, który dostawca różni się od pozostałych, możesz użyć Procedura Tukeya, stosując porównania parami pomiędzy dostawcami. Procedura ta została opracowana przez Johna Tukeya. Następnie on i K. Kramer niezależnie modyfikowali tę procedurę dla sytuacji, w których liczebność prób różni się od siebie.

Porównanie wielokrotne: procedura Tukeya-Kramera

W naszym scenariuszu do porównania siły spadochronów wykorzystano jednokierunkową analizę wariancji. Po stwierdzeniu istotnych różnic pomiędzy oczekiwaniami matematycznymi czterech grup należy określić, które grupy różnią się od siebie. Chociaż istnieje kilka sposobów rozwiązania tego problemu, opiszemy jedynie procedurę wielokrotnych porównań Tukeya-Kramera. Metoda ta jest przykładem procedury porównawczej post hoc, ponieważ testowana hipoteza jest formułowana po analizie danych. Procedura Tukeya-Kramera pozwala na jednoczesne porównanie wszystkich par grup. W pierwszym etapie obliczane są różnice XJ -XJ, Gdzie j ≠J, pomiędzy oczekiwaniami matematycznymi s(s – 1)/2 grupy. Zakres krytyczny Procedurę Tukeya-Kramera oblicza się ze wzoru:

Gdzie Q U- górna wartość krytyczna studentyzowanego rozkładu zakresów, która ma Z stopnie swobody w liczniku i N - Z stopnie swobody w mianowniku.

Jeżeli liczebność prób nie jest taka sama, zakres krytyczny oblicza się osobno dla każdej pary oczekiwań matematycznych. Na ostatnim etapie każdy z s(s – 1)/2 pary oczekiwań matematycznych porównuje się z odpowiednim zakresem krytycznym. Elementy pary uważa się za znacząco różne, jeśli moduł różnicowy | Xj -XJ| między nimi przekracza zakres krytyczny.

Zastosujmy procedurę Tukeya-Kramera do problemu wytrzymałości spadochronów. Ponieważ firma spadochronowa ma czterech dostawców, do sprawdzenia jest 4(4 – 1)/2 = 6 par dostawców (Rysunek 9).

Ryż. 9. Porównania parami średnich z próby

Ponieważ wszystkie grupy mają tę samą objętość (tj n j = n j), wystarczy obliczyć tylko jeden zakres krytyczny. Aby to zrobić, zgodnie z tabelą ANOVA(Rys. 6) wyznaczamy wartość MSW = 6,094. Następnie znajdujemy wartość Q U przy α = 0,05, Z= 4 (liczba stopni swobody w liczniku) i N- Z= 20 – 4 = 16 (liczba stopni swobody w mianowniku). Niestety nie znalazłem odpowiedniej funkcji w Excelu, więc skorzystałem z tabeli (ryc. 10).

Ryż. 10. Wartość krytyczna studentyzowanego zakresu Q U

Otrzymujemy:

Ponieważ tylko 4,74 > 4,47 (patrz dolna tabela na rys. 9), istnieje statystycznie istotna różnica pomiędzy pierwszym i drugim dostawcą. Wszystkie pozostałe pary mają przykładowe środki, które nie pozwalają mówić o ich różnicach. W rezultacie średnia wytrzymałość spadochronów tkanych z włókien zakupionych od pierwszego dostawcy jest znacznie mniejsza niż u drugiego dostawcy.

Warunki niezbędne do jednokierunkowej analizy wariancji

Rozwiązując problem wytrzymałości spadochronów nie sprawdzaliśmy, czy warunki, w jakich możliwe jest zastosowanie spadochronu jednoczynnikowego, F-kryterium. Skąd wiesz, czy możesz użyć jednego czynnika F-kryterium przy analizie konkretnych danych eksperymentalnych? Pojedynczy czynnik F-kryterium można zastosować tylko wtedy, gdy spełnione są trzy podstawowe założenia: dane eksperymentalne muszą być losowe i niezależne, mieć rozkład normalny, a ich wariancje muszą być równe.

Pierwsze przypuszczenie - losowość i niezależność danych- należy zawsze przeprowadzić, ponieważ poprawność każdego eksperymentu zależy od losowości wyboru i/lub procesu randomizacji. Aby uniknąć zafałszowania wyników, konieczne jest wyodrębnienie danych Z populacji ogólnych losowo i niezależnie od siebie. Podobnie dane powinny być losowo rozłożone Z poziomy interesującego nas czynnika (grupy eksperymentalne). Naruszenie tych warunków może poważnie zniekształcić wyniki analizy wariancji.

Drugie przypuszczenie - normalność- oznacza, że ​​dane są wyodrębniane z populacji o rozkładzie normalnym. Jeśli chodzi o T-kryteria, jednokierunkowa analiza wariancji na podstawie F-kryteria są stosunkowo mało wrażliwe na naruszenie tego warunku. Jeśli rozkład nie odbiega zbytnio od normalnego, poziom istotności F-kryterium zmienia się niewiele, szczególnie jeśli wielkość próby jest wystarczająco duża. Jeżeli warunek normalności rozkładu zostanie poważnie naruszony, należy go zastosować.

Trzecie przypuszczenie - jednorodność wariancji- oznacza, że ​​wariancje każdej populacji są sobie równe (tj. σ 1 2 = σ 2 2 = ... = σ j 2). Założenie to pozwala podjąć decyzję, czy wariancje wewnątrzgrupowe należy rozdzielić, czy połączyć. Jeśli liczebność grup jest taka sama, warunek jednorodności wariancji ma niewielki wpływ na wnioski uzyskane za pomocą F-kryteria. Jeżeli jednak wielkości prób są nierówne, naruszenie warunku równości wariancji może poważnie zniekształcić wyniki analizy wariancji. Dlatego też należy dołożyć wszelkich starań, aby liczebność próbek była jednakowa. Jedną z metod sprawdzania założenia o jednorodności wariancji jest kryterium Levene’a Opisane poniżej.

Jeżeli ze wszystkich trzech warunków naruszony zostanie jedynie warunek jednorodności wariancji, należy zastosować procedurę podobną do T-kryterium wykorzystujące osobną wariancję (więcej szczegółów można znaleźć w artykule). Jeżeli jednak jednocześnie naruszone zostaną założenia rozkładu normalnego i jednorodności wariancji, należy znormalizować dane i zmniejszyć różnice między wariancjami lub zastosować procedurę nieparametryczną.

Test Levene’a do badania jednorodności wariancji

Chociaż F-kryterium jest stosunkowo odporne na naruszenia warunku równości wariancji w grupach, rażące naruszenie tego założenia wpływa znacząco na poziom istotności i siłę kryterium. Być może jednym z najpotężniejszych jest kryterium Levene’a. Aby sprawdzić równość wariancji Z populacji ogólnej przetestujemy następujące hipotezy:

Н 0: σ 1 2 = σ 2 2 = … = σJ 2

H 1: Nie wszystko σ jot 2 są takie same ( J = 1, 2, …, Z)

Zmodyfikowany test Levene’a opiera się na stwierdzeniu, że jeśli zmienność w grupach jest taka sama, analizę wariancji wartości bezwzględnych różnic między obserwacjami i medianami grupowymi można wykorzystać do sprawdzenia hipotezy zerowej o równości wariancji. Należy więc najpierw obliczyć wartości bezwzględne różnic między obserwacjami i medianami w każdej grupie, a następnie przeprowadzić jednokierunkową analizę wariancji na uzyskanych wartościach bezwzględnych różnic. Aby zilustrować kryterium Levene’a, wróćmy do scenariusza nakreślonego na początku notatki. Korzystając z danych przedstawionych na ryc. 6, przeprowadzimy podobną analizę, ale w odniesieniu do modułów różnic w danych wyjściowych i medianach dla każdej próbki osobno (ryc. 11).

Najnowsze materiały w dziale:

Słuchanie między wierszami Co oznacza wyrażenie czytane między wierszami?
Słuchanie między wierszami Co oznacza wyrażenie czytane między wierszami?

Czytaj między wierszami Czytaj między wierszami (język obcy), aby odgadnąć, co nie jest napisane lub uzgodnione. Poślubić. Ale pomiędzy jego bolesnymi kwestiami...

Zasady konstruowania grafów
Zasady konstruowania grafów

Wykresy stanowią wizualną reprezentację zależności między wielkościami, co jest niezwykle ważne przy interpretacji uzyskanych danych, ponieważ grafika...

Pierwsza rosyjska podróż dookoła świata
Pierwsza rosyjska podróż dookoła świata

Rosyjscy nawigatorzy, obok europejskich, to najsłynniejsi pionierzy, którzy odkryli nowe kontynenty, fragmenty pasm górskich i rozległe...