Analisi della varianza. Attività del corso: Analisi della varianza Analisi multivariata della varianza

L'analisi della varianza è un insieme di metodi statistici progettati per testare ipotesi sulla relazione tra determinate caratteristiche e fattori studiati che non hanno una descrizione quantitativa, nonché per stabilire il grado di influenza dei fattori e la loro interazione. Nella letteratura specializzata viene spesso chiamata ANOVA (dal nome inglese Analisi delle Variazioni). Questo metodo fu sviluppato per la prima volta da R. Fischer nel 1925.

Tipi e criteri di analisi della varianza

Questo metodo viene utilizzato per studiare la relazione tra caratteristiche qualitative (nominali) e una variabile quantitativa (continua). In sostanza, verifica l'ipotesi sull'uguaglianza delle medie aritmetiche di più campioni. Pertanto, può essere considerato un criterio parametrico per confrontare i centri di più campioni contemporaneamente. Se questo metodo viene utilizzato per due campioni, i risultati dell'analisi della varianza saranno identici ai risultati del test t di Student. Tuttavia, a differenza di altri criteri, questo studio ci consente di studiare il problema in modo più dettagliato.

L'analisi della dispersione in statistica si basa sulla legge: la somma delle deviazioni quadrate del campione combinato è uguale alla somma delle deviazioni intragruppo quadrate e alla somma delle deviazioni intergruppo quadrate. Lo studio utilizza il test di Fisher per stabilire la significatività della differenza tra varianze intergruppo e varianze all'interno del gruppo. Tuttavia, i prerequisiti necessari per questo sono la normalità della distribuzione e l'omoschedasticità (uguaglianza delle varianze) dei campioni. Esistono analisi della varianza univariata (un fattore) e multivariata (multifattoriale). Il primo considera la dipendenza del valore in esame da una caratteristica, il secondo da molte contemporaneamente e consente anche di identificare la connessione tra loro.

Fattori

I fattori sono circostanze controllate che influenzano il risultato finale. Il suo livello o metodo di elaborazione è un valore che caratterizza una manifestazione specifica di questa condizione. Questi numeri sono solitamente presentati su una scala di misurazione nominale o ordinale. Spesso i valori di output sono misurati su scale quantitative o ordinali. Sorge allora il problema di raggruppare i dati di output in un numero di osservazioni che corrispondono approssimativamente agli stessi valori numerici. Se si ritiene che il numero di gruppi sia eccessivamente ampio, il numero di osservazioni in essi contenuti potrebbe essere insufficiente per ottenere risultati affidabili. Se si prende un numero troppo piccolo, ciò può portare alla perdita di caratteristiche significative dell'influenza sul sistema. Il modo specifico di raggruppare i dati dipende dalla quantità e dalla natura della variazione dei valori. Il numero e la dimensione degli intervalli nell'analisi univariata sono spesso determinati dal principio degli intervalli uguali o dal principio delle frequenze uguali.

Analisi dei problemi di varianza

Quindi, ci sono casi in cui è necessario confrontare due o più campioni. È allora che è consigliabile utilizzare l’analisi della varianza. Il nome del metodo indica che le conclusioni vengono tratte sulla base dello studio delle componenti della varianza. L'essenza dello studio è che la variazione complessiva dell'indicatore è suddivisa in parti componenti che corrispondono all'azione di ciascun singolo fattore. Consideriamo una serie di problemi che vengono risolti mediante la tipica analisi della varianza.

Esempio 1

L'officina dispone di una serie di macchine automatiche che producono una parte specifica. La dimensione di ciascuna parte è una variabile casuale che dipende dalla configurazione di ciascuna macchina e dalle deviazioni casuali che si verificano durante il processo di produzione delle parti. È necessario determinare, in base ai dati di misurazione delle dimensioni dei pezzi, se le macchine sono configurate allo stesso modo.

Esempio 2

Durante la fabbricazione di un dispositivo elettrico vengono utilizzati vari tipi di carta isolante: condensatore, elettrica, ecc. Il dispositivo può essere impregnato con varie sostanze: resina epossidica, vernice, resina ML-2, ecc. Le perdite possono essere eliminate sotto vuoto a pressione elevata, con riscaldamento. L'impregnazione può essere effettuata mediante immersione in vernice, sotto un flusso continuo di vernice, ecc. L'intero apparato elettrico è riempito con un determinato composto, di cui esistono diverse opzioni. Gli indicatori di qualità sono la resistenza elettrica dell'isolamento, la temperatura di surriscaldamento dell'avvolgimento in modalità operativa e numerosi altri. Durante lo sviluppo del processo tecnologico di produzione dei dispositivi, è necessario determinare in che modo ciascuno dei fattori elencati influisce sulle prestazioni del dispositivo.

Esempio 3

Il deposito dei filobus serve diverse linee di filobus. Gestiscono filobus di vario tipo e 125 ispettori raccolgono le tariffe. La direzione del deposito è interessata alla domanda: come confrontare gli indicatori economici del lavoro di ciascun controllore (entrate) tenendo conto dei diversi percorsi e dei diversi tipi di filobus? Come determinare la fattibilità economica della produzione di filobus di un certo tipo su una particolare tratta? Come stabilire requisiti ragionevoli per l'importo delle entrate che un conducente ottiene su ciascuna tratta in vari tipi di filobus?

Il compito di scegliere un metodo è come ottenere la massima informazione sull'influenza di ciascun fattore sul risultato finale, determinare le caratteristiche numeriche di tale influenza, la loro affidabilità a costi minimi e nel più breve tempo possibile. I metodi di analisi della varianza consentono di risolvere tali problemi.

Analisi invariate

Lo scopo dello studio è valutare l'entità dell'influenza di un caso particolare sulla revisione analizzata. Un altro scopo dell'analisi univariata potrebbe essere quello di confrontare due o più circostanze tra loro per determinare la differenza nel loro impatto sul ricordo. Se l'ipotesi nulla viene rifiutata, il passo successivo è quantificare e costruire intervalli di confidenza per le caratteristiche ottenute. Nel caso in cui l'ipotesi nulla non possa essere rifiutata, di solito viene accettata e si trae una conclusione sulla natura dell'influenza.

L'analisi della varianza unidirezionale può diventare un analogo non parametrico del metodo dei ranghi di Kruskal-Wallis. È stato sviluppato dal matematico americano William Kruskal e dall'economista Wilson Wallis nel 1952. Questo criterio è progettato per verificare l'ipotesi nulla dell'uguaglianza degli effetti sui campioni studiati con valori medi sconosciuti ma uguali. In questo caso, il numero di campioni deve essere superiore a due.

Il criterio Jonckheere-Terpstra è stato proposto indipendentemente dal matematico olandese T. J. Terpstra nel 1952 e dallo psicologo britannico E. R. Jonckheere nel 1954. Viene utilizzato quando si sa in anticipo che i gruppi di risultati esistenti sono ordinati in base alla crescita dell'influenza del fattore in studio, che viene misurato su una scala ordinale.

M - Il test di Bartlett, proposto dallo statistico britannico Maurice Stevenson Bartlett nel 1937, viene utilizzato per verificare l'ipotesi nulla sull'uguaglianza delle varianze di più popolazioni normali da cui vengono prelevati i campioni in studio, generalmente di dimensioni diverse (il numero di ciascuna il campione deve essere almeno quattro).

G - Test di Cochran, scoperto dall'americano William Gemmell Cochran nel 1941. Viene utilizzato per verificare l'ipotesi nulla sull'uguaglianza delle varianze di popolazioni normali in campioni indipendenti di uguale dimensione.

Il test non parametrico di Levene, proposto dal matematico americano Howard Levene nel 1960, è un'alternativa al test di Bartlett in condizioni in cui non c'è certezza che i campioni in studio siano soggetti ad una distribuzione normale.

Nel 1974, gli statistici americani Morton B. Brown e Alan B. Forsythe proposero un test (test di Brown-Forsyth) leggermente diverso dal test di Levene.

Analisi a due fattori

L'analisi della varianza a due vie viene utilizzata per campioni correlati distribuiti normalmente. In pratica vengono spesso utilizzate tabelle complesse di questo metodo, in particolare quelle in cui ciascuna cella contiene un insieme di dati (misure ripetute) corrispondenti a valori di livello fisso. Se le ipotesi richieste per applicare l'analisi bidirezionale della varianza non sono soddisfatte, utilizzare il test non parametrico dei ranghi di Friedman (Friedman, Kendall e Smith), sviluppato dall'economista americano Milton Friedman alla fine del 1930. Questo test non dipende dal tipo di distribuzione.

Si presuppone soltanto che la distribuzione dei valori sia identica e continua e che essi stessi siano indipendenti l'uno dall'altro. Quando si verifica l'ipotesi nulla, i dati di output vengono presentati sotto forma di una matrice rettangolare, in cui le righe corrispondono ai livelli del fattore B e le colonne corrispondono ai livelli di A. Ogni cella della tabella (blocco) può essere il risultato di misurazioni di parametri su un oggetto o su un gruppo di oggetti con valori costanti dei livelli di entrambi i fattori. In questo caso, i dati corrispondenti vengono presentati come valori medi di un determinato parametro per tutte le dimensioni o oggetti del campione in esame. Per applicare il criterio dell'output è necessario passare dai risultati diretti delle misurazioni al loro rango. La classificazione viene eseguita separatamente per ciascuna riga, ovvero i valori vengono ordinati per ciascun valore fisso.

Il test di Page (L-test), proposto dallo statistico americano E. B. Page nel 1963, è progettato per verificare l'ipotesi nulla. Per campioni di grandi dimensioni viene utilizzata l'approssimazione di Page. Essi, soggetti alla realtà delle corrispondenti ipotesi nulle, obbediscono alla distribuzione normale standard. Nel caso in cui le righe della tabella sorgente abbiano gli stessi valori, è necessario utilizzare i ranghi medi. In questo caso, l'accuratezza delle conclusioni sarà tanto peggiore quanto maggiore sarà il numero di tali corrispondenze.

Q - Criterio di Cochran, proposto da W. Cochran nel 1937. Viene utilizzato nei casi in cui gruppi di soggetti omogenei sono esposti a influenze, il cui numero supera due e per i quali sono possibili due opzioni di feedback: condizionatamente negativo (0) e condizionatamente positivo (1) . L’ipotesi nulla consiste nell’uguaglianza degli effetti del trattamento. L'analisi bidirezionale della varianza consente di determinare l'esistenza di effetti del trattamento, ma non consente di determinare per quali colonne specifiche esiste questo effetto. Per risolvere questo problema, viene utilizzato il metodo delle equazioni multiple di Scheffe per campioni correlati.

Analisi multivariata

Il problema dell'analisi multivariata della varianza sorge quando è necessario determinare l'effetto di due o più condizioni su una determinata variabile casuale. Lo studio prevede la presenza di una variabile casuale dipendente, misurata su una scala di differenza o di rapporto, e di diverse variabili indipendenti, ciascuna delle quali è espressa su una scala di denominazione o di rango. L'analisi della varianza dei dati è una sezione abbastanza sviluppata della statistica matematica, che ha molte opzioni. Il concetto di ricerca è comune sia per il metodo monofattoriale che per quello multifattoriale. La sua essenza sta nel fatto che la varianza totale è divisa in componenti, che corrispondono a un certo raggruppamento di dati. Ogni raggruppamento di dati ha il proprio modello. Qui considereremo solo le disposizioni di base necessarie per la comprensione e l'uso pratico delle sue opzioni più utilizzate.

L'analisi della varianza dei fattori richiede un atteggiamento abbastanza attento alla raccolta e alla presentazione dei dati di input, e soprattutto all'interpretazione dei risultati. A differenza del test a un fattore, i cui risultati possono essere collocati condizionatamente in una determinata sequenza, i risultati del test a due fattori richiedono una presentazione più complessa. La situazione diventa ancora più complicata quando si verificano tre, quattro o più circostanze. Per questo motivo è piuttosto raro includere più di tre (quattro) condizioni in un modello. Un esempio potrebbe essere il verificarsi di risonanza ad un certo valore di capacità e induttanza di un circuito elettrico; la manifestazione di una reazione chimica con un certo insieme di elementi da cui è costruito il sistema; il verificarsi di effetti anomali in sistemi complessi in una certa coincidenza di circostanze. La presenza di interazione può cambiare radicalmente il modello del sistema e talvolta portare a ripensare la natura dei fenomeni con cui lo sperimentatore ha a che fare.

Analisi multivariata della varianza con esperimenti ripetuti

Molto spesso i dati di misurazione possono essere raggruppati non per due, ma per un numero maggiore di fattori. Pertanto, se consideriamo l'analisi della dispersione della durata di servizio dei pneumatici delle ruote dei filobus tenendo conto delle circostanze (lo stabilimento di produzione e il percorso su cui vengono utilizzati i pneumatici), allora possiamo individuare come condizione separata la stagione durante la quale i pneumatici vengono utilizzati vengono utilizzati gli pneumatici (vale a dire: funzionamento invernale ed estivo). Di conseguenza, avremo un problema con il metodo a tre fattori.

Se ci sono più condizioni, l’approccio è lo stesso dell’analisi a due fattori. In tutti i casi, cercano di semplificare il modello. Il fenomeno dell'interazione di due fattori non si verifica così spesso e la tripla interazione si verifica solo in casi eccezionali. Includere quelle interazioni per le quali esistono informazioni precedenti e buone ragioni per tenerne conto nel modello. Il processo di identificazione dei singoli fattori e di presa in considerazione è relativamente semplice. Pertanto, spesso c'è il desiderio di evidenziare più circostanze. Non dovresti lasciarti trasportare da questo. Maggiore è il numero delle condizioni, meno affidabile diventa il modello e maggiore è la probabilità di errore. Il modello stesso, che comprende un gran numero di variabili indipendenti, diventa piuttosto complesso da interpretare e scomodo per l’uso pratico.

Idea generale dell'analisi della varianza

L'analisi della varianza nelle statistiche è un metodo per ottenere risultati osservativi dipendenti da varie circostanze operative simultanee e valutarne l'influenza. Una variabile controllata che corrisponde al metodo di influenza sull'oggetto di studio e acquisisce un certo valore in un certo periodo di tempo è chiamata fattore. Possono essere qualitativi e quantitativi. I livelli delle condizioni quantitative acquisiscono un certo significato su scala numerica. Esempi sono la temperatura, la pressione di pressione, la quantità di sostanza. I fattori qualitativi sono sostanze diverse, metodi tecnologici diversi, dispositivi, riempitivi. I loro livelli corrispondono a una scala di nomi.

La qualità può includere anche il tipo di materiale di imballaggio e le condizioni di conservazione della forma di dosaggio. È anche razionale includere il grado di macinazione delle materie prime, la composizione frazionaria dei granuli, che hanno un significato quantitativo, ma sono difficili da regolare se si utilizza una scala quantitativa. Il numero di fattori qualitativi dipende dal tipo di forma di dosaggio, nonché dalle proprietà fisiche e tecnologiche delle sostanze medicinali. Ad esempio, le compresse possono essere ottenute da sostanze cristalline mediante compressione diretta. In questo caso è sufficiente selezionare sostanze scorrevoli e lubrificanti.

Esempi di fattori di qualità per diversi tipi di forme di dosaggio

  • Tinture. Composizione dell'estrattore, tipo di estrattore, metodo di preparazione della materia prima, metodo di produzione, metodo di filtrazione.
  • Estratti (liquidi, densi, secchi). Composizione dell'estraente, metodo di estrazione, tipo di installazione, modalità di rimozione delle sostanze estraenti e zavorra.
  • Pillole. Composizione di eccipienti, riempitivi, disintegranti, leganti, lubrificanti e lubrificanti. Metodo per ottenere compresse, tipo di attrezzatura tecnologica. Tipologia di guscio e suoi componenti, filmogeni, pigmenti, coloranti, plastificanti, solventi.
  • Soluzioni di iniezione. Tipo di solvente, metodo di filtrazione, natura degli stabilizzanti e dei conservanti, condizioni di sterilizzazione, metodo di riempimento delle fiale.
  • Supposte. Composizione della base della supposta, metodo di produzione delle supposte, riempitivi, imballaggio.
  • Unguenti. Composizione della base, componenti strutturali, metodo di preparazione dell'unguento, tipo di attrezzatura, confezionamento.
  • Capsule. Tipo di materiale del guscio, metodo di produzione delle capsule, tipo di plastificante, conservante, colorante.
  • Linini. Metodo di preparazione, composizione, tipo di attrezzatura, tipo di emulsionante.
  • Sospensioni. Tipo di solvente, tipo di stabilizzante, metodo di dispersione.

Esempi di fattori di qualità e relativi livelli studiati durante il processo di produzione delle compresse

  • Lievito in polvere. Fecola di patate, argilla bianca, una miscela di bicarbonato di sodio con acido citrico, carbonato basico di magnesio.
  • Soluzione vincolante. Acqua, pasta di amido, sciroppo di zucchero, soluzione di metilcellulosa, soluzione di idrossipropilmetilcellulosa, soluzione di polivinilpirrolidone, soluzione di alcol polivinilico.
  • Sostanza scorrevole. Aerosil, amido, talco.
  • Riempitivo. Zucchero, glucosio, lattosio, cloruro di sodio, fosfato di calcio.
  • Lubrificante. Acido stearico, polietilenglicole, paraffina.

Modelli di analisi della varianza nello studio del livello di competitività statale

Uno dei criteri più importanti per valutare lo stato di uno stato, in base al quale viene valutato il livello del suo benessere e sviluppo socio-economico, è la competitività, cioè un insieme di proprietà inerenti all'economia nazionale che determinano lo stato capacità di competere con altri paesi. Dopo aver determinato la posizione e il ruolo dello Stato nel mercato mondiale, è possibile stabilire una strategia chiara per garantire la sicurezza economica su scala internazionale, perché questa è la chiave per relazioni positive tra la Russia e tutti gli attori del mercato mondiale: gli investitori , creditori e governi.

Per confrontare il livello di competitività degli Stati, i paesi vengono classificati utilizzando indici complessi che includono vari indicatori ponderati. Questi indici si basano su fattori chiave che influenzano la situazione economica, politica, ecc. Una serie di modelli per lo studio della competitività statale prevede l'uso di metodi di analisi statistica multivariata (in particolare, analisi della varianza (statistica), modellazione econometrica, processo decisionale) e comprende le seguenti fasi principali:

  1. Formazione di un sistema di indicatori.
  2. Valutazione e previsione degli indicatori di competitività statale.
  3. Confronto degli indicatori della competitività degli Stati.

Consideriamo ora il contenuto dei modelli di ciascuna delle fasi di questo complesso.

Nella prima fase utilizzando metodi di studio di esperti, si forma una serie fondata di indicatori economici per valutare la competitività dello stato, tenendo conto delle specificità del suo sviluppo sulla base di valutazioni internazionali e dati dei dipartimenti statistici, che riflettono lo stato del sistema nel suo insieme e i suoi processi. La scelta di questi indicatori è giustificata dalla necessità di selezionare quelli che più pienamente, da un punto di vista pratico, ci consentono di determinare il livello dello Stato, la sua attrattiva per gli investimenti e la possibilità di localizzazione relativa delle minacce potenziali e reali esistenti.

I principali indicatori dei sistemi di rating internazionali sono gli indici:

  1. Competitività Globale (GC).
  2. Libertà economica (IES).
  3. Sviluppo Umano (ISU).
  4. Percezione di corruzione (CPC).
  5. Minacce interne ed esterne (IETH).
  6. Potenziale di influenza internazionale (IPIP).

Seconda fase prevede la valutazione e la previsione degli indicatori di competitività statale secondo i rating internazionali per i 139 paesi del mondo oggetto di studio.

Terza fase prevede un confronto delle condizioni di competitività degli Stati mediante metodi di analisi di correlazione e di regressione.

Utilizzando i risultati dello studio, è possibile determinare la natura dei processi in generale e per le singole componenti della competitività dello Stato; testare l'ipotesi sull'influenza dei fattori e sulle loro relazioni al livello di significatività appropriato.

L'implementazione della serie di modelli proposti consentirà non solo di valutare la situazione attuale del livello di competitività e di attrattiva degli investimenti degli Stati, ma anche di analizzare le carenze gestionali, prevenire errori derivanti da decisioni sbagliate e prevenire lo sviluppo di una crisi nel stato.

Analisi della varianza

1. Concetto di analisi della varianza

Analisi della varianzaè un'analisi della variabilità di un tratto sotto l'influenza di qualsiasi fattore variabile controllato. Nella letteratura straniera l'analisi della varianza viene spesso definita ANOVA, che viene tradotta come analisi della variabilità (Analysis of Variance).

Problema dell'ANOVA consiste nell’isolare la variabilità di tipo diverso dalla variabilità generale di un tratto:

a) variabilità dovuta all'azione di ciascuna delle variabili indipendenti oggetto di studio;

b) variabilità dovuta all'interazione delle variabili indipendenti oggetto di studio;

c) variabilità casuale dovuta a tutte le altre variabili sconosciute.

La variabilità dovuta all'azione delle variabili oggetto di studio e la loro interazione è correlata alla variabilità casuale. Un indicatore di questa relazione è il test F di Fisher.

La formula per il calcolo del criterio F include stime delle varianze, cioè dei parametri di distribuzione dell'attributo, quindi il criterio F è un criterio parametrico.

Quanto più la variabilità di un tratto è dovuta alle variabili (fattori) oggetto di studio o alla loro interazione, tanto maggiore valori dei criteri empirici.

Zero l'ipotesi nell'analisi della varianza affermerà che i valori medi della caratteristica effettiva studiata sono gli stessi in tutte le gradazioni.

Alternativa l'ipotesi affermerà che i valori medi della caratteristica risultante in diverse gradazioni del fattore in studio sono diversi.

L'analisi della varianza ci consente di affermare un cambiamento in una caratteristica, ma non lo indica direzione questi cambiamenti.

Cominciamo la nostra considerazione dell'analisi della varianza con il caso più semplice, quando studiamo l'azione di only uno variabile (un fattore).

2. Analisi della varianza unidirezionale per campioni non correlati

2.1. Scopo del metodo

Il metodo dell'analisi della varianza a un fattore viene utilizzato nei casi in cui i cambiamenti in una caratteristica efficace vengono studiati sotto l'influenza di condizioni mutevoli o gradazioni di un fattore. In questa versione del metodo, l'influenza di ciascuna delle gradazioni del fattore è diverso campioni di soggetti. Devono esserci almeno tre gradazioni del fattore. (Possono esserci due gradazioni, ma in questo caso non saremo in grado di stabilire dipendenze non lineari e sembra più ragionevole usarne di più semplici).

Una versione non parametrica di questo tipo di analisi è il test H di Kruskal-Wallis.

Ipotesi

H 0: le differenze tra i gradi dei fattori (condizioni diverse) non sono maggiori delle differenze casuali all'interno di ciascun gruppo.

H 1: le differenze tra i gradi dei fattori (condizioni diverse) sono maggiori delle differenze casuali all'interno di ciascun gruppo.

2.2. Limitazioni dell'analisi unidirezionale della varianza per campioni non correlati

1. L'analisi della varianza unidirezionale richiede almeno tre gradazioni del fattore e almeno due soggetti in ciascuna gradazione.

2. La caratteristica risultante deve essere distribuita normalmente nel campione in esame.

È vero, di solito non è indicato se stiamo parlando della distribuzione della caratteristica nell'intero campione esaminato o in quella parte di esso che costituisce il complesso di dispersione.

3. Un esempio di risoluzione di un problema utilizzando il metodo dell'analisi della varianza unidirezionale per campioni non correlati utilizzando l'esempio:

A tre diversi gruppi di sei soggetti sono stati forniti elenchi di dieci parole. Le parole sono state presentate al primo gruppo a bassa velocità - 1 parola ogni 5 secondi, al secondo gruppo a velocità media - 1 parola ogni 2 secondi e al terzo gruppo ad alta velocità - 1 parola al secondo. Si prevedeva che le prestazioni di riproduzione dipendessero dalla velocità di presentazione delle parole. I risultati sono presentati nella tabella. 1.

Numero di parole riprodotte Tabella 1

Soggetto n.

bassa velocità

velocità media

ad alta velocità

importo totale

H 0: Differenze nell'intervallo di produzione delle parole fra i gruppi non sono più pronunciati delle differenze casuali dentro ciascun gruppo.

H1: Differenze nel volume di produzione di parole fra i gruppi sono più pronunciati delle differenze casuali dentro ciascun gruppo. Utilizzando i valori sperimentali presentati in Tabella. 1, stabiliremo alcuni valori che saranno necessari per calcolare il criterio F.

Il calcolo delle principali quantità per l'analisi della varianza unidirezionale è presentato nella tabella:

Tavolo 2

Tabella 3

Sequenza di operazioni nell'analisi della varianza unidirezionale per campioni non correlati

Spesso presente in questa tabella e in quelle successive, la designazione SS è un'abbreviazione di "somma dei quadrati". Questa abbreviazione viene utilizzata più spesso nelle fonti tradotte.

SS fatto si intende la variabilità della caratteristica dovuta all'azione del fattore oggetto di studio;

SS generalmente- variabilità generale del tratto;

S CIRCA.-variabilità dovuta a fattori non contabilizzati, variabilità “casuale” o “residua”.

SM- “media quadrata”, ovvero l'aspettativa matematica della somma dei quadrati, il valore medio del corrispondente SS.

df - il numero di gradi di libertà, che, considerando criteri non parametrici, abbiamo indicato con una lettera greca v.

Conclusione: H 0 è rifiutata. H1 è accettato. Le differenze nel ricordo delle parole tra i gruppi erano maggiori delle differenze casuali all'interno di ciascun gruppo (α = 0,05). Quindi, la velocità di presentazione delle parole influisce sul volume della loro riproduzione.

Di seguito è presentato un esempio di risoluzione del problema in Excel:

Dati iniziali:

Utilizzando il comando: Strumenti->Analisi dati->ANOVA unidirezionale, otteniamo i seguenti risultati:

Le tecniche discusse sopra per testare ipotesi statistiche sulla significatività delle differenze tra due medie hanno un'applicazione limitata nella pratica. Ciò è dovuto al fatto che, al fine di identificare l'effetto di tutte le possibili condizioni e fattori su una caratteristica efficace, gli esperimenti sul campo e in laboratorio, di regola, vengono condotti utilizzando non due, ma un numero maggiore di campioni (1220 o più ).

Spesso i ricercatori confrontano le medie di diversi campioni combinati in un unico complesso. Ad esempio, quando si studia l’effetto di diversi tipi e dosi di fertilizzanti sulla resa dei raccolti, gli esperimenti vengono ripetuti in diverse versioni. In questi casi, i confronti a coppie diventano complicati e l’analisi statistica dell’intero complesso richiede l’uso di un metodo speciale. Questo metodo, sviluppato nella statistica matematica, è chiamato analisi della varianza. Fu utilizzato per la prima volta dallo statistico inglese R. Fisher durante l'elaborazione dei risultati di esperimenti agronomici (1938).

Analisi della varianzaè un metodo per valutare statisticamente l'affidabilità della manifestazione della dipendenza di una caratteristica efficace da uno o più fattori. Utilizzando il metodo dell'analisi della varianza, vengono testate ipotesi statistiche riguardanti le medie in diverse popolazioni generali che hanno una distribuzione normale.

L'analisi della varianza è uno dei principali metodi per la valutazione statistica dei risultati sperimentali. Viene inoltre sempre più utilizzato nell'analisi delle informazioni economiche. L'analisi della varianza consente di determinare in che misura gli indicatori campionari della relazione tra le caratteristiche risultanti e quelle dei fattori sono sufficienti per estendere i dati ottenuti dal campione alla popolazione generale. Il vantaggio di questo metodo è che fornisce conclusioni abbastanza affidabili da piccoli campioni.

Studiando la variazione di una caratteristica effettiva sotto l'influenza di uno o più fattori mediante l'analisi della varianza, si può ottenere, oltre alle stime generali della significatività delle dipendenze, anche una valutazione delle differenze nell'entità delle medie che si formano a diversi livelli di fattori e il significato dell’interazione dei fattori. L'analisi della varianza viene utilizzata per studiare le dipendenze delle caratteristiche sia quantitative che qualitative, nonché la loro combinazione.

L'essenza di questo metodo è lo studio statistico della probabilità dell'influenza di uno o più fattori, nonché della loro interazione sulla caratteristica risultante. Secondo questo, tre compiti principali vengono risolti utilizzando l'analisi della varianza: 1) valutazione generale del significato delle differenze tra le medie del gruppo; 2) valutare la probabilità di interazione tra fattori; 3) valutazione della significatività delle differenze tra coppie di medie. Molto spesso, i ricercatori devono risolvere tali problemi quando conducono esperimenti sul campo e zootecnici, quando viene studiata l'influenza di diversi fattori su una caratteristica efficace.

Lo schema principale dell'analisi della varianza comprende la definizione delle principali fonti di variazione della caratteristica effettiva e la determinazione del volume di variazione (somma delle deviazioni al quadrato) in base alle fonti della sua formazione; determinare il numero di gradi di libertà corrispondenti alle componenti della variazione totale; calcolare le dispersioni come rapporto tra i corrispondenti volumi di variazione e il loro numero di gradi di libertà; analisi della relazione tra varianze; valutare l’attendibilità della differenza tra le medie e trarre conclusioni.

Questo schema è preservato sia nei modelli semplici di analisi della varianza, quando i dati sono raggruppati per una caratteristica, sia nei modelli complessi, quando i dati sono raggruppati per due o più caratteristiche. Tuttavia, con l'aumento del numero delle caratteristiche del gruppo, il processo di scomposizione della variazione totale in base alle fonti della sua formazione diventa più complicato.

Secondo il diagramma di principio, l’analisi della varianza può essere rappresentata sotto forma di cinque fasi sequenziali:

1) definizione ed ampliamento della variazione;

2) determinazione del numero di gradi di libertà di variazione;

3) calcolo delle varianze e dei loro rapporti;

4) analisi degli scostamenti e delle loro relazioni;

5) valutare la significatività della differenza tra le medie e formulare conclusioni per verificare l'ipotesi nulla.

La parte più laboriosa dell'analisi della varianza è la prima fase: determinazione e scomposizione della variazione in base alle fonti della sua formazione. L'ordine di scomposizione del volume totale di variazione è stato discusso in dettaglio nel capitolo 5.

La base per risolvere i problemi dell'analisi della varianza è la legge della variazione di espansione (addizione), secondo la quale la variazione totale (fluttuazioni) dell'attributo risultante è divisa in due: la variazione causata dall'azione del fattore(i) in studio , e la variazione causata dall'azione di cause casuali, cioè

Supponiamo che la popolazione studiata sia divisa in base alle caratteristiche del fattore in più gruppi, ciascuno dei quali è caratterizzato dal proprio valore medio della caratteristica risultante. Allo stesso tempo, la variazione di questi valori può essere spiegata da due tipi di ragioni: quelle che agiscono sistematicamente sul segno effettivo e possono essere regolate durante l'esperimento, e quelle che non possono essere regolate. È ovvio che la variazione intergruppo (fattoriale o sistematica) dipende principalmente dall'azione del fattore in studio, e la variazione intragruppo (residua o casuale) dipende principalmente dall'azione di fattori casuali.

Per valutare l'affidabilità delle differenze tra le medie dei gruppi, è necessario determinare le variazioni intergruppo e intragruppo. Se la variazione intergruppo (fattoriale) supera significativamente la variazione intragruppo (residua), allora il fattore ha influenzato la caratteristica risultante, modificando significativamente i valori delle medie del gruppo. Ma sorge la domanda: quale è la relazione tra variazioni intergruppo e intragruppo che può essere considerata sufficiente per concludere sull'affidabilità (significatività) delle differenze tra le medie del gruppo.

Per valutare l'importanza delle differenze tra le medie e formulare conclusioni per verificare l'ipotesi nulla (H0:x1 = x2 =... = xn) nell'analisi della varianza, viene utilizzato un tipo di standard: il criterio G, la legge di distribuzione di che è stato stabilito da R. Fisher. Questo criterio è il rapporto tra due varianze: fattoriale, generata dall'azione del fattore in esame, e residua, dovuta all'azione di cause casuali:

Rapporto di dispersione Γ = £>u : Lo statistico americano Snedecor propose di denotare £*2 con la lettera G in onore dell'inventore dell'analisi della varianza, R. Fisher.

Le varianze °2 io2 sono stime della varianza della popolazione. Se i campioni con varianze °2 °2 provengono dalla stessa popolazione generale, dove la variazione dei valori era casuale, allora anche la discrepanza nei valori °2 °2 è casuale.

Se un esperimento verifica simultaneamente l'influenza di diversi fattori (A, B, C, ecc.) su un tratto efficace, allora la varianza dovuta all'azione di ciascuno di essi dovrebbe essere paragonabile a °e.gP, questo è

Se il valore della dispersione del fattore è significativamente maggiore del residuo, allora il fattore ha influenzato in modo significativo l'attributo risultante e viceversa.

Negli esperimenti multifattoriali, oltre alla variazione dovuta all'azione di ciascun fattore, c'è quasi sempre una variazione dovuta all'interazione dei fattori ($ав: ^лс ^вс $ліс). L'essenza dell'interazione è che l'effetto di un fattore cambia significativamente a diversi livelli del secondo (ad esempio, l'efficacia della qualità del suolo a diverse dosi di fertilizzanti).

L'interazione dei fattori dovrebbe essere valutata anche confrontando le varianze corrispondenti 3 ^v.gr:

Quando si calcola il valore effettivo del criterio B, al numeratore viene presa la maggiore delle varianze, quindi B > 1. Ovviamente, maggiore è il criterio B, più significative sono le differenze tra le varianze. Se B = 1, allora la questione di valutare la significatività delle differenze nelle varianze viene eliminata.

Per determinare i limiti delle fluttuazioni casuali nel rapporto delle dispersioni, G. Fischer ha sviluppato speciali tabelle di distribuzione B (Appendici 4 e 5). Il criterio sarebbe funzionalmente correlato alla probabilità e dipenderebbe dal numero di gradi di libertà di variazione k1 e k2 delle due varianze confrontate. Solitamente vengono utilizzate due tabelle per trarre conclusioni sul valore estremamente elevato del criterio per i livelli di significatività di 0,05 e 0,01. Un livello di significatività pari a 0,05 (o 5%) significa che solo in 5 casi su 100 il criterio B può assumere un valore pari o superiore a quello indicato in tabella. Riducendo il livello di significatività da 0,05 a 0,01 si ottiene un aumento del valore del criterio tra due varianze per effetto di ragioni esclusivamente casuali.

Il valore del criterio dipende anche direttamente dal numero di gradi di libertà delle due dispersioni confrontate. Se il numero dei gradi di libertà tende all'infinito (k-me), allora il rapporto B per due dispersioni tende all'unità.

Il valore tabulato del criterio B mostra il possibile valore casuale del rapporto tra due varianze a un dato livello di significatività e il corrispondente numero di gradi di libertà per ciascuna delle varianze confrontate. Le tabelle indicate mostrano il valore di B per campioni realizzati dalla stessa popolazione generale, dove le ragioni delle variazioni dei valori sono solo casuali.

Il valore di Γ si ricava dalle tabelle (Appendici 4 e 5) all'intersezione della colonna corrispondente (il numero di gradi di libertà per maggiore dispersione - k1) e la riga (il numero di gradi di libertà per minore dispersione - k2 ). Quindi, se la varianza maggiore (numeratore Ã) è k1 = 4, e la varianza minore (denominatore Ã) è k2 = 9, allora à al livello di significatività а = 0,05 sarà 3,63 (Appendice 4). Pertanto, a causa di cause casuali, poiché i campioni sono piccoli, la varianza di un campione può, con un livello di significatività del 5%, superare la varianza del secondo campione di 3,63 volte. Quando il livello di significatività diminuisce da 0,05 a 0,01, il valore tabellare del criterio G, come notato sopra, aumenterà. Pertanto, con gli stessi gradi di libertà k1 = 4 e k2 = 9 e a = 0,01, il valore tabulato del criterio G sarà 6,99 (Appendice 5).

Consideriamo la procedura per determinare il numero di gradi di libertà nell'analisi della varianza. Il numero di gradi di libertà, che corrisponde alla somma totale delle deviazioni quadrate, viene scomposto nelle componenti corrispondenti in modo simile alla scomposizione delle somme delle deviazioni quadrate (^totale = No^gr + ]¥vhr), cioè il il numero totale di gradi di libertà (k") viene scomposto nel numero di gradi di libertà per le variazioni intergruppo (k1) e intragruppo (k2).

Pertanto, se una popolazione campione composta da N osservazioni divise per T gruppi (numero di opzioni sperimentali) e P sottogruppi (numero di ripetizioni), allora il numero di gradi di libertà k sarà conseguentemente:

a) per la somma totale delle deviazioni quadrate (s7zag)

b) per la somma intergruppo dei quadrati degli scostamenti ^m.gP)

c) per la somma infragruppo degli scostamenti quadratici V v.gR)

Secondo la regola per l'aggiunta di varianti:

Ad esempio, se in un esperimento si formassero quattro varianti dell'esperimento (t = 4) in cinque ripetizioni ciascuna (n = 5), e il numero totale di osservazioni è N = = T o p = 4 * 5 = 20, allora il numero di gradi di libertà è corrispondentemente pari a:

Conoscendo la somma delle deviazioni quadrate e il numero di gradi di libertà, possiamo determinare stime imparziali (corrette) per tre varianze:

L’ipotesi nulla H0 viene verificata utilizzando il criterio B allo stesso modo del test t di Student. Per prendere una decisione sul controllo di H0, è necessario calcolare il valore effettivo del criterio e confrontarlo con il valore tabulato Ba per il livello di significatività accettato a e il numero di gradi di libertà k1 e k2 per due dispersioni.

Se Bfaq > Ba, allora, in accordo con il livello di significatività accettato, possiamo concludere che le differenze nelle varianze campionarie sono determinate non solo da fattori casuali; sono significativi. In questo caso l'ipotesi nulla viene rifiutata e c'è motivo di affermare che il fattore influenza in modo significativo la caratteristica risultante. Se< Ба, то нулевую гипотезу принимают и есть основание утверждать, что различия между сравниваемыми дисперсиями находятся в границах возможных случайных колебаний: действие фактора на результативный признак не является существенным.

L'utilizzo di un particolare modello di analisi della varianza dipende sia dal numero di fattori studiati che dal metodo di campionamento.

c A seconda del numero di fattori che determinano la variazione della caratteristica risultante, i campioni possono essere formati secondo uno, due o più fattori. In base a ciò, l’analisi della varianza è divisa in monofattoriale e multifattoriale. Altrimenti, è anche chiamato complesso di dispersione a fattore singolo e multifattore.

Lo schema di scomposizione della variazione totale dipende dalla formazione dei gruppi. Può essere casuale (le osservazioni di un gruppo non sono correlate alle osservazioni del secondo gruppo) e non casuale (le osservazioni di due campioni sono correlate tra loro dalle condizioni sperimentali comuni). Di conseguenza si ottengono campioni indipendenti e dipendenti. È possibile formare campioni indipendenti con numeri sia uguali che dispari. La formazione di campioni dipendenti assume la loro uguale dimensione.

Se i gruppi sono formati in ordine casuale, il volume totale di variazione del tratto risultante comprende, oltre alla variazione fattoriale (intergruppo) e residua, la variazione delle ripetizioni, cioè

In pratica, nella maggior parte dei casi è necessario considerare i campioni dipendenti quando le condizioni per gruppi e sottogruppi sono equalizzate. Così, in un esperimento sul campo, l'intero sito viene suddiviso in blocchi, con le condizioni più diverse. In questo caso, ciascuna variante dell'esperimento riceve pari opportunità di essere rappresentata in tutti i blocchi, equalizzando così le condizioni per tutte le varianti testate dell'esperimento. Questo metodo di costruzione di un esperimento è chiamato metodo del blocco randomizzato. Gli esperimenti con gli animali vengono condotti in modo simile.

Quando si elaborano dati socioeconomici utilizzando il metodo dell'analisi della varianza, è necessario tenere presente che, a causa dell'elevato numero di fattori e della loro interrelazione, è difficile, anche con il livellamento più accurato delle condizioni, stabilire il grado di oggettività influenza di ogni singolo fattore sulla caratteristica risultante. Pertanto, il livello di variazione residua è determinato non solo da cause casuali, ma anche da fattori significativi che non sono stati presi in considerazione nella costruzione del modello di analisi della varianza. Di conseguenza, la varianza residua come base di confronto diventa talvolta inadeguata al suo scopo; è chiaramente sovrastimata in valore e non può fungere da criterio per l'importanza dell'influenza dei fattori. A questo proposito, quando si costruiscono modelli di analisi della varianza, diventa rilevante il problema di selezionare i fattori più importanti e di livellare le condizioni per la manifestazione dell'azione di ciascuno di essi. Oltretutto. l'uso dell'analisi della varianza presuppone una distribuzione normale o prossima alla normale delle popolazioni statistiche oggetto di studio. Se questa condizione non viene soddisfatta, le stime ottenute nell'analisi della varianza risulteranno esagerate.

Una persona può riconoscere le sue capacità solo cercando di applicarle. (Seneca)

Analisi della varianza

Panoramica introduttiva

In questa sezione esamineremo i metodi di base, i presupposti e la terminologia di ANOVA.

Si noti che nella letteratura in lingua inglese l'analisi della varianza è solitamente chiamata analisi della variazione. Pertanto, per brevità, di seguito utilizzeremo talvolta il termine ANOVA (UN analisi o F va riazione) per l'ANOVA ordinaria e il termine MANOVA per l’analisi multivariata della varianza. In questa sezione esamineremo in sequenza le principali idee di analisi della varianza ( ANOVA), analisi della covarianza ( ANCOVA), analisi multivariata della varianza ( MANOVA) e analisi multivariata della covarianza ( MANCOVA). Dopo una breve discussione sui meriti dell'analisi di contrasto e dei test post hoc, diamo un'occhiata ai presupposti su cui si basano i metodi ANOVA. Verso la fine di questa sezione vengono spiegati i vantaggi di un approccio multivariato per l’analisi di misure ripetute rispetto al tradizionale approccio univariato.

Idee chiave

Scopo dell'analisi della varianza. Lo scopo principale dell’analisi della varianza è esaminare il significato delle differenze tra le medie. Capitolo (Capitolo 8) fornisce una breve introduzione allo studio della significatività statistica. Se si confrontano semplicemente le medie di due campioni, l'analisi della varianza darà lo stesso risultato dell'analisi ordinaria. T- test per campioni indipendenti (se vengono confrontati due gruppi indipendenti di oggetti o osservazioni) o T- criterio per campioni dipendenti (se due variabili vengono confrontate sullo stesso insieme di oggetti o osservazioni). Se non hai familiarità con questi criteri, ti consigliamo di fare riferimento alla panoramica del capitolo introduttivo (Capitolo 9).

Da dove viene il nome Analisi della varianza? Può sembrare strano che la procedura per confrontare le medie si chiami analisi della varianza. In realtà, questo accade perché quando esaminiamo la significatività statistica delle differenze tra le medie, in realtà stiamo analizzando le varianze.

Partizionamento della somma dei quadrati

Per una dimensione campionaria n, la varianza campionaria viene calcolata come la somma dei quadrati delle deviazioni dalla media campionaria divisa per n-1 (dimensione campionaria meno uno). Pertanto, per una dimensione campionaria fissa n, la varianza è una funzione della somma dei quadrati (deviazioni), denotata, per brevità, SS(dall'inglese Somma dei quadrati – Somma dei quadrati). La base dell'analisi della varianza è la separazione (o partizionamento) della varianza in parti. Considera il seguente set di dati:

Le medie dei due gruppi sono significativamente diverse (2 e 6, rispettivamente). Somma delle deviazioni quadrate dentro ogni gruppo è uguale a 2. Sommandoli otteniamo 4. Se ora ripetiamo questi calcoli escluso appartenenza al gruppo, cioè, se calcoliamo SS basandosi sulla media complessiva dei due campioni, otteniamo 28. In altre parole, la varianza (somma dei quadrati) basata sulla variabilità intragruppo dà come risultato valori molto più piccoli rispetto a quando calcolata sulla base della variabilità complessiva (rispetto alla media complessiva dei due campioni). media complessiva). La ragione di ciò è ovviamente una differenza significativa tra le medie, e questa differenza tra le medie spiega la differenza esistente tra le somme dei quadrati. Infatti, se si utilizza il modulo per analizzare i dati forniti Analisi della varianza, si otterranno i seguenti risultati:

Come si può vedere dalla tabella, la somma totale dei quadrati SS=28 è diviso per la somma dei quadrati dati da intragruppo variabilità ( 2+2=4 ; vedere la seconda riga della tabella) e la somma dei quadrati dovuta alla differenza dei valori medi. (28-(2+2)=24; vedi prima riga della tabella).

SS errori eSS effetto. Variabilità all'interno del gruppo ( SS) è solitamente chiamata dispersione errori. Ciò significa che di solito non può essere previsto o spiegato quando viene eseguito un esperimento. Dall'altro lato, SS effetto(o variabilità tra gruppi) può essere spiegata dalle differenze tra le medie dei gruppi di studio. In altre parole, appartenere a un certo gruppo spiega variabilità intergruppo, perché sappiamo che questi gruppi hanno mezzi diversi.

Controllo di significatività. Le idee di base dei test di significatività statistica sono discusse nel capitolo Concetti base di statistica(Capitolo 8). Questo capitolo spiega anche le ragioni per cui molti test utilizzano il rapporto tra varianza spiegata e non spiegata. Un esempio di questo utilizzo è l'analisi della varianza stessa. Il test di significatività nell'ANOVA si basa sul confronto della varianza dovuta alla varianza tra gruppi (chiamata effetto quadrato medio O SMEffetto) e la varianza dovuta alla variazione all'interno del gruppo (chiamata errore quadratico medio O SMerrore). Se l’ipotesi nulla (uguaglianza delle medie nelle due popolazioni) è vera, allora ci si aspetterebbe una differenza relativamente piccola nelle medie campionarie a causa della variazione casuale. Pertanto, nell’ipotesi nulla, la varianza intragruppo coinciderà praticamente con la varianza totale calcolata senza tenere conto dell’appartenenza al gruppo. Le risultanti varianze all'interno del gruppo possono essere confrontate utilizzando F- test che verifica se il rapporto di varianza è significativamente maggiore di 1. Nell'esempio discusso sopra F- il criterio mostra che la differenza tra le medie è statisticamente significativa.

Logica di base dell'analisi della varianza. Per riassumere, lo scopo dell'ANOVA è testare la significatività statistica della differenza tra medie (per gruppi o variabili). Questo controllo viene effettuato utilizzando l’analisi della varianza, ovvero dividendo la varianza totale (variazione) in parti, una delle quali è dovuta a un errore casuale (cioè variabilità intragruppo) e la seconda è associata a differenze nei valori medi. L'ultima componente della varianza viene quindi utilizzata per analizzare la significatività statistica della differenza tra le medie. Se la differenza è significativa si rifiuta l’ipotesi nulla e si accetta l’ipotesi alternativa che esista una differenza tra le medie.

Variabili dipendenti e indipendenti. Vengono chiamate variabili i cui valori sono determinati dalle misurazioni durante un esperimento (ad esempio, il punteggio di un test). dipendente variabili. Le variabili che possono essere controllate in un esperimento (ad esempio, metodi di insegnamento o altri criteri per dividere le osservazioni in gruppi) sono chiamate fattori O indipendente variabili. Questi concetti sono descritti più dettagliatamente nel capitolo Concetti base di statistica(Capitolo 8).

Analisi multivariata della varianza

Nel semplice esempio riportato sopra, è possibile calcolare immediatamente il test t dei campioni indipendenti utilizzando l'opzione del modulo appropriata Statistiche e tabelle di base. I risultati ottenuti coincideranno naturalmente con i risultati dell'analisi della varianza. Tuttavia, ANOVA contiene tecniche flessibili e potenti che possono essere utilizzate per studi molto più complessi.

Molti fattori. Il mondo è di natura complessa e multidimensionale. Le situazioni in cui un determinato fenomeno è completamente descritto da una variabile sono estremamente rare. Ad esempio, se stiamo cercando di imparare a coltivare pomodori di grandi dimensioni, dovremmo considerare fattori legati alla struttura genetica della pianta, al tipo di terreno, alla luce, alla temperatura, ecc. Pertanto, quando si conduce un tipico esperimento, è necessario affrontare un gran numero di fattori. Il motivo principale per cui è preferibile utilizzare ANOVA rispetto ai confronti ripetuti di due campioni a diversi livelli di fattore T- Il criterio è che l'analisi della varianza è maggiore efficace e, per campioni piccoli, più informativi.

Gestione dei fattori. Supponiamo che nell'esempio di analisi a due campioni discusso sopra, aggiungiamo un altro fattore, ad es. Pavimento- Genere. Lascia che ogni gruppo sia composto da 3 uomini e 3 donne. Il progetto di questo esperimento può essere presentato sotto forma di tabella 2 per 2:

Sperimentare. Gruppo 1 Sperimentare. Gruppo 2
Uomini2 6
3 7
1 5
Media2 6
Donne4 8
5 9
3 7
Media4 8

Prima di fare i calcoli, puoi notare che in questo esempio la varianza totale ha almeno tre fonti:

(1) errore casuale (all'interno della varianza del gruppo),

(2) variabilità associata all'appartenenza al gruppo sperimentale e

(3) variabilità dovuta al genere degli oggetti di osservazione.

(Si noti che esiste un'altra possibile fonte di variabilità: interazione di fattori, di cui parleremo più avanti). Cosa succede se non includiamo pavimentogenere come fattore nell'analisi e calcolare il solito T-criterio? Se calcoliamo le somme dei quadrati, ignorando pavimento -genere(cioè, combinando oggetti di sesso diverso in un unico gruppo quando si calcola la varianza all'interno del gruppo, ottenendo così una somma di quadrati per ciascun gruppo pari a SS=10 e la somma totale dei quadrati SS= 10+10 = 20), allora otteniamo un valore maggiore della varianza intragruppo rispetto a un'analisi più accurata con ulteriore divisione in sottogruppi secondo semi- genere(in questo caso, le medie all'interno del gruppo saranno pari a 2 e la somma totale dei quadrati all'interno del gruppo sarà pari a SS = 2+2+2+2 = 8). Questa differenza è dovuta al fatto che il valore medio di uomini - maschi inferiore alla media per donne -femmina, e questa differenza nelle medie aumenta la variabilità complessiva all'interno del gruppo quando il sesso non viene preso in considerazione. Il controllo della varianza dell'errore aumenta la sensibilità (potenza) del test.

Questo esempio mostra un altro vantaggio dell'analisi della varianza rispetto a quella convenzionale T- criterio per due campioni. L'analisi della varianza consente di studiare ciascun fattore controllando i valori dei restanti fattori. Questa è, infatti, la ragione principale del suo maggiore potere statistico (sono necessarie dimensioni del campione più piccole per ottenere risultati significativi). Per questo motivo l'analisi della varianza, anche su campioni piccoli, dà risultati statisticamente più significativi di quelli semplici T- criterio.

Effetti di interazione

C'è un altro vantaggio nell'utilizzare l'analisi della varianza rispetto a quella convenzionale T- criterio: l'analisi della varianza ci consente di rilevare interazione tra fattori e consente quindi lo studio di modelli più complessi. Per illustrare, consideriamo un altro esempio.

Effetti principali, interazioni a coppie (a due fattori). Supponiamo che ci siano due gruppi di studenti e che, psicologicamente, gli studenti del primo gruppo siano determinati a portare a termine i compiti assegnati e siano più propositivi rispetto agli studenti del secondo gruppo, composto da studenti più pigri. Dividiamo casualmente ciascun gruppo a metà e diamo a metà di ciascun gruppo un compito difficile e all'altra metà facile. Misureremo quindi quanto duramente gli studenti lavorano su questi compiti. Le medie per questo studio (fittizio) sono mostrate nella tabella:

Quale conclusione si può trarre da questi risultati? Possiamo concludere che: (1) gli studenti lavorano più intensamente su un compito complesso; (2) Gli studenti motivati ​​lavorano più duramente degli studenti pigri? Nessuna di queste affermazioni coglie l'essenza della natura sistematica dei mezzi riportati nella tabella. Analizzando i risultati, sarebbe più corretto dire che solo gli studenti motivati ​​lavorano di più nei compiti difficili, mentre solo gli studenti pigri lavorano di più nei compiti facili. In altre parole, il carattere degli studenti e la difficoltà del compito interagendo influenzarsi a vicenda sullo sforzo compiuto. Questo è un esempio interazione di coppia tra il carattere degli studenti e la difficoltà del compito. Si noti che le affermazioni 1 e 2 descrivono effetti principali.

Interazioni di ordine superiore. Mentre le interazioni a coppie sono ancora relativamente facili da spiegare, le interazioni di ordine superiore sono molto più difficili da spiegare. Immaginiamo che nell'esempio considerato sopra venga introdotto un altro fattore pavimento -Genere e abbiamo ottenuto la seguente tabella delle medie:

Quali conclusioni si possono trarre ora dai risultati ottenuti? Le trame medie facilitano l'interpretazione degli effetti complessi. Il modulo ANOVA ti consente di costruire questi grafici con quasi un clic del mouse.

L'immagine nei grafici seguenti rappresenta l'interazione a tre fattori studiata.

Osservando i grafici possiamo dire che per le donne esiste un'interazione tra personalità e difficoltà del test: le donne motivate lavorano di più su un compito difficile che su uno facile. Per gli uomini la stessa interazione è invertita. Si può vedere che la descrizione dell'interazione tra i fattori diventa più confusa.

Un modo generale per descrivere le interazioni. In generale, l’interazione tra fattori è descritta come un cambiamento di un effetto sotto l’influenza di un altro. Nell’esempio discusso sopra, l’interazione a due fattori può essere descritta come un cambiamento nell’effetto principale del fattore che caratterizza la difficoltà del compito sotto l’influenza del fattore che descrive il carattere dello studente. Per l'interazione dei tre fattori del paragrafo precedente, possiamo dire che l'interazione di due fattori (la complessità del compito e il carattere dello studente) cambia sotto l'influenza genereGenere. Se si studia l'interazione di quattro fattori, possiamo dire che l'interazione dei tre fattori cambia sotto l'influenza del quarto fattore, cioè Esistono diversi tipi di interazioni a diversi livelli del quarto fattore. Risulta che in molti settori l’interazione di cinque o anche più fattori non è insolita.

Piani complicati

Disegni intra-gruppo e intra-gruppo (disegni a misure ripetute)

Quando si confrontano due gruppi diversi, di solito viene utilizzato T- criterio per campioni indipendenti (dal modulo Statistiche e tabelle di base). Viene utilizzato quando due variabili vengono confrontate sullo stesso insieme di oggetti (osservazioni). T-criterio per campioni dipendenti. Per l'analisi della varianza è importante anche se i campioni sono dipendenti o meno. Se ci sono misurazioni ripetute delle stesse variabili (in condizioni diverse o in tempi diversi) per gli stessi oggetti, poi parlano della presenza fattore di misure ripetute(chiamato anche fattore intragruppo, poiché la somma dei quadrati all'interno del gruppo viene calcolata per valutarne la significatività). Se si confrontano diversi gruppi di oggetti (ad esempio uomini e donne, tre ceppi di batteri, ecc.), viene descritta la differenza tra i gruppi fattore intergruppo. I metodi per calcolare i criteri di significatività per i due tipi di fattori descritti sono diversi, ma la loro logica generale e le loro interpretazioni sono le stesse.

Piani inter e infragruppo. In molti casi, l'esperimento richiede l'inclusione nel disegno sia di un fattore tra soggetti che di un fattore di misure ripetute. Ad esempio, vengono misurate le competenze matematiche degli studenti e degli studenti (dove pavimento -Genere-fattore intergruppo) all'inizio e alla fine del semestre. Le due misure delle competenze di ciascuno studente formano un fattore intragruppo (fattore di misure ripetute). L’interpretazione degli effetti principali e delle interazioni per i fattori tra soggetti e misure ripetute è coerente ed entrambi i tipi di fattori possono ovviamente interagire tra loro (ad esempio, le donne acquisiscono competenze nel corso di un semestre, mentre gli uomini le perdono).

Piani incompleti (nidificati).

In molti casi l’effetto dell’interazione può essere trascurato. Ciò si verifica quando è noto che non vi è alcun effetto di interazione nella popolazione o quando l'implementazione di un'interazione è completa fattoriale il piano è impossibile. Ad esempio, si sta studiando l'effetto di quattro additivi per carburante sul consumo di carburante. Vengono selezionate quattro vetture e quattro piloti. Pieno fattoriale l'esperimento richiede che ciascuna combinazione: additivo, conducente, automobile - compaia almeno una volta. Ciò richiede almeno 4 x 4 x 4 = 64 gruppi di test, il che richiede troppo tempo. Inoltre, è improbabile che vi sia alcuna interazione tra il conducente e l'additivo del carburante. Tenendo conto di ciò, puoi utilizzare il piano Piazze latine, che contiene solo 16 gruppi di prova (i quattro additivi sono contrassegnati dalle lettere A, B, C e D):

I quadrati latini sono descritti nella maggior parte dei libri sulla progettazione sperimentale (ad esempio, Hays, 1988; Lindman, 1974; Milliken e Johnson, 1984; Winer, 1962) e non saranno discussi in dettaglio qui. Nota che i quadrati latini lo sono NonNpieno progetti in cui non sono incluse tutte le combinazioni di livelli di fattore. Ad esempio, il conducente 1 guida l'auto 1 solo con l'additivo A, il conducente 3 guida l'auto 1 solo con l'additivo C. Livelli dei fattori additivi ( A, B, C e D) sono nidificati nelle celle della tabella automobile X autista - come le uova nei nidi. Questo mnemonico è utile per comprendere la natura annidato o annidato piani. Modulo Analisi della varianza fornisce modi semplici per analizzare questi tipi di piani.

Analisi della covarianza

idea principale

Nel capitolo Idee chiaveÈ stata brevemente discussa l'idea del controllo fattoriale e come l'inclusione di fattori additivi riduca la somma degli errori quadrati e aumenti il ​​potere statistico del progetto. Tutto ciò può essere esteso a variabili con un insieme continuo di valori. Quando tali variabili continue sono incluse come fattori in un progetto, vengono chiamate covariate.

Covariate fisse

Supponiamo di confrontare le abilità matematiche di due gruppi di studenti a cui è stato insegnato utilizzando due libri di testo diversi. Supponiamo inoltre che i dati sul quoziente intellettivo (QI) siano disponibili per ogni studente. Puoi presumere che il QI sia correlato alle abilità matematiche e utilizzare tali informazioni. Per ciascuno dei due gruppi di studenti è possibile calcolare il coefficiente di correlazione tra QI e abilità matematiche. Utilizzando questo coefficiente di correlazione, è possibile isolare la proporzione della varianza nei gruppi che è spiegata dall'influenza del QI e la proporzione inspiegata della varianza (vedi anche Concetti base di statistica(Capitolo 8) e Statistiche e tabelle di base(capitolo 9)). La parte rimanente della varianza viene utilizzata nell'analisi come varianza dell'errore. Se esiste una correlazione tra QI e abilità matematiche, la varianza dell’errore può essere ridotta in modo significativo SS/(N-1) .

Impatto delle covariate suF- criterio. F- il criterio valuta la significatività statistica della differenza nei valori medi nei gruppi e viene calcolato il rapporto della varianza intergruppo ( SMeffetto) alla varianza dell'errore ( SMerrore) . Se SMerrore diminuisce, ad esempio, se si tiene conto del fattore IQ, il valore F aumenta.

Molte covariate. Il ragionamento utilizzato sopra per una singola covariata (IQ) può essere facilmente esteso a più covariate. Ad esempio, oltre al QI, puoi includere misurazioni della motivazione, del pensiero spaziale, ecc. Al posto del consueto coefficiente di correlazione viene utilizzato un coefficiente di correlazione multipla.

Quando il valoreF -i criteri diminuiscono. A volte l'introduzione di covariate in un disegno sperimentale ne riduce la significatività F-criteri . Ciò indica tipicamente che le covariate sono correlate non solo con la variabile dipendente (ad esempio, le abilità matematiche) ma anche con i fattori (ad esempio, diversi libri di testo). Supponiamo che il QI venga misurato alla fine del semestre, dopo quasi un anno di insegnamento a due gruppi di studenti utilizzando due libri di testo diversi. Sebbene gli studenti siano stati assegnati ai gruppi in modo casuale, è possibile che le differenze tra i libri di testo siano così grandi che sia il QI che le abilità matematiche varieranno notevolmente tra i gruppi. In questo caso, le covariate non solo riducono la varianza dell’errore ma anche la varianza tra gruppi. In altre parole, dopo aver controllato le differenze nel QI tra i gruppi, le differenze nelle abilità matematiche non sono più significative. Puoi dirlo diversamente. Dopo aver “escluso” l'influenza del QI, si esclude involontariamente l'influenza del libro di testo sullo sviluppo delle abilità matematiche.

Medie corrette. Quando una covariata influenza il fattore tra soggetti, si dovrebbe calcolare mezzi adeguati, cioè. quelle medie che si ottengono dopo aver rimosso tutte le stime delle covariate.

Interazioni tra covariate e fattori. Proprio come vengono esaminate le interazioni tra fattori, è possibile esaminare le interazioni tra covariate e tra gruppi di fattori. Diciamo che uno dei libri di testo è particolarmente adatto agli studenti intelligenti. Il secondo libro di testo è noioso per gli studenti intelligenti e lo stesso libro di testo è difficile per gli studenti meno intelligenti. Di conseguenza, esiste una correlazione positiva tra QI e risultati di apprendimento nel primo gruppo (studenti più intelligenti, risultati migliori) e una correlazione nulla o leggermente negativa nel secondo gruppo (più intelligente è lo studente, meno è probabile che acquisisca competenze matematiche). dal secondo libro di testo). Alcuni studi discutono questa situazione come un esempio di violazione dei presupposti dell'analisi di covarianza. Tuttavia, poiché il modulo ANOVA utilizza i metodi più comuni di analisi della covarianza, è possibile, in particolare, valutare la significatività statistica dell'interazione tra fattori e covariate.

Covariate variabili

Mentre le covariate fisse sono discusse abbastanza spesso nei libri di testo, le covariate variabili sono menzionate molto meno frequentemente. Tipicamente, quando si conducono esperimenti con misurazioni ripetute, siamo interessati alle differenze nelle misurazioni delle stesse quantità in momenti diversi nel tempo. Siamo cioè interessati al significato di queste differenze. Se le covariate vengono misurate contemporaneamente alle misurazioni delle variabili dipendenti, è possibile calcolare la correlazione tra la covariata e la variabile dipendente.

Ad esempio, gli interessi e le abilità matematiche potrebbero essere approfonditi all'inizio e alla fine del semestre. Sarebbe interessante verificare se i cambiamenti nell’interesse per la matematica sono correlati ai cambiamenti nelle competenze matematiche.

Modulo Analisi della varianza V STATISTICA valuta automaticamente, ove possibile, la significatività statistica delle modifiche nelle covariate nei disegni.

Disegni multivariati: analisi multivariata della varianza e della covarianza

Piani intergruppo

Tutti gli esempi discussi in precedenza includevano solo una variabile dipendente. Quando sono presenti più variabili dipendenti contemporaneamente, aumenta solo la complessità dei calcoli, ma il contenuto e i principi di base non cambiano.

Ad esempio, viene condotto uno studio su due diversi libri di testo. Allo stesso tempo, viene studiato il successo degli studenti nello studio della fisica e della matematica. In questo caso ci sono due variabili dipendenti e devi scoprire come due libri di testo diversi le influenzano contemporaneamente. Per fare ciò è possibile utilizzare l’analisi multivariata della varianza (MANOVA). Invece che unidimensionale F criterio, viene utilizzato il multidimensionale F test (test di Wilks), basato sul confronto tra la matrice di covarianza degli errori e la matrice di covarianza intergruppo.

Se le variabili dipendenti sono correlate tra loro, questa correlazione dovrebbe essere presa in considerazione nel calcolo del criterio di significatività. Ovviamente, se la stessa misura viene ripetuta due volte, non si ottiene nulla di nuovo. Se una dimensione correlata viene aggiunta a una dimensione esistente, si ottengono alcune nuove informazioni, ma la nuova variabile contiene informazioni ridondanti, che si riflettono nella covarianza tra le variabili.

Interpretazione dei risultati. Se il test multivariato complessivo è significativo, possiamo concludere che l’effetto corrispondente (ad esempio, il tipo di libro di testo) è significativo. Tuttavia sorgono le seguenti domande. Il tipo di libro di testo influisce sui miglioramenti solo nelle abilità matematiche, solo nelle abilità fisiche o in entrambe le abilità? Infatti, dopo aver ottenuto un test multivariato significativo, viene esaminato un test univariato per l'effetto principale o l'interazione individuale. F criterio. In altre parole, le variabili dipendenti che contribuiscono alla significatività del test multivariato vengono esaminate separatamente.

Disegni di misure ripetute

Se le competenze di matematica e fisica degli studenti vengono misurate all'inizio e alla fine del semestre, si tratta di misurazioni ripetute. Lo studio del criterio di significatività in tali piani è uno sviluppo logico del caso unidimensionale. Si noti che le tecniche di analisi multivariata della varianza sono comunemente utilizzate anche per esaminare la significatività di fattori di misure ripetute univariate aventi più di due livelli. Le applicazioni corrispondenti verranno discusse più avanti in questa parte.

Somma dei valori delle variabili e analisi multivariata della varianza

Anche gli utenti esperti di analisi della varianza univariata e multivariata spesso trovano difficile ottenere risultati diversi quando applicano l'analisi della varianza multivariata, ad esempio, a tre variabili e quando applicano l'analisi della varianza univariata alla somma di queste tre variabili, come se erano un'unica variabile.

Idea somma variabili è che ciascuna variabile contiene una variabile vera, che viene studiata, oltre a un errore di misurazione casuale. Pertanto, quando si calcola la media dei valori delle variabili, l'errore di misurazione sarà più vicino a 0 per tutte le misurazioni e i valori medi saranno più affidabili. In effetti, in questo caso, applicare l'ANOVA alla somma delle variabili è una tecnica ragionevole e potente. Tuttavia, se le variabili dipendenti sono di natura multidimensionale, sommare i valori delle variabili è inappropriato.

Ad esempio, supponiamo che le variabili dipendenti siano costituite da quattro indicatori successo nella società. Ciascun indicatore caratterizza un aspetto del tutto indipendente dell'attività umana (ad esempio successo professionale, successo negli affari, benessere familiare, ecc.). Aggiungere queste variabili è come aggiungere mele e arance. La somma di queste variabili non sarebbe una misura unidimensionale appropriata. Pertanto, tali dati devono essere trattati come indicatori multidimensionali analisi multivariata della varianza.

Analisi di contrasto e test post hoc

Perché vengono confrontati insiemi separati di medie?

Tipicamente, le ipotesi sui dati sperimentali sono formulate non semplicemente in termini di effetti principali o interazioni. Un esempio potrebbe essere questa ipotesi: un certo libro di testo migliora le abilità matematiche solo negli studenti maschi, mentre un altro libro di testo è approssimativamente altrettanto efficace per entrambi i sessi, ma è ancora meno efficace per i maschi. Si può prevedere che l’efficacia dei libri di testo interagisce con il genere degli studenti. Tuttavia vale anche questa previsione natura interazioni. Si prevede una differenza significativa tra i sessi per gli studenti che utilizzano un libro e risultati virtualmente indipendenti per genere per gli studenti che utilizzano l’altro libro. Questo tipo di ipotesi viene solitamente esaminata utilizzando l'analisi di contrasto.

Analisi dei contrasti

In breve, l'analisi del contrasto consente di valutare la significatività statistica di alcune combinazioni lineari di effetti complessi. L'analisi del contrasto è l'elemento principale e obbligatorio di qualsiasi piano ANOVA complesso. Modulo Analisi della varianza ha una varietà di funzionalità di analisi del contrasto che consentono di isolare e analizzare qualsiasi tipo di confronto di medie.

A posteriori confronti

A volte, come risultato dell'elaborazione di un esperimento, viene scoperto un effetto inaspettato. Sebbene nella maggior parte dei casi un ricercatore creativo sia in grado di spiegare qualsiasi risultato, ciò non consente ulteriori analisi e stime per la previsione. Questo problema è uno di quelli per i quali criteri a posteriori, cioè criteri che non utilizzano a priori ipotesi. Per illustrare, considera il seguente esperimento. Supponiamo che ci siano 100 carte contenenti numeri da 1 a 10. Mettendo tutte queste carte in un'intestazione, selezioniamo casualmente 5 carte 20 volte e calcoliamo il valore medio (la media dei numeri scritti sulle carte) per ciascun campione. Ci si può aspettare che ci siano due campioni le cui medie siano significativamente diverse? Questo è molto plausibile! Selezionando due campioni con una media massima e una minima, è possibile ottenere una differenza di medie molto diversa dalla differenza di medie, ad esempio, dei primi due campioni. Questa differenza può essere esplorata, ad esempio, utilizzando l'analisi del contrasto. Senza entrare nei dettagli, ci sono diversi cosiddetti a posteriori criteri che si basano esattamente sul primo scenario (prendendo medie estreme da 20 campioni), ovvero questi criteri si basano sulla scelta delle medie più diverse per confrontare tutte le medie nel disegno. Questi criteri vengono utilizzati per garantire che un effetto artificiale non sia ottenuto per puro caso, ad esempio per rilevare una differenza significativa tra le medie quando non ce n'è. Modulo Analisi della varianza offre una vasta gamma di tali criteri. Quando si riscontrano risultati inaspettati in un esperimento che coinvolge diversi gruppi, allora a posteriori procedure per esaminare la significatività statistica dei risultati ottenuti.

Somma dei quadrati di tipo I, II, III e IV

Regressione multivariata e analisi della varianza

Esiste una stretta relazione tra il metodo di regressione multivariata e l'analisi della varianza (analisi della varianza). In entrambi i metodi viene studiato un modello lineare. In breve, quasi tutti i disegni sperimentali possono essere esaminati utilizzando la regressione multivariata. Considera il seguente semplice progetto intergruppo 2 x 2.

D.V. UN B AxB
3 1 1 1
4 1 1 1
4 1 -1 -1
5 1 -1 -1
6 -1 1 -1
6 -1 1 -1
3 -1 -1 1
2 -1 -1 1

Le colonne A e B contengono codici che caratterizzano i livelli dei fattori A e B, la colonna AxB contiene il prodotto di due colonne A e B. Possiamo analizzare questi dati utilizzando la regressione multivariata. Variabile D.V. definita come variabile dipendente, variabili da UN Prima AxB come variabili indipendenti. Lo studio della significatività per i coefficienti di regressione coinciderà con i calcoli nell'analisi della varianza della significatività dei principali effetti dei fattori UN E B ed effetto di interazione AxB.

Piani sbilanciati ed equilibrati

Quando si calcola la matrice di correlazione per tutte le variabili, come i dati sopra illustrati, si noterà che gli effetti principali dei fattori UN E B ed effetto di interazione AxB non correlato. Questa proprietà degli effetti è detta anche ortogonalità. Dicono gli effetti UN E B - ortogonale O indipendente l'uno dall'altro. Se tutti gli effetti di un piano sono ortogonali tra loro, come nell’esempio precedente, allora si dice che il piano lo sia equilibrato.

I piani bilanciati hanno una “buona proprietà”. I calcoli per l'analisi di tali piani sono molto semplici. Tutti i calcoli si riducono al calcolo della correlazione tra effetti e variabili dipendenti. Poiché gli effetti sono ortogonali, le correlazioni parziali (come nel caso completo multidimensionale regressioni) non vengono calcolati. Tuttavia, nella vita reale i piani non sono sempre equilibrati.

Consideriamo dati reali con un numero disuguale di osservazioni nelle celle.

Fattore A Fattore B
B1 B2
A1 3 4, 5
A2 6, 6, 7 2

Se codifichiamo questi dati come sopra e calcoliamo una matrice di correlazione per tutte le variabili, scopriamo che i fattori di progettazione sono correlati tra loro. I fattori di un piano non sono più ortogonali e tali vengono chiamati piani sbilanciato. Si noti che nell'esempio in esame la correlazione tra fattori è interamente dovuta alla differenza di frequenze 1 e -1 nelle colonne della matrice dei dati. In altre parole, i progetti sperimentali con volumi cellulari disuguali (più precisamente, volumi sproporzionati) saranno sbilanciati, il che significa che gli effetti principali e le interazioni saranno confusi. In questo caso, è necessario calcolare la regressione multivariata completa per calcolare la significatività statistica degli effetti. Ci sono diverse strategie qui.

Somma dei quadrati di tipo I, II, III e IV

Tipo Somma di quadratiIOEIII. Per esaminare la significatività di ciascun fattore in un modello multivariato, è possibile calcolare la correlazione parziale di ciascun fattore, a condizione che tutti gli altri fattori siano già presi in considerazione nel modello. È inoltre possibile inserire i fattori nel modello passo dopo passo, acquisendo tutti i fattori già inseriti nel modello e ignorando tutti gli altri fattori. In generale, questa è la differenza tra tipo III E tipoIO somma dei quadrati (questa terminologia è stata introdotta in SAS, vedere, ad esempio, SAS, 1982; una discussione dettagliata può essere trovata anche in Searle, 1987, p. 461; Woodward, Bonett e Brecht, 1990, p. 216; o Milliken e Johnson, 1984, p.138).

Tipo Somma di quadratiII. La successiva strategia di formazione del modello “intermedio” consiste nel: controllare tutti gli effetti principali quando si esamina la significatività di un singolo effetto principale; nel controllare tutti gli effetti principali e tutte le interazioni a coppie quando si esamina il significato di una singola interazione a coppie; nel controllare tutti gli effetti principali di tutte le interazioni a coppie e tutte le interazioni di tre fattori; quando si studia l'interazione individuale di tre fattori, ecc. Vengono chiamate le somme dei quadrati degli effetti calcolati in questo modo tipoII somma dei quadrati. COSÌ, tipoII la somma dei quadrati controlla tutti gli effetti dello stesso ordine e inferiori, ignorando tutti gli effetti di ordine superiore.

Tipo Somma di quadratiIV. Infine, per alcuni piani speciali con celle mancanti (piani incompleti), è possibile calcolare il cosiddetto tipo IV somma dei quadrati. Questo metodo verrà discusso più avanti in relazione ai disegni incompleti (disegni con celle mancanti).

Interpretazione dell'ipotesi della somma dei quadrati di tipo I, II e III

Somma dei quadrati tipoIII più facile da interpretare. Ricordiamo che le somme dei quadrati tipoIII esaminare gli effetti dopo aver controllato tutti gli altri effetti. Ad esempio, dopo aver trovato un valore statisticamente significativo tipoIII effetto per fattore UN nel modulo Analisi della varianza, possiamo dire che esiste un unico effetto significativo del fattore UN, dopo aver introdotto tutti gli altri effetti (fattori) e interpretare questo effetto di conseguenza. Probabilmente nel 99% di tutte le applicazioni ANOVA, questo è il tipo di test a cui il ricercatore è interessato. Questo tipo di somma dei quadrati viene solitamente calcolata in modulo Analisi della varianza per impostazione predefinita, indipendentemente dal fatto che l'opzione sia selezionata Approccio di regressione o meno (approcci standard adottati nel modulo Analisi della varianza discusso di seguito).

Effetti significativi ottenuti utilizzando somme di quadrati tipo O tipoII le somme dei quadrati non sono così facili da interpretare. Sono meglio interpretati nel contesto della regressione multivariata graduale. Se, quando si utilizza la somma dei quadrati tipoIO l'effetto principale del fattore B è stato significativo (dopo che il fattore A è stato incluso nel modello, ma prima che fosse aggiunta l'interazione tra A e B), possiamo concludere che esiste un effetto principale significativo del fattore B, a condizione che non vi sia interazione tra i fattori A e B. (Se si utilizza il criterio tipoIII, anche il fattore B si è rivelato significativo, allora possiamo concludere che esiste un effetto principale significativo del fattore B, dopo aver introdotto tutti gli altri fattori e le loro interazioni nel modello).

In termini di ipotesi delle medie marginali tipoIO E tipoII di solito non hanno un'interpretazione semplice. In questi casi si dice che non è possibile interpretare la significatività degli effetti guardando solo alle medie marginali. Piuttosto presentato P le medie sono legate a un'ipotesi complessa che combina medie e dimensione del campione. Per esempio, tipoII le ipotesi per il fattore A nel semplice esempio di un progetto 2 x 2 discusso in precedenza sarebbero (vedi Woodward, Bonett e Brecht, 1990, p. 219):

nij- numero di osservazioni nella cella

uij- valore medio nella cella

N. J- media marginale

Senza entrare troppo nel dettaglio (per maggiori dettagli si veda Milliken e Johnson, 1984, capitolo 10), è chiaro che non si tratta di ipotesi semplici e nella maggior parte dei casi nessuna di esse riveste particolare interesse per il ricercatore. Tuttavia, ci sono casi in cui le ipotesi tipoIO potrebbe essere interessante.

Approccio computazionale predefinito nel modulo Analisi della varianza

Predefinito se l'opzione non è selezionata Approccio di regressione, modulo Analisi della varianza usi modello della media cellulare. Caratteristica di questo modello è che le somme dei quadrati per effetti diversi vengono calcolate per combinazioni lineari di medie di celle. In un esperimento fattoriale completo, ciò si traduce in somme di quadrati identiche alle somme di quadrati discusse in precedenza come tipo III. Tuttavia, nell'opzione Confronti pianificati(nella finestra Risultati dell'ANOVA), l'utente può verificare un'ipotesi rispetto a qualsiasi combinazione lineare di medie di celle ponderate o non ponderate. Pertanto, l'utente può verificare non solo ipotesi tipoIII, ma ipotesi di qualsiasi tipo (compresi tipoIV). Questo approccio generale è particolarmente utile quando si esaminano progetti con celle mancanti (chiamati progetti incompleti).

Per i disegni fattoriali completi, questo approccio è utile anche quando si desidera analizzare le medie marginali ponderate. Ad esempio, supponiamo che nel semplice progetto 2 x 2 considerato in precedenza, dobbiamo confrontare i livelli ponderati (per livelli di fattore). B) medie marginali per il fattore A. Ciò è utile quando la distribuzione delle osservazioni tra le cellule non è stata preparata dallo sperimentatore, ma è stata costruita in modo casuale, e questa casualità si riflette nella distribuzione del numero di osservazioni tra i livelli del fattore B nel aggregato.

Ad esempio, c'è un fattore: l'età delle vedove. Il possibile campione di intervistati è suddiviso in due gruppi: sotto i 40 anni e sopra i 40 (fattore B). Il secondo fattore (Fattore A) nel piano era se le vedove ricevessero o meno sostegno sociale da qualche agenzia (alcune vedove furono selezionate in modo casuale, altre servirono da controllo). In questo caso, la distribuzione delle vedove per età nel campione riflette l’effettiva distribuzione delle vedove per età nella popolazione. Valutare l’efficacia di un gruppo di sostegno sociale per le vedove tutte le età corrisponderà a una media ponderata per due gruppi di età (con pesi corrispondenti al numero di osservazioni nel gruppo).

Confronti pianificati

Si noti che la somma dei coefficienti di contrasto inseriti non è necessariamente uguale a 0 (zero). Invece, il programma apporterà automaticamente delle modifiche per garantire che le ipotesi corrispondenti non vengano confuse con la media complessiva.

Per illustrare ciò, torniamo al semplice piano 2 x 2 discusso in precedenza. Ricordiamo che i numeri di osservazioni nelle celle di questo disegno sbilanciato sono -1, 2, 3 e 1. Supponiamo di voler confrontare le medie marginali ponderate per il fattore A (ponderate per la frequenza dei livelli del fattore B). È possibile inserire i coefficienti di contrasto:

Si noti che la somma di questi coefficienti non dà 0. Il programma imposterà i coefficienti in modo che la somma dia 0 e i loro valori relativi verranno preservati, ovvero:

1/3 2/3 -3/4 -1/4

Questi contrasti confronteranno le medie ponderate per il fattore A.

Ipotesi sulla media principale. L'ipotesi che la media principale non ponderata sia 0 può essere esplorata utilizzando i coefficienti:

L'ipotesi che la media principale ponderata sia 0 viene verificata utilizzando:

In nessun caso il programma modifica i rapporti di contrasto.

Analisi di planimetrie con celle mancanti (piani incompleti)

I disegni fattoriali che contengono celle vuote (combinazioni di elaborazione di celle che non contengono osservazioni) sono chiamati incompleti. In tali progetti, alcuni fattori solitamente non sono ortogonali e alcune interazioni non possono essere calcolate. Generalmente non esiste un metodo migliore per analizzare tali piani.

Approccio di regressione

In alcuni programmi meno recenti che si basano sull'analisi dei progetti ANOVA utilizzando la regressione multivariata, i fattori nei progetti incompleti vengono specificati per impostazione predefinita come al solito (come se il progetto fosse completo). Vengono quindi eseguite analisi di regressione multivariata su questi fattori con codice fittizio. Sfortunatamente, questo metodo produce risultati molto difficili, se non impossibili, da interpretare perché non è chiaro come ciascun effetto contribuisca alla combinazione lineare delle medie. Considera il seguente semplice esempio.

Fattore A Fattore B
B1 B2
A1 3 4, 5
A2 6, 6, 7 perse

Se eseguiamo la regressione multivariata del modulo Variabile dipendente = Costante + Fattore A + Fattore B, allora l'ipotesi sulla significatività dei fattori A e B in termini di combinazioni lineari di medie si presenta così:

Fattore A: cella A1,B1 = cella A2,B1

Fattore B: cella A1,B1 = cella A1,B2

Questo caso è semplice. Nei progetti più complessi è impossibile determinare esattamente cosa verrà esaminato.

Mezzi cellulari, approccio ANOVA , Ipotesi di tipo IV

L'approccio raccomandato in letteratura e che sembra preferibile è quello di studiare in modo significativo (in termini di domande di ricerca) a priori ipotesi sui mezzi osservati nelle celle del piano. Una discussione dettagliata di questo approccio può essere trovata in Dodge (1985), Heiberger (1989), Milliken e Johnson (1984), Searle (1987), o Woodward, Bonett e Brecht (1990). Le somme dei quadrati associate alle ipotesi sulla combinazione lineare delle medie nei progetti incompleti che esaminano le stime di parte degli effetti sono anche chiamate somme dei quadrati IV.

Generazione automatica di ipotesi di tipoIV. Quando i disegni multivariati presentano complessi pattern di celle mancanti, è auspicabile definire ipotesi ortogonali (indipendenti) la cui indagine equivale a esaminare gli effetti o le interazioni principali. Sono state sviluppate strategie algoritmiche (computazionali) (basate sulla matrice di progettazione pseudo-inversa) per generare pesi adeguati per tali confronti. Purtroppo le ipotesi finali non sono definite in modo univoco. Naturalmente, dipendono dall’ordine in cui gli effetti sono stati identificati e raramente consentono un’interpretazione semplice. Pertanto, si consiglia di studiare attentamente la natura delle cellule mancanti e quindi formulare ipotesi tipoIV, che più significativamente corrispondono agli obiettivi dello studio. Quindi esplora queste ipotesi utilizzando l'opzione Confronti pianificati nella finestra risultati. Il modo più semplice per specificare i confronti in questo caso è richiedere l'introduzione di un vettore di contrasti per tutti i fattori insieme nella finestra Confronti pianificati. Dopo aver chiamato la finestra di dialogo Confronti pianificati Verranno visualizzati tutti i gruppi del piano corrente e quelli mancanti verranno contrassegnati.

Celle mancanti e test per l'effetto specifico

Esistono diversi tipi di progetti in cui la posizione delle celle mancanti non è casuale, ma è attentamente pianificata, consentendo una semplice analisi degli effetti principali senza influenzare altri effetti. Ad esempio, quando il numero richiesto di celle in un piano non è disponibile, spesso vengono utilizzati i piani Piazze latine stimare gli effetti principali di diversi fattori con un gran numero di livelli. Ad esempio, un disegno fattoriale 4 x 4 x 4 x 4 richiede 256 celle. Allo stesso tempo puoi usare Piazza greco-latina per stimare gli effetti principali con solo 16 celle nel progetto (Capitolo Pianificazione dell'esperimento, Volume IV, contiene una descrizione dettagliata di tali piani). Vengono chiamati disegni incompleti in cui gli effetti principali (e alcune interazioni) possono essere stimati utilizzando semplici combinazioni lineari di medie piani incompleti equilibrati.

Nei progetti bilanciati, il metodo standard (predefinito) di generazione dei contrasti (pesi) per gli effetti principali e le interazioni produrrà quindi una tabella di analisi delle varianze in cui le somme dei quadrati per i rispettivi effetti non vengono confuse tra loro. Opzione Effetti specifici finestra risultati genererà i contrasti mancanti scrivendo uno zero nelle celle del piano mancanti. Subito dopo viene richiesta l'opzione Effetti specifici per l'utente che esamina alcune ipotesi appare una tabella dei risultati con i pesi effettivi. Si noti che in un progetto equilibrato, le somme dei quadrati degli effetti corrispondenti vengono calcolate solo se tali effetti sono ortogonali (indipendenti) a tutti gli altri effetti e interazioni principali. Altrimenti è necessario utilizzare l'opzione Confronti pianificati esplorare confronti significativi tra le medie.

Celle mancanti ed effetti raggruppati/termini di errore

Se opzione Approccio di regressione nel pannello iniziale del modulo Analisi della varianza non è selezionato, verrà utilizzato il modello della media delle celle durante il calcolo della somma dei quadrati per gli effetti (l'impostazione predefinita). Se il disegno non è bilanciato, quando si combinano effetti non ortogonali (vedere la discussione sopra dell'opzione Celle mancanti ed effetto specifico) si può ottenere una somma di quadrati costituita da componenti non ortogonali (o sovrapposte). I risultati ottenuti solitamente non sono interpretabili. Pertanto, bisogna prestare molta attenzione quando si selezionano e si implementano progetti sperimentali complessi e incompleti.

Esistono molti libri con discussioni dettagliate sui diversi tipi di piani. (Dodge, 1985; Heiberger, 1989; Lindman, 1974; Milliken e Johnson, 1984; Searle, 1987; Woodward e Bonett, 1990), ma questo tipo di informazioni va oltre lo scopo di questo libro di testo. Tuttavia, più avanti in questa sezione verrà illustrata un'analisi dei diversi tipi di piani.

Ipotesi e gli effetti della violazione delle ipotesi

Deviazione dall'ipotesi di distribuzioni normali

Supponiamo che la variabile dipendente sia misurata su una scala numerica. Supponiamo inoltre che la variabile dipendente sia normalmente distribuita all'interno di ciascun gruppo. Analisi della varianza contiene un'ampia gamma di grafici e statistiche a supporto di questa ipotesi.

Effetti del disturbo. Affatto F il test è molto resistente alle deviazioni dalla normalità (per risultati dettagliati, vedere Lindman, 1974). Se la curtosi è maggiore di 0, il valore della statistica è F potrebbe diventare molto piccolo. Si accetta l’ipotesi nulla, anche se potrebbe non essere vera. La situazione è invertita quando la curtosi è inferiore a 0. L'asimmetria della distribuzione di solito ha scarso effetto su F statistiche. Se il numero di osservazioni in una cella è sufficientemente grande, la deviazione dalla normalità non è particolarmente significativa a causa di teorema del limite centrale, secondo cui la distribuzione del valore medio è prossima alla normalità, indipendentemente dalla distribuzione iniziale. Discussione dettagliata sulla sostenibilità F le statistiche possono essere trovate in Box e Anderson (1955) o Lindman (1974).

Uniformità della varianza

Ipotesi. Si presuppone che le varianze dei diversi gruppi di progettazione siano le stesse. Questa ipotesi è chiamata ipotesi omogeneità della varianza. Ricordiamo che all'inizio di questa sezione, quando descriviamo il calcolo della somma degli errori quadrati, abbiamo eseguito la somma all'interno di ciascun gruppo. Se le varianze in due gruppi sono diverse l'una dall'altra, sommarle non è molto naturale e non fornisce una stima della varianza totale all'interno del gruppo (poiché in questo caso non c'è affatto varianza totale). Modulo Analisi della varianza -ANOVA/MANOVA contiene un ampio insieme di criteri statistici per rilevare deviazioni dalle ipotesi di omogeneità della varianza.

Effetti del disturbo. Lindman (1974, p. 33) lo dimostra F il criterio è abbastanza stabile rispetto alla violazione delle ipotesi di omogeneità della varianza ( eterogeneità varianza, vedere anche Box, 1954a, 1954b; Hsu, 1938).

Caso speciale: correlazione tra medie e varianze. Ci sono momenti in cui F le statistiche possono indurre in errore. Ciò accade quando le medie delle celle di progetto sono correlate alla varianza. Modulo Analisi della varianza consente di tracciare grafici a dispersione della varianza o della deviazione standard rispetto alla media per rilevare tale correlazione. Il motivo per cui questa correlazione è pericolosa è il seguente. Immaginiamo che ci siano 8 celle nel piano, 7 delle quali hanno quasi la stessa media, e in una cella la media è molto più alta delle altre. Poi F il test può rilevare un effetto statisticamente significativo. Ma supponiamo che in una cella con un valore medio elevato la varianza sia significativamente maggiore rispetto alle altre, ad es. il valore medio e la varianza nelle celle sono dipendenti (maggiore è la media, maggiore è la varianza). In questo caso, una media elevata non è affidabile perché potrebbe essere causata da una grande varianza nei dati. Tuttavia F statistiche basate su unito la varianza all'interno delle celle catturerà la media generale, sebbene i test basati sulla varianza all'interno di ciascuna cella non considereranno significative tutte le differenze nelle medie.

Questo tipo di dati (grande media e grande varianza) si verifica spesso quando sono presenti osservazioni anomale. Una o due osservazioni anomale spostano notevolmente la media e aumentano notevolmente la varianza.

Omogeneità della varianza e della covarianza

Ipotesi. I disegni multivariati con misure dipendenti multivariate applicano anche il presupposto di omogeneità della varianza descritto in precedenza. Tuttavia, poiché esistono variabili dipendenti multivariate, è anche necessario che le loro correlazioni incrociate (covarianze) siano uniformi in tutte le celle del disegno. Modulo Analisi della varianza offre diversi modi per testare queste ipotesi.

Effetti del disturbo. Analogo multidimensionale F- criterio: test λ di Wilks. Non si sa molto sulla robustezza del test Wilks λ rispetto alle violazioni delle ipotesi di cui sopra. Tuttavia, poiché l'interpretazione dei risultati del modulo Analisi della varianza si basa solitamente sulla significatività degli effetti univariati (dopo aver stabilito la significatività del criterio generale), la discussione sulla robustezza riguarda principalmente l'analisi univariata della varianza. Pertanto, il significato degli effetti univariati dovrebbe essere attentamente esaminato.

Caso particolare: analisi della covarianza. Violazioni particolarmente gravi dell'omogeneità della varianza/covarianza possono verificarsi quando nel disegno sono incluse le covariate. In particolare, se la correlazione tra covariate e misure dipendenti varia tra le celle del disegno, potrebbe verificarsi un'errata interpretazione dei risultati. Ricordare che l'analisi della covarianza esegue essenzialmente un'analisi di regressione all'interno di ciascuna cella per isolare quella parte della varianza rappresentata dalla covariata. L'omogeneità del presupposto della varianza/covarianza presuppone che questa analisi di regressione sia condotta rispettando il seguente vincolo: tutte le equazioni di regressione (pendenze) per tutte le celle sono le stesse. Se ciò non viene assunto, potrebbero verificarsi errori di grandi dimensioni. Modulo Analisi della varianza ha diversi criteri speciali per verificare questa ipotesi. È consigliabile utilizzare questi criteri per garantire che le equazioni di regressione per celle diverse siano approssimativamente le stesse.

Sfericità e simmetria complessa: ragioni per utilizzare un approccio multivariato alle misure ripetute nell'analisi della varianza

Nei progetti contenenti fattori di misure ripetute con più di due livelli, l'uso dell'ANOVA univariata richiede ipotesi aggiuntive: l'ipotesi di simmetria composta e l'ipotesi di sfericità. Queste ipotesi sono raramente soddisfatte (vedi sotto). Pertanto, negli ultimi anni, l’analisi multivariata della varianza ha guadagnato popolarità in tali progetti (entrambi gli approcci sono combinati nel modulo Analisi della varianza).

Ipotesi di simmetria complessa Il presupposto della simmetria composta è che le varianze (condivise all'interno dei gruppi) e le covarianze (condivise all'interno dei gruppi) per diverse misure ripetute siano omogenee (le stesse). Questa è una condizione sufficiente affinché il test F univariato affinché le misure ripetute siano valide (ovvero, i valori F riportati sono in media coerenti con la distribuzione F). In questo caso però questa condizione non è necessaria.

Assunzione di sfericità. L'assunzione di sfericità è una condizione necessaria e sufficiente affinché il test F sia valido. Consiste nel fatto che all'interno dei gruppi tutte le osservazioni sono indipendenti ed equamente distribuite. La natura di questi presupposti e l'impatto della loro violazione non sono solitamente ben descritti nei libri su ANOVA: questi saranno trattati nei paragrafi seguenti. Verrà inoltre mostrato che i risultati di un approccio univariato possono differire dai risultati di un approccio multivariato e verrà spiegato cosa ciò significa.

La necessità di indipendenza delle ipotesi. Il modo generale per analizzare i dati in ANOVA è adattamento del modello. Se, rispetto al modello che si adatta ai dati, ce ne sono alcuni a priori ipotesi, quindi la varianza viene divisa per testare queste ipotesi (criteri per gli effetti principali, interazioni). Da un punto di vista computazionale, questo approccio genera un insieme di contrasti (un insieme di confronti delle medie del piano). Tuttavia, se i contrasti non sono indipendenti l’uno dall’altro, la suddivisione delle varianze diventa priva di significato. Ad esempio, se due contrasti UN E B sono identici e viene estratta la parte corrispondente della varianza, quindi la stessa parte viene estratta due volte. Ad esempio, è stupido e inutile identificare due ipotesi: “la media nella cella 1 è superiore alla media nella cella 2” e “la media nella cella 1 è superiore alla media nella cella 2”. Quindi, le ipotesi devono essere indipendenti o ortogonali.

Ipotesi indipendenti in misure ripetute. Algoritmo generale implementato nel modulo Analisi della varianza, tenterà di generare contrasti indipendenti (ortogonali) per ciascun effetto. Per il fattore misure ripetute, questi contrasti forniscono molte ipotesi in merito differenze tra i livelli del fattore in esame. Tuttavia, se queste differenze sono correlate all’interno dei gruppi, i contrasti risultanti non sono più indipendenti. Ad esempio, nell'insegnamento in cui gli studenti vengono misurati tre volte in un semestre, può accadere che la variazione tra la 1a e la 2a misurazione sia negativamente correlata con la variazione tra la 2a e la 3a misurazione dei soggetti. Coloro che hanno padroneggiato la maggior parte del materiale tra la 1a e la 2a dimensione, ne padroneggiano una parte più piccola durante il tempo trascorso tra la 2a e la 3a dimensione. Infatti, per la maggior parte dei casi in cui l’ANOVA viene utilizzata per misure ripetute, si può presumere che le variazioni tra i livelli siano correlate tra i soggetti. Tuttavia, quando ciò accade, l’ipotesi di simmetria complessa e l’ipotesi di sfericità non valgono e non è possibile calcolare contrasti indipendenti.

L’impatto delle violazioni e i modi per correggerle. Quando i presupposti complessi di simmetria o sfericità non vengono soddisfatti, ANOVA può produrre risultati errati. Prima che le procedure multivariate fossero sufficientemente sviluppate, furono proposte diverse ipotesi per compensare le violazioni di queste ipotesi. (Vedi, ad esempio, Greenhouse & Geisser, 1959 e Huynh & Feldt, 1970). Questi metodi sono ancora ampiamente utilizzati (motivo per cui sono presentati nel modulo Analisi della varianza).

Approccio dell'analisi multivariata della varianza a misure ripetute. In generale, i problemi di simmetria e sfericità complessa riguardano il fatto che gli insiemi di contrasti inclusi nello studio degli effetti di fattori a misure ripetute (con più di 2 livelli) non sono indipendenti l'uno dall'altro. Tuttavia, non è necessario che siano indipendenti se utilizzati multidimensionale un test per testare simultaneamente la significatività statistica di due o più contrasti di fattori di misure ripetute. Questo è il motivo per cui le tecniche di analisi multivariata della varianza sono diventate sempre più utilizzate per testare la significatività di fattori di misure ripetute univariate con più di 2 livelli. Questo approccio è ampiamente accettato perché generalmente non richiede simmetria o sfericità complesse.

Casi in cui non è possibile utilizzare l'approccio multivariato dell'analisi della varianza. Esistono esempi (disegni) in cui l'approccio dell'analisi multivariata della varianza non può essere applicato. Questi sono tipicamente i casi in cui è presente un numero limitato di soggetti nel disegno e molti livelli nel fattore misure ripetute. Potrebbero quindi esserci troppe poche osservazioni per condurre un'analisi multivariata. Ad esempio, se ci sono 12 soggetti, P = 4 fattore di misure ripetute e ciascun fattore ha K = 3 livelli. Quindi l’interazione di 4 fattori “consumerà” (K-1)P = 2 4 = 16 gradi di libertà. Tuttavia, poiché i soggetti sono solo 12, in questo esempio non è possibile eseguire un test multivariato. Modulo Analisi della varianza rileverà in modo indipendente queste osservazioni e calcolerà solo criteri unidimensionali.

Differenze nei risultati univariati e multivariati. Se uno studio prevede un gran numero di misure ripetute, potrebbero esserci casi in cui l'approccio ANOVA a misure ripetute univariate produce risultati molto diversi da quelli ottenuti con l'approccio multivariato. Ciò significa che le differenze tra i livelli delle corrispondenti misure ripetute sono correlate tra i soggetti. A volte questo fatto ha un interesse indipendente.

Analisi multivariata della varianza e modellazione di equazioni strutturali

Negli ultimi anni, la modellazione di equazioni strutturali è diventata popolare come alternativa all’analisi multivariata della varianza (vedi, ad esempio, Bagozzi e Yi, 1989; Bagozzi, Yi e Singh, 1991; Cole, Maxwell, Arvey e Salas, 1993). . Questo approccio consente di testare ipotesi non solo sulle medie dei diversi gruppi, ma anche sulle matrici di correlazione delle variabili dipendenti. Ad esempio, si potrebbero allentare le ipotesi di omogeneità di varianze e covarianze e includere esplicitamente varianze e covarianze di errore nel modello per ciascun gruppo. Modulo STATISTICAModellazione di equazioni strutturali (SEPATH) (vedi Volume III) consente tale analisi.

L'utilizzo delle statistiche nella presente nota sarà illustrato con un esempio trasversale. Supponiamo che tu sia il direttore di produzione di Perfect Parachute. I paracadute sono realizzati con fibre sintetiche fornite da quattro diversi fornitori. Una delle caratteristiche principali di un paracadute è la sua robustezza. È necessario assicurarsi che tutte le fibre fornite abbiano la stessa resistenza. Per rispondere a questa domanda, dovrebbe essere progettato un progetto sperimentale per misurare la resistenza dei paracadute tessuti con fibre sintetiche di diversi fornitori. Le informazioni ottenute da questo esperimento determineranno quale fornitore fornisce i paracadute più durevoli.

Molte applicazioni implicano esperimenti che considerano più gruppi o livelli di un singolo fattore. Alcuni fattori, come la temperatura di cottura della ceramica, possono avere più livelli numerici (ad esempio 300°, 350°, 400° e 450°). Altri fattori, come l'ubicazione degli articoli in un supermercato, possono avere livelli di categoria (ad esempio, primo fornitore, secondo fornitore, terzo fornitore, quarto fornitore). Gli esperimenti a fattore singolo in cui le unità sperimentali sono assegnate casualmente a gruppi o livelli di fattore sono detti completamente randomizzati.

UtilizzoF-criteri per valutare le differenze tra diverse aspettative matematiche

Se le misurazioni numeriche del fattore nei gruppi sono continue e vengono soddisfatte alcune condizioni aggiuntive, viene utilizzata l'analisi della varianza (ANOVA) per confrontare le aspettative matematiche di diversi gruppi. UN analisi o F Va rianza). L'analisi della varianza utilizzando disegni completamente randomizzati è chiamata procedura ANOVA a una via. In un certo senso, il termine analisi della varianza è un termine improprio perché confronta le differenze tra i valori attesi dei gruppi piuttosto che tra le varianze. Tuttavia, il confronto delle aspettative matematiche viene effettuato proprio sulla base di un'analisi della variazione dei dati. Nella procedura ANOVA, la variazione totale nei risultati della misurazione è divisa in tra gruppi e all'interno dei gruppi (Fig. 1). La variazione all'interno del gruppo è spiegata dall'errore sperimentale e la variazione tra i gruppi è spiegata dagli effetti delle condizioni sperimentali. Simbolo Con indica il numero di gruppi.

Riso. 1. Variazione di partizionamento in un esperimento completamente randomizzato

Scarica la nota in formato o, esempi in formato

Facciamo finta che Con i gruppi vengono estratti da popolazioni indipendenti che hanno una distribuzione normale e una varianza uguale. L’ipotesi nulla è che le aspettative matematiche delle popolazioni siano le stesse: H0: μ1 = μ2 = ... = μs. L’ipotesi alternativa afferma che non tutte le aspettative matematiche sono uguali: H1: non tutti i μj sono uguali J= 1, 2, …, s).

Nella fig. La Figura 2 presenta la vera ipotesi nulla sulle aspettative matematiche dei cinque gruppi confrontati, a condizione che le popolazioni abbiano una distribuzione normale e la stessa varianza. Le cinque popolazioni associate a diversi livelli del fattore sono identiche. Di conseguenza, si sovrappongono l'uno all'altro, avendo la stessa aspettativa matematica, variazione e forma.

Riso. 2. Cinque popolazioni generali hanno la stessa aspettativa matematica: µ1 = µ2 = µ3 = µ4 = µ5

D'altra parte, supponiamo che in realtà l'ipotesi nulla sia falsa, con il quarto livello che ha il valore atteso più alto, il primo livello che ha un valore atteso leggermente inferiore e i restanti livelli che hanno gli stessi valori attesi o addirittura inferiori ( Figura 3). Si noti che, ad eccezione dei valori attesi, tutte e cinque le popolazioni sono identiche (ovvero hanno la stessa variabilità e forma).

Riso. 3. Si osserva l'effetto delle condizioni sperimentali: μ4 > μ1 > μ2 = μ3 = μ5

Quando si verifica l'ipotesi sull'uguaglianza delle aspettative matematiche di diverse popolazioni generali, la variazione totale viene divisa in due parti: variazione intergruppo, dovuta alle differenze tra gruppi, e variazione intragruppo, dovuta alle differenze tra elementi appartenenti allo stesso gruppo. La variazione totale è espressa dalla somma totale dei quadrati (SST – somma dei quadrati totali). Poiché l'ipotesi nulla è quella delle aspettative matematiche di tutti Con i gruppi sono uguali tra loro, la variazione totale è pari alla somma dei quadrati delle differenze tra le singole osservazioni e la media complessiva (media delle medie), calcolata per tutti i campioni. Variazione completa:

Dove - media generale, X ij - io-e osservazione in J-gruppo o livello, n j- numero di osservazioni in J il quinto gruppo, N- il numero totale di osservazioni in tutti i gruppi (vale a dire N = N 1 + n2 + … + nc), Con- numero di gruppi o livelli studiati.

Variazione tra gruppi, solitamente chiamata somma dei quadrati tra gruppi (SSA – somma dei quadrati tra gruppi), è uguale alla somma dei quadrati delle differenze tra la media campionaria di ciascun gruppo J e media complessiva , moltiplicato per il volume del gruppo corrispondente n j:

Dove Con- numero di gruppi o livelli studiati, n j- numero di osservazioni in J il quinto gruppo, J- valore medio J il quinto gruppo, - media complessiva.

Variazione all'interno del gruppo, solitamente chiamata somma dei quadrati all'interno del gruppo (SSW – somma dei quadrati all'interno dei gruppi), è uguale alla somma dei quadrati delle differenze tra gli elementi di ciascun gruppo e la media campionaria di questo gruppo J:

Dove Xij - io elemento J il quinto gruppo, J- valore medio J quinto gruppo.

Dal momento che vengono confrontati Con livelli di fattore, ha la somma dei quadrati intergruppo s-1 gradi di libertà. Ciascuna di Con livelli ha n j – 1 gradi di libertà, quindi ha la somma dei quadrati intragruppo N- Con gradi di libertà e

Inoltre, la somma totale dei quadrati ha N – 1 gradi di libertà, a partire da ciascuna osservazione Xij viene confrontato con la media complessiva calcolata su tutto N osservazioni. Se ciascuna di queste somme viene divisa per il corrispondente numero di gradi di libertà, si ottengono tre tipi di dispersione: intergruppo(quadrato medio tra - MSA), intragruppo(quadrato medio interno - RSU) e pieno(media quadrata totale - MST):

Nonostante il fatto che lo scopo principale dell'analisi della varianza sia confrontare le aspettative matematiche Con gruppi per identificare l'effetto delle condizioni sperimentali, il suo nome è dovuto al fatto che lo strumento principale è l'analisi delle varianze di vario tipo. Se l'ipotesi nulla è vera e tra le aspettative matematiche Con gruppi non ci sono differenze significative, tutte e tre le varianze - MSA, MSW e MST - sono stime della varianza σ2 inerenti ai dati analizzati. Quindi, per verificare l’ipotesi nulla H0: μ1 = μ2 = ... = μs e ipotesi alternative H1: non tutti i μj sono uguali J = 1, 2, …, Con), è necessario calcolare le statistiche F-criterio, che è il rapporto tra due varianze, MSA e RSU. Test F-statistica in analisi della varianza unidirezionale

Statistiche F-soggetto a criteri F-distribuzione con s-1 gradi di libertà del numeratore M.S.A. E n – s gradi di libertà al denominatore RSU. Per un dato livello di significatività α, l'ipotesi nulla viene rifiutata se calcolata F FU, inerente F-distribuzione con s-1 n – s gradi di libertà al denominatore. Pertanto, come mostrato in Fig. 4, la regola decisionale è così formulata: ipotesi nulla H0 rifiutato se F>FU; altrimenti non viene rifiutato.

Riso. 4. Area critica dell'analisi della varianza durante la verifica di un'ipotesi H0

Se l'ipotesi nulla H0è vero, calcolato F-la statistica è vicina a 1, poiché il suo numeratore e denominatore sono stime della stessa quantità: la dispersione σ 2 inerente ai dati analizzati. Se l'ipotesi nulla H0è falso (e c'è una differenza significativa tra le aspettative matematiche dei diversi gruppi), calcolato F-la statistica sarà molto più grande di uno perché il suo numeratore, MSA, stima, oltre alla variabilità naturale dei dati, l'effetto delle condizioni sperimentali o la differenza tra gruppi, mentre il denominatore MSW stima solo la variabilità naturale dei dati . Pertanto, la procedura ANOVA è F-criterio in cui, ad un dato livello di significatività α, l'ipotesi nulla viene rifiutata se calcolata F-le statistiche sono maggiori del valore critico superiore FU, inerente F-distribuzione con s-1 gradi di libertà al numeratore e n – s gradi di libertà al denominatore, come mostrato in Fig. 4.

Per illustrare l'analisi della varianza unidirezionale, torniamo allo scenario delineato all'inizio della nota. Lo scopo dell'esperimento è determinare se i paracadute tessuti con fibre sintetiche ottenute da diversi fornitori hanno la stessa resistenza. Ogni gruppo ha cinque paracadute. I gruppi sono divisi per fornitore: Fornitore 1, Fornitore 2, Fornitore 3 e Fornitore 4. La resistenza dei paracadute viene misurata utilizzando uno speciale dispositivo che verifica lo strappo del tessuto su entrambi i lati. La forza necessaria per rompere un paracadute viene misurata su una scala speciale. Maggiore è la forza di rottura, più forte è il paracadute. Excel ti consente di analizzare F-statistiche in un clic. Sfoglia il menu DatiAnalisi dei dati e selezionare la riga ANOVA unidirezionale, compilare la finestra che si apre (Fig. 5). I risultati sperimentali (resistenza alla rottura), alcune statistiche descrittive e i risultati dell'analisi della varianza unidirezionale sono presentati in Fig. 6.

Riso. 5. Finestra Pacchetto di analisi unidirezionale della varianza Eccellere

Riso. 6. Indicatori di resistenza dei paracadute tessuti con fibre sintetiche ottenute da diversi fornitori, statistiche descrittive e risultati dell'analisi della varianza unidirezionale

L'analisi della Figura 6 mostra che esiste una certa differenza tra le medie campionarie. La resistenza media delle fibre ottenute dal primo fornitore è 19,52, dal secondo - 24,26, dal terzo - 22,84 e dal quarto - 21,16. Questa differenza è statisticamente significativa? La distribuzione della forza di rottura è mostrata nel grafico a dispersione (Fig. 7). Mostra chiaramente le differenze sia tra che all'interno dei gruppi. Se ciascun gruppo fosse di dimensioni maggiori, per analizzarli è possibile utilizzare un diagramma stelo e foglia, un box plot o un diagramma a campana.

Riso. 7. Diagramma della dispersione della resistenza per paracadute tessuti con fibre sintetiche ottenute da quattro fornitori.

L’ipotesi nulla afferma che non ci sono differenze significative tra i punteggi medi di forza: H0: µ1 = µ2 = µ3 = µ4. Un'ipotesi alternativa è che esista almeno un fornitore la cui resistenza media delle fibre differisce dagli altri: H1: non tutti i μ j sono uguali ( J = 1, 2, …, Con).

Media complessiva (vedi Fig. 6) = MEDIA(D12:D15) = 21.945; per determinarlo, puoi anche fare la media di tutti i 20 numeri originali: = MEDIA(A3:D7). Vengono calcolati i valori di varianza Pacchetto di analisi e si riflettono nel piatto Analisi della varianza(vedi Fig. 6): SSA = 63.286, SSW = 97.504, SST = 160.790 (vedi colonna SS tavoli Analisi della varianza Figura 6). Le medie vengono calcolate dividendo queste somme di quadrati per il numero appropriato di gradi di libertà. Perché il Con= 4, a N= 20, si ottengono i seguenti valori di gradi di libertà; per l'SSA: s-1= 3; per SSW: n–c= 16; per SST: n-1= 19 (vedi colonna df). Quindi: MSA = SSA / ( s-1)= 21.095; RSU = SSW / ( n–c) = 6.094; MST = SST / ( n-1) = 8.463 (vedi colonna SM). F-statistica = MSA/RSU = 3.462 (vedi colonna F).

Valore critico superiore FU, caratteristico di F-distribuzione, determinata dalla formula =F.OBR(0,95;3;16) = 3,239. Parametri della funzione =F.OBR(): α = 0,05, il numeratore ha tre gradi di libertà e il denominatore ha 16. Pertanto, il valore calcolato F-la statistica pari a 3.462 supera il valore critico superiore FU= 3.239, l'ipotesi nulla viene rifiutata (Fig. 8).

Riso. 8. Regione critica dell'analisi della varianza con un livello di significatività pari a 0,05 se il numeratore ha tre gradi di libertà e il denominatore è -16

R-valore, cioè la probabilità che se l'ipotesi nulla è vera F-dati statistici non inferiori a 3,46, pari a 0,041 ovvero 4,1% (vedi colonna valore p tavoli Analisi della varianza Figura 6). Poiché questo valore non supera il livello di significatività α = 5%, l'ipotesi nulla viene rifiutata. Inoltre, R-valore indica che la probabilità di rilevare tale o maggiore differenza tra le aspettative matematiche della popolazione generale, purché di fatto siano le stesse, è pari al 4,1%.

COSÌ. Esiste una differenza tra le quattro medie campionarie. L'ipotesi nulla era che tutte le aspettative matematiche delle quattro popolazioni fossero uguali. In queste condizioni, viene calcolata una misura della variabilità totale (cioè variazione totale della SST) della forza di tutti i paracadute sommando le differenze al quadrato tra ciascuna osservazione X ij e media complessiva . La variazione totale è stata quindi separata in due componenti (vedi Fig. 1). La prima componente era la variazione tra gruppi del SSA e la seconda era la variazione all’interno del gruppo del SSW.

Cosa spiega la variabilità dei dati? In altre parole, perché le osservazioni non sono tutte uguali? Uno dei motivi è che aziende diverse forniscono fibre con resistenze diverse. Ciò spiega in parte perché i gruppi hanno aspettative matematiche diverse: più forte è l’effetto delle condizioni sperimentali, maggiore è la differenza tra le aspettative matematiche dei gruppi. Un altro motivo della variabilità dei dati è la naturale variabilità di qualsiasi processo, in questo caso la produzione di paracadute. Anche se tutte le fibre fossero acquistate dallo stesso fornitore, la loro forza non sarebbe la stessa, a parità di tutte le altre condizioni. Poiché questo effetto si verifica all’interno di ciascun gruppo, viene chiamato variazione all’interno del gruppo.

Le differenze tra le medie campionarie sono chiamate variazione intergruppo SSA. Parte della variazione intragruppo, come già indicato, è spiegata dall'appartenenza dei dati a gruppi diversi. Tuttavia, anche se i gruppi fossero esattamente gli stessi (cioè l’ipotesi nulla fosse vera), esisterebbe comunque una variazione tra i gruppi. La ragione di ciò è la naturale variabilità del processo di produzione del paracadute. Poiché i campioni sono diversi, le loro medie campionarie differiscono l'una dall'altra. Pertanto, se l’ipotesi nulla è vera, sia la variabilità tra gruppi che quella all’interno del gruppo rappresentano una stima della variabilità della popolazione. Se l'ipotesi nulla è falsa, l'ipotesi tra i gruppi sarà maggiore. È questo il fatto che sta alla base F-criteri per confrontare le differenze tra le aspettative matematiche di diversi gruppi.

Dopo aver eseguito un’ANOVA unidirezionale e aver riscontrato una differenza significativa tra le aziende, non è noto quale fornitore sia significativamente diverso dagli altri. Sappiamo solo che le aspettative matematiche della popolazione generale non sono uguali. In altre parole, almeno una delle aspettative matematiche è significativamente diversa dalle altre. Per determinare quale fornitore è diverso dagli altri, è possibile utilizzare Procedura Tukey, utilizzando confronti a coppie tra fornitori. Questa procedura è stata sviluppata da John Tukey. Successivamente, lui e K. Kramer hanno modificato indipendentemente questa procedura per situazioni in cui le dimensioni del campione differiscono l'una dall'altra.

Confronto multiplo: procedura di Tukey-Kramer

Nel nostro scenario, è stata utilizzata l'analisi della varianza unidirezionale per confrontare la forza dei paracadute. Avendo riscontrato differenze significative tra le aspettative matematiche dei quattro gruppi, è necessario determinare quali gruppi differiscono l'uno dall'altro. Sebbene esistano diversi modi per risolvere questo problema, descriveremo solo la procedura di confronto multiplo di Tukey-Kramer. Questo metodo è un esempio di procedure di confronto post hoc perché l'ipotesi da testare viene formulata dopo l'analisi dei dati. La procedura di Tukey-Kramer consente di confrontare simultaneamente tutte le coppie di gruppi. Nella prima fase vengono calcolate le differenze XJ -XJ, Dove j ≠J, tra aspettative matematiche s(s – 1)/2 gruppi. Ambito critico La procedura di Tukey-Kramer si calcola con la formula:

Dove Q U- il valore critico superiore della distribuzione dell'intervallo studentizzato, che ha Con gradi di libertà al numeratore e N - Con gradi di libertà al denominatore.

Se le dimensioni del campione non sono le stesse, l'intervallo critico viene calcolato separatamente per ciascuna coppia di aspettative matematiche. Nell'ultima fase, ciascuno di s(s – 1)/2 coppie di aspettative matematiche vengono confrontate con il corrispondente intervallo critico. Gli elementi di una coppia sono considerati significativamente diversi se il modulo differenziale | X j -XJ| tra di loro supera l'intervallo critico.

Applichiamo il procedimento di Tukey-Kramer al problema della resistenza dei paracadute. Poiché l’azienda di paracadutismo ha quattro fornitori, ci sono 4(4 – 1)/2 = 6 coppie di fornitori da verificare (Figura 9).

Riso. 9. Confronti a coppie delle medie campionarie

Poiché tutti i gruppi hanno lo stesso volume (vale a dire all n j = n j), è sufficiente calcolare un solo intervallo critico. Per fare questo, secondo la tabella ANOVA(Fig. 6) determiniamo il valore RSU = 6.094. Quindi troviamo il valore Q U con α = 0,05, Con= 4 (numero di gradi di libertà al numeratore) e N- Con= 20 – 4 = 16 (il numero di gradi di libertà nel denominatore). Purtroppo non ho trovato la funzione corrispondente in Excel, quindi ho utilizzato la tabella (Fig. 10).

Riso. 10. Valore critico dell'ambito studentizzato Q U

Noi abbiamo:

Poiché solo 4,74 > 4,47 (vedi tabella in basso nella fig. 9), esiste una differenza statisticamente significativa tra il primo e il secondo fornitore. Tutte le altre coppie hanno medie campionarie che non ci permettono di parlare delle loro differenze. Di conseguenza, la resistenza media dei paracadute tessuti con fibre acquistate dal primo fornitore è significativamente inferiore a quella del secondo.

Condizioni necessarie per l'analisi della varianza unidirezionale

Nel risolvere il problema della resistenza dei paracadute, non abbiamo verificato se le condizioni in cui è possibile utilizzare un fattore unipolare F-criterio. Come fai a sapere se puoi utilizzare un fattore F-criterio nell'analisi di dati sperimentali specifici? Fattore singolo F-Il criterio può essere applicato solo se vengono soddisfatte tre assunzioni fondamentali: i dati sperimentali devono essere casuali e indipendenti, avere una distribuzione normale e le loro varianze devono essere uguali.

Prima ipotesi - casualità e indipendenza dei dati- deve essere sempre eseguito, poiché la correttezza di qualsiasi esperimento dipende dalla casualità della scelta e/o dal processo di randomizzazione. Per evitare di falsare i risultati, è necessario estrarre i dati Con popolazioni generali in modo casuale e indipendente l’una dall’altra. Allo stesso modo, i dati dovrebbero essere distribuiti in modo casuale Con livelli del fattore che ci interessa (gruppi sperimentali). La violazione di queste condizioni può distorcere gravemente i risultati dell'analisi della varianza.

Seconda ipotesi - normalità- significa che i dati sono estratti da popolazioni distribuite normalmente. Quanto a T-criteri, analisi unidirezionale della varianza basata su F-I criteri sono relativamente poco sensibili alla violazione di questa condizione. Se la distribuzione non si discosta in modo troppo significativo dalla norma, il livello di significatività F Il criterio cambia poco, soprattutto se la dimensione del campione è abbastanza grande. Se la condizione di normalità della distribuzione è gravemente violata, va applicata.

Terza ipotesi - omogeneità della varianza- significa che le varianze di ciascuna popolazione sono uguali tra loro (cioè σ 1 2 = σ 2 2 = ... = σ j 2). Questo presupposto consente di decidere se separare o raggruppare le varianze all'interno del gruppo. Se le dimensioni dei gruppi sono le stesse, la condizione di omogeneità della varianza ha scarso effetto sulle conclusioni ottenute utilizzando F-criteri. Tuttavia, se le dimensioni del campione non sono uguali, la violazione della condizione di uguaglianza delle varianze può distorcere gravemente i risultati dell’analisi della varianza. Pertanto, dovrebbero essere compiuti sforzi per garantire che le dimensioni del campione siano uguali. Uno dei metodi per verificare l'ipotesi di omogeneità della varianza è il criterio Levene descritto sotto.

Se, di tutte e tre le condizioni, viene violata solo la condizione di omogeneità della varianza, una procedura simile a T-criterio che utilizza varianza separata (per maggiori dettagli, vedere). Tuttavia, se le ipotesi di distribuzione normale e di omogeneità della varianza vengono violate contemporaneamente, è necessario normalizzare i dati e ridurre le differenze tra le varianze o applicare una procedura non parametrica.

Test di Levene per verificare l'omogeneità della varianza

Sebbene F-il criterio è relativamente resistente alle violazioni della condizione di uguaglianza delle varianze nei gruppi; una violazione grossolana di questo presupposto influisce in modo significativo sul livello di significatività e forza del criterio. Forse uno dei più potenti è il criterio Levene. Per verificare l'uguaglianza delle varianze Con popolazioni generali, testeremo le seguenti ipotesi:

Í 0: σ 1 2 = σ 2 2 = … = σJ 2

H1: Non tutto σj2 sono gli stessi ( J = 1, 2, …, Con)

Il test di Levene modificato si basa sull'affermazione che se la variabilità nei gruppi è la stessa, l'analisi della varianza nei valori assoluti delle differenze tra osservazioni e mediane di gruppo può essere utilizzata per verificare l'ipotesi nulla di uguaglianza delle varianze. Pertanto, dovresti prima calcolare i valori assoluti delle differenze tra osservazioni e mediane in ciascun gruppo, quindi eseguire un'analisi unidirezionale della varianza sui valori assoluti risultanti delle differenze. Per illustrare il criterio di Levene, torniamo allo scenario delineato all'inizio della nota. Utilizzando i dati presentati in Fig. 6, condurremo un'analisi simile, ma in relazione ai moduli delle differenze nei dati iniziali e alle mediane per ciascun campione separatamente (Fig. 11).

Ultimi materiali nella sezione:

Ascoltare tra le righe Cosa significa l'espressione leggere tra le righe?
Ascoltare tra le righe Cosa significa l'espressione leggere tra le righe?

Leggere tra le righe Leggere tra le righe (lingua straniera) per indovinare cosa non è scritto o concordato. Mercoledì Ma tra le sue battute dolorose...

Regole per la costruzione dei grafici
Regole per la costruzione dei grafici

I grafici forniscono una rappresentazione visiva della relazione tra le quantità, che è estremamente importante quando si interpretano i dati ottenuti, poiché il grafico...

Il primo viaggio russo intorno al mondo
Il primo viaggio russo intorno al mondo

I navigatori russi, insieme a quelli europei, sono i pionieri più famosi che hanno scoperto nuovi continenti, tratti di catene montuose e vaste...