College-aantekeningen bij Multivariate data-analyse (MVDA) aan de Universiteit Leiden - 2015/2016

College 1: Multipele regressie analyse

MVDA gaat over onderzoeksvragen. Bijvoorbeeld: kun je depressie voorspellen uit life events en coping? En: heeft een lesmethode effect op het rekenvermogen van middle class kinderen? Onderzoeksvragen hebben twee aspecten: de relatie tussen constructen en de populatie (steekproef = sample van de populatie). Geteste constructen noemen we variabelen. Om de data te analyseren moeten de juiste statistische technieken gebruikt worden bij de juiste onderzoeksvraag.

Er zijn 7 technieken verdeeld over 7 weken. Elke techniek kijkt naar 3 of meer variabelen. We gaan kijken welke methode we voor welk probleem kunnen gebruiken, we gaan data analyseren, we gaan naar de output kijken en we dieper naar de theorieën en of de interpretaties kloppend zijn.

We beginnen met MRA, dit is multipele regressie analyse. De technieken van de eerste vier weken hebben gemeen dat er één afhankelijke variabele is. Dit is de variabele die we willen voorspellen (Y). De onafhankelijke variabelen zijn de voorspellers, bij ANOVA worden ze factoren genoemd. Bij deze vier technieken is de vraag ‘kan ik Y voorspellen uit de onafhankelijke variabelen?’

Welke techniek je gebruikt hangt af van het meetniveau van de variabelen. Tijdens deze cursus zijn er drie meetniveaus die er toe doen:

  • Categorisch/nominaal: mensen worden in groepen ingedeeld

  • Interval: intervallen tussen scores hebben betekenis - afstand tussen de meetpunten heeft betekenis; vb.) depressiescore

  • Binair: Een categorische variabele die 2 categorieën heeft en interval eigenschappen heeft – er zijn twee niveaus en twee categorieën; vb.) man/vrouw, geslaagd/gezakt

De eerste week staat in het teken van Multipele Regressie Analyse (MRA). Bij multipele regressie analyse proberen we op basis van een aantal onafhankelijke variabelen (X1, X2….Xp) de afhankelijke variabele (Ypred) te voorspellen.

Belangrijk bij MRA:

  1. Er zijn meerdere onafhankelijke variabelen en er is steeds slechts één afhankelijke variabele.

  2. Zowel de onafhankelijke variabelen als de afhankelijke variabelen zijn van interval niveau.

Hieronder staat een overzicht van welke techniek je moet gebruiken bij verschillende niveaus van de variabelen (deze technieken worden in week 1 tot en met 4 behandeld).

X1, X2 … Xp

Y

Techniek

Interval

Interval

Multipele regressie analyse (MRA)

Nominaal

Interval

Variantie analyse (ANOVA)

Nominaal + interval

Interval

Covariantie analyse (ANCOVA)

Interval

Binair

Logistische regressie analyse (LRA)

Let op!

X1 en X2 kunnen ook binair zijn
En: als Y binair is, dan LRA gebruiken

Voorbeeld

Kan depressie (Y) worden voorspeld aan de hand van negatieve levensgebeurtenissen (X1) en/of coping (X2)?

  • vraag naar negatieve levensgebeurtenissen

  • test coping

  • BDI-test

Dit zijn alle intervalvariabelen. Je kan nu het regressiemodel toepassen.
Formules: (enkelvoudige regressie) Ŷi = b0 + b1X1i + ei en (meervoudige regressie) Ŷi = b0 + b1X1i + b2X2i + … + bkXki.

Op deze manier kan je voor elke proefpersoon, gegeven welke coping je hebt, de BDI waarde voorspellen.

Intercept = beginpunt (0, …)

Slope = hoe hoog, de hoek (richtingscoëfficiënt)

Ŷi = geschatte waarde

Regressie model

Als je een Y wil voorspellen uit X1 en X2 doe je dit met het volgende model: Y is een lineaire functie van X1 en X2. Y is een sommatie van X waar een regressiecoëfficiënt voor staat, een regressie constante en een residu. Het gaat om enkelvoudige regressie wanneer er 1 onafhankelijke is, en het gaat om multipele regressie wanneer er meerdere onafhankelijken zijn. Om de parameters uit te rekenen wordt de least squares estimation gebruikt in SPSS.

De beste voorspelling wordt gedaan als het verschil van de sum of squares (SSResidual) minimaal is, dus als alle residuen op 1 lijn liggen en 0 zijn. Dan ga je kwadrateren. Als de residuen het kleinst zijn dan heb je eigenlijk de best passende lijn.

Waarom gebruiken we een regressiemodel? Het voordeel van een regressiemodel is dat de relatie tussen de variabelen Y en X1 en X2 beschreven kan worden, zoals dit ook in de populatie het geval is. Ook is het mogelijk voorspellingen te doen voor personen die niet in onze sample hebben gezeten. Dit is bijvoorbeeld het geval als je iemand in de praktijk krijgt bij wie je depressie wil voorspellen. Je kan dan zijn/haar scores in de vergelijking invullen en kijken hoe groot het depressierisico voor deze persoon is.

Als b1 (, je rico) = 0 dan kan je eigenlijk niks voorspellen, want bij elk getal dat je invult, krijg je er 0 uit en je houdt een rechte lijn over. Om te testen of er een relatie is tussen Y en X1 en X2 (H0 testen) wordt een F-toets gebruikt. De F-toets laat zien of er een regressiecoëfficiënt ongelijk is aan nul, en of er dus een relatie is tussen Y en X1 of X2 of met allebei. De F-toets laat dus zien of het mogelijk is om Y te voorspellen uit X1 of X2. Om te
testen hoe sterk de voorspelling is wordt de R2 ofwel VAF gebruikt. Dit geeft weer hoeveel variantie van Y verklaart wordt door X1 en X2, oftewel hoe goed het lineaire model de geobserveerde data beschrijft.

Formules

SSTotal = SSRegression + SSResidual

Data = Model + Error

F = MSRegression / MSResidual = (SSRegression / dfRegression) / (SSResidual / dfResidual)

p < 0,001 dan significantie

R2 = VAF = SSRegresssion / Sstotal

Stel je krijgt R2 = 0,5 (p = 0,5) dan betekent dit dat 50% van de variantie van negatieve levensgebeurtenissen en coping depressie verklaren.

Je kan B’s (bèta’s) vergelijken aan de hand van een t-test.

In SPSS output is (Constant) de regressie constante (b0). Onder de kolom ‘B’ vind je b1 en b2 bij de bijbehorende onafhankelijke variabele. Als sommige coëfficiënten niet significant zijn doe je de regressie analyse opnieuw zonder deze predictoren.

Je kunt ook de gestandaardiseerde regressie vergelijking (z) gebruiken. Hiermee kun je de B’s vergelijken. In dit geval worden de scores van de predictoren gestandaardiseerd, dus het gemiddelde wordt op 0 gelegd en de spreiding op 1. Met deze regressie vergelijking zijn er geen constanten want die liggen op 0. De B’s zijn vervangen door bèta’s. Het voordeel van deze bèta’s is dat je ze nu kunt vergelijken omdat ze op dezelfde schaal liggen. Als de ene bèta groter is in absolute waarde dan de andere kun je stellen dat deze predictor belangrijker is dan de andere.

Formule

  • b wordt B(èta), verder is de formule hetzelfde (zie regressieformules)

  • z = (X – u) / o

De voorkeur ligt bij het gebruiken van de semi-partiële correlatie. In SPSS wordt hij de ‘part’ correlatie genoemd. De waarden liggen tussen 1 en -1. Deze wordt gebruikt om de uniek verklaarde variantie te berekenen. Deze semi-partiële correlatie is de correlatie van Y en X1 gecorrigeerd voor X2. ry(1∙2)2 geeft weer hoeveel variantie van Y uniek wordt verklaard door X1.

V1 is unieke verklaarde variantie verklaard door X1, V2 door X2, W wordt verklaard door X1 en X2 en U is het onverklaarde deel van Y.

Formules

  • r2Y(1·2) = V1 / (V1 + V2 + W + U)

  • r2Y1·2 = V1 / (V1 + U)

Voordat je een model kan gebruiken als voorspellend model, moeten er assumpties worden gecheckt. De variabelen moeten van interval niveau zijn. Het model moet lineair zijn: het gemiddelde van de afhankelijke variabele is een lineaire combinatie van voorspellers, de voorspellers zijn gemeten zonder errors. Daarnaast moet het model homoscedasticiteit hebben: de variantie van de residuen is constant voor de voorspelde waarden. Je kan dit testen aan de hand van plots in SPSS. Je kan een PP-/QQ-plot of histogram maken van de residuen en ze moeten dan allemaal op een rechte lijn liggen. Je kan ook een scatterplot maken. Hier kan je lineariteit en homoscedasticiteit mee checken. Ook hier moet weer een rechte lijn te zien zijn. De residuen moeten onafhankelijk zijn: individuen moeten onafhankelijk van elkaar reageren. Het model moet normaal verdeeld zijn. Tevens moet er geen multicollineariteit in de voorspellers zijn: geen gemiddelde tot hoge intercorrelaties tussen de voorspellers.

Als assumpties geschonden worden doordat een voorspeller voor afwijkingen zorgt kan je hem (1.) weglaten, (2.) de variabelen tranformeren en (3.) robuustere regressietechnieken gebruiken.

Als er sprake is van multicollineariteit zijn er gemiddelde tot hoge inter-correlaties tussen de predictoren. In de slides zijn enkele grafische weergaven te zien van deze assumpties. Om te checken of de multicollineariteit goed is, moet je (in SPSS) naar de VIF en de Tolerance kijken. De Tolerance bereken je door Tj = 1- Rj2, en de VIF bereken je door VIFj = 1/Tj = 1/(1-Rj2). De VIF moet groot zijn (onder de 5) en de Tolerance moet klein zijn (onder de 0,1).

De verklaarde variantie van Y in de steekproef wordt weergeven door R2. De adjusted R2 is om te meten hoeveel variantie van Y zou worden verklaard als we het model hadden afgeleid uit het regressiemodel van de populatie. De meest gebruikte formule voor de adjusted R2 is Wherry’s adjusted R2.

Formule

R2a = 1 – ((N – 1)/ ( N − k – 1)) (1 − R 2 )

Als de verhouding tussen het aantal ppn (N) en het aantal predictoren (k) klein is dan is een regressievergelijking eigenlijk niet zinvol.

College 2: ANOVA

ANOVA hoort bij de verschillende mogelijkheden om een afhankelijke variabele te voorspellen uit een aantal onafhankelijke variabelen (week 1 tot en met 4). Bij ANOVA zijn de onafhankelijke variabelen ( = predictoren) van nominaal niveau. Dit houdt in dat elke categorie een willekeurig nummer krijgt, aan deze nummers is dus geen volgorde af te lezen. De onafhankelijke variabelen (X1, X2, enzovoorts) worden bij ANOVA factoren genoemd in plaats van variabelen. De afhankelijke variabele is bij ANOVA op intervalniveau. ANOVA kan je opdelen in twee soorten: eenweg ANOVA en meerweg ANOVA (bijvoorbeeld tweeweg ANOVA). Afhankelijk van het aantal factoren wordt een ANOVA gekozen.

Bij ANOVA is de onderzoeksvraag meestal: welk effect hebben X1 en X2 op de afhankelijke variabele Y? Dus: kunnen we met X1 en X2 Y voorspellen?

Formule

  • Yij = µ + αj + eij,- tusse

  • groepsvariantie (αj variantie rondom het gemiddelde µ)

  • binnengroepsvariantie (eij variantie rondom elk groepsgemiddelde αj).

Om hier achter te komen moet je eerst voor elke factor afzonderlijk het effect op Y bekeken.

Als de factor verdeeld is in 2 groepen, dan kan je een t-test uitvoeren waarin de gemiddelden van de 2 groepen worden vergeleken.

Als de factor is verdeeld in 3 of meer groepen, kan je een eenweg ANOVA uitvoeren. H0 stelt dat alle gemiddelden aan elkaar gelijk zijn, en Ha stelt dat minimaal 2 gemiddelden niet aan elkaar gelijk zijn. ANOVA vergelijkt de between-groep variantie (de variantie tussen de verschillende groepen) en de within-groep variantie (de variantie binnen één groep). Het verwerpen van H0 is waarschijnlijker als er een groter verschil is tussen de groepsgemiddelden (grotere between-groep variantie), als er kleinere verschillen zijn binnen de groepen (kleinere within-groep variantie) en als er een grote steekproefgrootte (N) is.

De formule van de F-toets van de eenweg ANOVA ziet er als volgt uit: Met de vrijheidsgraden df(between) = k-1 en df(within) = N-k. Formules van de verschillende varianties zijn tevens in de PowerPoint weergeven.

Om erachter te komen welke van de 3 groepen verschil maken, kan er een post-hoc toets (multiple comparisons) worden uitgevoerd.

Factoriële ANOVA

Tweeweg ANOVA: ‘twee’ geeft het aantal factoren aan.

Meestal wordt het factoriele ANOVA genoemd, maar er kan ook sprake zijn van een alternatieve benaming, zoals in het volgende geval; een 3 x 2 tussengroepen ANOVA:

  • Er zijn 3 categorieën van leiderschapsstijl;

  • Er zijn 2 categorieën van baantype;

  • Tussen groepen: elke participant heeft z’n eigen groep waar hij/zij deel van uitmaakt;

  • Binnen groepen.

Tweeweg ANOVA

Na het afzonderlijk checken van de effecten van de factoren op Y, moet het effect van de factoren samen worden bekeken; het interactie-effect. Hiervoor is de tweeweg ANOVA (twee staat voor het aantal factoren).

De voordelen van tweeweg ANOVA ten opzichte van eenweg ANOVA:

  1. Eenweg ANOVA biedt enkel hoofdeffecten. Tweeweg ANOVA biedt de mogelijkheid tot het onderzoeken van een gecombineerd effect van twee factoren: er kan zo gekeken worden naar het interactie-effect en dit geeft meer inzicht in individuele factoren;

  2. Er zijn meer factoren en het is een complexer model: dit is efficiënter/biedt meer informatie bij hetzelfde aantal proefpersonen (N), maakt vermindering van errorvariantie mogelijk (en verklaard hierdoor meer variantie) en zorgt voor meer statistische power en als er factoren worden toegevoegd, wordt hier rekening mee gehouden en wordt de analyse voor deze factoren gecorrigeerd.

Formule

  • Yijk = µ + αj + βk + φjk + eijk

  • Yijk is de score van persoon i in groep j van X1 en groep k van X2

  • µ is het gemiddelde

  • αj is het groepseffect van groep j van X1

  • βk is het groepseffect van groep k van X2

  • φjk is het interactie-effect

  • eijk is het residu (= error)

  • µ, αj, βk en φjk moeten worden geschat door middel van de data.

In SPSS vind je ANOVA onder Analyze > general linear model > univariate.

In de SPSS output wordt ook het Corrected Model en het Corrected Total weergeven. Het Corrected model is het model zonder het intercept. Hierin worden de effecten van de verschillende factoren en de interactiefactoren gecombineerd. Het Corrected Total is het totaal zonder het intercept.

Tweeweg ANOVA geeft 4 verschillende F-toetsen. Het Corrected Model, de 2 factoren hoofdeffecten en het interactie effect.

Formule

  • F = MSeffect MSError = (SSeffect/dfeffect) / (SSError/dfError)

  • SSeffect is de sum of squares van het effect

  • dfeffect is het aantal vrijheidsgraden van het effect

  • MSeffect = SSeffect/dfeffect is het gemiddelde sum of squares van he effect.

Om H0 te testen wordt het Corrected Model gebruikt. Om te bekijken hoe sterk de relatie is, gebruiken we de determinatiecoëfficiënt R2 (VAF). Goed om hierbij te weten is dat ANOVA vaak minder VAF heeft dan MRA (week 1). Dit komt omdat de voorspellers in ANOVA nominaal zijn in plaats van interval, waardoor ze minder informatie geven.

Eta squared (ƞ2) is vergelijkbaar met de semi-partiële correlatie van week 1. Het reflecteert hoeveel variantie van Y uniek wordt verklaard. Eta squared wordt niet gegeven in SPSS en moet je dus zelf uitrekenen. De eta squared van het Corrected Model is gelijk aan R2 (VAF).

Formule

  • ƞ2Effect = SSEffect / SSCorrected Total

  • Dit moet met de hand worden berekend.

  • Het geeft een percentage aan; vb) Zoveel procent van de variantie in arbeidstevredenheid kan worden verklaard door leiderschapsstijl.

  • Voor het totaal gebruik je: ƞ2Corrected Model = SSCorrected Model / SSCorrected Total

  • Voor de interactie gebruik je: ƞ2Interactie = SSInteractie / SSCorrected Total

  • De waarde moet tussen de 0 en 1 zijn (tot 100%).

Om de effecten te interpreteren gebruiken we de estimated marginal means. Dit zijn de geschatte gemiddelden volgens het ANOVA-model, oftewel de geobserveerde groepsgemiddelden gecorrigeerd voor ongelijke groepsgroottes (ongebalanceerd model) en covarianties in het model. Wanneer het design gebalanceerd is (gelijke groepsgroottes) en er zijn geen covarianties, dan is het estimated marginal means gelijk aan het geobserveerde gemiddelde.

Om te kijken of er significante verschillen zijn in de groepen, moet er naar het 95% betrouwbaarheidsinterval worden gekeken. Als er geen overlap is, dan is er een significant verschil.

Een alternatief is een multiple comparisons (post hoc tests). Hier worden alle gemiddelden gepaard weergegeven, inclusief 95% betrouwbaarheidsinterval. Deze test heet Tukey HSD. In de multiple comparisons tabel uit SPSS kan je de significanties aflezen en met elkaar vergelijken.

Bij de interpretatie van het interactie-effect gaat het erom dat er wordt gekeken of het effect van de ene factor afhankelijk is van een groep van de andere factor/variabele. Je kijkt naar de verschillen tussen hoofdeffecten en/of het verschil tussen de verschillen; vb) Is het hoofdeffect van leiderschapsstijl hetzelfde voor dat van baantype? Ter ondersteuning van deze interpretatie kan er een plot gebruikt worden. In zo’n plot is kun je zien dat er geen sprake is van een interactie-effect als de trendlijnen parallel aan elkaar lopen. Als er wel een interactie-effect is dan zie je bijvoorbeeld gekruiste lijnen (twee lijnen door elkaar) in het plot. In dit laatste plot (kruis) zijn er geen hoofdeffecten, maar is er wel een interactie-effect.

Een gebalanceerd design betekent dat elke groep gelijke groepsgroottes (N) heeft. Als het design gebalanceerd is, bestaan er geen onderlinge correlaties, dus: iedere factor grijpt een apart stukje variantie van de afhankelijke variabele. Dit kan je zien/weergeven in een Venndiagram. Dit model is simpeler en de power is groter dan bij een ongebalanceerd design.

Formule

SSCorrected Model =SSA + SSB + SSA*B

De assumpties van ANOVA zijn de volgende. De residuen moeten onafhankelijk zijn, er moet groepsnormaliteit zijn, kijk hiervoor naar de histogrammen per groep of doe een Kolmogorov-Smirnov test, en er moet sprake zijn van homoscedasticiteit (= gelijkheid van de groepsvarianties) en dit wordt getest met een Levene’s toets. Tests zijn gevoelig voor een groot aantal proefpersonen N.

Om te checken of de F-toets robuust is worden de volgende regels gebruikt.

  1. Robuust als de schending van de assumpties de Type 1 error (= alpha) niet substantieel beïnvloeden.

  2. Robuust tegen niet-normaliteit als N groter of gelijk aan 15 is in elke groep

  3. Robuust tegen ongelijke groepsvarianties als Nmax/Nmin kleiner of gelijk aan 1.5 (Nmax=aantal grootste groep, Nmin=aantal kleinste groep)

Als er sprake is van ongelijke groepsvarianties dan is:

  • Levene’s test significant;

  • het model ongebalanceerd;

  • Nmax / Nmin > 1.5.

Voor de F-toets geldt:

  • Indien er sprake is van de grootste variantie in de grootste groepen: de F-toets is te conservatief en H0 wordt niet vaak genoeg verworpen;

  • Indien er sprake is van de grootste varianties in de kleinste groepen: de F-toets is te liberaal en Ho wordt te vaak verworpen.

De partiele eta squared geeft aan hoeveel variantie van Y wordt verklaard door het effect dat niet verklaard kan worden door de andere variabelen in de analyse. Deze wordt wel berekend en weergegeven in SPSS. Vaak is er ongelijkheid tussen de partiele eta squared en eta squared, die hierboven al ter sprake kwam. Vaak is dit het geval: ƞ2effect ≤ partial ƞ2effect. Ook zijn de formules anders.

Formules

  • ƞ2x1 = U / (U+V+W+E)

  • partial ƞ2x1 = U / (U+E)

Opmerking: Planned comparisons waren ook onderdeel van dit college. Echter is hier in verband met de tijd geen uitleg over gegeven. Het afmaken van een ANOVA tabel is ook niet meer behandeld, maar dit is in de werkgroepen besproken dus dit heb ik bij kunnen schrijven.

Het afmaken van een ANOVA tabel

1. SSA*B berekenen: (in het geval van een gebalanceerd design) SSA + SSB + SSA*B = SSCorrected Model en SSCorrected Model + SSError = SSCorrected, dus: SSA*B = SSCorrected Total − (SSA + SSB + SSError);

2. df berekenen: Voor elk hoofdeffect (A en B in dit voorbeeld) geldt: df = aantal categorieën – 1 en dfA*B = dfA x dfB en dfCorrected Total = N – 1, dus: dfError = dfCorrected Total − (dfA + dfB + dfA*B).

3. Bereken Mseffect: MSeffect = SSeffect / dfeffect.

4. Bereken de F-waardes: Feffect = MSeffect / MSerror.

College 3: ANCOVA

Inleiding ANCOVA

We hebben nu een mengeling van voorspellers die zowel nominaal (categorisch) als intervalniveau hebben. Dan komen we bij ANCOVA uit. De vraag die wordt gesteld bij ANCOVA is: ‘Wat is het effect van X op Y na correctie voor C?’ Hierbij is Y op intervalniveau, X op nominaal (categorisch) niveau en C (Covariaat) op interval niveau. Covariaat is iedere intervalvariabele die je gebruikt in een variantieanalyse. Terwijl alle nominale (categorische) variabelen ‘factoren’ worden genoemd. ANCOVA is eigenlijk een combinatie tussen ANOVA en MRA (regressie). Makkelijker is het om ANCOVA te zien als een uitbreiding van ANOVA: ANCOVA = ANOVA + covariaat. ANCOVA is bruikbaar in zowel experimenteel als quasi-experimenteel onderzoek. Deze laatste gaat over bestaande groepen waarbij de onderzoeker bepaald welke groep de behandeling krijgt.

Formule

Yij = µ + αj + bw (Cij − C¯) + eij

Binnen het ANCOVA-model is mu het algehele gemiddelde, αj het groepseffect van groep j, bw het within-groups regressie gewicht, Cij de covariaat-score van individu i in groep j en C- de gemiddelde waarde van de covariaat. De parameters μ, αj en bw moeten worden geschat uit de data met behulp van ‘Least squares estimation’ (SPSS). Het ANOVA gedeelte van het model is µ +αj en het regressiegedeelte is bw (Cij – C-).

Doelstelling van het toevoegen van covariaten aan ANOVA

Er zijn drie doelstellingen om covariaten toe te voegen aan een ANOVA-model. In dit college worden de eerste twee doelstellingen uitgebreid besproken.

  1. Reduceren van error-variantie: een goed gekozen covariaat kan een deel van de error-variantie verklaren. Hierdoor kan de power van de F-toets verhogen.

  2. Verwijderen van systematische bias: onderzoeksgroepen kunnen systematisch verschillen op externe variabelen die gerelateerd zijn aan de afhankelijke variabele. De toevoeging van deze variabelen als covariaat kan zorgen voor een verwijdering van bias.

  3. Covariaten kunnen een alternatieve verklaring van het model zijn: externe variabelen kunnen alternatieve verklaringen van een effect geven. Controleer hiervoor bij het toevoegen van deze variabelen als covariaten. De conclusies kunnen dan hetzelfde zijn, maar nu is er gecontroleerd voor alternatieve verklaringen.

Dit hele proces valt of staat bij de kwaliteit van de covariaten.

Reduceren van error-variantie

Een geprefereerd model in experimenteel onderzoek is het pretest/post-test controle design. Hierbij is sprake van een random toewijzing in experimentele of controlegroep en een voormeting (pre-test). Hierna ontvangt de experimentele groep een behandeling en de controlegroep niet. Dan wordt er een nameting (post-test) gedaan. Als de behandeling effectief is verwachten we een significante F-toets. Dit houdt in dat de groepsgemiddelden verschillen in de post-test.

Random toewijzing van mensen aan groepen zorgt voor uitsluiting van systematische verschillen, maar kan niet garanderen dat de groep gelijk is op elke manier. Een groot gedeelte van de variantie van de post-test (Y) ontstaat door individuele verschillen. Deze individuele verschillen worden allemaal toegewezen aan de error (onverklaarde deel van Y). Als de error groot is, is er een hele grote variatie tussen de mensen. Dan wordt de F-toets klein en de p-waarde groot. Hierdoor is er geen significant verschil. Als F dicht bij de 0 ligt is de kans groot dat de nulhypothese klopt. Het voordeel van het hebben van twee groepen is dat je veranderingen over tijd kan bekijken.

De ANOVA F-toets kun je berekenen met de volgende formule:

F= MStreatment/MSerror
Hierbij geldt: als de error groot is dan is F klein, je p-waarde groot en er is geen sprake van een significant verschil.

Wanneer je een covariaat zoekt die hoog correleert met Y dan hebben C en Y veel individuele verschillen met elkaar gemeenschappelijk waardoor C en Y een deel van de errorvariantie delen. Een goedgekozen covariaat die toegevoegd wordt aan het ANOVA model verklaart een deel van de errorvariantie, waardoor MSerror kleiner wordt en F groter wordt en meer power heeft. Het is mogelijk dat het model voor het toevoegen van de covariaat nog niet significant was, maar erna wel.

Om te kijken wanneer je ANCOVA toepast kun je eerst het ANOVA model bekijken. Als het ANOVA model niet significant is en je denkt dat dit komt door de vele individuele verschillen, dan kun je een geschikte covariaat kiezen en een pretest uitvoeren. De pretest bevat een deel van de individuele verschillen van de post-test. Als iemand bijvoorbeeld in de pretest beneden gemiddelde scoort dan zal hij in de post-test ook relatief laag scoren. ANOVA + pretest = ANCOVA. Wanneer de covariaat genoeg errorvariantie reduceert, is de F-test significant. Vervolgens kun je via SPSS naar de tabel ‘estimated marginal means’ kijken en bepalen welk gemiddelde het grootste is en of er dus sprake is van een positief effect. Dus: ANOVA alleen is in dit geval niet genoeg, we hebben meer statistische power nodig en hiervoor doen we een ANCOVA.

Voorbeeld: Spatiele vaardigheden

Spatiele vaardigheden zijn belangrijk in het dagelijks leven om jezelf te kunnen oriënteren in je omgeving (bijvoorbeeld kaartlezen of de weg naar huis vinden) en deze kunnen worden getoetst aan de hand van een Spatiele visualisatie test.

Een ontwikkelingspsycholoog bestudeert in dit voorbeeld wat het effect van videogamen op spatiele visualisatievaardigheden is. Er zijn twee groepen, een game- en een controlegroep. In beide groepen zitten 40 proefpersonen. Het gaat hier om een gebalanceerd experimenteel design, er zijn immers twee gelijke groepen. Zonder de pre-test als covariaat in onze analyse krijgen we geen significant effect, als we dit wel doen wel (zie sheets). Door de pre-test mee te nemen is onze error kleiner geworden en onze F-waarde significant: er is dus wel verschil. Kijk ook naar de estimated marginal means. In dit geval is deze waarde groter voor gaming dan voor controle.

Voorbeeld II (zie sheets) illustreert een soort gelijk verhaal.

Verwijderden van systematische bias

Dit wordt gebruikt bij quasi-experimenteel onderzoek, oftewel onderzoek naar al bestaande groepen. Deze groepen kunnen systematisch verschillen op variabelen die gerelateerd zijn aan de afhankelijke variabele. Dit kan verschillende effecten hebben:

  1. Echte effecten worden gemaskeerd. Als er sprake is van één sterke groep en één zwakke groep en de zwakke groep krijgt een training die effectief blijkt te zijn, dan verbeteren de mensen binnen de zwakke groep. De training werkt, maar er is geen significant verschil zichtbaar tussen de zwakke en de sterke groep, omdat de sterke groep al van het begin af aan zat op het niveau waar de zwakke groep na de training zit.

  2. Valse effecten worden ook gemaskeerd. Als een training eigenlijk niet effectief is, maar de training wordt gegeven aan een sterke groep, dan lijkt de trainingsgroep de betere groep te zijn. De verschillen tussen de twee groepen komen dan door de verschillen die al bestonden voorafgaand aan de training (sterk-zwak).

Wanneer je een covariaat gaat toevoegen moet je je afvragen of het een bruikbare covariaat is. Dit is het geval als een substantieel verschil is tussen de verschillende groepsgemiddelden op de covariaat. Als gedachte-experiment vraag je je af of er binnen de groep een effect zichtbaar zou zijn wanneer de groepsgemiddelden gelijk waren. Hiervoor kijk je naar de SPSS tabel ‘test of between-subjects effects.’ Hierbinnen kijk je of na toevoeging van de covariaat met behulp van de F-toets of de betreffende onafhankelijke variabele een significant effect heeft. Indien dit geval is, dan heeft de onafhankelijke variabele effect op de afhankelijke variabele.

Wanneer er sprake is van twee variabelen kun je in de SPSS tabel ‘estimated marginal means’ kijken en de gemiddelden vergelijken. De gemiddelde die groter is heeft een groter effect op de afhankelijke variabele. ‘Estimated marginal means’ zijn de geobserveerde gemiddeldes, oftewel de kleinste kwadratenschatters (least square estimates) van de groepspopulatiegemiddelden. Binnen een gebalanceerd design zijn deze 'estimated marginal means' de aangepaste groepsgemiddeldes, aangepast voor eventuele verschillen op de covariaat. Binnen een gebalanceerd design zijn het aangepaste groepsgemiddeldes voor eventuele verschillen op de covariaat en voor ongelijke groepsgroottes.

Assumpties van ANOVA en ANCOVA modellen

Assumpties zijn nodig voor steekproefverdelingen van F-toetsen. Het gaat hierbij om karakteristieken binnen de populatie, niet binnen de steekproef. Als niet aan de assumpties wordt voldaan heeft dit effect op de sum of squares en de F-statistieken. Hierdoor kunnen verkeerde conclusies over significantie getrokken worden. ANCOVA = ANOVA + Regressie. Alle ANOVA assumpties en sommige regressieassumpties gelden voor ANCOVA.

Assumpties van ANOVA

  • Onafhankelijkheid van de residuen

  • Groepsnormaliteit

  • Homogeniteit van de groepsvarianties

Onafhankelijke residuen worden meestal niet onderzocht. Groepsnormaliteit en homogeniteit van de groepsvariaties kan onderzocht worden met behulp van de Kolmogorov-Smirnov test, de Levene’s test en de (robuuste) F-test. Robuustheid houdt in dat schending van een bepaalde assumptie de type I fout (alpha) beïnvloedt. Er is robuustheid voor non-normaliteit wanneer N 15. Er is robuustheid voor heterogeniteit van de varianties wanneer Nmax/Nmin 1,5.

Regressie-assumpties

  • Covariaat wordt gemeten zonder meetfouten (error)

  • Lineariteit: lineaire relatie tussen covariaat en afhankelijke variabele

  • Parallellisme van regressielijnen: regressielijnen tussen de covariaat en de afhankelijke variabele hebben hetzelfde within-groups regressiegewicht (bw)

Lineariteit kan bekeken worden door naar de scatterplot te kijken van de voorspelde waardes vs. de gestandaardiseerde residuen (zelfde als bij MRA). Parallellisme van de regressielijn kun je bekijken met een scatterplot. Bij een scatterplot van de verschillende groepen is de aanname dat de regressielijnen die je afzonderlijk voor deze groepen door de puntenwolken kunt trekken ongeveer dezelfde hellingshoek hebben. Echter hierbij gaat het om de steekproef en zullen de lijnen dus nooit helemaal parallel zijn. Men moet dus ook testen voor de populatie. Dit kan met behulp van een ANCOVA inclusief de Treatment*Covariate interactie. Als het interactie effect (in Test of between-subjects effects SPSS) significant is, dan is er sprake van parallellisme van regressielijnen.

De drie stappen van ANCOVA

  1. ANOVA om te checken of factor X effectief is

  2. Als factor X niet effectief is dan bekijken van ANCOVA + Treatment * Covariate interactie om de parallellisme assumpties te checken. In het behandelde voorbeeld moet je de interactie zelf expliciet toevoegen in SPSS en kijk ook alleen naar het interactie-effect om de assumptie te checken. Haal daarna de interactie eruit en voer dan de ANCOVA uit.

  3. Als de interacties niet significant zijn: ANCOVA

Gepoolde within-group correlatie

We onderscheiden twee soorten correlaties.

  1. De totale correlatie (rYC): de correlatie tussen de afhankelijke variabele (Y) en de covariaat.

  2. De gepoolde within-groups correlatie (rYC(W)): de correlatie tussen de afhankelijke variabele (Y) en de covariaat C binnen de groepen.

Waarom zijn covariaten bruikbaar?

  1. Als de gepoolde within-groep correlatie rYC(W) verschilt van 0, wordt de error-variantie gereduceerd. Als de rYC(W) > rYC, wordt de statistische power van de F-toets vergroot.

  2. Als de groepsgemiddelden verschillen op de covariaat, is het mogelijk om systematische bias te verwijderen.

Om erachter te komen welk groepsgemiddelde hoger is na correctie kun je deze visuele tool gebruiken:

  1. Begin met de scatter plot van de afhankelijke variabele Y en de covariaat C

  2. Plot de groep gemiddeldes

  3. Teken de within-groups regressielijnen

  4. Bereken het gemiddelde van de covariaat

  5. Teken een verticale lijn op het gemiddelde van de covariaat

  6. De snijpunten van de regressielijnen en verticale lijnen zijn de aangepaste groepsgemiddelden

Mean adjustments

Formules

  • Y¯ j* = Y¯j – bw (C¯j − C¯)

  • Voor een gebalanceerd design: C¯ = (C¯A + C¯B)/2 enA* = Y¯A − bw(C¯A − C¯) enB* = Y¯B − bw(C¯B − C¯)

Er werden nog een aantal grafieken gepresenteerd tijdens het college. Deze gaan we zelf draaien in SPSS.

College 4: Logistische regressie analyse (LRA)

Introductie

Deze week gaan we iets heel anders doen dan in de vorige weken. Toch gaan we ook nu weer een regressie doen. De afhankelijke variabele Y is echter binair in plaats van interval. Een binaire variabele heeft twee categorieën die als 0 en 1 worden gecodeerd. De predictoren kunnen van intervalniveau of van binair niveau zijn.

Logistische regressie wordt in de praktijk vaak gebruikt omdat veel variabelen een binaire uitkomst hebben, bijvoorbeeld bij het voorspellen van overlevingskans (wel/niet overlijden).

Binaire uitkomstmaten kunnen worden uitgedrukt in proporties en percentages. Bijvoorbeeld: hoeveel mensen gaan het tentamen halen en hoeveel niet? Deze kan je interpreteren als proporties van het totaal. Dit is makkelijker te interpreteren dan lineaire regressie, maar het model is wel wat complexer.

Voorbeeld bij LRA

Een schoolpsycholoog vraagt zich af of het halen van een examen kan worden voorspeld op basis van het aantal studie-uren en het aantal gevolgde colleges.

  • N = 421 studenten

  • aantal studie-uren, aantal gevolgde colleges: interval

  • halen, niet halen: binair

Op de sheets staat een overzicht weergegeven van het bijbehorende scatterplot. Je ziet hierop een beetje een vreemde puntenwolk. Er zijn twee categorieën op de y-as (0 en 1). Mensen die weinig gestudeerd hebben zijn bijna allemaal gezakt, een enkeling heeft weinig gestudeerd en is toch geslaagd. Andersom hebben de studenten die veel gestudeerd bijna allemaal hun tentamen behaald, een enkeling is gezakt. We willen het aantal studie-uren gebruiken om de slagingskans te voorspellen. Met lineaire regressie zou dit kunnen. Je trekt een lijn door de puntenwolk. Dit is echter geen goede beschrijving van de data, aangezien de y een waarde van onder de 0 en boven de 1 aanneemt. Een andere reden om geen regressieanalyse te gebruiken ligt in de assumpties. Deze worden later besproken.

De relatie tussen het aantal studie-uren en het wel of niet slagen kan wel goed worden beschreven met een s-curve. Deze curve kan de onderliggende relaties goed beschrijven. Je rekent de proporties uit per groep. Je ziet dat als je meer studie-uren maakt, je meer kans hebt op slagen en andersom. Dit is inzichtelijker. De curve begint bij de nul en stijgt langzaam naar de 1, maar hij raakt de 0 en 1 net niet helemaal. Scores lager dan 0 en hoger dan 1 zijn niet mogelijk, want we interpreteren de scores als kansen. De curve loopt het meest stijl halverwege en is niet-lineair. De curve bestaat uit exponenten (zie hieronder).

De logistische regressievergelijking

Bij LRA gaan we werken met machtsverheffingen in de vorm van an = c. Je vermenigvuldigt a n keer met zichzelf om c te krijgen.

Een beroemde rekenkundige constante is het getal e (=2.718….). Wanneer je e macht-verheft wordt de waarde van e steeds groter met steeds grotere intervallen. Let op: e0 = 1. De curve loopt eerst heel vlak, maar loopt al gauw een stuk steiler omhoog. Dit wordt een exponentiële functie genoemd. De waarde die en aanneemt, loopt van 0 tot +∞.

De logistische functie kan worden beschreven als P = en / 1 + en. Door middel van deze functie krijgen we s-curve. De logistische functie heeft een bereik van 0 tot 1. Als n groot en negatief is, is de kans P klein. Als n groot en positief is, is de kans P groot. Indien geldt: n = 0, geldt e0 = 1. De bijbehorende kans wordt dan 1 / 1 + 2 = 0.5. Deze functie gebruiken we om regressie mee te doen.

In de logistische functie wordt n vervangen door een lineair regressie gedeelte:

P1 = ea+b1x1+b2x2+…. / 1 + ea+b1x1+b2x2+….

P1 is hier de kans op slagen (slagen = 1). a is de constante onder B (uit de SPSS tabel). b1 en b2 zijn de regressiecoëfficiënten. x1 en x2 zijn de geobserveerde predictoren. We kunnen dit model gebruiken als onze uitkomstvariabele (y) binair is.

Eigenschappen:

  1. Y is binair

  2. Het model geeft = P1 kansen

  3. De doelgroep is slagen

  4. Als we de kans op slagen (P1) weten, weten we ook de kans op zakken P0:

P0 = 1 – P1 (dus: 1- de kans van slagen)

Hoe de curve loopt, hangt af van de data. Hoe steiler de curve loopt, hoe groter de regressiecoëfficiënt is. Dit is het geval als het slagen en zakken goed uit elkaar te houden zijn. De R2 (proportie verklaarde variantie) is hoog. En: hoe platter de curve, hoe slechter je voorspelling en hoe lager je waarde van de verklaarde variantie. Dit het geval bij een lage b1 of richtingscoëfficiënt.

De evaluatie van het model

Bij statistisch modelleren voeg je steeds een predictor aan je model toe, waardoor je model steeds beter bij de data past. Je bouwt het model steeds uit en neemt alleen de constante, b0, mee. Hiervoor moet je heel veel modellen nagaan, totdat je ene model hebt dat de data goed beschrijft. Je start met een 0-model. In dit model zitten geen voorspellers. Er zitten dus geen x-en in. Wanneer je naar model 1 gaat, wordt x1 toegevoegd. Wanneer je naar model 2 gaat, voeg je x2 toe enzovoorts. Hoe meer data en hoe meer voorspellers je hebt, hoe uitgebreider je model wordt. Er zijn twee bijbehorende fitmaten: R2 (verklaarde variatie ≠ verklaarde variantie) en -2LL (-2 log likelihood). De -2LL is een maat die aangeeft hoe goed of hoe slecht de data door het model wordt beschreven. Hoe hoger de waarde van de -2LL, hoe minder goed het model bij de data past, want -2LL is eigenlijk een waarde van alle variantie die je niet verklaard hebt door middel van je model. Het 0-model past altijd het minst goed bij de data. Je vergelijkt een aantal modellen met elkaar en kijkt welk model de meeste variantie verklaart.

Ieder model heeft een -2LL. Alleen wanneer je twee geneste modellen* met elkaar vergelijkt, kun je de bijbehorende -2LL van elkaar aftrekken. Hieruit vormt zich de X2 verdeling. Het aantal vrijheidsgraden dat hierbij hoort is het aantal extra predictoren in het complexere model. Je kan de X2 en de bijbehorende p-waarde opzoeken in de X2 tabel. Met dit verschil kun je toetsen of het complexere model significant beter is dan het eenvoudigere model.

* bij geneste modellen past model 1 in model 2, het tweede model is dus een complexere versie van het eerste model.

Voorbeeld (vervolg)

Slaag je wel/niet voor het tentamen (Y)? Dit wordt voorspeld met behulp van het aantal studie-uren (x1) en het aantal gevolgde hoorcolleges (x2).

Aan de hand van de Omnibus Tests of Model Coefficients (SPSS) kun je de nulhypothese toetsen. Wanneer de X2 scores significant groter dan 0 zijn, kan H0 worden verworpen; er is dan tenminste één regressiegewicht ongelijk aan 0.

In de Model Summary* (SPSS) kun je bij de -2Log likelihood (-2LL) zien hoe sterk de relatie is. De -2LL wordt ingevoerd in de formule van Hosmer en Lemeshow:

RL2 = -2LL0 – -2LL3 / -2LL0

Je vergelijkt je huidige model, bijvoorbeeld model 1 of model 2, dus altijd met het nulmodel. RL2 geeft de proportionele reductie in -2LL weer. Je krijgt een kans (percentage) uit de berekening van RL2en kijkt wat de toevoeging van predictoren doet voor het verklaren van de variantie. *Voor het nulmodel kijk je bij ‘Iteration history’.

Om de significante predictoren te bepalen, kun je de B met de standaarderror gebruiken om de Wald statistiek te berekenen. Voor de Wald statistiek geldt:

X2 = (b / SEb)2

Met deze statistiek wordt de B-waarde met 0 vergeleken. De nulhypothese is dat bj* gelijk is aan nul (en de alternatieve hypothese is dat dit niet het geval is).

Let op: bij logistische regressie staat de constante in SPSS altijd onderaan de tabel. Bij andere technieken staat de constante juist bovenaan weergegeven.

De logistische regressievergelijking kun je invullen aan de hand van de SPSS tabel Variables in the Equation. Hiervoor gebruik je de constante B-waarde voor a en de B-waarden behorend bij de verschillende x-variabelen bij b1 b2 enzovoorts.

Met de logistische regressievergelijking bereken je de kans op slagen. Wanneer je een voorspelling wilt doen over het al dan niet slagen en als je wilt weten hoe goed het model is, gebruik je de volgende beslisregel: als de kans lager dan .5 ligt, ben je gezakt. Als de kans gelijk is aan of hoger is dan .5, ben je geslaagd. De Classification Table (SPSS) geeft het percentage goed voorspelde gevallen en het gewogen gemiddelde daarvan: hoeveel procent is er in totaal correct voorspeld? Dit is een alternatief voor de RL2.

Positive predicted value (PPV): geslaagdgoed voorspeld / geslaagdalle (goede) voorspellingen

Negative predicted value (NPV): gezaktgoed voorspeld / gezaktalle (foute) voorspellingen

Odds en odds ratio (OR)

Bij de logistische regressiecoëfficiënt krijg je ook te maken met de odds. Dit is de kansratio: de kans dat een bepaalde gebeurtenis plaatsvindt gedeeld door de kans dat deze gebeurtenis niet plaatsvindt:

Oddsslagen = p / 1-p. (Dus: kans dat je het gaat halen (p) gedeeld door de kans dat je het niet gaat halen (1-p).)

Elke voorspeller heeft een odds ratio (OR). Dit is de factor waarmee de odds groter worden bij een toename van 1 op de voorspeller:

OR = Oddsx=5 / Oddsx=4.

OR kan niet kleiner zijn dan 0 maar wel oneindig groot. Als OR gelijk is aan 1 dan is de kans dat je het gaat halen net zo groot als dat je het niet gaat halen (50-50, dus 50% voor halen en 50% voor niet halen). Als OR kleiner is dan 1 dan is de kans groter dat je het niet gaat halen dan dat je het wel gaat halen en als OR groter is dan 1 dan is de kans groter dat je het gaat halen dan dat je het niet gaat halen.

De OR kan ook met behulp van de b-coëfficiënt worden berekend:

OR = eb1

In SPSS zie je de OR terug onder de kolom Exp(B). Ook geldt er:

OR(k) = OR(1)k

k is hierbij het aantal units dat de odds toenemen, bijvoorbeeld: k=10 wanneer je 10 uur extra studeert.

Bij de OR is ook een 95% betrouwbaarheidsinterval van belang. Dit doe je met behulp van de regressiecoëfficiënt. Je gebruikt een z-waarde van 1.96 (standaard getal). Je gebruikt ook de b1 en de SEb1:

b1 ± z*SEb1 = 95% betrouwbaarheidsinterval (CI)

De twee waardes die je hieruit krijgt vul je in in de OR formule op de plek van b1 (OR = eb1). Tussen de getallen die hieruit komen, ligt de OR met 95% zekerheid.

Als je wil weten wat het aantal uren studeren is wanneer de kans 50% is dat je het gaat halen (en 50% dat je het niet gaat halen) dan stel je P1 gelijk aan 0,5. Je stelt dan de regressievergelijking gelijk aan 0 en je kijkt zo wat het cut-off point is. (Zie ‘probabilty fail/pass’ op de sheets).

Assumpties bij LRA

  1. Lineair verband tussen de log odds van y en x-en (klopt (bijna) altijd* (hoef je niet te checken)

  2. De predictoren moeten gemeten zijn zonder meetfout (hoef je niet te checken)

  3. Onafhankelijke residuen (hoef je niet te checken)

  4. Afwezigheid van multicollineariteit (= de predictoren zijn onderling hoog gecorreleerd; kan je checken door het uitdraaien van een MRA of van de correlaties in SPSS)

Bij binaire afhankelijke variabelen is MRA niet mogelijk vanwege de assumpties normaliteit van de residuen en homoscedasticiteit. Beide assumpties zijn niet nodig bij LRA.

In vergelijking met MRA heb je bij LRA ten minste 30 individuen (N) (N/k ≥ 30) nodig per predictor (k) (MRA: 20 individuen per predictor).

LRA vs. MRA

LRA gebruikt iets minder assumpties dan MRA dit maakt dat dat conclusies die we trekken vaak wat meer valide zijn (we hoeven immers geen assumpties te maken). Maar ze lijken voor een groot deel wel op elkaar: we hebben nog steeds dezelfde regressiecoëfficiënt, we testen nog steeds het overall model en we testen ook de losse coëfficiënten.

Verschillen tussen MRA en LRA

  • LRA heeft een lineair model, MRA een non-lineair model;

  • bij MRA kijken we naar de kleinste kwadraten, bij LRA naar de maximum likelihood;

  • bij het interpreteren kijken we bij MRA naar de verklaarde variantie (VAF of R2) en bij LRA naar het pseudo r-kwadraat (RL2) of de correcte classificatie

  • bij MRA kijken we naar de beste predictor en bij LRA niet.

College 5: MANOVA en descriptieve DA

Overzicht MVDA deel 2

In deel 1 wilden we één afhankelijke variabele Y voorspellen uit een aantal onafhankelijke variabelen X. Alleen de meetniveaus varieerden. In deel 2 gaan we elke keer wat anders doen.

Bij MANOVA willen we een set van intervalvariabelen zo goed mogelijk voorspellen met behulp van een indeling in groepen. Bij RMA (college 6) willen we gemiddelden vergelijken op verschillende variabelen binnen dezelfde groep. Met mediatie-analyse (college 7) gaan we het hebben over kleine causale modellen met een causale factor.

MANOVA: wanneer, waarvoor?

MANOVA is redelijk overzichtelijk: we hebben een aantal afhankelijke intervalvariabelen (p) die we voorspellen uit één of meer nominale variabelen verdeeld over k groepen. Dit wordt multivariate variantie-analyse genoemd. We zijn bezig met de vergelijking van gemiddelden, maar we bekijken nu meerdere variabelen tegelijk in een onderlinge samenhang (= multivariaat). Als het gaat om één afhankelijke variabele gebruiken we een ANOVA, als het gaat om meerdere afhankelijke variabelen gebruiken we een MANOVA. Bij onafhankelijke variabelen maak je het onderscheid tussen 1 onafhankelijke variabelen en meerdere onafhankelijke variabelen in een-/ twee-/ drieweg- enzovoorts.

Overzicht

ANOVA: één afhankelijke variabele

MANOVA: twee of meer afhankelijke interval variabelen voorspellen op basis van 1 of meer onafhankelijke nominale variabelen. Deze afhankelijke variabelen zijn vaak ook aan elkaar gerelateerd, bijvoorbeeld angst en depressie.

Aantal onafhankelijke variabelen wordt aangegeven met eenweg, tweeweg of drieweg.

We zouden ook meerdere ANOVA’s kunnen doen in plaats van één MANOVA. Waarom doen we dat dan niet? Er zijn twee problemen:

  • Je krijgt meerdere F-toetsen waardoor de kans op type-I fouten te groot wordt, dus de kans dat er door puur toeval één van de F-toetsen significant wordt is dan groter.

  • Bij meerdere ANOVA’s houd je geen rekeningen met de onderlinge relaties tussen de afhankelijke variabelen

Multivariate toetsen

H0: het gemiddelde van groep 1 op variabele 1 is gelijk aan het gemiddelde van groep 2 op variabele 1 is gelijk aan het gemiddelde van groep k op variabele 1. Als de nulhypothese klopt hebben alle groepen per variabele dus hetzelfde gemiddelde. In woorden is de nulhypothese: “er is geen enkele relatie tussen de set nominale variabelen en de set intervalvariabelen.” Voor elke afhankelijke variabele geldt dat de populatiegemiddelden gelijk zijn aan elkaar.

Afkortingen

k = groep
p = aantal afhankelijke variabele

De nulhypothese kan worden getoetst met de multivariate toetsen Wilks, Pillai’s, Hotellings en Roys. Dit zijn allen zinvolle en goed verdedigbare manieren om de nulhypothese te toetsen. Welke de beste is, weten we niet. Ze geven echter niet altijd alle vier gelijke antwoorden. Als de multivariate toetsen niet significant zijn, handhaaf je de nulhypothese. Bij significante multivariate toetsen moet je de alternatieve hypothese aannemen en de nulhypothese verwerpen.

Wanneer je de alternatieve hypothese aanneemt weet je dat er op tenminste één afhankelijke variabele minstens één verschil is tussen groepsgemiddelden. Dit is nog niet heel veel informatie. Je moet dus verder zoeken. Dit kan op vier verschillende manieren, waaronder de Protected F benadering en de Descriptieve discriminant-analyse. Alleen deze twee worden besproken.

Protected F benadering

Als je meerdere univariate ANOVA’s doet, wordt de kans op Type-I fouten nogal groot. Dat is niet de bedoeling. Wanneer je het als een tweestapsprocedure doet, helpt dit tot op zekere hoogte. Je doet eerst een multivariate toets en zodra deze significant is, ga je pas een univariate toets doen. De univariate toetsen worden als het ware beschermd tegen type-I fouten door de multivariate toetsen.

3 stappen

Voordat je aan alles begint, moet je de assumpties checken (0). Daarna inspecteer je de multivariate toetsen (1), als deze significant zijn kijk je naar de univariate toetsen (2) en alleen bij variabelen met een significante univariate F-waarde vergelijk je de gemiddelden (3).

Er is inmiddels ook kritiek op de Protected F benadering gekomen: de bescherming door de multivariate toetsen is onvoldoende. De bescherming is slechts gedeeltelijk en ontoereikend. Toch wordt hier in de praktijk weinig mee gedaan.

Assumpties

Multivariate normaliteit van de errors: elk van de afhankelijke variabelen moet een normaal verdeling hebben voor de errors en is ook normaal verdeeld voor alle mogelijke combinaties van waarden voor de andere afhankelijke variabelen. Als geldt n > 20 per cel, hoef je je geen zorgen te maken wat betreft deze assumptie, want dan zijn de multivariate tests redelijk robuust.

Homogeniteit van de variantie-covariantiematrices: er moet sprake zijn van gelijke varianties én gelijke covarianties in alle groepen. Dit is nogal een heftige aanname. Als de groepen ongeveer even groot zijn, heb je hier weinig last van (nmin / nmax < 1.5). Er bestaat ook een toets om deze assumptie te checken: de Box M toets. Deze is echter heel gevoelig en wordt zeer snel significant. Daarom toets je extra streng. Alleen als de p-waarde kleiner is dan .001 nemen we Box M serieus, want als dit het geval is, kunnen we het helaas niet gemakkelijk oplossen en hebben we dus een probleem. Het enige dat je hier kunt doen, is het nadrukkelijk in je verslag zetten. Je bent dus minder zeker over de uitkomst van de toets dan je zou willen, wat vooral van belang is bij waarden die net wel, of net niet significant zijn.

Onafhankelijke errors: de error van de ene persoon mag niets zeggen over de error van de andere persoon (onafhankelijk van tot welke groepen de personen behoren). Hier is geen standaard check voor, dus om de assumptie te checken moet je voornamelijk kijken naar de onderzoeksopzet.

MANOVA in SPSS

In dit voorbeeld zijn er 4 sociale beroepen (medisch, verpleging. psychosociaal en leraren) die vergeleken worden op 3 klachten die voorkomen bij een burn-out (emotionele uitputting, verminderde persoonlijke bekwaamheid en depersonalisatie).

  • Stap 0: check de assumpties. Er zijn hoogstwaarschijnlijk onafhankelijke errors. Er zijn ongelijke groepsgroottes, dus moet de Box M toets worden uitgevoerd. Deze is significant, maar de p is groter dan 0.001 dus dat is buiten de zone waarin we ons zorgen moeten maken. Omdat we hier protected F doen en omdat de variantie homogeen moeten zijn, kijken we ook naar de Levene toetsen. Deze zijn significant voor depersonalisatie dus dit moeten we in gedachte houden.

  • Stap 1: We kijken naar de multivariate toetsen voor beroep. Ze zijn allemaal significant dus alle p’s zijn kleiner dan 0.001.

  • Stap 2: We kijken naar de univariate F toetsen (die krijg je bij de ANOVA-tabel). Hier is het van belang om te kijken naar het effect van beroep. 1 van de burn-out klachten, depersonalisatie, is niet significant voor het effect van beroep. Vanaf nu hoeven we niet meer te kijken naar depersonalisatie, we gaan alleen de gemiddeldes interpreteren van de andere 2 burn-out klachten.

  • Stap 3: Je kijkt welke gemiddeldes zich het meest onderscheiden van de andere gemiddeldes (Zie sheets: wie scoort er hoger op emotionele uitputting en wie op verminderde persoonlijke bekwaamheid? Antwoord: psychosociale- en lerarenberoepen scoren het hoogst op emotionele uitputting en leraren alleen het hoogst op verminderde persoonlijke bekwaamheid). Daarna kijk je welke gemiddeldes significant het meest verschillen. Dit doe je met de Tukey post hoc test, dit bevindt zich in de ANOVA uitwerkingen, je hoeft geen aparte test te doen. Of een gemiddelde significant verschilt hangt af van de groepsgrootte; grote groepen worden sneller significant dan kleine groepen.

Uitbreidingen van MANOVA

MANOVA kan op verschillende manieren worden uitgebreid. Zo kun je een meerweg MANOVA of een MANCOVA uitvoeren. Alles wat je met ANOVA kan, kun je eigenlijk ook met MANOVA. Elke uitbreiding krijgt wel een eigen multivariate toets.

DA: descriptief of predictief

Discriminantanalyse (DA) is een omgekeerde MANOVA. Op basis van p (twee of meer) intervalvariabelen wil je een zo goed mogelijk onderscheid maken tussen k groepen (meer dan twee).

Er bestaan twee varianten: descriptieve DA (je wilt een zo goed mogelijke multivariate beschrijving geven van de verschillen tussen de groepen) en predictieve DA (je wilt zo goed mogelijk kunnen voorspellen tot welke groep een persoon eigenlijk hoort). De predictieve DA wordt verder bij psychometrie besproken, bij MVDA hebben we het enkel over descriptie DA.

MANOVA en DA zijn volledig gelijk wat betreft multivariate toetsen en discriminantfunctievariaten. Het enige verschil tussen MANOVA en DA is dat de X en Y verwisseld zijn.

Discriminantfunctievariaten

Discriminantfunctievariaten zijn lineaire combinaties van de intervalvariabelen:

Dj = b1jY1 + b2jY2 + … + bpjYp

Afkortingen

p = aantal afhankelijke variabelen
j = variaat
(g = groep)

De gewichten van de eerste discriminantfunctievariaat (D1) worden zo gekozen dat er een maximaal onderscheid kan bestaan tussen de k groepen. Bij de tweede discriminantfunctievariaat (D2) gebeurt dit ook, maar mag de tweede variaat in zijn geheel niet gecorreleerd zijn met de eerste variaat (= orthogonaal). Dit geldt ook voor de derde variaat (D3) etc.

Het maximum aantal discriminantfunctievariaten is of k groepen – 1 of p (kies de kleinste).

imax = min (k – 1, p).

Discriminantfunctievariaten kunnen worden gezien als een soort onderliggende dimensies voor zover ze onderscheid tussen groepen laten zien.

Descriptieve DA

Als de multivariate toets significant is, kun je descriptieve DA gebruiken als alternatief voor de Protected F benadering.

Er zijn drie hoofdstappen:

  1. Bereken het aantal discriminantfunctievariaten die voldoende verklaarde variantie hebben op 5%-niveau en vooral die te interpreteren zijn.

  2. Interpreteer de discriminantfunctievariaten.

  3. Bepaal de positie van groepen op de discriminantfunctievariaten. Voor elke groep op elke variaat vervang je hiervoor de Y’s in de formule van Dj door de groepsgemiddelden.

SPSS

  1. Vaststellen van het aantal variaten:

  • kijk bij ‘Wilks lambda’ naar de significantie;
  • en kijk bij bij ‘Eigenvalues’, ‘% of Variance’. Dan zie je de eigenwaarde: de proportie verklaarde variantie van wat er verklaard wordt (en niet van het totaal!).
  1. Interpreteren van de variaten:

  • kijk hiervoor in de ‘Structure Matrix’;
  • en vergelijk de gevonden waarden van elke groep met elkaar.
  1. Kijk naar de groepen op de variaten:

  • kijk hiervoor naar ‘Functions at Group Centroids’;
  • en naar ‘Group means on variables’;
  • welke groep springt eruit?

Plaatje (slide 26): de lengte van de vectoren (pijlen) bepaalt het belang van de vector (hoe langer, hoe belangrijker). En een scherpe hoek betekent positieve samenhang en een stompe hoek, negatieve samenhang.

Descriptieve DA heeft een paar beperkingen:

  • Descriptieve DA werkt alleen bij goed interpreteerbare discriminantfunctievariaten.

  • Multivariate verschillen tussen groepen zou je graag willen toetsen, maar dit kan niet met SPSS.

College 6: Repeated measures ANOVA

1. Wanneer, waarvoor?

We hebben het alleen over herhaalde metingen van intervalvariabelen. Er zijn vier soorten situaties met herhaalde metingen:

  • Tijdreeks (hoe ontwikkelt de variabele zich over de tijd?) vb. test over sociale angst afnemen bij kinderen als ze 4, 6, 8, 12 zijn om te kijken hoe dit zich ontwikkelt over tijd. Je gebruikt dezelfde metingen op verschillende tijdstippen. Dit wordt longitudinaal genoemd.

  • Herhaalde metingen experiment (elke proefpersoon doorloopt verschillende condities waarbij er een identieke meting is: je vergelijkt mensen met zichzelf > maximale statistische power).

  • Gemeenschappelijke meetlat (er wordt eigenlijk niets herhaald, maar er wordt bij elke antwoordcategorie dezelfde antwoordschaal gebruikt, waardoor je de gemiddelden met elkaar kunt vergelijken. De meetmethoden zijn niet identiek, maar de variabelen hebben wel een identieke antwoordschaal.)

  • Paren of groepen (we willen gemiddelden of groepen met elkaar vergelijken, maar onze observaties zijn niet meer onafhankelijk van elkaar. De observaties zijn dus gecorreleerd aan elkaar. Je wil geen gecorreleerde errors in je onderzoek. Als oplossing ga je dan in plaats van met individuen, met paren of groepen werken die je gaat observeren en binnen elk paar heb je herhaalde metingen.)

Bij zowel RMA als gewone ANOVA gaat het om het vergelijken van gemiddelden. Het enige verschil is dat je geen gemiddelden uit verschillende groepen met elkaar vergelijkt. Binnen één groep vergelijk je de verschillen op de verschillende variabelen.

Gewone ANOVA: X (nom) > Y (int)

Dit is een between subjects design. Onze effecten zijn tussen personen.

RMA: Y1 … Y2 … Yp

Dit is een within subjects design. Nu vergelijken we elke persoon met zichzelf.

2. Mogelijkheden en problemen

In de meeste situaties hebben we niet per se een keuze, maar dicteren de gegevens die we hebben wat we moeten doen. De keuze heb je alleen als je een experiment uitvoert. Een RMA experiment is hierbij heel handig, je vergelijkt mensen gewoon met zichzelf (within subjects), hier wordt de power groter van. Maar waarom doen we dat dan niet altijd? Om deze twee nadelen:

  1. Volgorde effect (latency). Eerdere metingen hebben een blijvend effect van een vroege meting op latere metingen.

  2. Carry-over effect. Een eerdere meting heeft tijdelijke effecten op latere metingen.

Het volgorde effect kun je neutraliseren door counterbalancing. De ene groep proefpersonen krijgt dan bijvoorbeeld eerst conditie A en dan B, terwijl de andere groep proefpersonen eerst conditie B en dan conditie A krijgt. Wanneer je een sterk latency-/learning (mensen onthouden door leren) effect verwacht, is het vaak beter om een between subjects design te hanteren.

Het carry-over effect kun je makkelijker tegengaan door simpelweg de tijd tussen de metingen lang genoeg te maken.

Toch wordt er niet vaak gekozen voor repeated measures.

3. Twee benaderingen

H0: μ1 = μ2 = μp

p = aantal afhankelijke variabelen

De nulhypothese lijkt op die van de gewone ANOVA, maar er zijn problemen op twee niveaus:

  • De meetniveaus zijn verschillend (maar dit is op te lossen). Er zijn verschillende soorten variabelen.

  • Bij herhaalde metingen zijn de errors niet onafhankelijk maar gecorreleerd. Dit is voor ANOVA een belangrijke aanname.

Het probleem van de gecorreleerde errors is op twee manieren op te lossen. Welke manier het beste is weten we niet en soms kunnen ze totaal andere uitkomsten hebben. De eerste manier is de univariate benadering van herhaalde metingen. Je voert een gewone ANOVA uit en daarvóór (als stap 0) filter je de individuele verschillen uit de error. De errorterm is dan zuiver.

De tweede manier wordt uitgebreider besproken: de multivariate benadering van herhaalde metingen. Dit lijkt op MANOVA, maar we kijken niet alleen naar de pure afhankelijke variabelen maar naar de contrasten van de afhankelijke variabelen.

4. Contrasten

Bij een gewone ANOVA voer je post hoc toetsen uit wanneer de F-toets significant is. Een alternatief voor de post hoc toetsen is de planned comparisons (= contrastanalyse). Van tevoren bepaalt de onderzoeker welke gemiddelden hij met elkaar vergelijkt (op basis van de theorie): contrasten. Wanneer dit goed wordt gekozen leidt dit tot minder toetsen en een mogelijkheid op orthogonale toetsen.

Definitie van het contrast:

L = c1Y1 + c2Y2 + … + cpYp

Er geldt: Σci = 0

De onderzoeker kies de gewichten op zo’n manier dat het past bij de hypothesen die getoetst moeten worden.

Bekijk slide 10 voor een voorbeeld. Hier zijn vier variabelen (meting 1, 2, 3 en 4). Het eerste contrast La geeft aan dat het gemiddelde van Y1 vergeleken moet worden met het gemiddelde van Y2. La zegt dan ook 1xY1 –1xY2 en 0 x Y3 en Y4. Y3 en Y4 worden nu dus niet meegenomen.

Lb geeft aan dat Y1 wordt vergeleken met het gemiddelde Y2 en Y3.

Het gemiddelde van een contrast is het contrast van de gemiddelden van de afhankelijke variabelen. Alle contrasten kun je voor elke persoon uitrekenen. Het gemiddelde van al die individuele contrasten is het gemiddelde contrast. Er geldt nu: de contrasten hebben twee mogelijke toepassingen. Je kunt gericht toetsen; je maakt je toetsen op maat voor je hypothesen. Daarnaast kun je contrasten gebruiken voor de multivariate benadering van herhaalde metingen.

Op slides 11-13 wordt een voorbeeld besproken.

Let op: toets ALTIJD tweezijdig. Bij eenzijdig toetsen maak je het jezelf onmogelijk om onverwachte resultaten te toetsen.

In vergelijking met post hoc toetsen sluiten contrasten beter aan bij de theorie en doe je minder toetsen (grotere power en minder kans op Type-I fouten).

5. Multivariate toetsen

Bij het aannemen van de nulhypothese geldt er dat de uitkomst van elk mogelijk contrast (ongeacht de waarde van cp) 0 is (in de populatie). We hoeven maar één ding te doen: testen of alle mogelijke contrasten 0 zijn. Dit kun je makkelijk doen door de set van p -1 lineair onafhankelijke contrasten gelijk is aan 0. Wanneer de contrasten absoluut geen overlap vertonen is er sprake van orthogonaliteit.

Formules

H0: µ1 = µ2 = ... = µp ( = µ )

En: µL = c1 µ1 + c2 µ2 + ..... + cp µp = c1 µ + c2 µ + ..... + cp µ = (c1 + c2 + ..... + cp ) µ = 0 x µ = 0

Voor p afhankelijke variabelen kunnen er alleen p-1 lineaire onafhankelijke contrasten zijn:

  • Lineair onafhankelijk contrast: een contrast dat iets nieuws toevoegt. Kijk of als je een nieuw contrast toevoegt of dit contrast ook echt iets toevoegt, soms lijkt iets namelijk lineair onafhankelijk maar is dit het niet
     

  • Lineair afhankelijk contrast: als je de uitkomst van de een weet, weet je die van de andere ook.
     

  • Orthogonaal (speciaal geval van lineaire onafhankelijkheid): absoluut geen overlap tussen contrasten.

Met een MANOVA kan je ook een intercept toets doen (zonder dat je nominale variabelen hebt!). De stappen van de multivariate benadering zijn:

  • Stap 1: maak p-1 lineaire onafhankelijke contrasten van de afhankelijke variabelen (L1, L2 ... Lp-1);

  • Stap 2: stop al deze contrasten als onafhankelijke variabelen in een MANOVA. De cruciale toets is nu de intercept toets. Voor H0 geldt: L1 = L2 = L1-p. Deze multivariate toetsen (zoals de Wilks en de Hostellings) hebben dezelfde rol als de F toets bij een standaard ANOVA.

  • Stap 3: de univariate toetsen kunnen gebruikt worden om per contrast te kijken of hij significant afwijkt van nul.

Verschillen MANOVA en de multivariate benadering:

  • De afhankelijke variabelen zijn contrasten.

  • De toets gaat over het intercept, in plaats van over verschillen tussen groepen; er zijn immers geen groepen.

6. Aannames

Voor een multivariate benadering gelden de volgende aannames:

  • Multivariate normaliteit;

  • Onafhankelijke errors.

Voor een gemengd design ( zowel between-subjects als within-subjects factoren):

  • Gelden bovenstaande aannames;

  • Plus homogeniteit van variantie-covariantie matrixen.

7. SPSS voorbeeld

Onderzoek over hechtingsstijl en positief sociaal gedrag. Er waren 30 baby’s.

Er werden moeder-kind observaties gedaan en er werd gekeken naar de volgende variabelen:

  • positief sociaal gedrag van baby naar moeder;

  • hechtingsstijl (veilig vs. onveilig).

Er zijn herhaalde metingen gedaan (van 1 maand oud tot 6 maanden oud) voor de variabele positief sociaal gedrag.

Hechtingsstijl is maar 1x gemeten toen de baby’s 1 jaar oud waren.

Dus er zijn twee analyses:

  • design 1. Tijd: positief sociaal gedrag (eenweg ANOVA herhaalde metingen);

  • design 2. Tijd + hechtingsstijl: positief sociaal gedrag (mixed MANOVA).

We gaan kijken of er veranderingen optreden over tijd:

  1. kijk naar de significantie in de tabel Multivariate tests;

  2. kijk naar de gemiddelden in de tabel Descriptive statistics;

  3. kijk naar de polynomiale contrasten om mogelijke trends in de data op te sporen en afzonderlijk te toetsen. Er kan sprake zijn van lineaire, kwadratische en kubische contrasten (zie slide 21);

  4. tot slot kan je bij beide variabelen de hoofdeffecten bekijken door in de Estimates tabellen te kijken.

College 7: Mediatie analyse

Inleiding

Het gaat vandaag over zowel mediatieanalyse (toepassing van regressie analyse) en suppressie (een speciaal geval van mediatie). De vraag is hoe goed je Y (op interval niveau) kunt voorspellen aan de hand van een aantal x-variabelen (ook op interval niveau).

Bij hiërarchische regressie analyse bekijk je twee modellen na elkaar. Je kijkt eerst naar de voorspelling van bijvoorbeeld x1 en x2 en kijkt daarna of x3 nog iets extra’s toevoegt aan het model. Je kijkt dus of x3 een goede voorspeller van y is na correctie voor x1 en x2. X1 en x2 zijn hier covariaten.

Mediatie analyse

Bij padanalyse worden heel veel regressieanalyses aan elkaar geplakt. Met pad-analyse kun je verschillende variabelen causaal aan elkaar relateren. De simpele pad-structuur is een speciaal geval van pad-analyse: het mediatiemodel. Er zijn drie variabelen, alle drie op intervalniveau. Een x-variabele, een y-variabele en een mediator (M). In het model op slide 6 verklaart X Y uit zichzelf (direct effect = als leeftijd (X) toeneemt, neemt de bloeddruk (Y) toe) en via M (indirect effect = als het gewicht (M) toeneemt, neemt de bloeddruk (Y) toe). Een voorbeeld is het willen voorspellen van bloeddruk (Y) uit leeftijd (X), dit kan gemedieerd worden door gewicht (M). Het kan zijn dat de relatie tussen bloeddruk en leeftijd helemaal loopt via gewicht, of helemaal niet, dit moet onderzocht worden (dus: als je ouder wordt, wordt je zwaarder en als je zwaarder wordt, wordt je bloeddruk hoger of juist helemaal niet).

Bij mediatie zijn er drie gevallen te onderscheiden:

  • Complete mediatie: alleen een indirect effect van X op Y via M (leeftijd heeft effect op gewicht en gewicht heeft effect op bloeddruk; het volledige effect tussen X en Y loopt dan dus volledig via M). Er is dan geen (significant) effect van X op Y, maar pas hiermee op want complete mediatie is moeilijk te bewijzen;

  • Gedeeltelijke mediatie: zowel een indirect effect (van X op Y via M) als een direct effect van X op Y;

  • Geen mediatie: geen (indirect) effect van de mediator M op Y. X heeft wel een direct effect op Y en M, maar M medieert het effect van X op Y niet. Een ander geval is dat er geen relatie is tussen X en M, maar wel tussen M en Y.

Vierstapsprocedure

Om met zekerheid mediatie te kunnen aantonen moeten er vier stappen (Baron & Kenny, 1986) worden gecheckt met drie regressie analyses. Hiervoor bekijk je vier regressiecoëfficiënten: a, b, c en c’. Bij een niet-gemedieerd model wordt de relatie tussen X en Y beschreven door c. Bij een gemedieerd model wordt de relatie tussen X en M beschreven met a, de relatie tussen M en Y wordt beschreven met b en de relatie tussen X en Y met c’.

Stap 1

Je kijkt met enkelvoudige regressie naar het niet-gemedieerde model: is er een relatie van X (onafhankelijke variabele) op Y (afhankelijke variabele) (zo niet, dan is er niets te mediëren)? De c –waarde (= regressie coëfficiënt X op Y) moet worden geschat, er geldt c ≠ 0.

Stap 2

Je doet een tweede enkelvoudige regressie analyse om te kijken of X en M gerelateerd zijn.

De a-waarde (= regressie coëfficiënt van X op M) moet dus worden geschat, er geldt a ≠ 0

Stap 3

Je doet een derde meervoudige regressie analyse om te kijken of M en Y gerelateerd zijn, gecontroleerd voor de relatie tussen X en Y. De b-waarde moet dus worden geschat, er geldt b ≠ 0. X moet ook worden meegenomen, omdat je wilt bekijken of er geen alternatieve verklaring bestaat. Als je alleen M en Y meeneemt in de analyse zou het zo kunnen zijn dat er een correlatie tussen M en Y uitkomt, omdat ze beide gecorreleerd zijn met X. Als deze drie stappen goed zijn, is er sprake van mediatie via M.

Stap 4

De regressie analyse van stap 3 gebruik je ook om een schatting te krijgen van c’. Als c’≠ 0, is er ook sprake van een direct effect van X op M (= gedeeltelijke mediatie). Als geldt: c’= 0, dat is er alleen een indirect effect van X op Y via de mediator (complete mediatie).

Slides 15-21 geven een voorbeeld. Kijk in de tabellen naar:

  1. is de t-waarde significant en wijkt deze ver genoeg af van 0? Kijk ook naar de p-waarde;

  2. de schatting van β(eta) coëfficiënten en de significantie.

Als c kleiner is dan c’, is er sprake van suppressie.

Ook met een correlatietabel kun je de hierboven beschreven stappen doorlopen. Je kan dan kijken naar de Beta’s.

Tentamentip: er wordt een vraag gesteld over mediatie met drie regressies, niet met correlaties.

Let op: correlaties bewijzen geen causaliteit! Toch doen we alsof dit wel zo is door middel van ons model, maar het enige wat we kunnen laten zien, is dat het model past. Dus pas op om hier uitspraken over te doen.

Een mediatiemodel kan worden uitgebreid met meerdere mediatoren, er kunnen dan meerdere indirecte effecten ontstaan.

Proportie gemedieerd

Het is lastig de verklaarde variantie te bepalen bij mediatie, maar hier wordt niet verder op ingegaan. Wel kunnen we kijken wat de proportie gemedieerd is:

totaal effect = direct effect + indirect effect
dus:
c = c’ + ab of c – c’ = ab
en:
Pmediated= indirect/totaal = ab/c = c – c’/ c en Pdirect= direct/totaal = c’/ c
en:
Totaal effect = c
Direct effect = c’
Indirect effect = ab = c – c’

De proportie gemedieerd is een maat om te kijken hoe sterk het directe effect is ten opzichte van het indirecte effect. Welk effect is belangrijker? Je kunt dus niet de verklaarde variantie berekenen. Er is ook geen sprake van effectgrootte. De waardes kunnen lager dan 0 en hoger dan 1 zijn.

Sobel test

Het indirecte effect van X op Y via M, gaat altijd in twee delen middels twee regressies. Je kunt het effect ook berekenen door a * b. Om de significantie hierbij te toetsen heeft Sobel een test ontwikkeld. Dit is geen onderdeel in SPSS en moet dus handmatig worden gedaan.

Formules

  • Z = ab / SEab
  • Z = ab / √(b2SEa2 + a2SEb2 + SEa2SEb2)
  • a en b zijn regressie coëfficiënten
  • SEab= standaardfout van coëfficiënten a en b

Als Z verder weg ligt van 0 dan (-)1.96, is de z-waarde (van het indirecte effect) significant bij p < .05.

2 Of meer mediatoren

Het gemedieerde tabel kan worden uitgebreid tot 2 of meer mediatoren. Een model met twee mediatoren heeft 1 direct effect (tussen X en Y), 2 indirecte effecten (X via M1 naar 1 en X via M2 naar Y) en er zijn 4 regressieanalyses.

Er is 1 extra indirect effect, dus dan zijn er 2 M’en (M1 en M2) met a1b1 als het eerste indirecte effect en a2b2 als het tweede indirecte effect. Het totale effect = c, het directe effect = c’ en het totale effect = direct effect + indirect effect 1 + indirect effect 2.

In formulevorm is dit:

c = c 0 + a1b1 + a2b2

Suppressie

Bij suppressie wordt het effect van één van de predictoren vergroot door tenminste één andere predictor. Het is een multivariaat fenomeen (er moeten minimaal drie variabelen zijn). Om suppressie aan te tonen vergelijk je de gewone (= zero order) correlatie met de bèta coëfficiënt of de semi-partiële correlatie. De bèta coëfficiënt en de semipartiële correlatie moeten beiden duidelijk verder weg van 0 liggen dan de zero-order correlatie of de bèta coëfficiënt en de semi-partiële correlatie hebben een ander teken (+ of -) dan de zero order correlatie. Supressie is niet alleen het geval bij mediatie, het kan ook bij andere analyses voorkomen. Het kan soms moeilijk te interpreteren zijn. Het heeft ook niks met causaliteit te maken. In het college is er nog een voorbeeld behandeld aan de hand van output en scatterplots (zie de sheets).

Tentamen

Op het tentamen worden er 5 vragen over week 1 t/m 7 en 5 vragen over techniekkeuzen gesteld. In totaal zijn er 40 (MC-)vragen. Er zal onder andere naar de assumpties worden gevraagd, naar welke toets je moet doen (theorievragen) en er zullen rekenvragen worden gesteld. Er zal ook output worden gegeven waar je mee moet werken en waar vragen over worden gesteld. Je mag een spiekbrief en een rekenmachine gebruiken.

Image

Access: 
Public

Image

Join WorldSupporter!
This content is related to:
Werkgroepaantekeningen MVDA 2015-2016 - Universiteit Leiden
Search a summary

Image

 

 

Contributions: posts

Help other WorldSupporters with additions, improvements and tips

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.

Image

Spotlight: topics

Check the related and most recent topics and summaries:
Institutions, jobs and organizations:
WorldSupporter and development goals:

Image

Check how to use summaries on WorldSupporter.org

Online access to all summaries, study notes en practice exams

How and why use WorldSupporter.org for your summaries and study assistance?

  • For free use of many of the summaries and study aids provided or collected by your fellow students.
  • For free use of many of the lecture and study group notes, exam questions and practice questions.
  • For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
  • For compiling your own materials and contributions with relevant study help
  • For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.

Using and finding summaries, notes and practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Use the summaries home pages for your study or field of study
  2. Use the check and search pages for summaries and study aids by field of study, subject or faculty
  3. Use and follow your (study) organization
    • by using your own student organization as a starting point, and continuing to follow it, easily discover which study materials are relevant to you
    • this option is only available through partner organizations
  4. Check or follow authors or other WorldSupporters
  5. Use the menu above each page to go to the main theme pages for summaries
    • Theme pages can be found for international studies as well as Dutch studies

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study for summaries and study assistance

Main summaries home pages:

Main study fields:

Main study fields NL:

Follow the author: Psychology Supporter
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Statistics
3185 1