Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>
Let op: alleen te gebruiken voor de herkansing van MVDA uit het studiejaar 2012-2013. Voor studiejaar 2013-2014 zullen er nieuwe aantekeningen worden gemaakt.
- Hoorcolleges
- Week 1 : Multipele regressie analyse
- Week 2 : Meerweg Anova
- Week 3 : ANCOVA (covariantie analyse)
- Week 4 : Logistische regressie
- Week 5 : Multi variantie analyse (MANOVA) en Descriptieve Discriminantie analyse (DA)
- Week 6 : Repeated measures ANOVA
- Week 7 Padmodellen
- Werkgroepaantekeningen
- Werkgroep 1 Multipele Regressie Analyse
- Werkgroep 2: Twee-weg ANOVA (ook als Regressie met Dummy Variabelen)
Hoorcolleges
Week 1 : Multipele regressie analyse
De eerste week staat in het teken van Multipele Regressie Analyse (MRA). Bij multipele regressie analyse proberen we op basis van een aantal onafhankelijke variabelen (X1, X2….Xp) de afhankelijke variabele (Ypred) te voorspellen.
Belangrijk bij MRA:
- Er zijn meerdere onafhankelijke variabelen en er is steeds slechts één afhankelijke variabele.
- Zowel de onafhankelijke variabelen als de afhankelijke variabelen zijn van interval niveau (In de colleges 1 t/m 4).
Correlaties in MRA
Bij multipele regressie wordt vaak een correlatie gegeven om aan te geven wat het verband is tussen bijvoorbeeld X1 en Y (r1y). Stel we hebben het volgende model: we willen Ypred voorspellen op basis van X1 en X2. De volgende correlaties zijn dan van toepassing:
- r12 is de correlatie tussen X1 en X2
- r1y is de correlatie tussen X1 en Y
- r2y is de correlatie tussen X2 en Y
Correlaties kunnen ook een schijneffect kunnen vertonen. Dit houdt in dat er een toevallige of niet bestaande correlatie is. Bij MRA kan het bijvoorbeeld zo zijn dat er een echt effect is van X1 op Y en dat er sprake is van een schijneffect doordat X2 invloed heeft op Y, wat voortkomt uit samenhang tussen X1 en X2.
Bij het kijken naar samenhang in MRA wordt gebruik gemaakt van correlaties en Bèta’s. Stel: r2y≠ 0 , maar By2=0. Deze twee gegevens spreken elkaar tegen, want de correlatie suggereert dat er wel samenhang is. De Bèta doet dit echter niet. Hier is sprake van een schijncorrelatie (ook wel spurieuze correlatie genoemd), want als we alleen naar de correlatie kijken zou dit ons doen vermoeden dat er een effect is van X2 op Y. De Bèta
spreekt dit echter tegen en daarom is hier sprake van een schijncorrelatie. Het is daarom
belangrijk dat we zowel kijken naar de correlatie en de beta voordat we een conclusie trekken.
Belangrijk is dat de correlatie en de bèta elkaar tegen kunnen spreken, waardoor er sprake is van een schijncorrelatie is tussen X2 en Y. Op het eerste gezicht zou men denken dan r2y niet bijdraagt aan de voorspelling van Y. Echter dit is niet zo, omdat X2 de voorspelling van Y wel kan verbeteren.
Een ander scenario dat voor kan komen is dat de correlatie r2y = 0 en B2y ≠ 0. In dit geval vertoont de correlatie geen bijdrage van X2 op Y. De Bèta geeft dit echter wel aan. Dit betekent dat X2 fungeert als een surpressor (onderdrukker) waardoor het effect van X2 op Y niet zichtbaar is in de correlatie. X2 onderdrukt in dit geval het effect van X2 op Y.
Een punt wat van belang is in de MRA is dat men wil kijken hoe goed de MRA uiteindelijk is geslaagd. Dit kan berekend worden door de multipele correlatiecoëfficient te kwadrateren (Ryx1x2²). Je hebt dan als het ware de proportie verklaarde variantie van de multipele correlatiecoëffecient.
Ryx1x2 is de correlatie tussen de voorspelde Y en de geobserveerde Y, ook wel de correlatie tussen Y en de twee voorspellers (X1, X2).
Naast het gebruik van de Bèta om het werkelijke effect van bijvoorbeeld X1 op Y te meten wordt ook gebruik gemaakt van de volgende correlaties:
- Partiële Correlatie: de correlatie tussen twee variabelen na correctie voor een derde variabele. (bijvoorbeeld: X1 verminderd met de schatting van X1 op grond van X2).
- Semi-partiële correlatie : de correlatie tussen de Y (niet gecorrigeerd) en de X1 die verminderd is met X1pred (voorspelde X1 op basis van X2). Dit wordt ook wel de unieke bijdrage genoemd.
In SPSS spreken ze niet van een semi-partiële correlatie, maar van een part correlation. Desondanks de verschillen tussen de bovenstaande correlaties, geven de semi-partiële correlaatie en de partiële correlatie ongeveer dezelfde informatie.
Proportie verklaarde variantie in MRA
Proportie verklaarde variantie speelt ook bij MRA een belangrijke rol. Zo werd het succes van de voorspelling berekend door de multipele correlatiecoefficiënt te kwadrateren. De proportie verklaarde variantie van X1 op Y geeft bijvoorbeeld aan hoeveel van Y wordt verklaard door X1. Dit wordt ook wel unieke verklaarde variantie genoemd. Dit is de verklaarde variantie door een predictor die niet te herleiden is tot andere predictoren.
Week 2 : Meerweg Anova
Week 2 staat in het teken van Meerweg Anova. Ook bij Meerweg Anova proberen we op basis van een aantal onafhankelijke categorische variabelen één afhankelijke variabele te voorspellen. De categorische variabelen (X-en) zijn vaak nominaal. Dit houdt in dat elke categorie één willekeurig nummer krijgt. Oftewel aan het nummer valt niets te ontlenen (bijv. een volgorde).
Kenmerken van Anova zijn als volgt;
- Anova bestaat uit twee verschillende soorten variabelen: onafhankelijke en afhankelijke variabelen.
- Anova probeert op basis van onafhankelijke variabele(n) de afhankelijke variabele te verklaren
- Anova heeft één (eenweg Anova) of meerdere (Meerweg Anova) onafhankelijke variabelen.
- Anova heeft 1 afhankelijke variabele (Y) op interval niveau.
- Anova probeert de variatie in Y te verklaren op basis van de X'en (factoren).
Binnen Meerweg Anova maken we onderscheid tussen een gebalanceerd design en een ongebalanceerd design.
Het Meerweg Anova gebalanceerde design
We spreken van een gebalanceerd design als de onafhankelijke factoren niet gecorreleerd zijn. Ook zijn de onafhankelijke variabelen gelijk verdeelt over de categorieën. We verwachten dus dat variabelen elkaar niet overlappen (niet samenhangen).
Hoe herken je het Meerweg Anova gebalanceerde desgin?
- Het aantal cases over de verschillende cellen moet gelijk zijn.
- De twee hoofdeffecten en het interactie-effect moeten optellen tot het Corrected Model.
Voordeel van een gebalanceerd design is dat de gemiddelden niet vertekent zijn door de aantallen, want deze zijn gelijk. Dit zorgt ervoor dat er minder kans is tot over- en onderschatting.
Het meerweg Anova ongebalanceerde design
We spreken van een ongebalanceerd design als de onafhankelijke variabelen wel gecorreleerd zijn. Dit houdt in dat de onafhankelijke variabelen elkaar overlappen. Dit zorgt ervoor dat hoofd- en interactie effecten moeilijk te onderscheiden zijn.
Hoe herken je het Meerweg Anova gebalanceerde design?
- Het aantal cases over de cellen is niet gelijk.
- De verschillende delen (variabelen) tellen samen niet op tot het Corrected Model.
Nadeel van een ongebalanceerd design is dat de gemiddelden wel vertekent zijn, want deze zijn niet gelijk. Dit zorgt voor het feit dat er kans is tot over- onderschatting.
Hoofd en interactie effecten
Er kan onderscheid gemaakt worden tussen hoofd- en interactie effecten. De hoofdeffecten hebben betrekking op het effect dat de factoren (X1, X2... Xp) hebben op Y. De interactie effecten hebben betrekking op de interactie tussen de factoren (bijv. tussen X1 en X2). Deze interactie heeft effect op Y.
Interactie effecten worden vaak grafisch weergegeven. Een significant interactie effect kun je herkennen wanneer de lijnen niet parallel aan elkaar zijn (vaak kruisende lijnen, maar dit is niet noodzakelijk!). Echter niet elke afwijking van parallelliteit indiceert een significant interactie effect! De lijnen die grafisch zijn weergegeven zijn geen regressielijnen.
Het gebruik van dummy variabelen
Een dummy variabele is een intervalvariabele die wordt gebruikt om in een categorische variabele aan te geven of een categorie aanwezig (vaak gecodeerd als 1) of afwezig is (vaak gecodeerd als 0).
Op basis van dummyvariabelen is het mogelijk door unieke combinaties van 0 en 1 aan te geven om welke categorie het gaat. Deze taal (het gebruik van nullen en enen) wordt ook toegepast in de computer taal.
Voorbeeld
Lengte Nederlandse vrouw | Dummy1 | Dummy2 |
>1.80 | 1 | 0 |
0 | 1 |
De codering 1 0 geeft aan dat er aanwezigheid is van een lengte boven de 1.80. De codering
0 1 geeft aan dat er een afwezigheid is van een lengte boven de 1.80 wat inhoudt dat de categorie
Met betrekking tot dummy variabelen is er een algemene regel. Bij een variabele met k-categorieën heb je k-1 dummies nodig om alle benodigde informatie te kunnen weergeven.
Voorbeeld
Bekende Nederlandse vogelsoort | Dummy1 | Dummy2 | Dummy3 | Dummy4 | Dummy5 |
Huismus | 1 | 0 | 0 | 0 | 0 |
Spreeuw | 0 | 1 | 0 | 0 | 0 |
Merel | 0 | 0 | 1 | 0 | 0 |
Kraai | 0 | 0 | 0 | 1 | 0 |
Overig | 0 | 0 | 0 | 0 | 1 |
In dit geval is categorie 5 overbodig, omdat de 4 categorieën de categorie overig al weergeven. De categorie 'overig' wordt namelijk gecodeerd (indien we vier categorieën gebruiken i.p.v 5) als 0000. Oftewel: afwezigheid van de andere vogelsoorten geeft aan dat de vogel tot de categorie 'overig' behoort. Hier gaat de regel k-1 dus op. Er zijn 5 categorieën → k-1 → 5-1 = 4. In dit geval zijn 4 categorieën zijn genoeg om alle benodigde informatie weer te geven.
Week 3 : ANCOVA (covariantie analyse)
De derde week heeft betrekking op ANCOVA (ook wel covariantie analyse genoemd). ANCOVA is gebaseerd op het Multipele regressiemodel waarin Y werd voorspeld op basis van meerdere onafhankelijke variabelen (X1, X2...Xp). Bij ANCOVA is de afhankelijke variabele Y op intervalniveau. De onafhankelijke variabelen kunnen echter verschillende meetniveaus hebben. De onafhankelijke variabelen bij ANCOVA kunnen nominaal/categorisch (dummies) zijn of intervalniveau (covariaat, C1, C2...Cp). Bij ANCOVA is er minimaal 1 categorische variabele en 1 covariaat. Een covariaat is een variabele die mogelijk het resultaat (Y) kan beïnvloeden. Een covariaat kan direct invloed uitoefenen op y, interactie hebben met een variabele of kan fungeren als een 'confounding variabele'. Dit houdt in dat de variabele het bestaande verband kan verzwakken of versterken. Een confounding variabele kan ook een verband suggereren wat er niet is of een bestaand verband doen ontkennen.
Voorbeeld
Je wil het risico dat iemand overlijdt (Y) voorspellen op basis van het feit of iemand rookt (X1), of iemand man of vrouw is (X2) en de lichaamstemperatuur van de persoon (C1). In dit geval zijn er drie onafhankelijke variabelen namelijk X1, X2 en X3.
X1: is een nominale/categorische variabele → Je rookt wel, je rookt niet en overig.
X2: is een nominale/categorische variabele → Je bent man of je bent vrouw.
C1: is een variabele op interval niveau → Temperatuur is een voorbeeld van een intervalniveau, omdat de intervallen van gelijke grootte zijn en er géén absoluut nulpunt is.
→ Dit voorbeeld is geschikt voor ANCOVA.
Wat zijn de (mogelijke) voordelen van het toevoegen van een covariaat?
Een covariaat kan de error variantie doen verminderen. Het gevolg van het verminderen van de error variantie is dat de power omhoog gaat → F: betweengroups/withingroups. Statistische validiteit wordt hiermee ook verbeterd: voorkomen van een β-fout. Dit staat bekend als een Type 2 fout: aangeven dat er geen verschil is, terwijl er wel een verschil is.
Een covariaat kan de systematische bias (=vertekening van een effect) mogelijk verwijderen. Techniek die wordt gebruikt door middel van ANCOVA: groepen verschillen gemiddeld op covariaat X. Aanpassen van de groepsgemiddelden Yj. De vraag die je hierbij moet stellen is: wat zouden de Yj zijn als de groepen gelijk op covariaat waren geweest?
Er kan worden gekeken of er sprake is van een ATI: aptitude treatment interactie. Dit is een interactie waarbij wordt gekeken of de aanleg (aptitude) sterker van invloed is bij de ene behandeling (treatment) dan bij de andere.
Wat is het verschil tussen ANOVA en ANCOVA?
Bij beide technieken wordt geprobeerd een optimale (Yij) voorspelling te maken voor een individu (i) uit groep (j). Bij ANOVA is alleen bekend bij welke groep het individu komt, omdat de groepsgemiddelden bekend zijn. Bij ANCOVA zijn de groepsgemiddelden ook bekend, maar ook de individuele score op de covariaat (interval niveau). Kortom ANCOVA heeft als voordeel dat de voorspellingen voor het individu veel preciezer zijn dan bij ANOVA.
ANCOVA heeft drie belangrijke aannames:
Er moet sprake zijn van een lineaire samenhang tussen de (within) covariaat (C) en de afhankelijke variabele (Y). Wanneer dit niet het geval is, is er een te kleine correctie van de groepsgemiddelden.
Er mag zich geen error in de covariaat bevinden, want ook dit kan tot gevolg hebben dat er een te kleine correctie plaats vindt van de groepsgemiddelden.
Er moet sprake zijn van parallele regressielijnen in de populatie. Dit houdt in dat de beta's/regressiegewichten gelijk aan elkaar moeten zijn → b1=b2=...bp. Zijn de regressiegewichten niet gelijk aan elkaar dan kan dit een verkeerde correctie tot gevolg hebben. Er mag geen interactie bestaan tussen covariaat en factor.
Kortom, bij ANCOVA is het van belang dat er niet een te kleine correctie is met betrekking tot de groepsgemiddelden. Er moet dus voldoende correctie van de groepsgemiddelden aanwezig zijn bij ANCOVA (zie aannames).
ANCOVA en ANOVA overlappen en daarom gelden ook de assumpties van ANOVA voor ANCOVA. De aannames van ANOVA zijn als volgt:
Er moet sprake zijn van onafhankelijke observaties
Er moet sprake zijn van homogene varianties
Er moet sprake zijn van een normaal verdeling
Uitbreidingen van ANCOVA:
Er zijn 2 uitbreidingen van ANCOVA, namelijk:
1. meerdere factoren: hierbij zijn er bijvoorbeeld 2 factoren en 1 covariaat. Men checkt hierbij meerdere interactie effecten.
2. meerdere covariaten: hierbij zijn er bijvoorbeeld 2 covariaten en 1 factor. In SPSS wordt vaak de overkoepelende covariaat berekend. Meerdere covariaten zijn alleen goed wanneer ze het model goed voorspellen. Anders zal het ervoor zorgen dat de power afneemt, want elke covariaat die extra wordt toegevoegd kost een vrijheidsgraad in de MS(error). DFw= N - k - c. C is het aantal covariaten.
Week 4 : Logistische regressie
In week 4 staat logistische regressie analyse (LRA) centraal. Ook bij LRA wordt geprobeerd de afhankelijke variabele (Y) te voorspellen uit de onafhankelijke variabelen (X1, X2...Xp). Bij LRA is Y een dichotome variabele wat inhoudt dat Y: 0 of 1 (slechts twee categorieën) → bijv. wel/geen ongeluk, wel/niet getrouwd, drinker/geen drinker etc. Op basis van de X-variabelen proberen we bij LRA te voorspellen in welke categorie iemand terecht komt (0 of 1).Het kan ook zo zijn dat Y meerdere categorieën bevat, maar dat komt in deze cursus niet aan de orde. We behandelen alleen binaire logistische regressie.
Bij logistische regressie analyse wordt dus geprobeerd op basis van een score op meerdere X-en te voorspellen tot welke groep iemand behoort.
Er wordt gebruik gemaakt van een kritische X-score (Xc, dient als citerium voor toewijzing tot groepen) om te bepalen tot welke groep iemand behoort.
indien X
indien X > Xc dan Y=1
*De 0 en 1 zijn van nominaal niveau 0 en 1 zijn labels voor de groepen. Vb: 0: niet rokers/ 1: wel rokers. De waarde 1 staat vaak voor aanwezigheid van een fenomeen en 0 voor de afwezigheid ervan.
Logistische regressie wordt vaak grafisch weer gegeven.
Rood: Item 1
Groen: Item 2
Geel: Item 3
Op het bovenstaande plaatje zie je dat de Score op de voortoets (X) bepaalt hoe groot je kans van slagen is. Dit model is echter redelijk zwart wit, omdat als je score op de voortoets bijvoorbeeld X=1 is; je kans van slagen 1 is voor item 1. Indien je bijvoorbeeld een score van 2 hebt, is de kans van slagen alleen voor item één 1 en voor de rest van de items 0. De werkelijk is meestal anders en daar is het volgende plaatje op gebaseerd.
Dit model is meer gebaseerd op de werkelijkheid, omdat dit model minder zwart wit is. Dit model is gebaseerd op waarschijnlijkheid. Naarmate de score op de voortoets toeneemt neemt de kans van slagen voor de items ook toe. Als iemand bijvoorbeeld een score van X=6 heeft op de voortoets is het waarschijnlijk dat deze persoon alle 3 items goed zal hebben. Het model is dus niet lineair, maar volgt een soort s-curve. Er is een geleidelijke toename in de kans op één van de twee gebeurtenissen.
De voorspelde Y (kans van slagen) wordt in deze modellen opgevat als kans (P). De kansen P (0 of 1) worden voorspelt op basis van X. Het verband tussen P en X is logistisch.
Het logistische model
Hierbij codeert P1 voor de kans dat gebeurtenis 1 slaagt gebaseerd op X. e=2,718.. in alle gevallen.
b1: slope/helling → bepaalt de richting en de steilheid (stijgt langzaam indien b1 klein is).
a: intercept/constante → dit geeft de locatie van de functie op X-as. Het buigpunt van de functie is plek op de X-as waarbij P1=0.5
Odds
Odds zijn een soort kansen/waarschijnlijkheden dat iets plaats zal gaan vinden. Hierbij wordt de kans dat iets plaatsvindt gedeeld door de kans dat iets niet zal plaatsvinden. Odds bereken je door middel van de volgende formule: P1 / (1-P1 (oftewel: Po) (P1 is hier de kans dat gebeurtenis 1 zal plaatsvinden en 1-P1 is de kans dat gebeurtenis 1 niet zal plaatsvinden). Odds kunnen van 0 tot oneindig lopen.
Voorbeeld
Stel dat je in een seizoen 30 tenniswedstrijden hebt gespeeld. Van deze 30 tenniswedstrijden wist je er 22 te winnen en 8 van de wedstrijden verloor je. Dan is P: 22/30= 0.733, en 1-P1 = 0.267. 0.733/0.267= 2,75 (Odds).
Odds Ratio (OR) heeft de verandering in odds van de 'target' groep. Bij een toename van 1 op de predictor X, worden de odds … keer zo groot. Het kan bijvoorbeeld zijn dat de kans om te slagen voor een tentamen …. keer groter is als je een hogere score hebt op een voortoets. In Spss wordt OR aangegeven als Exp (B). We weten graag wat de Odds Ratio voor een getal is, omdat dit een lineaire lijn weergeeft. Ook is dit een constant getal.
De OR= e^b1. Dit geeft de factor aan waarmee de odds verandert als X met 1 toeneemt. Bijvoorbeeld Odds (4)/Odds(3). Dit geeft de verhouding aan tussen de voorspelde odds waarden. Zo kan worden gekeken hoeveel groter de kans om bijvoorbeeld te slagen voor een tentamen wordt als X 1 groter wordt.
Korte samenvatting Week 1 t/m week 4
Week | Techniek | X (meetniveau) | Y (meetniveau) |
1 | Multipele regressie analyse (MRA) | Interval | Interval |
2 | Meerweg ANOVA | Categorisch/nominaal | Interval |
3 | ANCOVA (covariantie analyse) | Categorisch/nominaal Interval (covariaat) | Interval |
4 | Logistische Regressie analyse (LRA) | Interval of Dichotoom | Dichotoom |
Tot slot belangrijke verschillen tussen MRA en LRA :
MRA (Multipele regressie analyse) | LRA (logistische regressie analyse) |
Additief model | Multiplicatief model |
Lineaire toename | Exponentiële toename |
Week 5 : Multi variantie analyse (MANOVA) en Descriptieve Discriminantie analyse (DA)
MANOVA (Multivariantie analyse)
Is afgeleid van ANOVA, maar bij MANOVA is er sprake van twee of meerdere afhankelijke variabelen. Bij MANOVA draait het erom dat we de intervalvariabelen van Y voorspellen op basis van het onderscheid dat wordt gemaakt tussen groepen (X bestaat hier uit groepen oftewel nominale variabelen). De set X bestaat uit k-1 dummy variabelen.
X1, X2.... Xp (Nominaal) → Y (interval)
(k groepen) → (aantal afhankelijke variabelen)
MANOVA helpt bij:
- Het kijken of veranderingen in de onafhankelijke variabelen een significant effect hebben op de afhankelijke variabelen (hoofdeffecten).
- Het kijken naar de interacties tussen de afhankelijke variabelen.
- Het kijken naar de interacties tussen de onafhankelijke variabelen.
MANOVA | ANOVA |
Twee of meerdere afhankelijke variabelen (Multivariaat) | Een afhankelijke variabele. (Univariaat) |
Aantal onafhankelijke variabelen (eenweg, tweeweg etc) | Aantal onafhankelijke variabelen (eenweg, tweeweg etc) |
MANOVA en ANOVA lijken op elkaar. Ze verschillen in het aantal afhankelijke variabelen. Waarom zou je niet in plaats van MANOVA meerdere ANOVA's uitvoeren?
Dit wordt niet gedaan, omdat naarmate je meerdere ANOVA's uitvoert de kans op type 1 fout toeneemt. Dit houdt in dat er verkeerde conclusies met betrekking tot het resultaat kunnen worden getrokken (H0 ten onrechte verwerpen). Daarnaast zijn we ook geïnteresseerd in de onderlinge relaties tussen de afhankelijke variabelen, ANOVA houdt hier geen rekening mee.
MANOVA beschermt tegen type-1 fout doordat de multivariate toetsen de univariate ANOVA's beschermen tegen type 1 fout → ook wel 'Protected F' genoemd.
Multivariate toetsen
Er zijn verschillende soorten multivariate toetsen zoals Wilks, Hotellings, Roys en Pillai's. Deze toetsen hebben als doel H0 voorlopig te handhaven of te verwerpen. Wanneer de toetsen significant zijn, kan de nulhypothese worden verworpen.
1) Indien er geen significant resultaat optreedt → H0 handhaven: men kan dan geen zinvolle conclusies trekken over de MANOVA. In principe ben je dan klaar.
2) Indien er wel een een significant resultaat optreedt → H0 verwerpen → dit houdt in dat er ergens op tenminste één afhankelijke variabele een verschil is tussen twee groepsgemiddelden (of een lineaire combinatie ervan).
Indien er een verschil is moet je erachter zien te komen waar dit verschil zich bevindt. Er zijn vier manieren om door te gaan, er worden hier twee besproken. De 'Protected F' benadering en descriptieve discriminanten-analyse.
Protected F benadering
De volgende stappen moeten worden ondernomen om te achterhalen waar het verschil zich bevindt.
1) Ten eerste check je de aannames van MANOVA (dit is hetzelfde bij DDA).
→ Is er sprake van homogeniteit van de varianties? Mogelijkheid om dit te checken met Box M toets. Het nadeel is dat deze toets vrij gevoelig is. Alleen zorgen als p
→ Is er sprake van onafhankelijke errors? Niet mogelijk om dit te checken. Als het onderzoeks design goed is, is dit meestal wel in orde (bijv geen mogelijkheid tot afkijken bij proefpersonen).
→ Is er sprake van (multivariate) normaliteit in de populatie? De errors zijn normaal verdeeld voor elke afhankelijke variabele; voor de eigen afhankelijke variabele en voor elke andere waarde op de andere afhankelijke variabele. Het is niet mogelijk om dit te checken.
2) Ten tweede kijk je naar de uitkomsten van de Multivariate toetsen.
3) Indien er sprake is van significantie bij de uitkomsten van de Multivariate toetsen ga verder naar stap 4, anders ben je klaar en blijft H0 gehandhaafd (er is geen verschil in groepsgemiddelden).
4) Kijk naar de Univariate ANOVA's. Kijk naar de significantie van de F-waarden.
5) Vergelijk de gemiddelden van de items die een significante F-waarde hebben.
Kritiek op 'Protected F' benadering
Volgens veel statistici is de bescherming van de univariate F-toetsen door multivariate toetsen niet toereikend. Alsnog is het de meest gebruikte wijze van interpretatie van MANOVA.
Uitbreidingen MANOVA
Als er meerdere onafhankelijke variabelen in het design zitten, krijg je te maken met een 'tweeweg' design. Dit is ook mogelijk bij MANOVA; een meerweg MANOVA. Als er covariaten worden toegevoegd, wordt het ee multivariate covariantie-analyse (MANCOVA).
Discrimininantie analyse
Discriminantie analyse probeert onderscheid te maken door een waarneming tot een bepaalde groep toe te kennen. Dit gebeurt op basis van een aantal interval variabelen (X) (meer dan 2) optimaal onderscheid te maken tussen meer dan 2 groepen (dummy variabelen: Y).
Er zijn twee verschillende variaties van de discriminanten analyse
- Beschrijvende (descriptieve) discriminantie analyse: heeft als doel het beschrijven van de multivariate verschillen tussen de groepen (onderlinge verschillen tussen groepen). Kijkt naar de dimensies waarop de groepen van elkaar verschillen. Het ligt in het verlengde van een significante MANOVA. Discriminantfunctievariaten moeten worden geïnterpreteerd (net zoals bij PCA), indien interpreteerbaar kunnen de gemiddelde scores van de groepen op de variaten bekeken worden.
- Voorspellende (predictief) discriminantie analyse: heeft als doel om voor individuen zo goed mogelijk te voorspellen tot welke groep zij behoren. Deze zal niet verder worden behandeld, dat ligt in het domein van de cursus Psychometrie.
MANOVA en DA zijn op het terrein van multivariate toetsen en discriminantfunctievariaten volledig equivalent. Het enige verschil is dat de X en Y verwisseld zijn.
De descriptieve disriminantie analyse is een alternatief voor het eerder genoemde 'protected F'. Waarom?
- Protected F kijkt niet naar de onderlinge relaties tussen de afhankelijke variabelen.
- Beschermt niet volledig/voldoende tegen type 1 fouten.
Bij descriptieve discriminantie analyse worden verschillende stappen doorlopen:
- Stel het aantal variaten vast → een variaat moet significant zijn op 5% niveau en interpreteerbaar zijn.
- Interpreteer de variaten → kijk naar wat de variaten precies in houden.
- Onderscheid de variaten → kijk naar hoe de variaten zich (mogelijk) onderscheiden van de andere variaten.
Belangrijk is dat descriptieve discriminantie analyse geen informatie kan geven over over welke groepen significant van elkaar verschillen op de variaten. Ook bestaan er geen toetsen voor discriminantanalyse.
Week 6 : Repeated measures ANOVA
Repeated Measures ANOVA is er op gericht om de individuele verschillen uit te bannen. Hiermee bedoelen we dat de individuele verschillen moeten worden verwijderd uit de error. Een individu wordt gemeten onder verschillende condities (Repeated). Hierdoor kunnen verschillen tussen personen duidelijk worden. Bij Repeated Mesasures ANOVA is het doel het vergelijken van gemiddelden.
Wat is het verschil tussen ANOVA en repeated measures ANOVA?
- Bij ANOVA worden verschillende groepen vergelijken op dezelfde variabele, X(NOM) --> Y(INT)
- Bij Repeated measures ANOVA worden individuen uit dezelfde groep vergeleken op verschillende vergelijkbare variabelen. Geen sprake van onafhankelijke errors.
Voor en nadelen Repeated Measures ANOVA:
Voordelen | Nadelen |
| – Latency-effect: Effecten van volgordes in de meting die voor verstoring van resultaat kunnen zorgen. Te verhelpen door counterbalancing. |
| – Carry-over effect: tijdelijk effect van ene meting op andere meting. (Bijv. drankje 2 op drinken terwijl drankje 1 nog niet is uitgewerkt). Voldoende tijd tussen treatments/metingen geven kan dit voorkomen. |
Contrasten
Indien we een standaard ANOVA gebruiken die een significante F statistiek aangeeft, toetsen we vaak post-hoc (achteraf) met bijvoorbeeld de Tukey-toets om te kijken welke gemiddelden van elkaar verschillen. Echter er is ook een alternatief: het opstellen van contrasten (planned comparisons).
Contrasten worden door de onderzoeker vooraf opgesteld om alleen sommige gemiddelden met elkaar te vergelijken. Als de contrasten op de juiste manier zijn opgesteld zou dat leiden tot 1) minder toetsen 2) de mogelijkheid van orthogonale (geheel op zichzelf staande en dus onafhankelijke) toetsen.
Multivariate toetsen
Bij multivariate toetsen zijn er een aantal afhankelijke variabelen (p) en slechts p-1 lineair afhankelijke contrasten (dit houdt in dat het contrast iets nieuws bijdraagt aan de contrasten die voorafgaan aan het contrast). Daarnaast is het ook van belang dat de contrasten orthogonaal zijn (de contrasten mogen niet samenhangen; ze staan loodrecht op elkaar).
Indien bij multivariate toetsen een nulhypothese wordt opgesteld moet het gemiddelde van de som van de contrasten gelijk zijn aan nul. Dit kan MANOVA ook toetsen (naast het feit dat MANOVA verschil tussen gemiddelden kan toetsen). Eigenlijk is de multivariate benadering dus gewoon MANOVA, met twee verschillen: afhankelijke variabelen zijn contrasten en het gaat om de toets voor de constante.
Hoe ga je te werk?
- Kijk naar het aantal contrasten → p (aantal afhankelijke variabelen)-1.
- Voer in MANOVA de contrasten in als afhankelijke variabelen en toets of deze contrasten gelijk zijn aan nul.
- Kijk daarna naar de univariate F toetsen in SPSS. Deze univariate F-toetsen toetsen de afzonderlijke contrasten. Hier kan je eventueel de verschillen uit afleiden.
Week 7 Padmodellen
Padmodellen zijn causale modellen waarin 3 of meerdere variabelen voor komen.
*De manifeste variabelen zijn X1, X2 en X3. En de latente variabelen zijn e1 en e2. Alleen X1 en X2 hebben een error, omdat deze worden voorspeld.
* De pijlen geven in dit model aan of er een causaal effect aanwezig is. In dit geval tussen X1 en X2, X2 en X3.
Structural equation model (SEM) (bekend van Psychometrie)
- Het model onderzoekt modellen met causale relaties tussen meer dan 2 variabelen.
- De data kunnen 'nee' zeggen tegen het model.
- Gebruik van manifeste (observeerbare variabelen) en latente variabelen (niet direct observeerbaar). SEM heeft de mogelijkheid om latente en manifeste variabelen te schatten en te toetsen.
- Toets voor model als geheel
Er worden hier alleen recursieve modellen besproken (zonder feedback loops). Manifeste variabelen hebben een rechthoek om zich heen en latente variabelen een ellips. Errors zijn ook latente variabelen, maar die hebben meestal geen ellips om zich heen. Alle voorspelde variabelen krijgen een error. Als er geen pijl is tussen bepaalde variabelen, dan is er geen relatie en is het regressiegewicht gelijk aan 0. Padmodellen kan men onder verdelen in twee verschillende soorten:
- Zonder meetfouten → altijd mogelijk (Alleen manifeste variabelen)
→ gelijk aan multipele/enkelvoudige regressieanalyse.
→ Echter is het niet mogelijk om het model in zijn geheel te toetsen met multipele regressie analyse. Vanwege deze reden gebruiken we Structural equation model die hier wel toe in staat is. Voorwaarde: Het model moet echter wel geïdentificeerd zijn.
- Met meetfouten → alleen mogelijk bij meerdere indicatoren/meerdere manifeste variabelen per latente variabele.
→ Latente en manifeste variabelen.
Manifeste variabelenvariabelen (X1 t/m X6).
Latente variabelen (erros, disturbances → erros latente variabelen, L1 t/m L3).
*Belangrijk is dat het padmodel grotendeels gebaseerd is op correlationele data. Dit houdt kort in dat we met het pad model geen causale relatie kunnen bewijzen, maar wel weerleggen. Correlaties kunnen dus wel 'nee'/'misschien' (eventueel 3e variabele in het spel) tegen het model zeggen, maar geen 'ja'.
Padmodellen zonder meetfouten
Zoals eerder beschreven moet het model geïdentificeerd zijn. Heeft het model een unieke oplossing? Met behulp van de vrijheidsgraden kunnen we hier achter komen.
- Aantal varianties + covarianties bij n manifeste variabelen: V= n(n+1)/2
- Aantal te schatten parameters: P= aantal pijlen (inclusief error pijlen) + aantal exogene variabelen (=manifeste variabelen die niet voorspeld worden uit andere variabelen).
- Vrijheidsgraden: df= V-P
Er zijn nu 3 mogelijke uitkomsten:
- df
- df = 0 (just-identified): unieke (maar meestal instabiele) oplossing, geen modeltoets.
- df > 0 (over-identified): unieke oplossing en modeltoets.
Het model moet nu worden geëvalueerd. Met de Chi2 toets van het model wordt de geobserveerde variantie-covariantie matrix vergeleken met de teruggeschatte variantie-covariantie matrix. Een nadeel is dat de toets bij grote N zeer snel significant is, net zoals bij geringe afwijkingen van data van model. Daarom is het van belang dat er ook naar de fitmaten wordt gekeken. Criteria voor enkele fitmaten:
- RMSEA: waarde kleiner dan 0.05 wijst op excellente fit; tussen 0.05 en 0.08 goede fit; tussen 0.08 en 0.10 redelijke fit.
- NFI/NNFI/CFI: eerste twee moeten groter zijn dan 0.90, CFI groter dan 0.95.
Het model kan nu mogelijk worden bijgesteld. Er wordt naar de gestandaardiseerde residuen gekeken. Een gestandaardiseerd residu is het verschil tussen werkelijke en teruggeschatte correlatie van Xi met Xj: zres= rij - rîj. Vragen die je hierbij kunt stellen zijn: Zijn residuen normaal verdeeld? Symmetrie van verdeling? Gecentreerd rond nulpunt? Welke residuen zijn groot (gestandaardiseerd >0.10)?
Padmodellen met meetfouten
Het is een combinatie van (confirmatieve) factoranalyse en regressie-analyse:
Er is een meetmodel (constructie van latente variabele(n) uit de indicatoren via factoranalyse) en een structureel model (relaties tussen de (latente) variabelen via regressie-analyse). In SEM worden het meetmodel en structureel model simultaan geschat en getoetst.
Enkele problemen die zich voordoen bij het gebruiken van SEM:
- De techniek SEM is minder robuust (bestand tegen) schendingen van assumpties.
- Met het gebruik van SEM; ga je teveel geloven in het gebruik van modellen.
- Vaak gaat modelspecificatie problematisch, omdat er veel verschillende opties zijn.
- Doordat er veel parameters tegelijkertijd worden geschat zijn er alleen stabiele oplossingen bij grote steekproeven.
Werkgroepaantekeningen
Werkgroep 1 Multipele Regressie Analyse
Opdracht 1.
A1) Y= attitude tegenover monogamie. X1= godsdienstigheid. X2= jaloezie. Gestandaardiseerde regressiegewichten: β1= 0.47. β2= 0.37.
Gestandaardiseerde regressievergelijking: Yz pred (voorspelde waarde) = β1Xz1 + β2Xz2, dus Yzpred = 0.47Xz1 + 0.37Xz2. Beide variabelen lijken een positieve bijdrage te leveren aan Y pred.
A2) De ruwe score regressievergelijking: Ypred = 0.5 + X1 + 0.5X2.
Hieronder de voorspelde Y waarden voor de 6 personen. Invullen van de formule met de scores uit de onderstaande tabel.
Persoon | X1 | X2 | Y | Ypred |
1 | 3 | 1 | 5 | 4 |
2 | 3 | 2 | 4 | 4.5 |
3 | 4 | 3 | 4 | 6 |
4 | 5 | 3 | 8 | 7 |
5 | 5 | 4 | 7 | 7.5 |
6 | 4 | 5 | 8 | 7 |
B1) R²= maat voor totaal verklaarde variantie van y.
Ry.12 = √(( r²y1 + r²y2 – 2r12*ry1*ry2)/(1- r²12)),
ry1 = .707 ry2 = .671 r12 = .632,
Ry.12 = √(( .707)²+(.671)²-2(.632)(.707)(.671)) /(1- (.632)²),
Ry.12= √(.583)= .764
dus het multipele correlatiecoëfficiënt Ry.12 = .764. R² = 0.583, dus 58.3% van de variantie van Y wordt verklaard door X1 en X2 samen.
B2) Als beide (onafhankelijke) predictoren ongecorreleerd zijn, is r12 = 0
In de formule zie je dan
√(( r²y1 + r²y2 – 2*0*ry1*ry2)/(1- 0)) : √( r²y1 + r²y2)
C) De semi-partiele correlatie ry(1.2) = .365
De semi-partiele correlatie ry(2.1) = .289
De schrijfwijze ry(1.2) betekent dat de semipartiële correlatie op Y van X1, na correctie (overlap) van X2 op X1 .365 bedraagt.
De unieke verklaarde variantie is dus: De verklaarde variantie door één predictor, die niet te herleiden is door andere predictoren.
De unieke proportie verklaarde variantie reken je uit door de semi-partiele correlatie van een afhankelijke variabele te kwadrateren.
Ry(1.2)² = .365² = .133. De unieke bijdrage van voorspeller X1 bedraagt 13%.
Ry(2.1)² = .289² = .084. De unieke bijdrage van voorspeller X2 bedraagt 8.4%.
De som = .133+.084 = .217. Beide voorspellers verklaren zonder hun overlap 22%.
D) Verklaarde variantie (VAF) kan men op verschillende manieren uitrekenen
1. Het multipele correlatiecoëfficiënt kwadrateren: R² = Ry.12².
2. De verklaarde variantie van X1 (inclusief overlap met X2) optellen met de verklaarde variantie van X2 zonder overlap met X1: R² = r²y1 + r²y(2.1).
3. De verklaarde variantie van X2 (inclusief overlap met X1) optellen met de verklaarde variantie van X1 zonder overlap met X2 R² = r²y2 + r²y(1.2).
R² = .764² = .58
R² = .707² + .289² = .58
R² = .671² + .365² = .58
De beide voorspellers (X1 en X2) verklaren 58% van Y. 58% minus beide unieke verklaarde variantie = .583 – .216 = .367. Beide voorspellers verklaren tezamen (de overlap) 37%.
E) Beide regressieanalyses zijn positief. We kunnen dus stellen dat hoe meer X1 (godsdienstigheid) en hoe meer X2 (jaloezie) hoe sterker de Y (attitude tegenover monogamie). Godsdienstigheid is de beste voorspeller (13,3% unieke bijdrage). Beide voorspellers hebben een grote overlap. Opvattingen over monogamie worden door 58% verklaard door godsdienstigheid en jaloezie.
Opdracht 2
A) In grafiek 1 lijkt het erop dat X en Y positief samenhangen. Met andere woorden, een hogere score op godsdienstigheid geeft een hogere score op monogamie.
B) In grafiek 2 lijkt het erop dat er maar weinig verband zit tussen X en Y.
Grafiek 3
C) In grafiek 3 kunnen we zien dat een
hogere score op X1 een hogere score op Y
geeft. Een hogere score op X2 geeft juist
vaak een lagere score op Y. Een lijn van
links boven naar rechts onder suggereert
dat X2 zeker wel belangrijk is. Toename van Y bij
toename van X1 en bij afname van X2.
D) Yzpred= 1.054Xz1 – 0.657Xz2
E) De 2e bèta; -0.657, is opvallend(substantieel),
ondanks dat de bijbehorende ry2; -0.048, vrij
klein is en daarom verwacht je eigenlijk ook niet
zoveel van de bijbehorende Bèta.
F) R² = r²y1 + r²y(2.1). =
(0.674) ² + (-0.536) ² = 0.454+ 0.287= 0.741
G) R² neemt met bijna 29% toe vanwege X2. (0.287x 100 = ongeveer 29%). Ondanks dat X2 nagenoeg ongecorreleerd is met Y, heeft het een aardige bijdrage.
Door X1 verklaarde variantie is 45.43% (ry²x1)
Door X2 verklaarde variantie is 28,6% (ry²x2)
H) De totaal verklaarde variantie is:
R²y.X1.X2 x 100 = 0.742 x 100 = 74.2%
I) Volgens de gewone r zou conformisme (X2) geen bijdrage hebben aan monogamie (Y), maar uit de Bèta en de semi-partiële correlaties blijkt dat dit wel zo is. In dit geval is godsdienstigheid (X1) een suppressor van verband tussen conformisme (X2) en Y.
J) De inhoudelijke conclusie is, dat hoe minder conformistisch iemand is en hoe meer godsdienstig des te positiever is de attitude ten opzichte van monogamie.
Opdracht 3
A) Schoolsucces (y), Intelligentie (X1), Prestatie vermogen (X2).
ry1= 0.67 (intelligentie en schoolsucces)
β1= 0.60. Positief verband
ry2= 0.55: positief verband
β2= 0.10: nauwelijks een verband ry2= een schijnverband (spurieuze correlatie)
B) VAF= R²= (0.67)²= 0.449: bijna 45% verklaarde variantie komt van beide voorspellers. In feite is dit alleen van X1, want deze heeft een proportie verklaarde variantie die bijna gelijk is aan het totaal.
C) Intelligentie (X1) heeft een positieve invloed op schoolsucces (Y). Na correctie voor intelligentie levert prestatievermogen (X2) geen bijdrage aan verklaring schoolsucces.
Opdracht 4
A)VAF model 1: R² (R Square)= 0.397. Het model verklaart dus bijna 40% van de variantie van schoolsucces.
B) Unieke bijdrage van beide voorspellers: gekwadrateerde semi- partiële correlatie (in SPSS: Part correlation)
Ability: 0.452²= 0.204: 20,4%
Interest: 0.209² = 0.044: 4,4%
Correlaties en regressie- coëfficiënten zijn zowel voor Ability als voor Interest significant.
C) Alleen Ability (X1) als voorspeller van schoolprestatie (Y).
VAF= kwadraat van zero-order correlatie.
r²y1= (0.594)²= 0.353: 35.5%
Ability en Interest verklaren samen 39.7%.
Dus variabele interest voegt toe: 39.7-35.5 = 4,4%
D) Als we uitgaan van geen suppressie, maximaal mogelijke R² change = gelijk aan gewone (zero-order) correlatie van Parental Interest met Achievement in het kwadraat.
E) De feitelijke R² change= 0.084²= 0.007, oftewel 0,7% verschil in R² tussen model 1 en 2. De verandering is niet significant (p= 0.078).
Parental interest overlapt met andere voorspellers (corelatie van 0.30) voegt daarom weinig extra verklaarde variantie toe.
F) Kijk naar R square change: Belangstelling leerkracht voegt 0.15²= 0.022: 2,2% verklaarde variantie toe. Dit is significant.
De totale VAF van model 3 = 0.426: 42,6%
G) Met hiërarchische multipele regressieanalyse werd schoolsucces voorspeld uit
de onafhankelijke variabelen intellectueel vermogen van kind, belangstelling
van kind, belangstelling van ouders en belangstelling van leerkracht. Beide
kindkenmerken correleerden matig en beide andere variabelen laag met
schoolsucces.
De multipele R van het eerste model met beide kindkenmerken was
significant, F(2, 267) = 87.87, p
intellectueel vermogen was groter dan die van de belangstelling van het kind,
de semi-partiële correlaties met schoolsucces waren .45 respectievelijk .21 (p
De toevoeging van ouderlijke belangstelling in het tweede model was
niet significant, F(1, 266) = 3.14, p > .05. Toevoeging van belang-stelling van
de leerkracht in het derde model was wel significant, R2 Change = .02,
F(1,265) = 10.34, p
Schoolsucces hing vooral samen met intellectueel vermogen en ook
met belangstelling van het kind en van de leerkracht. Belangstelling van de
ouders voegde gegeven de kindkenmerken niets meer toe aan het
schoolsucces. (Blackboard)
Opdracht 5
A) antwoord b: T-toets voor gepaarde waarnemingen
B) antwoord d: PCA
C) antwoord c: MRA: hiërarchisch (intellectueel vermogen eerst)
Werkgroep 2: Twee-weg ANOVA (ook als Regressie met Dummy Variabelen)
Opdracht 1:
a. Alle combinaties van methode en geslacht hebben evenveel cases (namelijk 42, zie descriptives tabel). Dit maakt dat het hierbij gaat om een gebalanceerde onderzoeksopzet. Daarom zullen de onafhankelijke variabelen niet met elkaar overlappen. r12=0, geen samenhang tussen beide onafhankelijke predictoren.
b. We spreken van een gebalanceerd design dus we verwachten dat Sum of Squares van de effecten precies optellen tot de Sum of Squares van het Corrected model:
SScorrected model = SSmethode + SSgeslacht + SSinteractie =
85.714 + 1.524 + 34.381 = 121.619
Dit klopt precies. Er is dus een eenduidige opsplitsing in hoofd- en interactie-effecten.
c. Om de effecten te kunnen bekijken berekenen we de Eta Squared:
- Het hoofdeffect methode is significant en heeft een effectgrootte van 0.001.
- Het hoofdeffect geslacht is niet significant en heeft een effectgrootte van 0.068.
- Het interactie effect is significant en heeft een effectgrootte van 0.027.
Het is niet duidelijk waarom SPSS alleen de 'partial eta squared' geeft. Voor de effectgrootte wordt namelijk de 'eta squared' als maat gebruikt. Dit bereken je met de volgende formule: ŋ²= SSmethode/SScorrected total
Hoeveelheid verklaarde variantie = R² = ŋ²
ŋ² = SScorrected model / SScorrected total
121.619 / 1256.286 = 0.097
d. Twee gelijkwaardige interpretaties:
1. Effect van methode (RW>WG) is veel sterker voor meisjes dan voor jongens.
Meisjes: MRW-MWG (gemiddelde van RW-WG) = 8.05-5.71= 2.34 (p,0.001)
Jongens: MRW-MWG = 6.95-6.43= 0.52 (niet significant)
2. Effect van sekse is tegengesteld voor RW en GW
RW: Mboys-Mgirls= 6.95-8.05= -1.10
WG: Mboys- Mgirls= 6.43-5.71= 0.52
e. Resultaten
Een 2 x 2 between-subjects ANOVA wees uit dat de gebruikte rekenmethode een
significant effect had op de toetscore, F(1, 164) = 12.39, p
Het effect van geslacht was niet significant, F(1, 164) = 0.22, p > .63, maar het
interactie-effect wel, F(1, 164) = 4.67, p
Meisjes met de methode Rekenen & Wiskunde scoorden significant hoger (M
= 8.1) dan meisjes met Wereld in Getallen (M = 5.7), F(1, 82) = 17.81, p
partial η2 = .18. Bij jongens (M = 6.7) was het scoreverschil tussen de rekenmethoden
niet significant, F(1, 82) = 0.78, p > .38.
Dit is de manier waarop men moet rapporteren volgens de APA regels.
Opdracht 2:
a. We hebben weer te maken met een gebalanceerd design aangezien het aantal proefpersonen in de cellen gelijk zijn.
Controle met de kwadratensommen: Corrected model= SSmethode+ SSniveau+ SSinteractie
315,500= 85,714+ 189,893+ 7735,714: klopt!
b. Alle effecten zijn significant.
Hieronder staan voor alle effecten de eta square scores vermeld:
Methode: 85.714/ 1256.286= .068
Cniveau: 189.893/ 1256.286= 0.151
Methode * Cniveau: 39.893/ 1256.286= 0.032
Om de gemiddelden te vergelijken kun je in de tabel ‘descriptives statistics’ kijken.
MRW= 7.5. MWG= 6.07
Mlow= 5.41
c. Resultaten
Rekentoetsscores werden geanalyseerd met een tweeweg ANOVA met twee lagen
voor rekenmethode (RW, WG) en drie lagen voor algemeen rekenniveau (laag,
midden, hoog). Dit wordt een 3x2 ANOVA genoemd. Alle effecten waren significant.
Het hoofdeffect van rekenmethode liet zien dat leerlingen met RW (M = 7.5)
hoger scoorden dan leerlingen met WG (M = 6.1), F(1, 162) = 14.76, p
η2 =.08. Het hoofdeffect van rekenniveau, F(2, 162) = 16.35, p
2 = .17, werd onderzocht met Scheffe’s post-hoc toetsen. Leerlingen van een laag rekeniveau (M = 5.4) scoorden significant minder dan leerlingen van een midden- of hoog niveau (M = 7.5).
Het interactie-effect van methode en niveau, F(2, 162) = 3,44, p
η2 =.04, werd onderzocht met simpele effecten. Deze wezen uit dat alleen leerlingen
van een laag rekenniveau significant hoger scoorden met RW (M = 6.8) dan met WG
(M = 4.0), F(1, 54) = 14.38, p .12, en voor leerlingen van een hoog niveau, p > .38.
Conclusie
Alleen leerlingen van een laag rekenniveau hadden met de methode Rekenen &
Wiskunde een hogere toetsscore dan met de methode Wereld in Getallen.
Opdracht 3:
a. De verschillende combinaties hebben niet evenveel cases. Ofwel: De n is ongelijk verdeelt in de verschillende cellen. Hieraan kun je zien dat het gaat om een ongebalanceerde onderzoeksopzet.
b. Rekenniveau en geslacht hangen waarschijnlijk samen. Hoe hoger het niveau hoe meer jongens er in de cases zitten. Het geslachtsverschil wordt overschat. Om dit probleem te het hoofd te bieden kun je naar de gecorrigeerde gemiddelden kijken.
c. Hierbij moeten we weer nagaan of de verschillende delen van het Corrected Model goed bij elkaar optellen:
SScorrected model = 389.333
SScniveau + SSgeslacht + SSinteractie =
350.377 + 6.452 + 0.608 = 357.437
Dit is minder dan het corrected model. De opgesplitste Sum of Squares zijn dus niet gelijk aan het totaal ( het corrected model).
d. ->
Berekening van de unieke bijdragen:
SSeffect / SScorrected total
Geslacht: 6.452 / 1723.755 = 0.004
Niveau: 350.377 / 1723.755 = 0.203
Interactie is niet in de afbeelding te zien.
e. Resultaat
Scores op Toets2 werden geanalyseerd met een between-subjects ANOVA voor
rekenniveau (1, 2, 3) en geslacht (jongen, meisje). Alleen het hoofdeffect van
rekenniveau was significant, F(2, 239) = 31.38, p
hoofdeffect van geslacht, p > .28, en de interactie, p > .94, waren niet-significant.
Het effect van rekenniveau werd verder onderzocht met Scheffe’s posthoc
toetsen. Leerlingen van een laag rekenniveau (M = 5.7) hadden een significant lagere
score dan leerlingen van een middenniveau (M = 7.2), p
significant lager scoorden dan leerlingen van een hoog niveau (M = 8.9), p
Opdracht 4:
4.1 d
4.2 b
4.3 c
Contributions: posts
Spotlight: topics
Online access to all summaries, study notes en practice exams
- Check out: Register with JoHo WorldSupporter: starting page (EN)
- Check out: Aanmelden bij JoHo WorldSupporter - startpagina (NL)
How and why would you use WorldSupporter.org for your summaries and study assistance?
- For free use of many of the summaries and study aids provided or collected by your fellow students.
- For free use of many of the lecture and study group notes, exam questions and practice questions.
- For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
- For compiling your own materials and contributions with relevant study help
- For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.
Using and finding summaries, study notes and practice exams on JoHo WorldSupporter
There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.
- Use the menu above every page to go to one of the main starting pages
- Starting pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
- Use the topics and taxonomy terms
- The topics and taxonomy of the study and working fields gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
- Check or follow your (study) organizations:
- by checking or using your study organizations you are likely to discover all relevant study materials.
- this option is only available trough partner organizations
- Check or follow authors or other WorldSupporters
- by following individual users, authors you are likely to discover more relevant study materials.
- Use the Search tools
- 'Quick & Easy'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject.
- The search tool is also available at the bottom of most pages
Do you want to share your summaries with JoHo WorldSupporter and its visitors?
- Check out: Why and how to add a WorldSupporter contributions
- JoHo members: JoHo WorldSupporter members can share content directly and have access to all content: Join JoHo and become a JoHo member
- Non-members: When you are not a member you do not have full access, but if you want to share your own content with others you can fill out the contact form
Quicklinks to fields of study for summaries and study assistance
Field of study
- All studies for summaries, study assistance and working fields
- Communication & Media sciences
- Corporate & Organizational Sciences
- Cultural Studies & Humanities
- Economy & Economical sciences
- Education & Pedagogic Sciences
- Health & Medical Sciences
- IT & Exact sciences
- Law & Justice
- Nature & Environmental Sciences
- Psychology & Behavioral Sciences
- Public Administration & Social Sciences
- Science & Research
- Technical Sciences
JoHo can really use your help! Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world
1905 |
Add new contribution