Image

Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>

Samenvatting Applied Multivariate Research

Samenvatting bij Applied Multivariate Research (Meyers et al.) - geschreven in 2015

Hoofdstuk 4A Univariate Vergelijking van Gemiddelden

Gemiddelden worden vergeleken om te kijken of het verschil statistisch significant is, oftewel of deze verschillen bij herhaalde afname van het onderzoek weer tevoorschijn zouden komen. Misschien representeren de verschillende condities andere populaties. Elke geobserveerde verschillen in gemiddelden moet geëvalueerd worden in de context van hoeveel variabiliteit er aanwezig is in de scores van alle leden van de groepen. Dit verschil in gemiddelden kan bestaande verschillen tussen condities wel of niet aantonen. Bij de interpretatie van zo’n verschil moet er rekening gehouden worden met de score variabiliteit in elke groep. Hoe ver groepsleden afwijken van het groepsgemiddelde is de ‘margin of error’. Deze meetfouten kunnen bijvoorbeeld ontstaan door fouten in het gebruikte instrument, bedrog van deelnemers of cognitieve en motorische activiteiten in het leven van deelnemer waar de onderzoeker niet van op de hoogte is.

T en F toetsen

Bij een T-toets is het gemiddelde verschil het verschil tussen gemiddelden en de margin of error is de standaardfout van het verschil tussen de gemiddelden. Bij een F-toets is het gemiddelde verschil de between-groups mean square (tussen-groepsvariantie) en de margin of error is de within-groups mean square (binnen-groepsvariantie).

De t-test kan alleen gebruikt worden wanneer één onafhankelijke variabele twee niveaus heeft. ANOVA kan in dezelfde situatie gebruikt worden, maar ook bij meer dan twee condities en meerdere onafhankelijke variabelen. Een een-weg ANOVA maakt gebruik van de F-toets. Beide toetsen geven een ratio van variabiliteit van steekproefgemiddelden ten opzichte van een verwachte meetfout (error variance). Ze zijn varianten van elkaar: t² = F ofwel √F = t.

Een gepaarde t-test wordt gebruikt bij het testen of er significante verschillen zijn tussen variabelen of dat er een interactie is.

Een-weg tussen-proefpersoon ontwerp

Bij een één-weg ontwerp is er één onafhankelijke variabele die alle verschillende niveaus mag hebben. Het doel van een-weg ontwerp is om het verschil tussen de niveaus te testen.

De variabele kan zoveel niveaus hebben als nodig zijn om de onderzoeksvraag te beantwoorden. Men kan een tussen-proefpersonen ontwerp doen, waarbij verschillende mensen in verschillende groepen terecht komen. Hierbij wordt gekeken naar de tussen-groepsvariantie of behandelingseffect. Men kan ook een binnen-proefpersonen ontwerp doen, waarbij elke deelnemer aan elke conditie wordt blootgesteld. Hierbij wordt gekeken naar de binnen-groepsvariantie of error-variantie.

De tabel ziet er als volgt uit met a = aantal niveaus van de onafhankelijke variabele, n = aantal observaties in elke groep, N = totaal aantal observaties.

Kwadratensom (SS) van tussengroepsvariantie wordt uitgerekend door het grote gemiddelde van het groepsgemiddelde af te trekken, SS van de error door individuele score van het groepsgemiddelde af te halen en SS totaal door het grote gemiddelde van elke individuele score af te trekken.

Bron

Vrijheidsgraden (DF)

Kwadratensom (SS)

Gemiddelde kwadraten (MS)

F ratio

Between Groups (M)

a -1

∑( – )2

SSM/DFM

MSM/MSE

Error (E)

(a) (n-1)

∑(– xij)2

SSE/DFE

 

Totaal (T)

N-1

∑(xij – )2

SST/DFT

 

Als de F waarde voor de onafhankelijke variabele significant is, dan kunnen we zeggen dat er een verschil is tussen de niveaus van die variabele. Met meer dan twee niveaus kun je alleen stellen dat er een relatie is tussen de afhankelijke en onafhankelijke variabele en dat de scores niet willekeurig over de groepen verdeeld zijn. De sterkte van een bepaald effect (‘effect size’) heet in ANOVA eta kwadraat (η2). Het wordt berekend door de kwadratensom van het effect te delen door de kwadratensom van het totaal. Het geeft aan hoeveel het effect van de totale variantie verklaard. Een andere index voor effect sterkte is R2 (squared multiple correlation). Dit geeft de proportie verklaarde variantie van de afhankelijke variabele door het effect van interesse weer.

Om te bepalen welke groep significant van welke verschilt, moet er een analyse worden gedaan (ook wel: post hoc vergelijkingen, vergelijkingen per paar of gelijktijdige test procedure). Zo verkrijg je alle verschillen in gemiddelden tussen alle combinaties van paren groepen, terwijl het kans niveau gecontroleerd wordt. Voor between-subjects effecten kunnen verschillende post-hoc testen gebruikt worden in SPSS. Voor within-subjects effecten wordt meestal de Bonferroni gepaarde t-test gebruikt.

Als de niveaus van de onafhankelijke variabele bij benadering op interval schaal bekeken kunnen worden, kan een trend analyse gedaan worden. Hierbij wordt de vorm van de functie geanalyseerd. Afhankelijk van het aantal gemiddelden dat je hebt, kun je een lineaire, kwadratische, of kubieke trend laten uitvoeren. Er geldt dat er één trend minder mogelijk is, dan dat er gemiddelden zijn. Dus bij twee gemiddelden is er maar één trend mogelijk.

Twee-weg (factoriaal) tussen-proefpersoon ontwerp

In een twee-weg ontwerp zijn er twee onafhankelijke variabelen met zoveel niveaus als nodig voor de onderzoeksvraag. Het heet een factoriaal ontwerp wanneer alle combinaties van niveaus gerepresenteerd zijn. Wanneer de twee variabelen elk twee niveaus hebben spreken we van een 2x2 ontwerp. Hierbij zijn dus vier condities: a1b1, a1b2, a2b1 en a2b2.

Een hoofdeffect is het vergelijken van de gemiddelden van verschillende niveaus van een onafhankelijke variabele. Er wordt dan dus maar naar één variabele gekeken. Elke onafhankelijke variabele wordt met zijn eigen hoofdeffect geassocieerd. Bij een twee-weg ontwerp zijn er dus twee hoofdeffecten.

Er kan ook interactie (A x B) berekend worden. Dit geeft de effecten weer die geassocieerd zijn met de combinaties van de onafhankelijke variabelen. Een factor ontwerp bevat combinaties van alle niveaus van de onafhankelijke data. Een interactie kan je zien door de vorm van de functies te vergelijken: als ze parallel lopen is er geen interactie effect, als ze niet parallel lopen kan er sprake zijn van een significant interactie effect. Een significante interactie betekent dat de verschillende niveaus van de onafhankelijke variabele een verschillende relatie hebben. De significantie kan getest worden met zogenaamde ‘simple effects tests’ om te bepalen welke gemiddelden verschillen van welke bij meer dan twee niveaus.

Enkel het hoofdeffect van variabelen bestuderen is niet genoeg. Wanneer twee gemiddelden van een variabele (b1, b2) hetzelfde zijn, lijkt het alsof er geen hoofdeffect is. Maar wanneer naar interactie effecten gekeken wordt met een tweede variabele (a1, a2) kan gezien worden dat de variabele b afhankelijk is van variabele a (zie figuur 4a2 op blz. 150-151).

Een-weg binnen-proefpersoon ontwerp

In dit type ontwerp worden dezelfde individuen in verschillende condities ingedeeld. Binnen dit ontwerp is er slechts een onafhankelijke variabele binnen de proefpersonen, ook wel het treatment effect genoemd. Er kunnen meerdere niveaus gebruikt worden van de variabele. De variantie in dit ontwerp wordt veroorzaakt door verschillende scores die proefpersonen hebben op verschillende niveaus van behandeling.

Twee-weg simpel gemixt ontwerp

Een van de onafhankelijke variabelen moet een binnen-proefpersoon variabele zijn en de ander een tussen-proefpersoon variabele. Door dit ontwerp kunnen we verschillende groepen met verschillende mensen testen onder verschillende condities. Bij dit onderzoek zijn er maximaal twee onafhankelijke variabelen. Met meer wordt het een complex gemixt ontwerp genoemd. Het voordeel is dat de foutvariantie gescheiden kan worden.

Dit ontwerp wordt vaak gebruikt bij profiel analyses. Hierbij worden groepen vergeleken op basis van het patroon van gemiddelden na herhaalde metingen. Twee of meer groepen worden gemeten onder een of twee omstandigheden:

  • De groepen worden op dezelfde variabele gemeten op verschillende tijdstippen.

  • De groepen worden op verschillende manieren gemeten tijdens een onderzoek.

Deze data worden geanalyseerd door middel van twee-weg gemixt ANOVA en de gemiddelden worden geplot. Er wordt op drie aspecten van de patronen gefocust:

  • In hoeverre profielen parallel zijn.

  • In hoeverre er verschillen zijn tussen de groepen.

  • In hoeverre er over de tijd verschillen zijn op de meetmomenten.

Een-weg tussen-proefpersoon ANCOVA

Hierbij worden variabelen die de afhankelijke variabele beïnvloeden, maar die niet experimenteel te manipuleren zijn, statistisch gecontroleerd. Deze heten covariaties (covariates) en zijn meestal kwantitatief.

Een ANCOVA heeft twee stadia:

  • Aanpassen van de scores op de afhankelijke variabele door de covariatie te gebruiken. Dit wordt gedaan door voor elke case/proefpersoon een verwachte score op te stellen met de covariatie als voorspeller.

  • Een ANOVA toepassen op de aangepaste scores. Een significant effect laat zien dat er groepsverschillen zijn op de aangepaste scores.

Er zijn twee assumpties waaraan voldaan moet worden voor een ANCOVA:

  • Regressies moeten lineair zijn. De relatie tussen covariatie en afhankelijke variabele moet lineair zijn. Dit is te controleren met een scatterplot.

  • Regressies moeten homogeen zijn. De hellingshoek van verschillende groepen moet gelijk zijn, wat betekent dat de regressiemodellen voor beide groepen ook gelijk zijn. Dit is te controleren met een F-toets, waarbij geen significant verschil moet worden gevonden.

Onderstaand stuk ‘Algemeen lineaire model’ is geen onderdeel van de verplichte stof voor dit vak.

Algemeen lineaire model

ANOVA is onderdeel van het algemene lineaire model van Jacob Cohen (1968). Het is een voorspellingsmodel waarin de onafhankelijke variabelen in de analyse gebruikt worden om de afhankelijke variabele te voorspellen of de variantie te verklaren. In ANOVA worden de individuele effecten tussen variabelen bestudeerd om op die manier iets over de volledige uitkomst te kunnen zeggen.

Hoofdstuk 4B Univariate vergelijking van gemiddelden met gebruik van SPSS

Een-weg between-subjects ontwerp

Een een-weg between-subjects ontwerp kijkt of verschillende niveaus van een onafhankelijke variabele invloed hebben op een afhankelijke variabele. Bij het doen van een ANOVA moet er eerst gekeken worden naar de resultaten van Levene’s test. Deze mogen niet significant zijn, want dan wordt er niet aan de homogeniteitsassumptie (gelijke varianties) voldaan. Daarna kijk je of er een significante F-waarde is, wat betekent dat er een verschil is tussen groepen.

Bij een post hoc toets worden alle mogelijke vergelijkingen bekeken, waardoor het alfa niveau ook verhoogd. Bij bijvoorbeeld vijf niveaus zijn er tien vergelijkingen, waardoor het alfa niveau (.05*10 =) .5 wordt. Hierdoor is de kans op type I fouten (nulhypothese onterecht verwerpen) veel groter. Er zijn vele multiple comparison testen die deze Type I fout minimaliseren. De multiple comparison test vergelijkt individuele paren van gemiddelden en kijkt waar dit verschil zit.

Er zijn veel verschillende post hoc testen, waaronder least significant difference test, Bonferroni procedure, Sidak en Duncan test. De meest aangeraden post-hoc test is de Tukey procedure. Deze test controleert goed voor de type I fouten. In de output verschijnt een tabel ‘Multiple Comparisons’. In de kolom ‘Mean Differences’ zijn de gemiddelde verschillen te zien tussen de verschillende niveaus van de onafhankelijke variabele. In de kolom ‘Sig.’ valt te zien of het verschil tussen twee niveaus significant is.

Twee-weg between-subjects ontwerp

Dit ontwerp kijkt of twee verschillende onafhankelijke variabelen met ook ieder twee niveaus invloed hebben op één afhankelijke variabele. Dit doe je in SPSS door middel van Univariate General Lineair Model. Bij een statistisch significante F-waarde is er geen post hoc test nodig, aangezien er maar twee gemiddelden zijn. Wanneer je de afhankelijke variabele en de onafhankelijke variabelen hebt ingevuld kan je een factor interactie toevoegen tussen de twee onafhankelijke variabelen. SPSS zal dan kijken of er een interactie effect is tussen die twee variabelen.

In de tabel ‘Tests of Between-Subjects Effects’ zijn de effecten te zien. Als in de rij van de onafhankelijke variabele een significant effect wordt aangegeven, betekent dit dat deze variabele van invloed is op de afhankelijke variabele. In de rij van de interactievariabele is te zien of de twee variabelen met elkaar interacteren.

Interactie effecten vervangen hoofdeffecten en het is goed om dit te onderzoeken. Dat wordt gedaan door middel van ‘simple effects tests’. De resultaten hiervan zijn te zien in de tabel ‘Pairwise Comparisons’. De niveaus van beide variabelen worden tegen elkaar afgezet en er wordt gekeken waar de significantie zich bevindt. Op p.179 van Meyers et al. staat hier een voorbeeld van.

Een-weg within-subjects ontwerp

Dit wordt ook wel het ‘repeated measures design’ genoemd met een onafhankelijke variabele die het ‘treatment effect’ is. Participanten worden meerdere keren gemeten op dezelfde afhankelijke variabele. Hiervoor wordt in SPSS het Repeated Measures scherm gebruikt van de General Lineair Model. Er wordt ook aangegeven hoeveel niveaus de onafhankelijke variabele bevat. Door ‘compare main effects’ en Bonferroni aan te vinken worden gepaarde t-tests uitgevoerd op de gemiddelden van de verschillende condities van de onafhankelijke variabele. Hiermee kan bepaald worden welk gemiddelde significant verschild.

De output bij dit ontwerp laat de Mauchly test of sphericity zien, die vergelijkbaar is aan de Levene’s test. Het bekijkt of de niveaus van de onafhankelijke variabele gelijke varianties hebben en of de gepaarde correlaties van de niveaus van de variabele gelijk zijn. Deze assumpties worden echter vaak overschreden, dus wordt er meestal een correctie gedaan bij de F-waardes via het aantal vrijheidsgraden. De significantie van de onafhankelijke variabele op de afhankelijke variabele is te zien in de tabel ‘Tests of Within-Subjects Effects’.

Bij ‘Pairwise Comparisons’ wordt elke conditie met elkaar vergeleken. Op het voorbeeld op p. 186 wordt week 1 van een medische behandeling vergeleken met week 2, 3 en 4, maar wordt ook week 2 vergeleken met week 1, 3 en 4, etc. Het effect tussen week 1 en week 2 verschilt in dit voorbeeld significant, omdat de behandeling dan begint te werken. Tussen week 3 en week 4 is er geen significant verschil meer, omdat de behandeling dan is gestabiliseerd.

Simpel gemixt ontwerp

Dit ontwerp bevat een onafhankelijk tussen-proefpersoon variabele en een onafhankelijk binnen-proefpersoon variabele. Deze wordt ook in het ‘Repeated Measures’ scherm onder General Linear Model uitgevoerd, waarbij het aantal niveaus aangegeven wordt. Zowel de tussen-proefpersoon variabele en binnen-proefpersoon variabele wordt ingevoerd. De output in SPSS van dit ontwerp is vergelijkbaar met die van een één-weg within-subjects ontwerp. Het bevat ook de Mauchly test of sphericity en tests of within-subjects effects en dus kunnen er grotendeels dezelfde effecten tussen variabelen uit deze output gehaald worden.

Trend analyse

Bij een één-weg between-subjects trend analyse wordt de totale variantie in componenten verdeeld. Hiermee worden functies en plots geïnterpreteerd. Er wordt een ‘One-way ANOVA’ uitgevoerd in SPSS, waarbij ook een post hoc test aangevraagd kan worden. In de output zijn de resultaten van de Levene’s test zichtbaar en worden de verschillende trends met elkaar vergeleken.

Covariantie analyse

Bij ANCOVA wordt er statistisch gecontroleerd voor één of meer variabelen/covariaten die eventueel de afhankelijke variabele beïnvloeden. Het zijn vaak kwantitatieve variabelen. Er zijn twee assumpties waaraan voldaan moet worden:

  • Regressies moeten linear zijn. Dit is te controleren in een scatterplot van de covariate en de afhankelijke variabele. SPSS kan ook een lijn van ‘best fit’ door de punten heen trekken voor een gemakkelijkere interpretatie.

  • Regressies moeten homogeen zijn. Dat wil zeggen dat de groep regressie functies, die de afhankelijke variabele van de covariate voorspellen, gelijk moeten zijn. Dit wordt bepaald aan de hand van het interactie effect tussen de onafhankelijke variabele en covariate. Wanneer dit niet significant is, is er voldaan aan deze assumptie.

In de output van een univariate general lineair model is de Levene’s test uitgevoerd en staan de ‘tests of between-subjects effects’. Hieruit kan afgelezen worden of de effecten van de covariaten en onafhankelijke variabelen significant zijn.

Voor de verschillende bewerkingen in SPSS die in het boek beschreven staan, kun je de SPSS hulp van JoHo raadplegen.

Hoofdstuk 5A Multivariate Variantie Analyse (MANOVA)

Werken met meerdere afhankelijke variabelen

Het is belangrijk om de relatie tussen de variabelen die je gebruikt om groepsverschillen te beschrijven mee te nemen in onderzoek. Door het analyseren van meerdere variabelen wordt er een completer beeld weergegeven.

Er zijn twee perspectieven om de relaties tussen variabelen te bekijken:

  1. Het onderzoeken van de groepsverschillen op basis van gemiddelden.

  2. Het interpreteren van latente variabelen of variaten (variabelen die overkoepelend zijn voor meerdere variabelen). Het maximale aantal variaten is afhankelijk van het aantal kwantitatieve variabelen. De gewichten van de kwantitatieve variabelen worden bepaald zodat elke variaat zoveel mogelijk onderscheid maakt tussen de groepen.

Enkelvoudige metingen worden ‘scalar measures’ genoemd en meervoudige metingen worden vectors genoemd. Dat is een combinatie van nummers die een fenomeen beschrijven en die erg nuttig is wanneer een enkel nummer niet genoeg is om een fenomeen te beschrijven. Een variaat is een vector. Een voorbeeld van een vector is snelheid. Het is een direct gevoel van hoe snel we ons verplaatsen, maar het bestaat echter uit twee verschillende variabelen: afstand en tijd. Een vector is dus een gewogen som van afhankelijke variabelen.

De minimale steekproefgrootte van personen per groep moet meer zijn dan het aantal afhankelijke variabelen. Dit zou theoretisch gezien betekenen dat voor twee afhankelijke variabelen een steekproef van drie personen per groep zou kunnen. Dit is natuurlijk niet realistisch, dus is een grootte van minstens twintig personen per groep beter.

Voor- en nadelen bij gebruik van MANOVA

Voordelen van MANOVA:

  • Geeft de onderzoeker een breder beeld van het fenomeen en de mogelijkheden om het concept van de studie te verbeteren.

  • Geeft gedeeltelijke controle over het algehele alfa niveau of de Type I fout.

  • Houdt rekening met intercorrelatie van de afhankelijke variabelen.

  • Geeft de mogelijkheid om relaties tussen afhankelijke variabelen op elk niveau van de onafhankelijke variabele te onderzoeken.

  • Geeft een richtlijn voor het verkleinen van een grote set afhankelijke variabelen.

  • Helpt bij identificeren van afhankelijke variabelen, die de groep het beste onderscheiden.

  • Gemaskeerde groepsverschillen komen naar boven.

Niet gebruiken wanneer:

  • De afhankelijke variabelen ongecorreleerd zijn. De variabelen moeten allemaal iets unieks verklaren over een gewogen lineaire samenstelling, maar relatie tussen variabelen verklaard hier ook een deel van. Een significante Barlett’s test of sphericity (p<0.001) toont een voldoende correlatie tussen de afhankelijke variabelen aan.

  • Een set afhankelijke variabelen heel hoog gecorreleerd is. Dit zorgt namelijk voor ‘multicollinearity’, wanneer een aantal afhankelijke variabelen een andere afhankelijke variabele (bijna) perfect voorspellen. Dit kan leiden tot onjuiste resultaten. Een te hoge correlatie ontstaat wanneer er verschillende subschalen uit een vragenlijst vergeleken worden met de totale vragenlijst schaal of wanneer een afhankelijke variabele afgeleid is uit andere afhankelijke variabelen.

  • De gebruiker te weinig statische of technische kennis heeft.

Hotelling’s T2

Harold Hotelling heeft de univariate t-toets uitgebreid naar het multivariate vlak. Het grootste verschil is dat de univariate t-toets twee populatiegemiddelden vergelijkt, terwijl de Hotelling’s T2 twee vectoren van gemiddelden vergelijkt.

Met p = aantal afhankelijke variabelen, n1 en n2 = steekproefgroottes van groep 1 en 2, de F ratio is geassocieerd met p en (N – p – 1) vrijheidsgraden, waarvan N de totale steekproefgrootte is.

Bij multivariate analyse wordt Hotelling’s T2 gebruikt. Deze maakt een vector die de niveaus/categorieën van de onafhankelijke variabele het beste scheidt. De nulhypothese stelt dat de populatie vectoren gelijk zijn.

Power geeft aan of de test die is uitgevoerd een echt behandeleffect weergeeft. Hierbij zijn α, steekproefgrootte en effectgrootte van belang. De power is lager bij een strenger alfa niveau, maar hoger bij toename in de effectgrootte en steekproefgrootte. Het aantal afhankelijke variabelen beïnvloedt ook de power: bij meer afhankelijke variabelen, neemt de power af. Power moet tenminste .80 zijn.

MANOVA testen met meer dan twee groepen

Om duidelijk te maken hoe MANOVA werkt, eerst kort het idee achter een een-weg ANOVA:

Bij een-weg ANOVA is de totale variabiliteit verdeeld tussen de tussengroepvariantie en de binnengroepvariantie.

SSt = SSb + SSw (Sum of Squares Totaal = Sum of Squares Between Groups + Sum of Squares Within Groups)

Als men de vrijheidsgraden erbij betrekt, kan je de F-toets uitvoeren met de gemiddelden.

F = MSb/MSe (Mean Square Between Groups : Mean Square Error)

Bij de MANOVA worden kwadratensom en kruisproduct matrices (SSCP) gebruikt. Op de diagonaal van de matrix staat de SS of variantie van de afhankelijke variabele en covarianties staan op de niet-diagonaal die de gedeelde variantie tussen twee variabelen weergeeft. De MANOVA zorgt voor een totale SSCP matrix (T) die bestaat uit een tussenproefpersonen SSCP matrix (B) en een binnenproefpersonen SSCP matrix (W).

T = B + W

De coëfficiëntenmatrices worden veranderd in determinanten. Deze geven de algemene variantie van elke matrix weer. Zo geeft T de multivariate generalisatie aan in hoe elke onafhankelijke groep verschilt van het algemeen gemiddelde van elke afhankelijke variabele. B laat de verschillende effecten zien bij de afhankelijke variabelen en is de multivariate generalisatie van de univariate between-group SS. W is de multivariate generalisatie van de univariate within-group SS en laat zien hoe de scores in elk niveau van de onafhankelijke variabele afwijken van de gemiddelden van de afhankelijke variabele.

Er zijn vier multivariate toetsen: Pillai’s trace, Wilks’s lamba, Hotelling’s trace en Roy’s grootste wortel. Wilks’s lambda Λ is het meest gebruikt en is een ratio van W / (B+W). De waarde van Wilk’s lambda geeft de proportie van de totale variantie aan die niet is verklaard door het effect. Als de onafhankelijk variabele een significant effect heeft, dan zal B relatief groot zijn en W vrij klein. Omdat Wilk’s lambda een omgekeerd criterium is, geven kleine waarden van Λ meer bewijs van effect van de behandeling. Pillai’s trace is een statistiek dat juist de hoeveelheid verklaarde variantie geeft van een effect, als het ware de multivariate versie van eta2. Wilk’s lambda en Pillai’s trace zijn samen 1.00.

Wat te doen na een significant multivariaat effect

Als er een significant effect gevonden wordt, kan op de volgende drie manieren de aard van het effect bekeken worden:

  1. Aparte univariate t of F-toetsen met een aangepast alfa niveau (d.m.v. Bonferroni correctie: α/p, p=aantal afhankelijke variabelen, waardoor het α niveau strenger wordt).

  2. Step-down analyse, waarbij elke afhankelijke variabele apart bekeken wordt op significantie. Dit wordt met de F-toets gedaan. Het is een hiërarchische regressie, waarbij afhankelijke variabelen op causale volgorde geëvalueerd worden. Wanneer gecorreleerde afhankelijke metingen aanwezig zijn en ze een logische hiërarchische ordening hebben kunnen er ook ANCOVA’s uitgevoerd worden.

  3. Discriminant functie analyse: De kwantitatieve afhankelijke variabelen in MANOVA zijn voorspellers of onafhankelijke variabelen in de discriminant analyse. De categorische onafhankelijke variabele in MANOVA wordt afhankelijk in de discriminant analyse. Hiermee is de structuur van de variate zichtbaar, zodat de groepsverschillen naar voren komen.

Voordelen van multivariate factor ontwerp

Bij het het stuk voor stuk onderzoeken van meerdere onafhankelijke variabelen neemt de Type I fout toe. Dit pleit voor de multivariate factoriale ontwerpen. Hiermee kunnen onderzoekers kijken hoe de onafhankelijke variabelen de afhankelijke variabelen tezamen beïnvloeden. Een univariate factoriaal ontwerp heeft twee of meer onafhankelijke variabelen en één afhankelijke variabele. Een multivariate factoren design heeft twee of meer onafhankelijke variabelen en twee of meer afhankelijke variabelen.

Het lijkt er voor te zorgen dat de betekenis voor de echte wereld vergroot (ecologische validiteit) wordt. Hoe meer we van deze condities kunnen manipuleren als onafhankelijke variabelen, hoe meer we in staat zijn om condities van de echte wereld te reproduceren en daarmee de werking van deze variabelen kunnen verklaren. We gaan er ten tweede altijd vanuit dat fenomenen veroorzaakt worden door meerdere factoren.

Een voordeel van een multivariate factor design is dat de hoofdeffecten naar de gescheiden effecten kijken op een set of vector van gemiddelden van de afhankelijke variabelen. Elke onafhankelijke variabele wordt beschouwd als een eigen hoofdeffect. Het interactie effect laat de gezamenlijke invloed van twee of meer onafhankelijke variabelen zien. Dus een tweede voordeel van factoriale ontwerpen is dat ze in staat zijn om te laten zien hoe onafhankelijke variabelen interacteren zodat ze invloed hebben op de afhankelijke variabele.

Strategie voor bekijken van twee-weg between-subjects MANOVA resultaten

Na het doen van een MANOVA op SPSS kan met de volgende stappen de MANOVA output worden geanalyseerd:

  1. Bekijk of er een significant effect is en welke van de drie multivariate effecten (hoofdeffect A, hoofdeffect B of interactie effect AxB) dit is.

  2. Bekijk de multivariate twee-weg interactie van variabelen A en B. Als deze interactie significant is, zijn we geïnteresseerd in de univariate interactie effecten die daarvoor zorgden. Voor de univariate interactie effecten, die significant zijn, worden simple effects analyses gedaan en deze worden geïnterpreteerd. Voor elke univariate interactie die niet significant was of als de multivariate interactie niet significant is, bekijken we de beslissingsstrategie voor de hoofdeffecten (stap 3).

  3. Als een multivariaat hoofdeffect significant is, bekijken we de univariate hoofdeffecten van de afhankelijke variabelen die geen significante interactie hadden. Op de significante univariate hoofdeffecten worden multiple comparison tests gedaan en de resultaten geïnterpreteerd. Als een multivariaat hoofdeffect niet significant is, wordt er geen significantie voor univariaat effect gerapporteerd.

Op blz. 241 van het boek staat een voorbeeld die bovenstaande strategie reflecteert.

De tijddimensie in multivariate data analyse

Bij de statistische analyse is er vaak alleen een momentopname van de proefpersonen getest. Wanneer de tijd erin betrokken wordt zijn er meer complexe benaderingen nodig. Een aantal methodes wordt gebruikt:

  • Panel Data Analyse: gebaseerd op herhaalde metingen van dezelfde deelnemers.

  • Cohort Data Analyse: deze analyse vergelijkt meerdere groepen op verschillende tijden, vaak binnen dezelfde cohorten. Dat wil zeggen met gelijke levensachtergrond en persoonlijke context.

  • Multilevel Lineair Model (MLM): is ontwikkeld om vaste data (niveaus van variabelen, die specifiek zijn aan één niveau van een andere variabele) te onderzoeken. Het doel is om veranderingen te toetsen en te kijken welke factoren een intra- en interpersoonlijke verandering veroorzaken. Er zijn drie benaderingen voor de MLM:

    1. Marginale analyse: De onderzoeker bouwt een model dat focust op het gemiddelde van de afhankelijke variabele en hoe dit veranderd over tijd.

    2. Het ontwikkelen van transitie modellen die kijken hoe de afhankelijke variabele een functie is van eerdere waardes.

    3. Een derde benadering maakt een random effecten model, waar gekeken wordt hoe regressiecoëfficiënten variëren tussen de deelnemers.

  • Survival analyse: voorspelt de overlevingstijd tussen twee gebeurtenissen van één of meerdere groepen (figuurlijk en letterlijk). Het gaat om het aantal deelnemers dat op het tweede meetpunt nog aanwezig is (of nog actief is).

Hoofdstuk 5B MANOVA met gebruik van SPSS

Twee-groep MANOVA

Een MANOVA wordt gedaan door Analyze, General Lineair Model, Multivariate. Vul hier de afhankelijke variabelen en de onafhankelijke variabele (bij Fixed Factor) in. Vink de benodigde boxen in options (Descriptives, Effect size, Residual SSCP matrix, Homogeniteit test) aan om je model op de assumpties te controleren. Bij ‘Contrasts’ kunnen a priori vergelijkingen bij drie of meer groepen van de onafhankelijke variabele ingesteld worden. Daarnaast kunnen er lijngrafieken gemaakt worden (‘Plots’) en post hoc of multiple comparison testen aangevraagd worden (‘Post Hoc’).

In de output moet gekeken worden of de covariante matrices gelijk zijn over de niveaus van de onafhankelijke variabele. Dat wordt aangegeven door een niet significante Box’s M test. Daarnaast moet de Barlett’s Test of Spehericity significant zijn voor voldoende correlatie tussen de afhankelijke metingen.

Het belangrijkste van de MANOVA output is te zien in de tabel ‘Multivariate Tests’ en bestaat uit twee delen:

  • Intercept bekijkt of de afhankelijke variabelen verschillen van nul. Statistische significantie betekent dat het verschilt van nul.

  • Het effect van de onafhankelijke variabele. Multivariate testen zorgen ervoor dat de matrixmanipulatie van de between-group en within-group variabiliteit een enkele F-waarde geeft.

Vier multivariate testen worden meestal gebruikt: Pillai’s trace, Wilk’s lambda, Hotelling’s trace en Roy’s grootste wortel (zie H5A). Een significant effect op een van de afhankelijke variabelen vertelt ons dat er multivariate verschillen zijn tussen de niveaus van de onafhankelijke variabele op die afhankelijke variabele.

Als de multivariate tests significant zijn kan elke afhankelijke variabele verder onderzocht worden. Bekijk eerst weer de homogeniteit van de variantie van elke afhankelijke variabele door middel van de Levene’s Test; deze mag niet significant zijn. In de tabel ‘Tests of Between-Subjects Effects’ is een standaard ANOVA output te zien, maar dan voor elke afhankelijke variabele in het model. De focus ligt op de rij van de onafhankelijke variabele. Hier valt te zien welke effecten significant zijn.

k-groep MANOVA

Voor een k-groep MANOVA is een onafhankelijke categoriale variabele met drie of meer niveaus en minstens twee conceptueel gerelateerde afhankelijke variabelen nodig. Dezelfde stappen worden uitgevoerd om een MANOVA te doen als bij de twee-weg MANOVA. Er wordt alleen ook een post-hoc test gedaan worden met de R-E-G-W-Q methode als de afhankelijke variabele de gelijke varianties assumptie niet overtreedt.

Hierna wordt weer de output geïnterpreteerd, te beginnen met de Box en Barlett’s Test. Als de Box’s M test significant is, is de test Pillai’s trace nodig om uitspraak te doen over multivariate verschillen tussen niveaus van de onafhankelijke variabele en de afhankelijke variabele. Een significant resultaat op de Levene’s test van een variabele betekent dat de varianties van de groepen ongelijk zijn. Het is een waarschuwing dat je deze met een hogere alfa moet beoordelen. In de tabel ‘Tests of Between-Subjects Effects’ kan wederom bekeken worden welke effecten significant zijn.

Om te weten welke niveaus van de onafhankelijke variabele zorgden voor een significant effect op de afhankelijke variabelen kan gekeken worden naar de output van post hoc test (pairwise comparisons). Door te kijken welk niveau zorgt voor significantie tussen de groepen, kunnen conclusies getrokken worden. Zie het boek p. 268 voor een voorbeeld.

Tweeweg between-subjects factoriaal MANOVA

Hierbij wordt gebruik gemaakt van 2x2 ontwerp, waarbij twee onafhankelijke dichotome variabelen worden vergeleken met meerdere afhankelijke kwantitatieve variabelen. Het maken van dichotome variabelen leidt ertoe dat veel informatie verloren gaat.

Voor de factoriale MANOVA geldt hetzelfde stappenplan als eerder beschreven voor de k-groep MANOVA. Een groot verschil is echter dat in de tabel ‘Multivariate Tests’ naast twee hoofdeffecten van de twee onafhankelijke variabelen, ook een interactie effect tussen de twee te zien is. Als eerst moet bekeken worden of het interactie effect tussen beide significant is. Daarna wordt gekeken naar de hoofdeffecten van beide variabelen.

Na het checken van de Levene’s test kan de tabel ‘Test of Between-Subjects Effects’ bekeken worden met univariate ANOVA’s voor elke afhankelijke variabele op elk hoofdeffect en het interactie effect. Nu kan geïnterpreteerd worden welke onafhankelijke variabele een significant effect heeft op welke afhankelijke variabele.

Hoofdstuk 6A Bivariate Correlatie en Simpele Lineaire Regressie

Relaties

Een belangrijke onderzoeksvraag is of er een relatie bestaat tussen twee variabelen. Het antwoord op deze vraag moet worden gezocht bij de bivariate correlatie. Bivariate wil zeggen dat het om een verband tussen twee variabelen gaat. Correlatie is een manier om de mate van een verband tussen twee of meer variabelen te meten. De gekwadrateerde correlatie geeft de sterkte van de relatie aan. De Pearson correlatie (r) is een voorbeeld van een bivariate correlatie, die meet in hoeverre er een lineair verband bestaat tussen twee kwantitatief gemeten variabelen. Kwantitatief gemeten wil zeggen dat een grotere waarde op een variabele staat voor een grotere hoeveelheid van de onderzochte kwantiteit dan bij een kleine waarde.

Voordat de Pearson correlatie kan worden uitgerekend, wordt er naar de covariantie gekeken. De mate van covariantie geeft aan hoe verschillen in de ene variabele in verband staan met verschillen in de andere variabele. Om dit te onderzoeken moet de data van iedere persoon zo worden genoteerd dat de twee uitkomsten van elke variabele van dezelfde persoon aan elkaar verbonden zijn. Belangrijk is dat er geen correlatie aanwezig kan zijn als er geen covariantie bestaat. Voor een covariantie moet er verschil zitten tussen de ene variabele en de andere variabele.

Soorten relaties

Er bestaan drie soorten verbanden bij correlatie: een perfect verband, een niet-perfect verband en geen verband. Een verband (of correlatie) kan positief of negatief zijn. Positief wil zeggen dat hogere scores op de ene variabele leiden tot hogere scores op de andere variabele. Er bestaat dus een direct verband. Een negatief verband houdt in dat hogere scores op de ene variabele leiden tot lagere scores op de andere variabele, of andersom.

Bij een perfect positief verband is er een correlatie van +1.00. Er is dus ook covariantie aanwezig. In een scatterplot liggen de scores op een perfect oplopende lijn en een nauwkeurige voorspelling van de Y score is mogelijk. Bij een perfect negatief verband liggen de scores op een perfect aflopende lijn en hier is het ook mogelijk om nauwkeurige voorspellingen te doen. De correlatie is hier -1.00. Bij een niet-perfect verband liggen de scores in een scatterplot in de omgeving van de best passende lijn. Dit is zo, omdat de covariantie niet perfect is. Doordat de relatie tussen de twee variabelen niet helemaal perfect is, is de voorspelling ook niet perfect. Het blijft echter beter dan kans niveau.

Als er geen verband aanwezig is, wil dat zeggen dat er geen covariantie is en in een scatterplot liggen de scores overal in het veld verspreid. Het kan zelfs voorkomen dat de best passende lijn horizontaal is, de helling is dan (bijna) nul en hieruit valt af te leiden dat de Pearson r ook dicht bij de nul zal zijn. Het is dan niet mogelijk om betere voorspellingen te doen dan op kans niveau. Als er geen variantie bestaat binnen een variabele, kan er ook een verticale lijn ontstaan. Elke verandering van de ene variabele zorgt voor dezelfde waarde op de andere variabele. Er is dan geen covariantie en dus een correlatie van nul.

Het is belangrijk om te onthouden dat een covariantie niet hetzelfde is als een verschil tussen gemiddelden. Het zijn twee aparte statistische begrippen. Dat betekent dat twee variabelen die dezelfde correlatie hebben als twee andere variabelen, niet ook dezelfde verschillen in gemiddelden hebben. De correlatie is hetzelfde, maar de absolute verschillen niet.

Statistische significantie

Het is belangrijk om nadat de correlatie coëfficiënt is berekend te onderzoeken of deze significant verschilt van nul. Dit is vooral belangrijk bij kleine steekproefgroottes, omdat een hoge correlatie waarde niet wil zeggen dat de waarde significant verschilt van nul. Echter, hoe kleiner de steekproef, hoe hoger de correlatie moet zijn om significant te verschillen van nul. De nulhypothese is dat de twee variabelen niet gerelateerd zijn, oftwel een correlatie hebben van nul. De significantie geeft aan hoe zeker we kunnen zijn dat de correlatie wel verschilt van nul. Bij een alfa niveau van .05, aangenomen dat de nulhypothese juist is, betekent dit dat correlaties van deze grootte of nog groter maar voorkomen in 5% of minder van de gevallen, als de correlatie coëfficiënt alfa .05 haalt. We kunnen dan zeggen dat de correlatie significant verschilt van nul op het .05 alfa niveau.

Een correlatie kan hoog zijn, maar toch niet significant, omdat de steekproef erg klein was. Bij grotere steekproefgroottes bereikt een correlatie eerder significantie. Het is het van belang om te kijken naar de praktische waarde van de correlatie. Een correlatie van .07 kan al significant verschillen van nul door de grote steekproef. Als een correlatie significant verschilt van nul betekent dit dus dat er een verband bestaat, maar de significantie zegt niets over de sterkte van dit verband.

Sterkte van relatie

Om de sterkte van een correlatie vast te stellen gaf Cohen de volgende regels: .5 is sterk, .3 is gemiddeld en .1 is zwak. Het is niet raadzaam om hier stevig aan vast te houden. De context is belangrijk in het beoordelen of correlaties sterk of zwak zijn. Uit het voorgaande blijkt dat het handig is om de correlatie twee keer te bekijken. Eerst om te onderzoeken of de correlatie significant verschilt van nul en de tweede keer om de praktische waarde van de correlatie te onderzoeken; of het verband sterk genoeg is om er toe te doen.

Als twee variabelen correleren, co-variëren ze. Als twee variabelen co-variëren wil dat zeggen dat ze samen variantie delen. Hoe meer variantie er wordt gedeeld, hoe sterker het verband tussen de variabelen is. Als de correlatie nul is betekent dit dat de variabelen geen verband hebben en bij een Venndiagram zijn het dan ook twee cirkels naast elkaar zonder overlap. Als de cirkels precies op elkaar liggen is de correlatie tussen de twee variabelen 1.0. Alle variantie is dan verklaard door die twee variabelen. Om de sterkte van het verband te bepalen wordt de correlatie gekwadrateerd. Bij Pearson r is dit de coëfficiënt van determinatie (r²) en dit kan omgezet worden in een percentage. Dit percentage geeft dan de verklaarde variantie weer.

Een bijkomstigheid is dat door het kwadrateren het teken (+ of -) voor de correlatie verloren gaat. Verder wordt r² gemeten op een ratio schaal, wat inhoudt dat een r² van .20 twee keer zo sterk is als een r² van .10. Echter, bij een vergelijking van twee zwakke correlaties is de verklaarde variantie minder groot dan bij een vergelijking van twee sterke correlaties met hetzelfde verschil.

Als de verklaarde variantie (r²) kan worden berekend, kan ook de overige variantie worden berekend die niet verklaard wordt door de andere variabele. Namelijk met behulp van de coëfficiënt van non-determinatie (1-r²).

Een andere suggestie voor het berekenen van de sterkte van het verband komt van Rosenthal. Hij kwam met de volgende formule: coëfficiënt van determinatie / coëfficiënt van non-determinatie (r²/ 1-r²) en dit kan gezien worden als de verhouding tussen verklaarde variantie en onverklaarde variantie.

Er zijn verschillende methodes om de gemiddelde correlatie van een set van correlaties te berekenen. Pearson’s r is geen intervalvariabele, dus wordt er geen normale gemiddelde berekend. De meest gebruikte methode is om de r waarden om te zetten in Fisher’s z’ waarden. Deze scores worden vervolgens gemiddeld en in een conversie tabel wordt afgelezen welke r waarde bij de gemiddelde z’ score hoort. Deze worden meestal berekend via de computer. Een snelle, maar onnauwkeurige manier is de volgende: Zet de r waarden om naar r2 waarden. Neem hier het gemiddelde van. Neem dan de wortel van dit getal en dat is de schatting van de gemiddelde correlatie. De mediaan wordt weleens gebruikt als maat voor de centrale tendens.

Een dichotome variabele en kwantitatieve variabele met Pearson correlatie

Tot nu toe hebben we de Pearson correlatie bekeken aan de hand van twee kwantitatieve variabelen. Het kan ook dat de Pearson correlatie bestaat uit een dichotome variabele (variabele met twee niveaus, bijvoorbeeld geslacht) en een kwantitatieve variabele (variabelen met meerdere niveaus). Handig bij een dichotome variabele is dat het niet uitmaakt welk cijfer een niveau toegekend krijgt, want de r² blijft hetzelfde. Bij de Pearson r kan het teken (+ of -) voor de correlatie verschillen, de waarde blijft hetzelfde.

Bij de een categoriale variabele met meer dan twee niveaus is een Pearson correlatie niet de juiste methode om een correlatie te berekenen. Dat komt, omdat de nummer toekenning niet meer arbitrair is. Deze data kan je beter analyseren met een een-weg between-subjects ANOVA met de categoriale variabele als onafhankelijke variabele en de kwantitatieve variabele als afhankelijke variabele.

Simpele Lineaire Regressie

Om een score voor lineaire verbanden te voorspellen wordt gebruik gemaakt van een simpele lineaire regressie. Hierbij wordt een enkele variabele voorspelt uit een andere enkele variabele. Het heet simpel lineaire regressie omdat:

  • het simpel is omdat er maar één voorspeller bij betrokken is.

  • het lineair is omdat er een rechte lijn doorheen getekend kan worden om de Pearson correlatie te berekenen.

  • het regressie is omdat er iets voorspeld wordt.

In een scatterplot kan een best passende lijn worden getekend, dit is de regressie lijn. Aan de hand van deze lijn (de regressie vergelijking) kan de variabele op de Y as voorspeld worden, omdat we de scores op de X as weten.

Om de plaats van de regressie lijn te weten te komen wordt de least squares procedure, ook wel ordinary least squares gebruikt. Deze methode wordt zo genoemd omdat de lijn geplaatst wordt op de plaats waar de som van de gekwadrateerde afstanden het minst is. De gekwadrateerde afstanden zijn de afstanden van elk punt in het scatterplot tot aan de lijn.

Ruwe scores en standaardscores

Ruwe scores kunnen worden omgezet in gestandaardiseerde scores: z scores. Dit wordt gedaan, omdat de twee variabelen soms verschillende metriek hebben en door ze om te zetten naar z scores, is het gemakkelijker om de scores te vergelijken. Ruwe scores zijn de data verkregen uit het onderzoek en z scores geven voor een bepaalde score aan hoeveel standaard deviaties deze verwijderd is van het gemiddelde. De formule voor het berekenen van de z score is als volgt: z score= (X score - gemiddelde) / standaard deviatie. De z score heeft een gemiddelde van 0 en een standaard deviatie van 1. De magnitude van elke score is hierdoor meteen duidelijk.

De regressie vergelijking is een representatie van het voorspellende verband tussen de twee variabelen. We bespreken twee verschillende vergelijkingen: de ruwe score vergelijking en de gestandaardiseerde vergelijking.

De ruwe score vergelijking

De vergelijking voor ruwe score vergelijking ziet er als volgt uit: Ypred= a + bX. Hierbij is Ypred de waarde die voorspeld wordt en wordt ook wel criterion variabele genoemd. a is de plaats waar de lijn de Y as kruist en wordt Y intercept of constante genoemd. b is de helling van de lijn en geeft aan hoeveel Ypred veranderd als X één eenheid veranderd. Het is de coëfficiënt van de X variabele en wordt b weight of b coëfficiënt genoemd. X is de waarde van de variabele aan de hand waarvan je score Y wil voorspellen en wordt de predictor genoemd. In plaats van een + in de vergelijking kan bX ook – zijn. Dit komt voor wanneer X en Ypred negatief gecorreleerd zijn. Bij de ordinary least squares solution is de afstand van de punten naar de lijn dus het verschil tussen de voorspelde Y waarde en de eigenlijke Y waarde.

De gestandaardiseerde vergelijking

De vergelijking voor gestandaardiseerde scores ziet er zo uit: Yz pred= ßXz. Hierbij is Yz pred de waarde van de z score die voorspeld wordt. ß is de coëfficiënt van de Xz variabele en is in simpele lineaire regressie de Pearson r. Het is de helling van de lijn gebaseerd op de gestandaardiseerde X en Y scores. Xz is de waarde van de z score van de variabele aan de hand waarvan Yz pred wordt voorspeld. Doordat de gestandaardiseerde regressie lijn altijd door het punt gaat waar de Y as en X as kruisen (0,0) zit de constante niet in deze vergelijking. Ook hier kan ßXz negatief zijn door een negatief verband tussen predictor en criterion variabelen.

Predictie error

Een regressie lijn is nooit helemaal precies en een correlatie kan nooit 1.00 zijn. Hij wordt echter gevormd zodat we de scores op de Y variabele bij toekomstige populaties kunnen voorspellen. Er bestaat een mate van prediction error. In een scatterplot van een sterke correlatie zou voor een bepaalde X-waarde de hoogst mogelijk voorspelde Y-waarde dicht bij de laagst mogelijk voorspelde Y-waarde liggen. In een scatterplot van een zwakke correlatie zou de afstand tussen de hoogst mogelijk en de laagst mogelijk voorspelde Y-waarde veel groter zijn. Hoe groot de predictie error is, is afhankelijk van de spreiding van de scores rondom de regressielijn. Als X en Y sterker gecorreleerd zijn, is er minder sprake van predictie error. Als er geen correlatie aanwezig is tussen X en Y, is het gemiddelde van de Y variabele de beste voorspeller voor Ypred.

Hoe simpele lineaire regressie wordt gebruikt

Er zijn twee redenen waarom we een regressie functie gebruiken. Ten eerste zodat we kunnen voorspellen hoe respondenten die niet eerder mee hebben gedaan, maar waarvan we wel de X waarde weten, het doen op de Y variabele. En ten tweede begrijpen we met behulp van een regressie functie het verband tussen X en Y beter.

Simpel lineaire regressie wordt in de praktijk niet vaak gebruikt. We besteden er aandacht aan, omdat het een basis legt voor multipele lineaire regressie, waarbij er sprake is van meerdere variabelen. Dit wordt elders in het boek uitgebreider uitgelegd.

Factoren die Pearson r en regressie coëfficiënten beïnvloeden

Uitbijters liggen ver weg van de gemiddelde scores. Hierdoor kunnen ze zorgen dat een correlatie onderschat wordt, omdat ze de regressielijn als het ware naar zich toe trekken. Meestal wordt er een maximale waarde toegeschreven aan uitbijters, worden ze verwijderd of wordt de data getransformeerd zodat uitbijters geen invloed meer hebben.

Variantie beperking betekent dat de correlatie lager is dan het zou zijn als er meer verschillende mensen in de sample hadden gezeten. Deze beperking ontstaat doordat één variabele geen variantie heeft of beide variabelen geen variatie hebben (bijvoorbeeld bijna alle respondenten hebben dezelfde leeftijd) in de steekproef. De correlatie is dan ook (bijna) nul. Doordat de correlatie lager is dan dat het eigenlijk zou zijn is er geen grote externe validiteit.

Non-lineairiteit. Als twee variabelen sterk gecorreleerd zijn, maar er geen rechte lijn mogelijk is in het scatterplot, dan is het niet verstandig om de Pearson correlatie te gebruiken. Een mogelijk verband is non-monotonisch en heeft in een scatterplot de vorm van een boogje. Dit is een kwadratische functie. Een andere vorm is een oplopende lijn tot op een bepaald punt waarop de lijn gelijk blijft en niet meer daalt of stijgt. Non-lineairiteit zorgt voor een lage Pearson correlatie, maar dit betekent niet dat er geen relatie is tussen de variabelen; het moet alleen op een andere manier onderzocht worden dan met Pearson’s r.

Hoofdstuk 6B Bivariate Correlatie en Simpele Lineaire Regressie met gebruik van SPSS

Bivariate correlatie

Met SPSS kan je een bivariate correlatie matrix maken waarin correlaties berekend worden tussen variabelen. Dit doe je in het Analyze menu via Correlate en Bivariate. Hier kan je de variabelen kiezen waarvan de correlaties berekend moeten worden. Je kan ook kiezen welke soort correlatie je wilt (Pearson/Spearman/Kendall) en of men gebruik wilt maken van een ‘two-tailed’ of ‘one-tailed’ significantie niveau. Via Options kunnen extra statistieken worden aangevraagd.

De output geeft een tabel met ‘Descriptive Statitics’, waarin gemiddelden en standaarddeviaties van de variabelen staan aangegeven. De andere tabel geeft de correlaties tussen variabelen, de significantie en de steekproefgrootte.

Simpele Lineaire Regressie

Om een lineaire regressie in SPSS uit te voeren ga je via Analyze naar Regression en Linear en voer je de gewenste afhankelijke en onafhankelijke variabelen in. Via ‘Statistics’ kunnen belangrijke statistieken worden aangevraagd:

  • Model fit; geeft de R2, adjusted R2, de standaard error en een ANOVA tabel.

  • R2 change; geeft de verandering van R2 wanneer er nieuwe voorspellers worden toegevoegd in het model.

  • Descriptives; geeft gemiddelden en standaarddeviaties en de correlatietabel

  • Part and partial correlations; geeft partiële en semi-partiële correlaties. Met de semi-partiële correlaties kan de unieke verklaarde variantie van een voorspeller geïnterpreteerd worden.

In de output is naast Descriptives en Correlations ook een ANOVA tabel te zien. Hierin is te zien of de voorspelling van de afhankelijke variabele significant beter is dan kans. In de tabel ‘Model Summary’ is onder andere de Rsquare te zien, die de verklaarde variantie van het model geeft, en de Adjusted R square. De R square change geeft de verandering in R square aan wanneer er in een nieuwe voorspeller wordt toegevoegd.

Uit de tabel ‘Coefficents’ kan je de regressie coëfficiënten aflezen. In de rij ‘Constant’ kan je zien waar de lijn de y-as snijdt. Met de gestandaardiseerde en ruwe coëfficiënten kan bekeken worden of de variabele een significante voorspeller is van de afhankelijke variabele. Dit wordt gedaan met t-testen. Met de ruwe coëfficiënten kan ook de regressievergelijking Ypred = a + bX worden opgesteld. Ypred is de afhankelijke variabele, a en bX kunnen uit de B-kolom worden gehaald; a in de Constant rij en bX uit de rij van de variabele.

Hoofdstuk 7A Multipele regressie: Statistische methoden

Bij multipele regressie worden er meerdere kwantitatieve of dichotome variabelen gebruikt voor een voorspelling van een kwantitatieve criterium variabele. Door het gebruik van meerdere voorspellers ontstaat een complexer beeld van de wereld, lijkend op de realiteit. Regressie kan gebruikt worden voor verklarende en voorspellende doelen.

Regressie methoden

Er zijn twee soorten regressie vergelijkingen: één in ruwe vorm en één in gestandaardiseerde vorm. De variabelen in de vergelijking hebben een bepaald gewicht en heten daarom variaten. Het opstellen van zo’n lineaire functie kan met statistische methoden via computer software of de onderzoeker bepaald zelf welke voorspellers in welke fase van analyse de regressievergelijking in mogen.

Variabelen in multipele regressie analyse

Er zijn twee typen variabelen in een multipele regressie analyse:

  1. De variabele die voorspeld wordt (Ypred). Het wordt ook wel de criterium variabele, uitkomst variabele of afhankelijke variabele genoemd. Het heeft een kwantitatief meetniveau.

  2. De voorspellende variabelen (X’s), ook wel predictoren of onafhankelijke variabelen. De variantie van de afhankelijke variabelen gebaseerd op onafhankelijke variabelen wordt voorspeld.

Bij multipele regressie wordt een lineair model gevormd met gewogen onafhankelijke variabelen om de afhankelijke variabele zo goed mogelijk te voorspellen. Dit model is gebaseerd op ‘least squares’. Dat wil zeggen dat de som van de gekwadrateerde verschillen tussen de voorspelde en eigenlijke waarden van de criterium variabele minimaal moeten zijn. de afwijkingen tussen de voorspelde en eigenlijke waarden heten errors. Het kan zijn dat er belangrijke voorspellers uit het onderzoek gelaten zijn. dan is het model ‘incompletely specified’, waardoor de externe validiteit lager is dan gewenst. Het is dus belangrijk om de juiste voorspellers te selecteren.

Regressievergelijkingen

De ruwe score vergelijking: Ypred = a + b1X1 + b2X2 + … + bnXn. Waarbij Ypred de voorspelde score is van de afhankelijke variabele, X’s de voorspellers en b’s de gewichten van de voorspellers. De b gewichten zijn partiële regressie coëfficiënten die aangeven hoeveel de Y waarde toeneemt bij toename van één eenheid van X. a is een constante. Soms hebben de variabelen verschillende metriek, waardoor men niet aan de b gewichten kan aflezen welke onafhankelijke variabele een betere voorspeller is. Dit probleem wordt opgelost door alles te standaardiseren. Dit geeft de volgende vergelijking: Yzpred = β1Xz1 + β2Xz2 + … + βnXzn. Het gemiddelde is nu 0 en de standaarddeviatie 1 voor elke variabele. Yzpred is de voorspelde z score van de afhankelijke variabele. De β’s zijn net als de b gewichten partiële regressie coëfficiënten. De rechterkant van de vergelijking heet een variate. Deze representeert een onderliggend construct of latente variabele.

Standaard regressie methode

Bij deze methode worden alle voorspellers tegelijkertijd in de vergelijking gestopt. Het bepalen van de gewichten van de onafhankelijke variabele is complexer. Allereerst wordt de correlatie matrix bekeken om de relaties tussen variabelen te bepalen. We zoeken het liefst correlaties onder de .70, want als ze hoger correleren met de afhankelijke variabele zouden ze als eerste in een hiërarchische analyse in de vergelijking toegevoegd moeten worden en bij een hogere correlatie met een andere voorspeller lijken ze bijna hetzelfde te meten en dus niet beide relevant te zijn.

Om vervolgens de gewichten te bepalen moet de unieke contributie van elke voorspeller bepaald worden alsof ze als laatste in de vergelijking zijn gekomen. Hierdoor is zichtbaar hoeveel het bijdraagt aan de andere voorspellers, waarvoor statistisch gecontroleerd is.

Partiële correlatie

Een partiële correlatie is een correlatie coëfficiënt die de lineaire relatie tussen een variabele en een deel van een andere variabele beschrijft. Het is de relatie tussen een voorspeller en de residuele variantie van de afhankelijke variabele. Hierbij worden de effecten van andere variabelen statistisch verwijderd.

Gekwadrateerde multipele correlatie

De r2 geeft de sterkte van de correlatie tussen twee variabelen aan, oftewel in hoeverre ze overlappen. Deze Pearson r kan niet gebruikt worden bij drie of meer variabelen. Daarom wordt gebruik gemaakt van de multipele correlatie, oftwel R. Dit geeft de mate van lineaire associatie van een variabele met andere variabelen aan. De gekwadrateerde multipele correlatie (R2) geeft de sterkte van deze associatie, ofwel de hoeveelheid verklaarde variantie.

Gekwadrateerde semi-partiële correlatie

De hoeveelheid variantie die elke voorspeller uniek verklaard wordt weergegeven als de gekwadrateerde semi-partiële correlatie, sr2. Het geeft de lineaire relatie tussen een gegeven voorspeller en de variantie van de afhankelijke variabele. Evenals de gekwadrateerde partiële correlatie beschrijft het de uniek verklaarde variantie. Het verschil ligt in de ‘frame of reference’:

  • Bij de gekwadrateerde semi-partiële correlatie wordt de unieke variantie gedeeld door de totale variantie van de afhankelijke variabele. Hierdoor krijgen we een percentage die aangeeft hoeveel de uniek verklaarde variantie van die variabele deel uitmaakt van de totale verklaarde variantie.

  • Bij de gekwadrateerde partiële correlatie wordt de uniek verklaarde variantie gedeeld door de variantie die niet verklaard wordt door de andere voorspellers. Het resultaat is de hoeveelheid uniek verklaarde variantie van de afhankelijke variabele, niet verklaard door de andere voorspellers.

De gekwadrateerde partiële correlatie heeft daardoor bijna altijd een grotere waarde dan de gekwadrateerde semi-partiële correlatie. Voor een voorbeeld zie p.341 van het boek.

De gekwadrateerde semi-partiële correlatie kijkt alleen naar de unieke contributies van de voorspellers, maar de gekwadrateerde multipele correlatie neemt ook de gezamenlijke contributies van de voorspellers mee, die ontstaat doordat voorspellers ook onderling correleren. De unieke contributies van voorspellers kunnen erg veranderen in een andere set voorspellers.

Structuur coëfficiënten

Een structuur coëfficiënt geeft de bivariate correlatie tussen een onafhankelijke variabele en de voorspelde score weer. Elke voorspeller heeft een eigen structuur coëfficiënt. Als de correlatie hoger is geeft dit aan dat de voorspeller het onderliggende construct beter weergeeft. De formule voor de structuur coëfficiënt is: . Hierbij is rxi y de Pearson correlatie tussen een voorspeller (xi) en de eigenlijke afhankelijke variabele. R is de multipele correlatie.

Regressie samenvatten

De regressie oplossing evalueren kan op twee manieren: de effectiviteit van het gehele model bepalen of de individuele voorspellers bekijken.

Evalueren van het gehele model

Hierbij zijn twee vragen van belang:

(1) Is het model statistisch significant? Dit wordt bepaald doormiddel van een ANOVA met de nulhypothese dat de voorspelling niet beter is dan kans. Bij een statistisch significante F-waarde kan geconcludeerd worden dat het model statistisch significant is voor een percentage van de variantie van de afhankelijke variabele.

(2) Hoeveel variantie verklaart het model? Hierbij wordt gekeken naar R2. Deze waarde is echter opgeblazen doordat er errorvariantie aanwezig is en door het aantal voorspellers in het model ten opzichte van de steekproefgrootte. Er zijn twee strategieën om dit op te lossen.

R2 zal waarschijnlijk wat lager zijn wanneer de gewogen coëfficiënten op een nieuwe steekproef toegepast worden. Dit heet R2 inkrimping. Om te schatten hoeveel R2 afneemt wordt een resampling strategie gebruikt. Dit kan op drie manieren:

  1. Een grote steekproef random in twee gelijke helften delen, waarna een regressie analyse op één substeekproef wordt losgelaten en deze gewichten vervolgens toegepast worden op de tweede substeekproef. Het R2 verschil wordt zo duidelijk. Dit heet cross-validatie.

  2. Bij dubbele cross-validatie gebeurt het cross-validatie proces beide richtingen op.

  3. Jackknife procedure: één persoon (A) wordt tijdelijk uit de regressie analyse verwijderd, waarna een analyse gedaan wordt om de score van A te voorspellen. Dit wordt gedaan voor elke persoon, totdat alle Y scores voorspeld zijn.

R2 verhoogt als er meerdere voorspellers aanwezig zijn. De adjusted R2 houdt hier rekening mee. Deze wordt in computer software ook vaak gegeven. Deze wordt berekend in SPSS met de volgende formule: Adjusted R2 = R2 - .

Hierbij komt R2 uit de multipele regressie analyse, is N de steekproefgrootte en v het aantal voorspellers. Er zijn ook andere formules, maar de uitkomst is vergelijkbaar.

Evalueren van individuele voorspellers

Dit heeft weinig zin wanneer het gehele model niet beter dan kans niveau voorspeld. SPSS toetst met behulp van t-toetsen de significantie van elke voorspeller. Volgens de nulhypothese kan een voorspeller geen significant deel van de residuele variantie verklaren. Variabelen met andere metriek kunnen niet goed vergeleken worden door het gebruik van b gewichten. Dit kan echter wel met beta gewichten, omdat de variabelen dan gestandaardiseerd zijn. De voorspellers met een groter beta gewicht contribueren meer aan de voorspelling van de afhankelijke variabele. Door het delen van het grotere beta gewicht door het kleinere gewicht wordt ontdekt hoeveel meer deze onafhankelijke variabele bijdraagt aan de voorspelling.

Er zijn enkele problemen met het gebruik van beta coëfficiënten in het evalueren van voorspellers. Zo worden beta gewichten beïnvloedt door variabiliteit van de variabele. Daarnaast kan een beta gewicht enorm veranderen bij het toevoegen van een extra voorspeller. Beta gewichten worden ook beïnvloedt door meetfouten.

Verder wordt er ook gekeken naar de Pearson correlaties tussen de voorspellers en de afhankelijke variabele, de gekwadrateerde semi-partiële correlaties (‘part correlations’ in SPSS in niet gekwadrateerde vorm) en de structuur coëfficiënten. Om de individuele voorspellers te evalueren moet niet naar enkel structuur coëfficiënten of beta gewichten gekeken worden, maar men moet kijken naar al het bovengenoemde.

Stapmethodes voor het bouwen van een model

Het doel van stap methodes is om alleen de belangrijk voorspellers in het model toe te voegen. Hieronder worden er verschillende beschreven.

Forward methode

Onafhankelijke variabelen worden in dit model stap voor stap toegevoegd. De significante variabele met de meeste voorspellende kracht wordt toegevoegd, terwijl de reeds toegevoegde variabelen in het model blijven.

Backward methode

Bij deze methode worden alle variabelen in de analyse gegooid, maar worden daarna stap voor stap niet-significante voorspellers uit het model gehaald. De voorspeller die R2 het meest naar beneden haalt wordt er eerst uitgehaald.

Het is moeilijker om in een vergelijking te komen bij de forward methode (alfa niveau .05), dan er in te blijven in de backward methode (alfa niveau .10).

Stapsgewijze methode

Deze methode is gebaseerd op zowel de forward als backward methode. Het werkt hetzelfde als de forward methode totdat er een derde voorspeller toegevoegd wordt. Bij deze toevoeging is het ook mogelijk om een onafhankelijke variabele te verwijderen. Voorspellers mogen alleen in het model wanneer ze een p-waarde onder .05 hebben. Figuur 7a.7 op p.360 geeft een goed voorbeeld van deze methode.

Evaluatie van de statistische methodes

Een voordeel van de standaard methode is dat het een compleet beeld van de regressie uitkomst geeft. Wat positief is aan de stapmethodes is dat alleen de significante variabelen meegenomen worden in de regressie analyse. Wat een nadeel is bij alle statistische methodes is dat een goede voorspeller een laag gewicht krijgt, doordat zijn voorspellende kracht niet zichtbaar is door andere voorspellers. De stapmethoden worden tegenwoordig steeds minder gebruikt. De standaard methode is goed als de onafhankelijke variabelen empirisch onderbouwd zijn. Het is een goede methode op het gehele model te testen, terwijl stapsgewijze methoden gebruikt kunnen worden voor de individuele variabelen.

Collineariteit en multicollineariteit

Collineariteit betekent dat twee voorspellers erg sterk correleren, multicollineariteit dat meer dan twee voorspellers erg sterk correleren, oftewel ze meten grotendeels hetzelfde. Multicollineariteit kan de interpretatie van de resultaten van multipele regressie verstoren. Het zorgt wel voor een hogere R2 waarde. Het is wel een probleem wanneer men de interactie tussen voorspellers wil begrijpen. Wanneer twee variabelen hoger dan .70 gecorreleerd zijn wordt het gezamenlijk gebruik afgeraden. Er zijn verschillende oorzaken van multicollineariteit:

  • Gebruik van subschalen van vragenlijst en de gehele vragenlijst als voorspellers

  • Gebruik van variabelen die hetzelfde construct meten

  • Gebruik van twee metingen die wiskundige transformaties zijn van elkaar

Software programma’s geven een tolerantie parameter. Deze geeft de hoeveelheid variantie van de voorspeller aan die niet verklaard wordt door de andere voorspellers. Als deze tolerantie onder .1 komt is er een probleem. De variantie inflatie factor (VIF) is 1 gedeeld door de tolerantie en mag dus niet hoger zijn dan 10.

Hoofdstuk 7B Multipele regressie: Statistische methoden in SPSS

Standaard multipele regressie

Een standaard lineaire regressie wordt uitgevoerd via Analyze, Regressie, Linear. Onder Statistics kan Model fit aangevinkt worden. Dan wordt de R2 en aangepaste R2 gegeven. Daarnaast geeft de R2 change hoeveel de voorspellers bijdragen aan de R2. Om de semi-partiële correlatie te krijgen moet ‘part and partial correlations’ aangevinkt worden. Onder Options kan Exclude cases listwise aangevinkt worden, waardoor de personen met een missing value niet meegenomen worden.

De ‘Descriptive Statistics’ weergeeft de gemiddelden, standaarddeviaties en steekproefgrootte. In de ‘Correlations’ tabel zijn de Pearson correlaties, significante en steekproefgrootte zichtbaar. De resultaten van de standaard regressie analyse geven de significantie van het model met ANOVA weer. In ‘Model Summary’ is de R2 en aangepaste R2 te vinden evenals de R2 change. De zero-order kolom in tabel ‘Coefficients’ geeft de Pearson correlaties van de afhankelijke variabele met elke voorspeller. De ‘Partial’ kolom geeft de partiële correlaties van elke voorspeller en de ‘Part’ kolom geeft de semi-partiële correlatie van elke voorspeller.

Daarnaast is in ‘Coefficients’ de regressie vergelijking af te leiden. Het Y intercept is de ‘Constant’. Alle andere getallen onder B zijn de b gewichten en onder Beta zijn het de beta (gestandaardiseerde) gewichten. Een multipele regressie analyse focust op het gehele model, waarbij soms hoog voorspellende variabele opgeofferd worden voor het model. Dat wil zeggen dat hun correlatie met de afhankelijke variabele eigenlijk behoorlijk hoog is, terwijl het in combinatie met de andere voorspellers geen significante voorspeller is (zie p. 371 voor verdere uitleg). Dit is dus niet meteen een reden om aan te nemen dat de variabele een slechte voorspeller is.

Stapsgewijze multipele regressie

Ook hier wordt gebruik gemaakt van lineaire regressie. Bij het menu methode moet ‘stepwise’ aangegeven worden. De verschillende opties onder Statistics staan hierboven uitgelegd. Onder Options moet het significantie niveau vastgesteld worden. Bij Entry wordt deze meestal op .05 gezet en bij Removal op .10. Het is dus moeilijker om het model in te komen, dan om eruit gehaald te worden.

In de output van de regressie analyse zijn meerdere modellen te zien, omdat er bij elk stap een voorspeller kan worden toegevoegd en na de derde stap ook variabelen verwijderd kunnen worden. Elk model wordt getest op signifiantie. Aan de vrijheidsgraden is af te lezen hoeveel voorspellers in het model aanwezig zijn. Er is een extra tabel die aangeeft welke variabelen toegevoegd en/of verwijderd zijn. Ook is de tabel ‘Model summary’ weergegeven. De ‘Coefficients’ tabel geeft nu de regressie coëfficiënten weer voor elk model. De coëfficiënten in de stapsgewijze analyse zijn anders dan die in de standaard regressie. De tabel ‘Excluded Variables’ geeft de variabelen weer die niet aanwezig zijn in het model. Door te kijken naar de partial correlation kan men zien welke variabele vervolgens toegevoegd zal worden, namelijk degene met de hoogste correlatie. Er wordt ook gekeken naar de significantie bij het toevoegen van variabelen aan de modellen.

Hoofdstuk 8A Multipele Regressie

Van dit hoofdstuk is alleen ‘Simpele mediatie’ verplichte stof.

Hiërarchische lineaire regressie

Hiërarchische lineaire regressie is hetzelfde als de standaard lineaire regressie. Onafhankelijke variabelen worden in een model gestopt om een afhankelijke variabele te voorspellen. Het verschil is dat de variabelen in stappen in het model worden gestopt. Elke stap is een ‘blok’ van variabelen. De selectie van bepaalde blokken moet wel gebaseerd zijn op een bepaalde theorie of empirische basis. Deze methode heeft het voordeel dat de dynamische wisselwerking tussen de variabelen goed bekeken kan worden, door middel van R2 change, F change en het sig. F change. Dit zijn de veranderingen zodra een nieuw blok in het regressiemodel is toegevoegd.

Onderdrukkingsvariabelen

Onderdrukkingsvariabelen vergroten als ze in de vergelijking zitten. Ze zijn niet erg sterk gecorreleerd aan de afhankelijke variabele, maar aan de bron van error van een onafhankelijke variabele. Hierdoor wordt de onafhankelijke variabele waaraan het is gecorreleerd, als het ware ‘schoner’ en hierdoor versterkt de voorspellende kracht. Een variabele die onderdrukt heeft vaak een negatief gewicht in de vergelijking.

Je herkent dit soort variabelen aan:

  • De correlatie tussen de variabele die onderdrukt en de afhankelijke variabele is kleiner dan het bèta gewicht.

  • De Pearson r met de afhankelijke variabele en het bèta gewicht hebben verschillende tekens (+ of -).

  • Het heeft misschien een correlatie van bijna nul met de afhankelijke variabele, maar is wel een significante voorspeller in het regressie model.

  • Er is bijna geen correlatie tussen de afhankelijke variabele en de variabele die onderdrukt, maar is wel gecorreleerd met één van de onafhankelijke variabelen.

Lineaire en non-lineaire regressie

Er zijn verschillende soorten regressie modellen: compleet lineair, ‘intrinsically lineair’ en ‘intrinsically nonlineair’ of ‘general curve fitting’.

Compleet lineair model en intrinsically lineair model

In een compleet lineair model zijn de afhankelijke en onafhankelijke variabelen; de coëfficiënten en intercept in de normale vorm. Dat wil zeggen dat zowel de variabelen in het model als de parameters lineair zijn.

Overeenkomsten tussen het compleet lineair model en het intrinsically lineair model zijn: elke variabele heeft een coëfficiënt waarmee het geassocieerd is, om het gewicht te krijgen wordt het coëfficiënt vermenigvuldigd met de variabele en vervolgens worden deze vermenigvuldigingen opgeteld zodat je de voorspelde waarde uitkrijgt.

Het verschil tussen een compleet lineair model en een intrinsically lineair model is dat bij de laatste de variabelen niet in hun normale vorm zijn gegoten, maar ze zijn verandert op een bepaalde manier. Het model is lineair voor de parameters, maar non-lineair voor zijn variabelen.

Er zijn verschillende manieren om deze variabelen in een andere vorm te gieten namelijk: dummy codering bij onafhankelijke variabelen, interacties tussen onafhankelijke variabelen of transformatie van onafhankelijke en afhankelijke variabelen.

Transformaties van onafhankelijke en afhankelijke variabelen

Twee redenen om transformatie te gebruiken zijn: omdat het handiger is om de relatie tussen afhankelijke en onafhankelijke variabelen uit te drukken in een getransformeerde variabele of om de data wat meer overeen te laten komen met de onderliggende aannames van regressie. Een transformatie kan toegepast worden zodat de lineaire vorm behouden (bijv. z-score) blijft of juist dat er een non-lineaire vorm ontstaat, die methodes worden hieronder besproken.

Als eerst kan een log transformatie op de afhankelijke variabele worden toegepast. We gebruiken dit wanneer we verwachten dat de onafhankelijke variabele en de afhankelijke variabele samen stijgen tot op een punt waarop de afhankelijke variabele gelijk blijft en de onafhankelijke variabele stijgt. Bijvoorbeeld de relatie tussen educatie en salaris; hoe hoger de educatie, hoe meer geld je verdient, maar tot een bepaald punt waarop nog meer educatie niet meer zorgt voor nog meer salaris.

Een andere methode is met een ‘logit transformation’, waarbij de afhankelijke variabele Y een proportie is. Dit ziet er zo uit: log[Y/(1-Y)]

Onafhankelijke variabelen kunnen ook getransformeerd worden met verschillende methoden. Ten eerste kan een polynomiale functie gebruikt worden; de waarde van een of meerdere onafhankelijke variabelen wordt verhoogd tot een macht. Dit wordt polynomiale of curvilineaire regressie genoemd. Zo heb je de kwadratische functie waarbij een onafhankelijke variabele wordt gekwadrateerd. Dit wordt gebruikt als verwacht wordt dat de afhankelijke variabele eerst zal stijgen met de onafhankelijke variabele en dan afneemt terwijl de onafhankelijke variabele toeneemt. Een derde orde polynomiaal heeft twee bochten in de functies (X³).

Dummy en effect codering voor onafhankelijke variabelen

Om een dichotome variabele (een variabele met twee niveaus) als een onafhankelijke variabele te gebruiken in een multipele regressie vergelijking, moeten willekeurig numerieke codes aan de niveaus toegeschreven worden. Deze codes zijn altijd 1 voor de aanwezigheid van een eigenschap en 0 voor de afwezigheid van die eigenschap; dit is dummy codering.

Bij een variabele met meer dan twee niveaus maken we gebruik van dummy codering. Dit doen we door voor ieder niveau apart een dummy te maken met 0 en 1. Het aantal dummy’s dat nodig is, is aantal niveaus-1. De dummy met alleen maar nullen is de referentie categorie en die wordt vergeleken met de andere categorieën. Het is het beste als dit de variabele is met relatief gezien de grootste sample grootte. Als er een controlegroep bij de nominale variabele is, dan zal het een goede kandidaat zijn als referentiecategorie.

Wanneer er een groep buiten het regressiemodel wordt gelaten, spreken we van effect codering. Deze groep krijgt waarden van -1. Het is vergelijkbaar met de referentiegroep in het dummy coderen.

Interacties en moderators

Er zijn twee onafhankelijke variabelen, X1 en X2. De relatie tussen de afhankelijke variabele en X1 verschilt voor verschillende niveaus van X2. Omdat de relatie tussen X1 en de afhankelijke variabele afhangt van X2, wordt X2 de moderator variabele genoemd. Dit houdt in dat X1 en X2 interacteren. We hebben nu als het ware drie variabelen en ook voor de interactie moet het gewicht voor de regressie vergelijking uitgerekend worden. De regressie vergelijking ziet er nu zo uit:

Ypred= a + b1X1 + b2X2 + b3X1X2.

De middelste twee termen zijn de hoofdeffecten, de laatste term is het interactie effect. Als b3 significant is moeten we voorzichtig zijn met het interpreteren van de resultaten van de hoofdeffecten. Eerst moeten de simpele hellingen, de hellingen van een onafhankelijke variabele, bij verschillende niveaus van de andere onafhankelijke variabele worden onderzocht. Een vuistregel voor de niveaus is om het gemiddelde, +1 standaard deviatie en -1 standaard deviatie te gebruiken om de b coëfficiënten te voorspellen. Als de interactie term significant is moeten we proberen deze interactie te versimpelen door de simpele hellingen te toetsen. Is de interactie niet significant dat moeten we een andere regressie analyse uitvoeren, maar dan zonder de interactie.

Sommigen beweren dat wanneer interactie aanwezig is, de onafhankelijke variabele en de moderators gecentreerd moeten zijn: dit houdt in dat het gemiddelde van de variabele wordt afgetrokken van elke score op de variabele en zo ontstaat een nieuwe, getransformeerde variabele. Het doel van dit alles is om de interpretatie van de interactie te vergemakkelijken. Verder vermindert het de kans op multicollineariteit. Een regressiemodel met een significante interactie geeft een situatie waarbij de voorspellende en moderater variabelen een waarde van 0 hebben. Vaak is dit geen mogelijke waarde voor deze variabelen. Om de regressie lijnen te maken voor +1 standaard deviaties van het gemiddelde moeten de onafhankelijke variabele en de moderators twee keer gecentreerd worden namelijk één keer bij de waarde die correspondeert met +1 standaard deviatie en één keer met de waarde die correspondeert met -1 standaard deviatie. Het advies is om de variabelen te centreren omdat het de interpretaties vergemakkelijkt.

Simpele mediatie

In de meeste methodes hebben alle voorspellers in het model een gelijke status. Met analyse van mediatie effecten worden voorspellers op een andere manier gestructureerd. Vaak moeten de onafhankelijke variabele zo goed mogelijk de uitkomst variabele voorspellen. Bij simpele mediatie wordt er echter gebruik gemaakt van een zogenaamde ‘path structure’ waarin de voorspellers gearrangeerd worden. Simpele mediatie bestaat uit slechts drie variabelen: een onafhankelijke variabele, een mediatie variabele en een uitkomstvariabele.

Een mediator verklaart de relatie tussen de voorspeller en het criterium. Er zijn twee scenario’s. Scenario A is het ‘Unmediated Model’ en stelt dat een X-variabele een Y-variabele direct voorspelt, oftewel dezelfde situatie als in simpele lineaire regressie. De voorspellende kracht van X wordt verklaard door een andere variabele die niet in het model is opgenomen; een error (c). Scenario B is het ‘Mediated Model’ en stelt dat de error tussen X en Y afkomstig is van een derde variabele. Deze derde variabele is de mediatie variabele en is op de volgende wijze in het model opgenomen, met X als onafhankelijke variabele, M als mediatie variabele, Y als uitkomstvariabele en d, e en f als correlaties.

Er is sprake van mediatie als aan de volgende drie condities wordt voldaan:

  • X moet Y significant voorspellen, want er kan geen relatie worden gemedieerd die er niet is.

  • X moet M significant voorspellen.

  • M moet Y significant voorspellen.

Mediatie analyse vergelijkt de sterkte van X om Y te voorspellen in zowel scenario A als scenario B. Het directe effect van X op Y moet significant groter dan nul zijn en wordt vergeleken met f in het bovenstaande figuur. Er kunnen zich vier resultaten voordoen:

  • Perfecte/complete mediatie: regressiecoëfficiënt f is niet significant met M in het model, wat betekent dat M de direct voorspellende kracht van X verklaart.

  • Partiële mediatie: regressiecoëfficiënt f is nog steeds significant met M, maar wel minder dan in het model zonder mediator. Dit betekent dat M de direct voorspellende kracht van X heeft afgezwakt, maar niet volledig geëlimineerd.

  • Absentie van mediatie: regressiecoëfficiënt f blijft hetzelfde met M in het model als toen M nog niet in het model zat. Variabele M heeft de direct voorspellende kracht van X niet aangetast.

  • Suppressie effect: regressiecoëfficiënt f wordt sterker wanneer M wordt toegevoegd. M verbetert de voorspellende kracht van X. Het verklaart een deel van de variantie van X die niet bijdraagt aan de voorspelling van Y.

Een mediatie analyse kan uitgevoerd worden door standaard ordinary least squares regression in drie aparte regressie analyses gebaseerd op de twee scenario’s. Elke variabele die één (of meer) pijl(en) ontvangt is een afhankelijke variabele in een aparte regressie analyse:

  1. Regressieanalyse Scenario A: Y voorspellen uit X

  2. Eerste regressieanalyse Scenario B: M voorspellen uit X

  3. Tweede regressieanalyse Scenario B: Y voorspellen uit X en M

De statistische significantie van een mediatie effect wordt meestal getoetst door de Sobel test. Deze test de nulhypothese dat het indirecte effect tussen X en Y via mediator M nul is. Er is veel kritiek op deze test, omdat het uitgaat van grote steekproeven van honderd of meer en van een normaal verdeling van het indirecte effect. Hierdoor heeft de test een lage statistische power. Daarnaast kan ook de Freedman-Schatzkin test gebruikt worden, die de sterkte van de paden van X naar Y vergelijkt tussen het model met en het model zonder mediator.

De formule van de Sobel test met (coëfficiënten zijn uit SPSS tabel te halen):

  • d als b coëfficiënt van de onafhankelijke X variabele naar de M variabele.

  • SEd als standaardfout van de b coëfficiënt van X naar M variabele.

  • e als b coëfficiënt van de M variabele naar uitkomstvariabele Y.

  • SEe als standaardfout van de b coëfficiënt van M naar Y variabele.

De Aroian test en de Goodman test zijn varianten van de Sobel test en werken met een gelijksoortige formule (p. 407 van het boek).

De formule van de Freedman-Schatzkin test met:

  • c als b coëfficiënt van de X variabele naar de Y variabele in scenario A.

  • SEc als de standaardfout van de b coëfficiënt van de X variabele naar de Y variabele in scenario A.

  • f als b coëfficiënt van de X variabele naar de Y variabele in scenario B.

  • SEf als standaard fout van de b coëfficiënt van de X variabele naar de Y variabele in scenario B.

  • rXM2 als Pearson correlatie tussen de X variabele en mediator variabele M.

De sterkte van het mediatie effect is in drie stappen te berekenen door Bèta coëfficiënten uit de SPSS tabel te halen.

  • Sterkte van indirect effect: Bètad * Bètae

  • Sterkte van direct effect: Bètac óf indirect effect + Bètaf

  • Relatieve sterkte van mediatie effect: indirect effect / direct effect.

Zie p.403 van het boek voor de betekenis van c, d, e en f.

Hoofdstuk 8B Multipele regressie met gebruik van SPSS

Van dit hoofdstuk is alleen ‘Mediatie’ verplichte stof.

Hiërarchische lineaire regressie

Met een hiërarchische lineair regressie worden variabelen in een aantal blokken toegevoegd. Dit wordt gedaan door gewoon een lineaire regressie te doen via Analyze  Regression  Linear. De variabelen van het eerste blok kan je toevoegen. Een tweede blok variabelen voeg je toe door boven het variabelen scherm op ‘next’ te klikken. Dan voeg je in het nieuwe blok weer nieuwe variabelen toe.

In de output zijn een aantal tabellen te zien. In de ‘Correlations’ tabel zijn heel verrassend alle correlaties tussen de variabelen in het model te zien. In de ANOVA tabel is de significantie van de regressiemodellen af te lezen; elk nieuw blok krijgt een nieuwe regressie analyse. De belangrijkste tabel is de ‘Model Summary’ tabel, waarin R square (verklaarde variantie) af te lezen is. Met R square change kan bekeken worden hoeveel de variantie verklaard met de toevoeging van een nieuw blok en ook de significantie ervan. De ‘Coefficients’ tabel is te zien hoe veranderingen in het model plaatsvinden wanneer er nieuwe variabelen worden toegevoegd. Het is belangrijk om goed te interpreteren wat veranderingen in significantieniveau van een variabele betekenen. Het kan namelijk voorkomen dat een variabele in het eerste blok een significante voorspeller is, maar na toevoeging van meerdere variabelen niet meer.

Polynominale regressie

Bij een polynomiale regressie zijn de standaard errors van een test gecorreleerd. Het heeft het patroon van een golf met een maximum en een minimum en is waarschijnlijk van een kubieke functie (X3).

Om de polynomiale relatie tussen geschatte standaard error en testscore te bekijken is de eerste stap om de kwadratische en kubieke variabelen toe te voegen als voorspellers. Dit doe je door de testscores te computen naar testscore in het kwadraat en testscore tot de derde macht.

Daarna voer je een hiërarchische regressieanalyse uit. Als eerste blok gebruik je de normale testscores, als tweede de kwadratische variabele en als derde de kubieke variabele.

De output af lezen gebeurt op dezelfde manier als bij hiërarchische regressie, alleen is de interpretatie van de resultaten anders. Als alle drie de modellen significant zijn, betekent het dat ze allemaal de afhankelijke variabele voorspellen. Ook nu is de R square change belangrijk. Als de R square bij elk nieuw blok significant verhoogt, is dit een teken dat de lineaire, kwadrateerde en gekubeerde variabelen samen meer variantie verklaren dan enkel de lineaire variabele.

Dummy en effect codering

Door dummy en effect codering kan er met categoriale variabelen met meer dan twee niveaus een ANOVA en regressie analyse worden gedaan. Voor de dummy codering gebruik je in de referentiegroep de code 0 voor alle kenmerken. Voor effectcodering gebruik je in de referentiegroep -1 als code.

Dummy gecodeerde ANOVA

De ANOVA stel je in door Analyze  Compare Means  One-way ANOVA. Hier stel je dan de afhankelijke variabele in en de onafhankelijke categoriale variabele waarin de niveaus gecodeerd zijn. Daarnaast stel je via Post-Hoc de REGWQ test in om paarsgewijze vergelijkingen uit te voeren. In de ‘ANOVA’ tabel is te zien of er significante verschillen zijn tussen de groepen. In de tabel van de Post Hoc test is te zien welke groepen van elkaar verschillen.

Dummy gecodeerde regressie

Voer hierbij een lineaire regressie uit via Analyze  Regression  Linear. Gebruik als onafhankelijke variabelen de dummy codes uit je variabelen venster. Als in de output te zien is dat het model significant is, betekent dit dat de dummy’s de afhankelijke variabele voorspellen. In de ‘Coefficients’ tabel is dan te zien welke significant is.

Effect gecodeerde regressie

Doe hierbij hetzelfde als met dummy gecodeerde regressie, maar gebruik de effect codes als onafhankelijke variabelen. Bij een significant resultaat wordt de nulhypothese verworpen dat elk niveau van de onafhankelijke variabele niet verschilt van het grote gemiddelde. In de tabel ‘Coefficents’ kan dan beter bekeken worden voor welk niveau dit geldt.

Voor de verklaarde variantie van R square maakt het niet uit of dummy of effect codering wordt gebruikt. Verschillen zijn er wel wat betreft coëfficiënten. Omdat bij dummycodering de referentiegroep in het model wordt meegenomen heeft het model als Y intercept het groot gemiddelde van de referentiegroep. Bij effectcodering is dit het groot gemiddelde van de hele onafhankelijke variabele.

Interactie effecten van kwantitatieve variabelen in regressie

Hierbij wordt het interactie effect tussen twee onafhankelijke variabelen onderzocht. Een van de twee variabelen is de voorspellende en de ander is de moderator. Eerste stap is dus om de variabelen van een rol te voorzien.

Daarna moeten de voorspeller en de moderator gecentreerd worden door drie nieuwe variabelen aan te maken. De gecentreerde voorspeller maak je door van de originele score het gemiddelde af te trekken. Dit doe je ook voor de gecentreerde moderator. Als derde maak je een interactievariabele door de gecentreerde voorspeller en de gecentreerde moderator met elkaar te vermenigvuldigen.

De regressieanalyse voer je uit door Analyze  Regression  Linear. Als onafhankelijke variabelen gebruik je de twee gecentreerde variabelen en de interactievariabele. Verder is de output dan af te lezen als een normale regressie.

Wanneer er een significant resultaat gevonden wordt, is het mogelijk om een tweede en derde voorspellend model te maken. De centreerde moderator variabele en de interactievariabele wordt opnieuw getransformeerd door nu +1 standaarddeviatie en -1 standaarddeviatie erbij op te tellen. De coëfficiënten laten veranderingen zien. De b coëfficiënten zijn namelijk veranderd en dit betekent dat de functie anders loopt naar mate er naar hogere (+1 sd) of lagere (-1sd) scores gekeken wordt.

Met deze drie modellen – regressie op het gemiddelde, regressie een sd boven het gemiddelde en regressie een sd onder het gemiddelde – kunnen er plotjes gemaakt worden van de regressielijnen. Als deze alle drie in een grafiek staan is goed te interpreteren dat een interactie effect kan zorgen voor een verschillend effect bij hoge/lage scores van de afhankelijke variabele.

Mediatie

Als eerst stel je het model op; dus variabele X is de voorspeller, variabele M is de mediator en Y is de afhankelijke voorspelde variabele. Om het mediatie effect te onderzoeken zullen beide scenario’s uitgevoerd worden. Scenario A voer je uit door middel van een lineaire regressie waarin je met de onafhankelijke variabele X de afhankelijke variabele Y voorspelt. Dit is het directe effect. Via de output kan je deze regressie op de gebruikelijke manier interpreteren.

Daarna onderzoek je het indirecte effect, door eerst een lineaire regressie uit te voeren van de voorspeller X op de mediator M. Dit interpreteer en voer je uit op dezelfde manier. Het mediërend effect van variabele X via variabele M op variabele Y onderzoek je ook door een lineaire regressie uit te voeren. Hierbij gebruik je variabele X en M als voorspellers. Nadat al deze drie regressies uitgevoerd zijn, kan er bekeken worden hoe het effect van X op Y veranderd is door de toevoeging van M. In de output van de ANOVA is af te lezen of de voorspellers X en M significant zijn.

Hoofdstuk 9A Multilevel modeleren

In onderzoek wordt meestal een proefpersoon onderzocht. Er zijn alleen meer factoren buiten de persoon zelf van invloed op zijn resultaten. In multilevel analysemodellen wordt een onderscheid gemaakt tussen micro-level/level 1 variabelen en macro-level/level 2 variabelen. Level 1 is genest in level 2 en die is weer genest in level 3 etc. Er wordt in deze modellen dus context toegevoegd.

Gecorreleerde errors

In multilevel wordt de assumptie dat errors ongecorreleerd moeten zijn meestal geschonden. Als er correlaties bestaan tussen level 1 onderdelen binnen groepen van level 2 wordt er gesproken van clustering. Als je merkt dat er clustering ontstaat in je dataset zal er statistische analyse gedaan moeten worden die hier rekening mee houdt.

De mate van clustering kan aangegeven worden als intraclass correlation (ICC). Het kan geanalyseerd worden door middel van een een-weg ANOVA met als onafhankelijke variabele de level 2 variabele en de afhankelijke variabele is de variabele die voorspeld wordt.

Consequenties

Door de schending van de onafhankelijkheid van errors wordt de kans op type I fouten (onterecht de nulhypothese verwerpen) verhoogd. Dit komt door de volgende keten van gebeurtenissen: de sample size is verdraaid, waardoor standaard errors onderschat worden, waardoor het alpha level hoger wordt.

Als er ICC bestaat stel deze is 1, dan zullen de level 1 onderdelen per groep in level 2 precies dezelfde scores hebben. Als er in level 1 350 proefpersonen bestaan in tien groepen van level 2, dan is de sample size eigenlijk 35 in plaats van 350.

Een grotere n is geassocieerd met meer precisie en kleinere toevalligheidsintervallen. Voor een grotere n is meestal een minder hoge r nodig om een significante correlatie te krijgen. Als de feitelijke n dus eigenlijk lager is, kan een significante correlatie overschat worden; oftewel de meetfouten worden onderschat.

Hierdoor wordt de alpha die nodig is om een significant effect te vinden steeds hoger, naarmate de ICC hoger wordt en naarmate de sample size groter wordt. Deze alpha inflatie is een serieuze bedreiging van het valide interpreteren van resultaten.

Random Coefficent Regression Model

In dit model worden verschillende intercepts en hellingen niet als alleenstaande parameters gebruikt, maar worden ze gebruikt om een algemeen multi-level model te vormen. Omdat de cases in de groepen van level 2 en groepen zelf meestal samples zijn van een altijd veranderende populatie, kan men enkel uitspraak doen over die bepaalde data set. Wanneer de uitspraken gegeneraliseerd moeten worden, zullen we de variabelen moeten behandelen als random variabelen en niet als vastgezette variabelen (‘fixed’).

In mutlilevel modeling designs wordt door Hox (2010) een 30-30 regel aangeraden; 30 groepen met minstens 30 cases per groep. Voor het evalueren van interactie effecten tussen level 1 en level 2 variabelen een 50-20 regel en voor het evalueren van de random componenten in het model een 100-10 regel.

Centreren van variabelen

Het centreren is aangenaam omdat het de mate van multicollinariteit vermindert tussen voorspellers in het model en de willekeurige hellingen en intercepts.

Bij het centreren op basis van het groot gemiddelde worden het groot gemiddelde in een sample afgetrokken van de groepsgemiddelden. Hierbij worden verschillen tussen level 2 groepen genegeerd en dat betekent dat alle individuele deviatie van het gemiddelde in relatie staat tot elk andere individu in de sample.

Bij het centreren op basis van groepsgemiddelden worden de groepsgemiddelden afgetrokken van de individuele scores van groepscases. Hierbij worden de resultaten van de individu tot de gehele sample genegeerd en zegt de deviatie enkel iets over de scores in vergelijking met andere groepscases.

Bij het schatten van het vermogen van een level 1 voorspeller wordt aangeraden om de variantie van de level 2 groepen te verwijderen. Dit gemakkelijk door te centreren op basis van groepsgemiddelden.

Bij het schatten van het vermogen van een level 2 voorspeller wordt aangeraden om te centreren op basis van het groot gemiddelde, omdat de verschillen in de groepen op die manier bewaard blijven.

Bij het schatten van beide levels wordt aangeraden om op level 1 en 2 te centreren op groepsgemiddelden, omdat zowel individuele scores als verschillen tussen groepen moeten worden overwogen.

Bij het bestuderen van level 1 interacties of cross-level interacties – tussen een level 1 variabele en een level 2 variabele – wordt aangeraden om te centreren op basis van groepsgemiddelden.

Als laatst wordt bij het bestuderen van level 2 interacties aangeraden om te centreren op basis van het groot gemiddelde.

Proces van het multilevel model bouwen

Als eerst moeten de variabelen die in de data zijn gebruikt worden gerangschikt op level 1 of level 2 variabelen.

Daarna wordt getest hoe hoog de ICC is door het te testen met een onconditioneel model omdat de enige factor in dit model de hiërarchie tussen level 1 en level 2 bepaalt.

Via SPSS worden hierna de gecentreerde variabelen berekend.

Vervolgens worden de variabelen geclassificeerd als factor (categoriaal) of covariant (kwantitatief).

Daarna wordt bepaald welke voorspellers gebruikt worden als ‘fixed’ of als random effecten of als beide. Een effect is ‘fixed’ als de waarden van die variabele in de studie alle mogelijke waarden in de populatie representeert. Een effect is random als de waarden van de variabele in de studie een sample van mogelijke populatiewaarden representeert.

Dan worden de variabelen toegevoegd, zodat er een conditioneel model ontstaat. Deze wordt zo genoemd, omdat de voorspellers toegevoegd zijn de level 2 groepsvariabele.

Als laatst kan het model geëvalueerd worden door ‘Maximum likelihood’. Er is de Full-information likelihood (FIML) en de restricted maximum likelihood (REML). De REML wordt aangeraden en is uit te voeren via SPSS.

Hoofdstuk 10A Logistische regressie en ROC Analyse

Logistische regressie

Dit hoofdstuk gaat over logistische regressie met een categorische afhankelijke variabele en kwantitatieve of dichotome onafhankelijke variabelen. In een normale logistische regressie is er altijd een afhankelijke variabele (Y-waarde) en set van onafhankelijke variabelen (X-waarden), die zowel dichotoom, kwantitatief of een combinatie daarvan kunnen zijn. De afhankelijke variabele kan dichotoom zijn (zoals in binaire logistische regressie) of meerdere categorieën hebben, wat polytomous of multinominale logistische regressie heet. De laatste jaren is logistische regressieanalyse steeds populairder geworden.

Voor een logistische regressie zijn er een aantal assumpties:

  • De afwezigheid van perfecte multicollineariteit (als meer dan twee voorspellende waarden erg sterk correleren)

  • Er mogen geen fouten in specificatie zijn. Alle irrelevante voorspellende waarden worden uitgesloten.

  • De onafhankelijke variabelen moeten gemeten worden op opgetelde respons schaal, interval of ratio niveau.

  • De errors moeten onafhankelijk van elkaar zijn, dus elke observatie is onafhankleijk van de andere observaties

  • De onafhankelijke variabelen moeten lineair gerelateerd zijn aan de log kansen

  • De afhankelijke variabele moet binair zijn.

  • Grote steekproef, liefst 30 keer zo groot als het aantal parameters dat geschat wordt.

Coderen van binaire variabelen

Het wordt gesteld dat men variabelen het beste kan coderen met 1 voor het voorkomen van het onderzochte en 0 voor het niet voorkomen ervan. Variabelen die onderzocht worden, worden gelabeld met 1 (ook wel de respons groep, vergelijkingsgroep, doelgroep), de anderen als 0 (referentie groep, basis groep, controle groep). Om te bepalen wat de focus groep is moet een hypothetisch resultaat gevormd worden op beide manieren. De hypothese die het beste overeen komt met je idee geeft de focus groep aan. Het doel van logische regressie is het voorspellen tot welke groep een individu behoort. Dit gebeurt door de kans dat hij of zij tot de categorie 1 behoort te berekenen.

Een voordeel van deze codering is dat het gemiddelde van de afhankelijke variabele gelijk is aan de proportie 1-en in de verdeling. Het gemiddelde is ook de kans om een persoon als 1 te labelen bij een willekeurige steekproef.

P = proportie 1-en, (1-P) = Q = proportie 0-en

PQ = variantie, √PQ = standaard afwijking

Een ander voordeel is dat er minder verwarring ontstaat wanneer je SPSS gebruikt. Deze codeert namelijk het hoogste getal als 1 en het laagste getal als 0. Met de codering is het makkelijker te weten welke data bij welke groep hoort.

Bij multinominale logistische regressie zijn er meer dan twee categorieën van de uitkomst variabele. Dit wordt vaak gecodeerd als 1, 2, 3, etc. De referentiegroep moet geïdentificeerd worden en de andere groepen worden gebruikt als doelgroep in aparte analyses.

Het logistische regressie model

De least squares methode is ongeschikt voor logistische regressie. Ten eerste omdat de assumptie van gelijke varianties bijna nooit opgaat. Dit komt doordat de variantie bestaat uit P en (1-P) en je deze proporties al hebt gebruikt om de variantie te maken. Als gelijke variantie gezien wordt als gelijke proportie 1-en en 0-en (P= .5 en (1-P) =.5) leg je onnodige beperkingen op de variabelen die gebruikt worden. Ten tweede kan de least squares methode waarden groter dan 1 en kleiner dan 0 genereren en dat is theoretisch niet mogelijk bij een codering van 0 en 1. Er is dus geen sprake van een lineaire functie bij logistische regressie, maar een sigmoidale of S vormige lijn.

De grafische weergave van lineaire regressie is een lijn, waarbij wordt aangenomen dat de verhoudingen constant zijn. Als x zoveel verandert, verandert y zoveel en dat is continu zo. Bij logistische regressie heeft de lijn een S vorm. Het zorgt dat we kunnen voorspellen hoe groot de kans is dat de uitkomst 1 is gebaseerd op de waarde van de voorspeller. De eerste en de laatste waarden van X brengen nauwelijks verandering. Verandering is wel te vinden in het midden. Hoe steiler de helling, hoe meer verandering er teweeggebracht is. Je gebruikt logistische regressie wanneer er geen constante relatie is. Dan heeft logistische regressie een grote voorspellende waarde.

Logistische regressie en odds

Om logistische regressie te kunnen gebruiken moet je de data transformeren met de natural log transformation (ln transformatie). Hieronder eerst drie kernbegrippen.

  • Waarschijnlijkheid = de waarschijnlijkheid dat een gebeurtenis voorkomt. Ligt tussen 0 en 1, vaak met decimalen.

  • Kansen = de kans om bij de ene groep te horen gedeeld door de kans om niet bij die groep te horen = P/(1-P). Loopt van 0 tot hoge waardes.

  • Kans ratio = kans dat de gebeurtenis de doelgroep overkomt (gecodeerd als 1) gedeeld door kans dat de gebeurtenis de referentiegroep overkomt (gecodeerd als 0).

  • Aangepaste kans ratio = contributie van elke variabele, bij gebruik van meerdere voorspellers in de logistische analyse, waarbij de andere variabelen statistisch gecontroleerd worden.

We willen berekenen hoe groot de kans is dat een individu in een bepaalde groep behoort. Hiervoor wordt de waarschijnlijkheid van de gebeurtenis omgezet in kansen. Dit wordt gedaan door de natuurlijke log (ook wel ln). Door de transformatie past de data op de S-curve om zo goed mogelijk het groeplidmaatschap van individuen te voorspellen. De logistische regressie vergelijking met v als aantal onafhankelijke variabelen:

Ln [kansen] = groeppred = a + b1X1 + b2X2+ ... + bvXv

Groeppred staat voor de voorspelde groeplidmaatschap. De b coëffficiënten geven de verandering in log kansen voor lidmaatschap aan bij verandering van één eenheid in de onafhankelijke variabelen, gecontroleerd voor de andere voorspellers. De waarden van b (helling) en a (constant) worden berekend met hulp van de Maximum Likelihood Estimation (MLE), die je kunt verkrijgen nadat de afhankelijke variabele is getransformeerd in de logit, via SPSS. X is de score van de voorspeller. Deze kan dus 0 of 1 zijn voor dichotome variabelen of deze kan van intervalniveau zijn bij kwantitatieve variabelen. Het geeft aan hoe waarschijnlijk het is dat de geobserveerde waarde van de afhankelijke variabele voorspelt kan worden uit de geobserveerde waarden van de onafhankelijke variabelen.

De voorspelde kans (p-dakje, pestimate) kun je nu berekenen door de volgende formule in te vullen, waarbij is een exponentiele functie = 2,7182.

pestimate = ℮groe \p pred/(1+℮groep pred)

Dit is de antilog vergelijking, die de log kansen transformeert naar waarschijnlijkheden. Zie het boek p. 535 voor een voorbeeld van de berekening.

De uitkomst wordt geïnterpreteerd aan de hand van een regel: bij pestimate groter of gelijk aan .5 is de code 1, bij pestimate kleiner dan .5 is de code 0. De kans ratio kan berekend worden van e en b coëfficiënt: ℮b = kans ratio

Evaluatie van het logistische model

Er zijn verschillende tests om de validiteit van het model van logistische regressie te onderzoeken:

-2 log Likelihood Test: bekijkt of de set van de onafhankelijke variabelen de afhankelijke variabelen beter dan kans kunnen voorspellen. De likelihood waardes zijn vaak erg klein en daarom wordt vaak de natuurlijke log ervan in de output laten zien. Dit wordt berekend door de log van de likelihood waarde te vermenigvuldigen met –2, waardoor de significantie getoetst kan worden met de chi²-toets. Dit is de –2LL (log likelihood). Er wordt getoetst of tenminste één voorspeller een significante contributie, verschillend van nul, heeft.

Omnibus Test of Model Coëfficiënt: test de nulhypothese dat alle coëfficiënten 0 zijn, zoals de F-toets bij lineaire regressie. De toets geeft het verschil tussen het constant-only model (zonder voorspellers) en het volle model (met constante en voorspellers) weer. Bij statistische significantie is de voorspelling met onafhankelijke variabelen beter dan zonder deze variabelen.

Pseudo R²: Cox en Snell en Nagelkerke testen. Stellen vast hoeveel variantie van de afhankelijke variabele verklaard is door de onafhankelijke variabelen. Dit is dus gelijkwaardig aan R2 in multipele regressie analsye. Berekend met de formule (1-Lfull)/Lreduced, met Lfull = log likelihood voor model met constante en voorspellers en Lreduced de log likelihood voor het constant-only model. Bij een constant-only model heeft de onderzoeker alleen de uitkomst als informatie.

Hosmer en Lemeshow Test: hierbij wordt een niet significante p-waarde gezocht, omdat het doel is om een set van onafhankelijke variabelen te krijgen die nauwkeurig de werkelijke waarschijnlijkheden voorspellen. De nulhypothese mag niet worden verworpen. De test wordt op de gehele steekproef uitgevoerd als test voor model fit.

Wald test: een relatieve maatstaaf, gelijk aan de t-test. Het test de significantie van elk coëfficiënt (b). Een coefficient dicht bij 0 betekent dat er geen verandering is door de predictor variabelen. Deze test staat ter discussie.

Bij een statistisch significante voorspelling van de uitkomst variabele wordt er gekeken naar de ‘Classification Table’. Deze geeft weer hoeveel procent van de individuen correct geclassificeerd was in een groep. het kan zijn dat de voorspelling voor de ene groep beter is dan voor de ander.

Er zijn meerdere strategieën voor het bouwen van een logistisch regressie model. Hieronder staan de strategieën voor binominale logistische regressie benoemd:

  • Standaard selectie methode: alle voorspellers tegelijk invoeren. Deze strategie wordt meestal gebruikt.

  • Forward selectie (conditioneel/likelihood ratio/Wald): stapsgewijze procedure. Bij een statistisch significante regressie coëfficiënt wordt de variabele toegevoegd en verwijdering is gebaseerd op conditionele parameter schattingen/maximale partiële likelihood schattingen/waarschijnlijkheid van Wald statistiek.

  • Backward eliminatie (condtioneel/likelihood ratio/Wald): alle variabelen worden toegevoegd en eventueel verwijderd gebaseerd op conditionele parameter schattingen/maximale partiële likelihood schattingen/waarschijnlijkheid van Wald statistiek.

Bovenstaande strategieën zijn ook bruikbaar voor het multinominale logistische regressie model. Twee andere methoden zijn: forward stepwise (start met leeg model en dan combinatie van forward en backward methode) en backward stepwise (alle variabelen toevoegen aan het model en dan combinatie van forward en backward methode).

Het onderstaande over ‘ROC Analyse’ is geen verplichte leerstof.

ROC Analyse

Een receiver operating charecteristic (ROC) kan beoordeling geven wanneer een beslissing tussen twee gebeurtenissen moet worden gebaseerd op een kwantitatieve schaal. Voor binaire logistische regressie werkt ROC goed onder de condities dat:

  • Er een kwantitatieve schaal is waarop een binaire beslissing wordt gedaan.

  • Er beslist wordt tussen twee mogelijke gebeurtenissen – een case wordt ingedeeld in target groep of referentiegroep gebaseerd op de kans dat hij in de referentiegroep zit.

  • Er precies twee groepen of uitkomsten zijn.

ROC is belangrijk geweest in de signal detection theory. De target groep wordt beoordeelt als positief en de referentiegroep als negatief. Wanneer een analyse gemaakt wordt met juiste en onjuiste voorspellingen tussen de ware groep en voorspelde groep is de volgende tabel belangrijk:

Voorspelde groep

 

Ware

groep

 

Referentiegroep

Referentie

Groep

Juiste negatieven (specificiteit)

Target groep

Onjuiste negatieven

Specificiteit is de proportie referentiegroepen binnen deze cel, dus de proportie juist voorspelde negatieven. Sensitiviteit is de proportie targetgroepen binnen de cel, dus de proportie juist voorspelde positieven.

Dit is ook in een ROC curve (fig. 10a3) te zetten waarin de x-as de onjuiste positieven (1-specificiteit) reflecteert en de y-as de juiste positieven (sensitiviteit), beide op een schaal van 0-1. Daarnaast is een lineaire lijn geplot van linksonder naar rechtsboven die als visuele baseline dient die random succes in voorspelling aangeeft. Hoe verder het beslissingscriterium van de baseline ligt, hoe nauwkeuriger de voorspellingen zijn. Het gebied onder de ROC curve (AUC) geeft een indicatie van 0-1 hoe accuraat de voorspelling is. Een AUC van .50 is evenveel als de baseline en betekent dus voorspelling op puur kansniveau. Een AUC van .90 is veel gebied onder de curve en betekent dat er uitstekend voorspelt wordt.

Omdat er vanuit een kwantitatieve schaal – namelijk de voorspelde kans dat een case bij de targetgroep hoort – een uitspraak gedaan wordt over een dichitome schaal – namelijk de case zit wel of niet bij de targetgroep – is er sprake van classificatie en daarmee is er een beslissingsdrempelwaarde. Tussen de twee groepen is echter een overlap, waardoor de drempelwaarde altijd ervoor zorgt dat er onjuiste voorspellingen gedaan worden. De drempelwaarde kan sensitiever worden, wat zorgt voor meer juiste positieven, maar ook meer onjuiste positieven. De drempelwaarde kan ook specificeerder worden, wat zorgt voor meer juiste negatieven, maar ook meer onjuiste negatieven.

In SPSS output kunnen coördinaten van de ROC curve worden afgelezen. In de meest linkse kolom is de voorspelde kans van een case in de targetgroep gegeven. De kolom daarnaast geeft de sensitiviteit (juiste positieven ratio) bij die bepaalde kans. De derde kolom geeft het onjuiste positieven (1-specificiteit). De waarden in deze twee kolommen komen overeen met de punten in de ROC curve.

In het boek zijn in tabel 10a.4 nog twee extra kolommen gegeven. De ene is het positive likelihood ratio en wordt verkregen door de juiste positieven te delen door de onjuiste negatieven. De ander is de positive predictive value en wordt verkregen door het aantal juiste positieven te delen door het aantal juiste positieven + onjuiste positieven.

Het ligt aan de aard van de studie en het doel van de onderzoekers of de drempelwaarde sensitief of juist minder sensitief moet zijn.

Hoofdstuk 10B Binaire en multinominale logistische regressie met SPSS

Binaire logistische regressie

De uitkomst variabele bij binaire logistische regressie heeft maar twee categorieën. De binaire logistische regressie kan uitgevoerd worden via Analyze, Regression, Binary Logistic. De voorspellers gaan in ‘Covariates’ en de afhankelijke variabele in ‘Dependent’. Onder ‘Options’ kan de Hosmer-Lemeshow goodness-of-fit aangevinkt worden en een betrouwbaarheidsinterval ingesteld worden.

SPSS output

De tabel ‘Case Processing Summary’ geeft de steekproefgroottes weer. De ‘Dependent Variable Encoding’ tabel geeft aan hoe de categorieën van de binaire variabele gecodeerd zijn. ‘Block 0’ geeft het model weer met alleen een constante, zonder voorspellers. In de ‘Classfication Table’ worden het aantal individuen in elke binaire uitkomst geteld. De kans ratio is zichtbaar in ‘Variables in the Equation’. De tabel ‘Variables ont in the Equation’ geeft aan welke onafhankelijke variabelen niet aan het model zijn toegevoegd.

Block 1 of Step 1 geeft het model inclusief voorspellers. De eerste tabel ‘Omnibus Tests of Model Coefficients’ geeft de chi-square weer. Een test voor de nulhypothese dat alle coëfficiënten nul zijn. Als alle variabelen tegelijk zijn toegevoegd zijn de rijen Model, Block en Step gelijk. In de ‘Model Summary’ tabel wordt met drie testen aangegeven hoe goed het model bij de data past. De ‘Hosmer and Lemeshow Test’ geeft aan hoe goed de voorspelde waarschijnlijkheden matchen met de geobserveerde waarschijnlijkheden. Men wil dat deze test niet significant is, zodat de voorspellers accuraat de eigenlijke waarschijnlijkheden voorspellen. In de ‘Contingency Table for Hosmer and Lemeshow Test’ wordt de data in tien gelijke groepen verdeeld in volgorde van succes (‘stappen’).

Bij de resultaten van het gebruik van het model op succes te voorspellen wordt gekeken naar de ‘Variables in the Equation’ tabel. Hier wordt de b coëfficiënt en standaardfout voor elke voorspeller gegeven. Een coëfficiënt dichtbij nul geeft aan dat er geen verandering is door de voorspeller. De ‘Exp (B)’ kolom geeft de kans ratios voor elke voorspeller met een betrouwbaarheidsinterval van 95%. De ‘Classification Table’ geeft weer hoe goed het model individuen indeelt in de twee categorieën van de uitkomst variabele.

Hoofdstuk 11A Discriminant Functie Analyse

Discriminante functie analyse

Discriminante functie analyse (DFA) wordt gebruikt in situaties met een aantal kwantitatieve metingen van participanten uit meer dan twee groepen. Het heeft twee doelen:

  1. Classificatie: hierbij worden individuen in groepen geclassificeerd op basis van een gewogen lineaire compositie van de kwantitatieve variabelen: voorspellende DFA.

  2. Verklaring: hierbij worden gewogen lineaire combinaties (variaten) van de kwantitatieve variabelen gemaakt die het beste de groepen van elkaar onderscheiden. Deze variaten samen zijn de groepsverschillen in het model: beschrijvende of verklarende DFA. Hierbij wordt het onderliggende latente construct geïnterpreteerd.

De kwaliteit van het model kan worden getest door het toe te passen op de huidige steekproef en te kijken hoeveel individuen in de juiste groepen geclassificeerd worden.

Het doel van discriminante functie analyse is het groepslidmaatschap van individuen te voorspellen en de verschillen tussen groepen te beschrijven. Er kan gezegd worden dat de categorische variabele, die de verschillende groepen representeert, de afhankelijke variabele is; deze wordt immers voorspeld. De kwantitatieve variabelen zijn de onafhankelijke variabelen of de voorspellers. Ze zijn gevormd als gewogen lineaire combinatie om de verschillen tussen groepen tel aten zien.

Logistische regressie en DFA hebben overeenkomsten dat ze beide een categorische variabele met twee of meer groepen voorspellen. De verschillen zijn:

  • In DFA kunnen de voorspellers alleen continu zijn, maar bij logistische regressie contine, dichotoom of een combinatie hiervan.

  • DFA plot functies lineair en niet in een S-vorm zoals bij logistische regressie. Logistische regressie heeft maar weinig assumpties, terwijl DFA alle assumpties nodig heeft van het algemene lineaire model. Dit zijn lineairiteit, multivariate normaliteit, onafhankelijkheid van errors, homoscedasticiteit, afwezigheid van multicollinariteit en als laatst dat uitbijters de resultaten niet extreem beïnvloeden. DFA is robuust tegen overtredingen, maar is wel erg gevoelig voor uitbijters. De steekproefgrootte moet minstens twintig keer zo groot zijn als het aantal voorspellers.

  • Bij DFA worden multipele functies gemaakt, die groepen op een complexere manier differentiëren. Bij multinominale logistische analyse worden aparte functies gevormd die elke doelgroep vergelijken met de referentiegroep.

DFA en MANOVA hebben veel gemeen, omdat ze beide met variaten een variabele proberen te voorspellen. Het enige verschil is echter dat bij MANOVA de categorische/groepsvariabelen de onafhankelijke variabelen zijn en de kwantitatieve variabele de afhankelijke variabele. Bij DFA is dit omgekeerd: de categorische variabele is de afhankelijke variabele en de kwantitatieve variabelen zijn de onafhankelijke variabelen. Bij MANOVA focussen we ons op de verschillen tussen groepen gebaseerd op de gemiddelden van de kwantitatieve variabelen. Bij DFA kijken we hoe groepen verschillen op een gewogen lineaire compositie van kwantitatieve variabelen en in hoeverre we groepslidmaatschap op deze compositie kunnen voorspellen.

Discriminant functie

De onafhankelijke variabelen in DFA worden gevormd tot een gewogen lineaire combinatie om de zogenaamde discriminant score te voorspellen. De x-en zijn de voorspellers en w’s zijn de discriminant gewichten/coëfficiënten (contributie van de onafhankelijke variabele).

DS = a + w1X1 + w2X2 + … + wvXv. Deze functie biedt het beste onderscheid tussen groepen. De discriminant score is de afhankelijke variabele. De verschillen tussen de gemiddelden van de discriminant scores geven de verschillen tussen de groepen op de onafhankelijke variabelen weer. De gewichten zijn gekozen via de maximum likelihood methode (net als bij logistische regressie).

Individuen worden op basis van hun discriminant score geclassificeerd in een bepaalde groep. dit is afhankelijk van de cutoff waarde. Deze waarde zorgt voor de minste classificatie fouten. Als de groepsgroottes gelijk zijn is de cutoff score gebaseerd op de gemiddelden van de groepen. Bij ongelijke groepsgrootte wordt de cutoff score berekend van de gewogen gemiddelden.

Groepen kunnen verschillen op dimensies en die dimensies kunnen achterhaald worden met DFA. Elke discriminant functie stelt een dimensie voor. Het aantal dimensies dat gevonden kan worden is kleiner dan het aantal voorspellers en het aantal vrijheidsgraden voor de groepen (k-1, waarbij k het aantal groepen is). Elke dimensie heeft een eigen discriminant functie met andere gewichten. Vanaf de 100% onverklaarde tussengroepsvariantie in het begin verklaart DFA met elke discriminant functie een beetje meer variantie tot het hoogst aantal mogelijke functies is bereikt. Elke discriminant functie is onafhankelijk van elkaar. De eerste discriminant functie verklaart de meeste variantie, daarna de tweede, etc. Omdat elke functie minder variantie verklaard, zijn de functies op een gegeven moment niet meer significant. Niet alle functies worden daarom geïnterpreteerd.

Significantie testen

De nulhypothese is dat groepen niet verschillen in discriminant score. Dit testen we met de Wilks’ lambda. Een significante Wilks’ lambda toont aan dat alle discriminant functies samen succesvoller groepen onderscheiden dan kans niveau. Wilks’ lambda is het deel variantie dat onverklaard wordt, dus moet je 1.00 – Wilks’ lambda gebruiken voor de verklaarde variantie. De Wilk’s lambda is bij DFA omgezet in een chi-square die getest wordt op significantie. De eigenwaarden van een dimensie geven de verklaarde variantie. Het is de ratio van verklaarde variantie tot error variantie. Hoe hoger de eigenwaarde van een dimensie, hoe meer verklaarde variantie in vergelijking tot error variantie. Bij ratio een hoger dan 1.00 is er meer ‘signaal’, oftewel verklaarde variantie. Bij een ratio van lager dan 1.00 is er meer ‘noise’, oftewel error variantie.

Wanneer het aantal functies bepaald is worden de dimensies na elkaar getest. De eerste test wordt uitgevoerd op alle functies tezamen. Bij een significante chi-square waarde, is er tenminste één functie significant in het onderscheiden van groepen. De eerste functie is dan in elk geval significant, omdat deze de meeste variantie verklaard. Door alle functies, behalve de eerste functie te testen voor significantie kan men achterhalen of de tweede functie significant is. Daarna wordt een test uitgevoerd met alle functies, zonder de eerste en tweede functies. Dit gaat door totdat alle functies getest zijn.

Evaluatie

De eerste manier om te kijken hoe goed de variabelen waren om groepen te onderscheiden is om Wilks’ lambda van 1.00 af te trekken. De uitkomst is de verklaarde variantie. De tweede manier is canonieke correlaties en eigenwaarden. Eigenwaarden zijn het best te gebruiken voor een enkele analyse; hoe hoger, hoe meer verklaarde variantie. Canonieke correlaties geven de relatie tussen de gewogen lineaire combinatie van voorspellers en de discriminant score van die functie weer. De gekwadrateerde canonieke correlatie geeft de verklaarde variantie door de variaat.

Classificatie is de derde manier. Hierin wordt bekeken of de voorspelde groep overeenkomt met de ware groep. Is dit het geval dan is er een ‘hit’, is dit niet het geval dan is er een ‘miss’. De classificatie tabel geeft dit weer, met in de rijen de geobserveerde groepslidmaatschappen en in de kollummen de voorspelde groepslidmaatschappen. Het ‘hit ratio’ geeft het percentage correcte classificaties. Dit is vergeleken met het percentage wat correct geclassificeerd zou zijn bij kans niveau.

Om de voorspelling van groepslidmaatschap te verbeteren moet er rekening gehouden met de relatieve steekproefgroottes van de groepen. Als Groep 1 100 individuen bevat en Groep 2 900 individuen is de classificatie veel beter dan kans niveau (50-50) als we iedereen aan Groep 2 zouden classificeren. Dan is maar 10% fout ingedeeld. Er moet alleen gebruik gemaakt worden van deze groepsgrootte verschillen als dit representatief is voor de populatie. Het besslisingscriterium kan dus op twee bases gevormd worden: de groepen moeten worden behandeld alsof ze gelijke groottes hadden en de relatieve groepsgroottes moeten worden gebruikt voor het vormen van beslissingscriterium.

Om te kijken of we beter hebben voorspeld dan kans (1 op k) kan Press’ Q gebruikt worden. Het is een statistiek voor het totaal aantal individuen, het aantal hits, en het aantal groepen en wordt beschreven met een chi2 test met één vrijheidsgraad. Press’ Q = [N-(n*k)]2 / [N(k-1)] met N=totaal cases, n=hits, k=aantal groepen. Er moet met twee dingen rekening gehouden worden: grotere steekproefgroottes vergroten de power van de test en onevenredige steekproefgroottes kunnen de uitkomst van statistische significantie ambigue maken.

In SPSS kan de classificatie analyse gebruik maken van alle individuen of kan er een jackknife classificatie procedure (of Leave-one-out) uitgevoerd worden. Deze tweede methode maakt gebruik van alle individuen behalve één. Elke keer wordt een ander individu uit de analyse gehaald, totdat ze er allemaal eens uitgehaald zijn. Na elke verwijdering van een individu wordt voorspeld tot welke groep deze individu behoort gebaseerd op het model van de overige individuen. Deze procedure leidt tot een slechtere ratio van correcte classificatie dan als de gehele steekproef gebruikt wordt. Er is echter wel minder bias in de resultaten.

Coëfficiënten

De ruwe coëfficiënten zijn vergelijkbaar met de b in regressievergelijkingen. Bij DFA wordt een w gebruikt. Het zijn de gewichten van de predictoren in ruwe score vorm en ze worden gebruikt om de discriminant score te berekenen. De gestandaardiseerde coëfficiënten zijn gewichten van predictoren in gestandaardiseerde vorm. Ze zijn vergelijkbaar met bèta in regressievergelijkingen. Ze worden gebruikt om relatieve belangrijkheid te bepalen.

Structuurcoëfficiënten geven de correlatie tussen een variabele en de variaat, of in het geval van discriminant functie analyse de discriminant score. Het kan gebruikt worden als indicator voor de aard van het variaat. Het kan latente constructen naar boven brengen door aan te geven hoe sterk de gemeten variabelen correleren met de onderliggende factor. Omdat we de echte data kennen en dus weten welke individuen in welke groep behoren, kan de nauwkeurigheid van de voorspelde classificatie gemeten worden. Het geeft aan hoe succesvol dit model zou zijn bij een nieuwe steekproef. Individuen zijn geclassificeerd op basis van classificatie functie effecten voor elke groep. Het zijn gewogen effecten van een variabele voor een bepaalde groep.

DFA methodes

De DFA kan op verschillende manieren uitgevoerd worden. Bij de standaardmethode worden alle variabelen tegelijk in het model gestopt. Dit biedt een ‘full-model’ oplossing en wordt gebruikt bij standaard multipele regressie. Daarnaast kunnen de voorspellers stapsgewijs toegevoegd worden. Nadat een derde voorspeller is toegevoegd, mogen de onafhankelijke variabelen die niet meer significant voorspellen uit het model verwijderd worden bij een bepaald criterium. Er zijn vijf manieren:

  • Wilks’ lambda: de variabelen die Wilks’ lambda zoveel mogelijk verlagen worden toegevoegd, omdat Wilks’ lambda de onverklaarde variantie weergeeft.

  • Onverklaarde variantie, hier geldt ook het criterium dat bij elke stap de variabele die de meeste onverklaarde variantie verlaagt in het model wordt gestopt.

  • Het criterium bij Mahalanobis afstand is de afstand tussen het multivariate gemiddelde van alle variabelen in de dataset of van alle individuen in die groep. Deze afstand moet zo groot mogelijk zijn. Bij elke stap wordt de variabele die de Mahalanobis afstand het meest verhoogt in het model gestopt.

  • Als vierde wordt bij elke stap de variabele die de F waarde, gebaseerd op de Mahalanobis afstand tussen groepen, het meest verhoogd in het model gestopt.

  • Als laatst is Rao’s V, een variantie op Mahalanobis afstand, die de verschillen tussen groepen beschrijft. De variabele, die Rao’s V het meest verhoogt, wordt in het model gestopt.

Meestal worden de volgende criteria gebruikt voor toevoeging en verwijdering: p-waardes van .05 respectievelijk .10.

Hoofdstuk 11B Discriminant functie analyse met SPSS

Twee-groep discriminant functie analyse

Uitvoeren door Analyze, Classify en Discriminant. De voorspellende variabelen worden onder ‘Independents’ geplaatst en de afhankelijke variabele onder ‘Grouping Variable’. Onder het ‘Statistics’ menu kunnen gemiddelden, univariate ANOVA’s en Box’s M aangevraagd worden. Daarnaast Fisher’s voor classificatie coëfficiënten en Unstandardized voor de ongestandaardiseerde discriminant functie coëfficiënten. Onder ‘Classify’ moet All groups equal aangevinkt worden, omdat de classficiatie gebaseerd moet zijn op de variabelen en niet op de verschillende grootte van de groepen.

Bij Summary table worden alle personen meegenomen in de berekening, terwijl bij Leave-one-out computation wordt er één persoon uitgelaten. Seperate-groups wordt gekozen bij twee groepen en Combined-groups bij meer dan twee groepen.

In de output ‘Group Statistics’ zijn de gemiddelden en standaarddeviaties van elke voorspeller af te lezen evenals de steekproefgrootte. Met de Box’s M test wordt de homogeniteit van covariantie matrices bekeken. Als deze niet significant is, wordt voldaan aan de homogeniteitsassumptie van de variantie. De discriminant functie analyse is echter robuust tegen overtreding van deze assumptie als de data geen extreme uitbijters bevat. Daarnaast geeft ‘Log Determinants’ de verschillen tussen covariantie matrices weer. Hoe hoger het getal, hoe groter het verschil.

Wilks’ lambda evalueert de groepsverschillen op de voorspellers in de tabel ‘Tests of Equality of Group Means’. Deze wordt getest op significantie met de F-waarde. Wilks’ lambda geeft het percentage onverklaarde variantie weer. De ‘Canonical Correlation’ is de correlatie van de discriminant functie met de discriminant scores. De discriminant score voor elke persoon wordt berekend door de ruwe scores of z-scores te vermenigvuldigen met de gewichten in de tabel ‘Canoical Discriminant Function Coefficients’ en ze vervolgens op te tellen. De ‘Structure Matrix’ geeft de structuur coëfficiënten weer, oftewel de correlaties tussen de variabelen en de variaat/latente variabele.

De tabel ‘Functions at Group Centroids’ geeft aan hoeveel standaarddeviaties elke groep afwijkt van de gehele centroïde van nul. Door de ruwe scores in ‘Classification Function Coefficients’ te vermenigvuldigen met de variabelen wordt bepaald tot welke groep elke persoon behoord. De tabel ‘Classification Results’ geeft het aantal hits en misses in de classificatie aan.

Drie-groep discriminant functie analyse

Dit wordt op dezelfde manier uitgevoerd als de twee-groep analyse. Onder ‘Statistics’ en ‘Classify’ zijn dezelfde opties als bovenstaand te vinden. De output is ook grotendeels hetzelfde als de twee-groep analyse met een tabel voor ‘Group Statistics’, Box’s M test en ‘Log Determinants’. De Wilks’ lambda wordt ook opnieuw weergegeven voor elke voorspellende variabele in ‘Tests of Equality of Group Means’. Door het uitvoeren van een MANOVA en multiple comparisons tests kan ontdekt worden welke groepen verschillen op elke kwantitatieve onafhankelijke variabele. Dit kan gedaan worden door de R-E-G-W-Q methode in ‘Post Hoc’ menu aan te vinken.

Wilk’s lambda kan omgezet worden in chi-square met de vrijheidsgraden gelijk aan het aantal voorspellers en het aantal functies dat afgeleid wordt (dat twee is in het geval van een drie-groep analyse). Het geeft weer hoeveel variantie niet verklaard is. De twee functies worden samen getest op statistische significantie en de tweede functie wordt apart getest. De twee functies zijn onafhankelijk van elkaar (orthogonaal) en daarom kunnen de eigenwaardes bij elkaar opgeteld worden. Door de eigenwaardes per functie te delen door de eigenwaarde van beide functies samen wordt de grootte van de bijdrage aan de verklaarde variantie berekend.

Ook de tabel ‘Canonical Discriminant Function Coefficients’ om de discriminant score per persoon te berekenen, de ‘Structure Matrix’, die de correlaties tussen de variabelen en de latente variabele weergeven, en de ‘Functionsat Group Centroids’ komen weer tevoorschijn in de output. De groepen kunnen worden weergegeven in een scatterplot waarbij functie 1 afgezet wordt tegen functie 2. Zwarte vierkanten geven de gehele centroïden van de groepen weer. De ‘Classification Function Coefficients’ tabel en ‘Classification Results’ worden ook gegeven in de output.

Hoofdstuk 14A Multidimensionaal Schalen

Multidimensionaal schalen

De focus van multidimensionaal schalen (MSD) is het ontdekken welke objecten of stimuli ongelijk zijn aan elkaar. Ongelijkheid is een index van de relatieve afstand tussen objecten. Hoe meer ongelijk, hoe groter de afstand. Deze objecten gerangschikt op hun ongelijkheid in een ruimte met meerdere dimensies.

De volgende zaken zijn van toepassing op MSD:

  • Objecten moeten van dezelfde categorie zijn (zoals muziekband, automerken etc.).

  • De beoordelaars die betrokken zijn moeten bekend zijn met de objecten, zodat ze betekenisvolle vergelijkingen kunnen maken.

  • Bij objectieve data moeten een meetinstrument gekozen worden dat betekenisvol de ongelijkheid meet.

  • De dimensies in MSD zijn gerangschikt als kenmerken waarin objecten gelijk/ongelijk zijn.

Doordat de ‘echte afstanden’ bekend zijn, maakt MSD het mogelijk om de fit tussen de model en de data, en MSD maakt het mogelijk om het model te verbeteren.

MDS wordt uitgevoerd op data die ongelijkheden voorstellen tussen paren van stimuli. Deze ongelijkheden zijn vaak subjectief gemeten. Maar ongelijke data kan ook objectief gemeten worden.

Model

De data van een MSD model kunnen gerangschikt worden in een proximity matrix waarin de ongelijkheid tussen verschillende objecten staan. Hoe hoger het getal, hoe groter de afstand, en dus hoe ongelijker de twee objecten zijn. Uit de data in de matrix kan ook een twee- of driedimensionale plot gemaakt worden. Hierin worden de objecten tegen elkaar uitgezet in een aantal dimensies. Er worden meestal twee of drie dimensies gebruikt, omdat dit makkelijker conceptualiseren is.

De dimensies die voortkomen uit de analyse zijn reflecteren heel specifieke objecten en kunnen snel anders zijn, wanneer andere objecten gebruikt worden. Daarnaast is de interpretatie die de onderzoekers geven aan de dimensies vrij ambigu, omdat het subjectief is. Als laatst zouden dimensies niet informatief kunnen zijn voor een theorie.

Data collectie

Wanneer een individu twee objecten beoordeelt op gelijkheid zijn er directe en indirecte beoordelingen. Er zijn vier types directe beoordeling

  1. Respondenten worden gevraagd de gelijkheid te beoordelen op een meetschaal. Dit resulteert in een symmetrische matrix van de vorm [n (n - 1)] / 2, met n=aantal objecten dat wordt beoordeelt.

  2. Multipele ratio: een stimulus wordt gebruikt als referentie object bij elke trial. Participanten moeten de ongelijkheid beoordelen tussen het referentie object en het experimentele object.

  3. Rank-order: meerdere objecten worden getoond met een referentie object. De participanten moeten het object dat het meest afwijkt kiezen en deze krijgt dan de hoogste score, waarna die verwijderd wordt uit de set. Het volgende gekozen object dat van de overgebleven objecten gekozen wordt, krijgt de tweede hoogste score enzovoorts.

  4. Sorting: hierbij moeten participanten uit een set objecten categorieën sorteren gebaseerd op gelijkheid van elkaar.

Er zijn drie indirecte methoden.

  1. Confusion data: paren van letters worden heel snel getoond. Als de twee letters op elkaar lijken (zoals een O en een Q) beoordelen participanten het snel als gelijk. De letters waarbij participanten zich het meest vergissen, worden als gelijk gezien.

  2. Frequentie van co-occurrence: hierbij worden kenmerken van objecten, zoals persoonlijkheidskenmerken, gebruikt. Wanneer persoonlijkheidskenmerken van twee personen sterk overeenkomen worden de twee personen sneller als gelijk beschouwd.

  3. Reactietijd: in confusion data experimenten wordt vaak ook de reactietijd van participanten gemeten. Hoe sneller men reageert, hoe meer ongelijk de objecten zijn.

Afstandsmodellen

Objecten in een MSD analyse worden weergegeven in een multidimensionale ruimte, zoals een assenstelsel. Hierbij kan de afstand tussen twee punten (objecten) berekend worden. De afstand tussen twee punten kan berekend worden met de stelling van Pythagoras: C2=A2 + B2.

Hierin is C de afstand tussen de twee punten en vormt het de schuine zijde van een driehoek. De afstand A dan wel B zijn de verschillende afstanden op de dimensies van de twee punten. Deze worden berekend door de hoogste van de laagste af te trekken. Als A en B berekend zijn, kan C algebraïsch worden berekend.

Via SPSS kunnen alle afstanden berekend worden en hieruit kan ook een least squares schatting komen; die geeft de kortste afstand aan en dus de meest gelijke objecten.

Classificatie schema voor MSD technieken

MSD technieken kunnen gebaseerd worden op drie kenmerken.

  • Meetniveau van data. MSD kan voor elk meetniveau gedaan worden, maar nu wordt onderscheid gemaakt voor ordinale aan de ene kant en interval en ratio data aan de andere kant.

  • Vorm van data. Bij square data hebben de rijen en kolommen in de matrix dezelfde set objecten. Ze zijn symmetrisch als de volgorde van presentatie geen invloed heeft op de beoordeling van gelijkheid, en als dit wel het geval is zijn ze asymmetrisch. Rectangular data zijn altijd asymmetrisch, omdat de rijen en kolommen in de matrix niet overeenkomen.

  • Conditionele staat van de matrix. Drie condities komen voor: bij de conditionele matrix kunnen data direct vergeleken worden met elkaar vanwege dezelfde meetschaal, maar niet met andere matrixen vanwege de individuele verschillen tussen participanten. Bij de onconditionele matrix kan wel met andere matrixen vergeleken worden, omdat de individuele verschillen verwaarloosbaar zijn. Rij-conditionele matrixen zijn voor asymmetrische rectangulare data wanneer vergelijkingen alleen in de rijen van de matrix kunnen worden gedaan.

Soorten MSD modellen

Bij klassieke MSD modellen wordt in SPSS een multidimensionale ruimte gemaakt met het aantal dimensies dat het beste zou passen. Dit gebeurt door de ruwe data te transformeren met de formule: Lineaire transformatie S = D2 + E. Hierin is D2 de gekwadreerde afstanden en E de gekwadreerde errors.

Repiclated MDS komt overeen met klassieke MDS, maar wordt voor elke respondent een matrix gemaakt. De dimensionale ruimte blijft voor iedereen hetzelfde.

Gewogen MDS (WMDS) handelt onder de assumptie dat de dimensionale ruimte niet hetzelfde is voor de respondenten. Hierin zijn dus individuele verschillen.

Als laatst is er een schema te zien in figuur 14a.3 van Giguère (2007) waarin een beslissingsboom staat welke van de bovenste drie modellen het best gebruikt kan worden in welke situatie.

Model fit

Om te kijken hoe goed het afstandsmodel past in de originele dataset. Hiervoor zijn vijf manieren.

  • Stress. Stress is een maat die het verschil tussen ruwe input en output afstanden meet. Het heeft een waarde tussen 0 en 1 en hoe kleiner, hoe beter het model fit.

  • S-stress. S-stress verschilt enkel van stress dat het is gedefinieerd als gemiddelde van de gekwadrateerde afstanden en gekwadrateerde ongelijkheden.

  • R2 is de correlatie tussen model en data. .60 of hoger is een goede fit.

  • Weirdness index. Deze geeft elk individu een index van model fit. Een hogere score betekent dat je als individu vreemd bent binnen het model. Een score van .5 of hoger betekent dat je een uitbijter bent en uit de dataset kan worden verwijderd.

  • Goodness-of-fit grafieken. Er zijn verschillende plots voor verschillende modellen. Voor klassieke MDS geeft een scatterplot met weinig scatter een goede model fit. Er kan ook een scree plot gemaakt worden gebaseerd op S-stress waarden. Hierbij is het van belang dat het aantal dimensies overgenomen wordt, waar de ‘knik’/’elbow’ in de grafiek ontstaat.

Hoofdstuk 14B Multidimensionaal Schalen met gebruik van SPSS

In dit hoofdstuk wordt MDS analyse gedaan met metrische klassieke MDS modellen (CMDS), non-metrische CMDS modellen (categoriale variabelen) en metrische WMDS modellen.

Metrische CMDS

Hiervoor wordt een numerieke dataset gebruikt. Om een CMSD uit te voeren doe je Analyze, Scale, Multidemensional Scaling. In het menu ‘Model’ kan het meetniveau (ratio), de conditionaliteit van de matrix en de soort afstand worden aangevinkt. In het ‘Options’ menu kunnen plots en criteria worden aangevraagd.

In de output zijn onder andere de Stress indexes en de RSQ (R2) af te lezen. Als in de output wordt aangegeven ’S-Stress is less than 0.005’, dan past het model goed in de data. De ‘Scatterplot of Linear Fit’ geeft de fit aan in een plot. Als deze scatterplot zoveel mogelijk een lineaire lijn vertoont, dan fit het model in de data. In de tabel ‘Scaled Disparities for subject 1’ zijn getransformeerde afstanden te zien. Hoe hoger deze standaardscore, hoe groter de afstand en hoe groter het verschil. Daarnaast wordt in de tabel ‘Stimulus Coordinates’ de coördinaten van de objecten gegeven voor dimensie 1 en 2. Deze coördinaten worden gebruikt om in een assenstelsel hiervan een plot te maken.

Non-metrische CMDS

Hiervoor kunnen ordinale meetschalen gebruikt worden. Met het transformeren van ratio-data naar ordinale data gaat veel informatie verloren, omdat het precieze verschil tussen twee objecten niet duidelijk is. Om een non-metrische CMDS uit te voeren ga je weer naar Analyze  Scale  Multidimensional Scaling. In het ‘Model’ menu vink je nu alleen ordinaal meetniveau aan i.p.v. ratio/interval.

In de output kan ook nu weer gekeken worden hoe goed het model fit. Dit is weer te zien aan de S-stress en RSQ. De plots die gegeven worden zullen minder goed zijn bij non-metrische CMDS, omdat kleine verschillen (dus lage rangen) als even groot verschil worden gefit als grote verschillen (hoge rangen). Zo lang de plots een positieve lineaire lijn weergeven, is de model fit goed. De ‘Stimulus Coordinates’ geeft weer de coördinaten die gebruikt worden om in een assenstelsel de objecten te zetten. Hierbij kan geïnterpreteerd worden wat de betekenis is van dimensie 1 en 2.

Metric WMDS

Hierbij kunnen ook verschillen in respondenten worden meegenomen. Deze methode wordt dus meestal gebruikt bij subjectieve metingen. Ga weer naar Analyze  Scale  Multidimensional Scaling en kies in het ‘Model’ menu interval, wanneer je data gebruikt van een meetschaal. Kies hier ook voor ‘Individual differences Euclidean distance’, omdat je individuele verschillen ook gaat bekijken.

De output ziet er anders uit. Omdat elke participant individueel geanalyseerd wordt, zijn er ook n aantal matrixen. Bij WMDS is ook een output ‘Subject Weights’ te zien. Hierin staan de gewichten van de dimensies voor elk individu. Ook is er een weirdness score gegeven; hoe ver het individu van het gemiddelde af zit. In de output ‘Optimally scaled data for subject …’ zijn de getransformeerde ruwe data te zien voor elke participant.

In de plot ‘Derived Subject Weights’ kan een scatterplot worden gezien met alle participanten en hun gewichten op de twee dimensies. Hier kunnen eventueel subgroepjes van participanten worden afgelezen die bijvoorbeeld hoog op dimensie 1 scoren en laag op 2. Daarnaast kan in de plot ‘Scatterplot of Linear Fit Individual Differences’ de fit per participant per gewicht gezien. Hoe meer scatter, hoe slechter de fit.

In de plot ‘Flattened Subject Weights’ worden getransformeerde coördinaten gegeven. Dit zorgt dat er slechts een dimensie overblijft, waardoor participanten die hoog scoren ook hoog op de y-as komen en die laag scoren laag.

Als laatst is in ‘Stimulus Coordinates’ de coördinaten te zien die staan in de plot van ‘Derived Stimulus Configuration’. Uit deze grafiek kunnen conclusies getrokken worden over de dimensies.

Image  Image  Image  Image

Access: 
Public

Image

This content is related to:
Qualitatieve Data Analyse - Practische strategieen
Samenvatting van: Validiteit, Analyse van tests, Beslissend testgebruik, Utiliteit analyse, Item respons theorie
Samenvatting Analyse van Onderzoeksgegevens (Spiering)
Search a summary
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Comments, Compliments & Kudos:

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.

Image

Check how to use summaries on WorldSupporter.org

Online access to all summaries, study notes en practice exams

How and why would you use WorldSupporter.org for your summaries and study assistance?

  • For free use of many of the summaries and study aids provided or collected by your fellow students.
  • For free use of many of the lecture and study group notes, exam questions and practice questions.
  • For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
  • For compiling your own materials and contributions with relevant study help
  • For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.

Using and finding summaries, study notes and practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Use the menu above every page to go to one of the main starting pages
    • Starting pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
  2. Use the topics and taxonomy terms
    • The topics and taxonomy of the study and working fields gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
  3. Check or follow your (study) organizations:
    • by checking or using your study organizations you are likely to discover all relevant study materials.
    • this option is only available trough partner organizations
  4. Check or follow authors or other WorldSupporters
    • by following individual users, authors  you are likely to discover more relevant study materials.
  5. Use the Search tools
    • 'Quick & Easy'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject.
    • The search tool is also available at the bottom of most pages

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study for summaries and study assistance

Field of study

Check the related and most recent topics and summaries:
Activity abroad, study field of working area:
Statistics
2280