Discovering statistics using IBM SPSS Statistics van Field - 4e druk - Oefenvragen

1. Waarom dwingt mijn duivelse docent me tot statistiek?

  1. Waar zijn kwalitatieve methoden van onderzoek op gebaseerd?

  2. Wanneer is er sprake van falsificatie?

  3. Wat is de afhankelijke variabele?

  4. Wat is een continue variabele?

  5. Wat betekent validiteit?

  6. Wanneer is een onderzoek betrouwbaar?

  7. Wat is het verschil tussen correlationeel en experimenteel onderzoek?

  8. Aan welke drie voorwaarden moet een oorzakelijk verband volgens Hume voldoen?

  9. Wat is het verschil tussen niet-systematische en systematische variatie?

  10. Hoe ziet een normale verdeling eruit?

  11. Welke methodes kunnen gebruikt worden om het centrum van de frequentieverdeling te vinden?

  12. Welke scores heb je nodig om de verspreiding van scores te berekenen?

  13. Hoe bereken je de standaardafwijking?

  14. Wat geeft een z-score aan?

2. Alles wat je absoluut niet wilde weten over statistiek

  1. Op welke formule zijn alle statistische modellen gebaseerd?

  2. Wat is het verschil tussen variabelen en parameters?

  3. Wat wordt bedoeld met dat het gemiddelde een hypothetische waarde heeft?

  4. Hoe bepaal je de variantie?

  5. Wat is de method of least squares?

  6. Waarvoor wordt de steekproefverdeling gebruikt?

  7. Wat is het betrouwbaarheidsinterval?

  8. Hoe bepaal je de grenzen van het betrouwbaarheidsinterval?

  9. Wat is de regel van Fisher?

  10. Wat is het verschil tussen de nulhypothese en de alternatieve hypothese?

  11. Wat is het stappenplan bij een nulhypothese significantie toets?

  12. Wat moet je doen om te kijken of de hypothese een goede verklaring is voor de gegevens?

  13. Wat is het verschil tussen een eenzijdige en een tweezijdige toets?

  14. Wat is het verschil tussen een type 1 en een type 2 fout?

  15. Wat is de power van een test?

  16. Op welke twee manieren kun je de effectgrootte berekenen?

3. De SPSS omgeving

  1. Wat kun je doen in de data editor?

  2. Wat is het verschil tussen de data view en de variable view?

  3. Wat doe je als je een variabele codeert?

  4. Wat zijn de drie opties bij het opgeven van missing data?

  5. Wat zie je op het output scherm van SPSS?

  6. Waarom is het handig om ook smartreader te installeren?

  7. Wat is de SPSS-syntax?

4. De gegevens verkennen met grafieken

  1. Wat is chartjunk?

  2. Hoe kun je in SPSS grafieken maken?

  3. Wat is het verschil tussen een simple en stacked histogram?

  4. Wat is een population pyramid?

  5. Wat zijn de drie verschillende soorten boxplots?

  6. Wat is de meest gebruikelijke manier om gemiddelden weer te geven?

  7. Wat is het verschil tussen lijngrafieken en staafdiagrammen?

  8. Wat is het verschil tussen een simple line en een multiple line?

  9. Waar is een scatterplot goed voor?

  10. Waarom is de regressielijn belangrijk bij het scatterplot?

  11. Hoe maak je een grafiek op in SPSS?

5. Het bias beest

  1. Waar kan bias voorkomen?

  2. Wat zijn de vier grote assumpties voor parametrische toetsen?

  3. Waarom zijn uitschieters een belangrijke bron van bias?

  4. Waarom is de aanname van lineariteit zeer belangrijk?

  5. Waar heeft normaliteit allemaal invloed op?

  6. Wat zegt de centrale limiet stelling?

  7. Wat betekent homoscedasticiteit?

  8. Wat is een voorbeeld van niet voldoen aan de assumptie van onafhankelijkheid?

  9. Wat laat een P-P plot zien?

  10. Waar kun je bij een kleine steekproef naar kijken om bias te onderzoeken?

  11. Wat vergelijkt de K-S test?

  12. Wat is het verschil tussen een Q-Q plot en een P-P plot?

  13. Hoe kun je de assumpties van homoscedasticiteit en lineariteit tegelijk bekijken?

  14. Waarvoor wordt Levene’s test gebruikt?

  15. Wat kun je doen om bias te verminderen?

  16. Op welke manieren kun je trimmen?

  17. Wat zijn robuuste methodes?

  18. Wat houdt data transformeren in?

6. Niet-parametrische testen

  1. Wanneer wordt een niet-parametrische test gebruikt?

  2. Welke testen worden gebruikt als alternatief voor de onafhankelijke t-toetsen?

  3. Hoe vind je deze testen in SPSS?

  4. Wat laat het tweede deel van de output van de niet-parametrische onafhankelijke t-toets zien?

  5. Waarom is het handig om ook de effectgrootte te berekenen?

  6. Wat is de niet-parametrische variant van de afhankelijke t-toets?

  7. Wat is de niet-parametrische variant van de eenweg onafhankelijke ANOVA?

  8. Wat gebeurt er bij de K-W test?

  9. Wat zijn de twee manieren voor een follow-up analyse?

  10. Waar kijkt de Jonckhere-Terpstra test naar?

  11. Waarvoor kan Friedman’s ANOVA worden gebruikt?

  12. Wat moet er gerapporteerd worden bij niet-parametrische tests?

7. De correlatie

  1. Wat houdt een positieve relatie tussen twee variabelen in?

  2. Wat geeft de covariantie aan?

  3. Wat is Pearson correlatie coëfficiënt?

  4. Wat is een bivariate correlatie?

  5. Hoe onderzoek je de significantie van r?

  6. Wat is een bootstrap betrouwbaarheidsinterval?

  7. Waarom is er bij correlatie niet automatisch sprake van causaliteit?

  8. Wat is het coëfficiënt van determinatie?

  9. Wat is Spearman correlatie coëfficiënt?

  10. Wanneer gebruik je Kendall’s tau?

  11. Wanneer gebruik je de biseriële correlatie coëfficiënt?

  12. Wat is de partiële correlatie?

  13. Wat is het verschil tussen semi-partiële correlatie en partiële correlatie?

  14. Wat gebruik je om correlaties te vergelijken?

  15. Wat moet je doen om de effectgrootte te berekenen?

8. Regressie

  1. Wat wil je analyseren als je een regressieanalyse uitvoert?

  2. Is bij regressie het model lineair of juist niet?

  3. Wat zijn residuen?

  4. Wat is R2?

  5. Heeft een goed model een hoge F-ratio of juist een lage?

  6. Wat betekent een regressiecoëfficiënt van 0?

  7. Als je een voorspelling hebt over de belangrijkheid van de predictoren, welke invoermethode gebruik je dan in SPSS?

  8. Wat is een probleem bij de forwardmethode van invoer?

  9. Wat is een probleem bij de stapsgewijze invoer?

  10. Wat is een uitschieter?

  11. Hoe bekijk je of er een uitschieter is in de x-ruimte? In de y-ruimte? In de xy-ruimte?

  12. Waaraan moeten de meetniveaus van een regressieanalyse voldoen?

  13. Wat is multicollineariteit? En welke drie problemen ontstaan er bij vergrote multicollineariteit?

  14. Wat is homoscedasticiteit?

  15. Wat test je met de Durbin-Watson test?

  16. Wat is crossvalidatie? En door middel van welke twee methodes kan dit?

  17. Wat geeft het betrouwbaarheidsinterval aan?

  18. Wat is verklaarde variantie?

  19. Wat zijn dummy variabelen?

  20. Wat doet een mediërende variabele?

  21. Wat is een modererend effect?

9. Vergelijken van twee gemiddelden

  1. Wat zijn de manieren om twee groepen met twee gemiddelden te vergelijken?

  2. Waarvoor gebruik je een t-toets?

  3. Wanneer gebruik je de afhankelijke t-toets?

  4. Wat zegt de wet van de variantiesom?

  5. Wat is de standaard meetfout?

  6. Wanneer komt een effect niet door toeval?

  7. Is de systematische variantie groter of kleiner dan de niet-systematische variantie als een experimentele conditie een effect heeft?

  8. Welke scores moeten bij een afhankelijke t-toets normaal verdeeld zijn?

  9. Waarvoor wordt Levene’s test gebruikt?

  10. Waarom heeft Cohen’s d soms de voorkeur als maat voor effectgrootte?

  11. Waarom vind je bij herhaalde metingen design eerder een significant effect?

10. Moderatie, mediatie en nog meer regressie

  1. Wat beïnvloedt de moderator?

  2. Wat betekent centreren?

  3. Wat moet je doen om het effect van de moderator te vinden?

  4. Wanneer spreek je van mediatie?

  5. Waarom heb je bij mediatie een direct en een indirect effect?

  6. Op welke drie regressiemodellen is mediatie gebaseerd?

  7. Hoe kun je de effectgrootte berekenen bij mediatie?

  8. Wat zijn dummy variabelen?

11. Meerdere gemiddelden vergelijken, ANOVA

  1. Wanneer voer je een ANOVA uit?

  2. Waarom worden hiervoor geen t-testen gebruikt?

  3. Wat zijn contrasts?

  4. Wat betekend het als de F-ratio significant is?

  5. Wat is een type I fout?

  6. Wat is een type II fout?

  7. Wat is de power van een test?

  8. Welke procedures gebruik je om te kijken welke groepen daadwerkelijk van elkaar verschillen?

  9. Welke test voer je uit als assumpties worden geschonden en ANOVA niet kan worden uitgevoerd?

  10. Wat is een Type 1 fout?

  11. Hoeveel is de Type 1 fout als drie testen door een t-test met elkaar vergeleken worden?

12. ANCOVA

  1. Wanneer voer je een ANCOVA uit?

  2. Wat zijn covariaten?

  3. Wat zijn de twee redenen om een covariaat mee te nemen in de analyse?

  4. ANCOVA heeft dezelfde assumpties als ANOVA maar wat zijn de twee bijvoegingen?

  5. Bij ANCOVA hebben we de partial eta squared, wat is dit?

  6. Wat is de assumptie van homogeniteit van regressiecoëfficiënten?

  7. Wanneer kan de omega squared gebruikt worden bij ANCOVA?

  8. Waarmee kan bij ANCOVA de de effectgrootte van de contrasten berekend worden?

13. Factor ANOVA

  1. Wanneer voer je een factoriële ANOVA uit?

  2. Wat is een andere naam voor een factoriële ANOVA?

  3. Welke drie soorten factoriële designs zijn er?

  4. Wat is het verschil tussen deze designs?

  5. Wat laat de residuensom zien?

  6. Gelden voor de factor ANOVA dezelfde assumpties als de andere lineaire modellen?

  7. Op welke manier berekend SPSS de effectgrootte en op welke twee andere manieren kan de effectgrootte berekend worden?

  8. Hoe moeten de effecten gerapporteerd worden?

14. Herhaalde metingen

  1. Wat houdt een repeated measures design in?

  2. Welke assumptie wordt hier alleen mee geschonden?

  3. Wat is sfericiteit? Welke test in SPSS gebruik je om deze assumptie te checken?

  4. Uit het effect van dit design zich in de binnengroep of tussengroepsvariantie

  5. Wat is een nadeel van herhaalde metingen?

    1. Er kan niet voldaan worden aan de aanname dat de verschillende groepen onafhankelijk zijn.

    2. Er kan niet voldaan worden aan de aanname dat de verschillende condities onafhankelijk zijn.

    3. Er kan niet voldaan worden aan de aanname dat de verschillende groepen afhankelijk zijn.

    4. Er kan niet voldaan worden aan de aanname dat de verschillende groepen afhankelijk zijn.

  6. Welke aanname bij herhaalde metingen wordt gemaakt door het verval van de aanname die gesteld wordt in vraag 1?

    1. De aanname van samengestelde symmetrie.

    2. De aanname van sphericity.

    3. De aanname van normaliteit.

    4. De aanname van homogeniteit.

  7. Welke test in SPSS toetst of de varianties tussen de paren van condities (aanname van sphericity) gelijk is?

    1. De Greenhouse-Geisser test.

    2. De Pillai-Bartlett test.

    3. De Mauchly’s test.

    4. De Huynh-Feldt test.

  8. Welke opties zijn er wanneer er niet wordt voldaan aan de aanname van sphericity?

    1. Het uitvoeren van een MANOVA.

    2. Het uitvoeren van een Greenhouse-Geisser correctie.

    3. Het uitvoeren van een Huynh-Feldt correctie.

    4. Het uitvoeren van een ANCOVA.

  9. Welke stelling is juist?

  10. Voor herhaalde metingen kan de effectgrootte ω2 gebruikt worden, deze kan op dezelfde manier berekend worden als bij de onafhankelijke ANOVA.

  11. Het berekenen van de totale variantie (SSt) gaat bij herhaalde metingen op dezelfde manier als bij een één-weg onafhankelijke ANOVA.

    1. Stelling 1 en 2 zijn juist.

    2. Stelling 1 is juist, stelling 2 is onjuist.

    3. Stelling 1 is onjuist, stelling 2 is juist.

    4. Beide stellingen zijn onjuist.

15. Gemixt design ANOVA

  1. Wat houdt een mixed design in?

  2. Wat is een nadeel van een herhaalde meting?

  3. Wat is de assumptie van sfericiteit (sphericity)?

  4. Wat is het verschil tussen sfericiteit en samengestelde symmetrie?

  5. Welke correcties kun je maken als niet aan de assumptie van sfericiteit is voldaan?

  6. Wat is een goede vervanging voor de post hoc toets?

  7. Welke soort effectgrootte meten we bij herhaalde metingen?

  8. Hoe rapporteer je de resultaten van een herhaalde meting?

16. MANOVA

  1. Wat is een MANOVA?

  2. Waarom voeren we een MANOVA uit en geen losse ANOVA’s?

  3. Wat is het voordeel van het uitvoeren van een MANOVA?

  4. Welke aanvullende assumpties gelden er voor de MANOVA?

  5. Wanneer kan er gebruik gemaakt worden van een MANOVA?

    1. Als er meerdere onafhankelijke variabelen zijn.

    2. Als er meerdere afhankelijke variabelen zijn.

    3. Als er grote groepen gebruikt worden.

    4. Als er gebruik gemaakt wordt van afhankelijke groepen.

  6. Welke stelling is juist?

1. Het nadeel bij gebruik van meerdere ANOVA’s is een grotere meetfout en een grotere kans op type I fouten.

2. Het nadeel bij gebruik van meerdere ANOVA’s is dat er niet gekeken wordt naar de relatie van de afhankelijke variabelen onderling.

  1. Stelling 1 en 2 zijn juist.

  2. Stelling 1 is juist, stelling 2 is onjuist.

  3. Stelling 1 is onjuist, stelling 2 is juist.

  4. Beide stellingen zijn onjuist.

  5. Wanneer wordt een matrix een identiteitsmatrix genoemd?

    1. Als de diagonale componenten samen 0 zijn en de niet-diagonale componenten samen 1 zijn.

    2. Als de verticale componenten samen 1 zijn en de niet-verticale componenten samen 0 zijn.

    3. Als de verticale componenten samen 0 zijn en de niet-verticale componenten samen 1 zijn.

    4. Als de diagonale componenten samen 1 zijn en de niet-diagonale componenten samen 0 zijn.

  6. Wat wordt er bij het berekenen van een MANOVA vergeleken?

    1. De systematische meetfout wordt vergeleken met de niet-systematische meetfout van meerdere afhankelijke variabelen.

    2. De systematische meetfout wordt vergeleken met de niet-systematische meetfout van de onafhankelijke variabele(n).

    3. De systematische variantie wordt vergeleken met de niet-systematische variantie van meerdere afhankelijke variabelen.

    4. De systematische variantie wordt vergeleken met de niet-systematische variantie van de onafhankelijke variabele(n).

  7. Welke term hoort bij de volgende definitie: ‘de totale waarde van de meetfouten tussen twee variabelen’?

    1. Kwadratensom.

    2. Discriminante functie.

    3. Kruisproduct.

    4. Pillai-Bartlett trace.

  8. Wat is geen kenmerk van een variaat?

    1. Het aantal variaten is altijd minder dan het aantal afhankelijke variabelen.

    2. De variaten zijn orthogonaal.

    3. De variaten zijn gecorreleerd.

    4. De variaten zijn ongecorreleerd.

  9. Op welke manier kan geen effectgrootte berekend worden?

    1. Pillai-Bartlett trace.

    2. Wilks’ lambda.

    3. Roy’s largest root.

    4. Box’s test.

17. Factor analyse

  1. Een Cronbach’s alfa van .7/.8 of hoger laat altijd betrouwbaarheid zien. 

    1. Ja

    2. Nee

  2. Wat vertelt de kwadraat van een factor lading ons?

  3. Welke onderstaande factor analyses zijn beschrijvende methodes en kunnen niet gegeneraliseerd worden naar de populatie?

    1. principal component analysis

    2. Image covariance analysis

    3. Kaiser’s alfa factoring

    4. maximum-likelihood method

 

18. Categorische gegevens

  1. Wat zijn categorische data?

  2. Wat kun je berekenen met Pearson’s chi-square test?

  3. Wat kun je gebruiken bij kleine steekproeven?

  4. Wat doe je als je kijkt naar de likelihood ratio?

  5. De kans op welke fout vermindert Yates’s continuïteitscorrectie?

  6. Wat is een loglineaire analyse?

  7. Wanneer is er sprake van een verzadigd model?

  8. Wanneer behoud je bij loglineaire analyse het eenvoudige nieuwe model?

  9. Wat houdt de assumptie van onafhankelijkheid in bij chi-square?

  10. Wat is de tweede assumptie van chi-square?

  11. Wat zijn de vier opties als bij loglineaire analyse de assumpties worden geschonden?

  12. Wat rapporteer je bij chi-square?

  13. Wat rapporteer je bij loglineaire analyse?

19. Logistische regressie

  1. Wat is logistische regressie?

  2. Wanneer is er sprake van multinomiale logistische regressie?

  3. Hoe kun je de niet-lineaire relatie toch lineair maken?

  4. Wat is de R-statistiek?

  5. Wat is de Wald statistiek?

  6. Wat geeft de odds ratio weer?

  7. Wanneer komen onderdrukkende effecten voor?

  8. Wat betekent streven naar parsimonie?

  9. Wat is de assumptie van lineairiteit waar aan voldaan moet worden?

  10. Wanneer ontstaat complete scheiding?

  11. Wanneer is er sprake van overspreiding?

  12. Wat rapporteer je bij logistische regressie?

  13. Wat moet je doen om de assumptie van lineairiteit te testen bij logistische regressie?

  14. Hoe kun je multicollineariteit testen?

  15. Wat gebruik je bij multinomiale regressie om groepslidmaatschap van meer dan twee categorieën te voorspellen?

20. Multilevel lineaire modellen

  1. Wat zijn de voordelen van een multilevel lineair model?

  2. Wat is het verschil tussen een vast effect en een random effect?

  3. Waar wordt onderscheid tussen gemaakt bij multilevel modellen?

  4. Wanneer is er meestal ook sprake van een random intercept?

  5. Wat is het verschil tussen een multilevel lineair model en regressie?

  6. Waarom is het aan te raden om te beginnen met een model met alleen vaste parameters en random coëfficiënten toe te voegen als het nodig is?

  7. Wat zijn de vier covariantiestructuren?

  8. Wat is een speciale assumptie voor een multilevel model?

  9. Wat houdt centreren van een variabele in?

  10. Wat zijn polynomials?

  11. Wat is belangrijk bij groeicurven?

  12. Waarom zijn er geen vaste richtlijnen voor het rapporteren van een multilevel model?

Antwoorden

1. Waarom dwingt mijn duivelse docent me tot statistiek?

  1. Kwalitatieve onderzoeksmethoden zijn gebaseerd op taal.

  2. Er is sprake van falsificatie als de verzamelde gegevens de theorie of hypothese tegenspreken.

  3. De afhankelijke variabele is de variabele die gezien wordt als uitkomst.

  4. Een continue variabele is een score die iedere waarde kan aannemen die op de meetschaal wordt gebruikt.

  5. Validiteit is de mate waarin het instrument daadwerkelijk meet wat je wil meten.

  6. Een onderzoek is betrouwbaar wanneer het instrument dezelfde uitkomst geeft bij dezelfde condities.

  7. Het verschil tussen correlationeel en experimenteel onderzoek is dat bij experimenteel onderzoek de variabelen worden gemanipuleerd en bij correlationeel onderzoek niet.

  8. De drie voorwaarden waar een oorzakelijk verband volgens Hume aan moet voldoen zijn dat oorzaak en gevolg elkaar nauw in de tijd opvolgen, dat oorzaak voorafgaat aan het gevolg en dat het gevolg nooit voorkomt zonder dat de oorzaak heeft plaatsgevonden.

  9. Het verschil tussen niet-systematische en systematische variatie is dat systematische variatie verklaard kan worden, en niet-systematische variatie niet.

  10. Een normale verdeling is een belvormige curve met symmetrische helften.

  11. Methodes die gebruikt kunnen worden om het centrum van de frequentieverdeling te vinden zijn de modus, mediaan en het gemiddelde.

  12. Om de verspreiding van scores te berekenen heb je de hoogste en laagste scores nodig.

  13. De standaardafwijking bereken je door het verschil tussen de scores en het gemiddelde te kwadrateren en bij elkaar op te tellen, dit te delen door de steekproefgrootte – 1 en daar de wortel van te nemen.

  14. Een z-score geeft aan hoeveel standaardafwijkingen de score van het gemiddelde ligt.

2. Alles wat je absoluut niet wilde weten over statistiek.

  1. Alle statische modellen zijn gebaseerd op de formule: Uitkomsti = (model) + errori.

  2. Het verschil tussen variabelen en parameters is dat parameters geschat worden, en variabelen gemeten.

  3. Dat het gemiddelde een hypothetische waarde heeft, betekent dat het niet daadwerkelijk in de data hoeft voor te komen.

  4. De variantie wordt bepaald door de som van de gekwadrateerde meetfouten te delen door het aantal vrijheidsgraden.

  5. De method of least squares houdt in dat de gekozen parameter altijd degene is die de minste error oplevert.

  6. De steekproefverdeling wordt gebruikt om te kijken hoe representatief een steekproef is voor de populatie.

  7. Het betrouwbaarheidsinterval zijn de grenzen waartussen je denkt dat het werkelijke populatiegemiddelde valt.

  8. De grenzen van het betrouwbaarheidsinterval bepaal je door de bijbehorende z-score te vermenigvuldigen met de standaard error.

  9. De regel van Fisher is dat je pas weet of er een werkelijk effect is, als er slechts een kleine kans is dat het resultaat per toeval wordt bereikt.

  10. Het verschil tussen de nulhypothese en de alternatieve hypothese is dat de nulhypothese uitgaat van geen effect, terwijl de alternatieve hypothese uitgaat van wel een effect.

  11. Het stappenplan bij een nulhypothese significantie toets is dat je kijkt hoeveel variantie de data in het model verklaart. Vervolgens bereken je de p-waarde, kijk je hoe klein die kans is en bepaal je of de nulhypothese wordt verworpen.

  12. Om te kijken of de hypothese een goede verklaring is voor de gegevens, deel je de variantie verklaard door het model door de variantie niet verklaard door het model, oftewel effect door de error.

  13. Het verschil tussen een eenzijdige en tweezijdige toets is dat bij een eenzijdige toets de hypothese een richting voor het effect aangeeft, terwijl dat bij de tweezijdige toets niet het geval is.

  14. Het verschil tussen type 1 en type 2 fout is dat type 1 fout betekent dat er wordt gedacht dat er een effect is in de populatie terwijl dit niet zo is, en type 2 fout betekent dat er wordt gedacht dat er geen effect is in de populatie terwijl dit wel zo is.

  15. De power van een test is de mate waarin hij in staat is een effect te vinden.

  16. Twee manieren om de effectgrootte te berekenen zijn Cohen’s d en Pearsons r.

3. De SPSS omgeving

  1. In de data editor kun je data invoeren en daar statistische berekeningen mee uitvoeren.

  2. Het verschil tussen de data view en de variable view is dat je bij de data view cijfers invoert en bij de variable view kijkt wat voor variabelen gebruikt worden.

  3. Als je een variabele codeert geef je een nummer aan bepaalde groepen.

  4. De drie opties bij het opgeven van missing data zijn dat er geen ontbrekende gegevens zijn, dat er een paar waardes missen en dat de waardes in een bepaald gebied de ontbrekende waardes zijn.

  5. Op het output scherm van SPSS zie je alle grafieken en tabellen en een boomdiagram van alle analyses die je hebt uitgevoerd.

  6. Het is handig om smartreader te installeren omdat je daarmee alle bestanden met oude of juist nieuwe versies van SPSS kan openen.

  7. SPSS-syntax is de taal van opdrachten om statistische analyses en datamanipulaties uit te voeren.

4. De gegevens verkennen met grafieken

  1. Chartjunk is de naam voor de overbodige dingen aan een grafiek.

  2. In SPSS kun je grafieken maken met de chart builder.

  3. Het verschil tussen een simple en stacked histogram is dat een simple histogram de frequenties van een simpele variabele laat zien, terwijl je een stacked histogram gebruikt als je verschillende groepen wil zien.

  4. Een population pyramid zijn twee grafieken met de bodems tegen elkaar, zodat de frequentie in de horizontale as te zien is.

  5. De drie verschillende soorten boxplots zijn simple boxplot, clustered boxplot en 1-D boxplot.

  6. De meest gebruikelijke manier om gemiddelden weer te geven is door gebruik van een staafdiagram.

  7. Het verschil tussen lijngrafieken en staafdiagrammen is dat de informatie bij een lijngrafiek wordt weergegeven door middel van een lijn.

  8. Het verschil tussen een simple line en een multiple line is dat de simple line de gemiddelden van de scores van verschillende groepen laat zien, terwijl een multiple line ook het gemiddelde laat zien van een bepaalde variabele en kan bestaan uit meerdere lijnen voor meerdere variabelen.

  9. Een scatterplot is goed om te kijken naar de relatie tussen twee variabelen.

  10. De regressielijn is belangrijk bij het scatterplot omdat deze lijn de relatie tussen twee variabelen samenvat.

  11. Een grafiek maak je op in SPSS door de chart editor te gebruiken.

5. Het bias beest

  1. Bias kan voorkomen bij de schattingen van de parameters, de standard error en het betrouwbaarheidsinterval, en de test statistieken en p-waarden.

  2. De vier grote assumpties voor parametrische toetsen zijn dat de gegevens normaal verdeeld moeten zijn, dat de varianties van de verschillende groepen ongeveer even groot moeten zijn, dat de variabelen lineair met elkaar samenhangen en dat er sprake is van onafhankelijkheid.

  3. Uitschieters zijn een belangrijke bron van bias, omdat die het gemiddelde enorm omhoog of omlaag kunnen brengen.

  4. De aanname van lineariteit is belangrijk omdat het model niet meer klopt als de variabelen geen lineair verband vertonen.

  5. Normaliteit heeft invloed op de schattingen van parameters, het betrouwbaarheidsinterval, de nulhypothese significantie toetsen en de error.

  6. De centrale limiet stelling zegt dat de verdeling bij grote steekproeven altijd normaal is.

  7. Homoscedasticiteit betekent dat alle groepen een ongeveer gelijke variantie hebben.

  8. Een voorbeeld van het niet voldoen aan de assumptie van onafhankelijkheid is als participanten overleggen tijdens het invullen van een vragenlijst.

  9. Een P-P plot laat de cumulatieve kans van een variabele tegen de cumulatieve kans van een bepaalde verdeling zien.

  10. Bij een kleine steekproef kun je om bias te onderzoeken kijken naar scheefheid en kurtosis.

  11. De K-S test vergelijkt de verdeling van de steekproef met een normaalverdeling met hetzelfde gemiddelde en eenzelfde standaarddeviatie.

  12. Het verschil tussen een Q-Q plot en een P-P plot is dat het Q-Q plot naar kwartielen kijkt en het P-P plot naar individuele scores.

  13. De assumpties van homoscedasticiteit en lineariteit kun je tegelijk bekijken door een scatterplot te gebruiken.

  14.  Levene’s test wordt gebruikt om te kijken naar de homogeniteit van varianties.

  15. Om bias te verminderen kun je bepaalde extreme scores verwijderen, uitschieters vervangen door de hoogste score die geen uitschieter is, je data analyseren met robuuste methodes en de data transformeren.

  16. Je kunt trimmen door een participant te verwijderen, op basis van een percentage of op basis van de standaardafwijking.

  17. Robuuste methodes zijn testen die weinig beïnvloed worden door schendingen van assumpties.

  18. Data transformeren houdt in dat je alle data op dezelfde manier omzet in andere scores.

6. Niet-parametrische testen

  1. Een niet-parametrische test wordt gebruikt als er niet aan de assumpties voldaan kan worden.

  2. De testen die gebruikt worden als alternatief voor de onafhankelijke t-toetsen zijn de Wilcoxon rank-sum test en de Mann-Whitney test.

  3. Bij SPSS klik je op analyze – non parametric tests – independent samples.

  4. Het tweede deel van de output laat de test statistieken zien, samen met de z-scores.

  5. Het is handig om ook de effectgrootte te berekenen omdat dit een standaardmaat is. Met de effectgrootte kun je de resultaten vergelijken met andere studies.

  6. De niet-parametrische variant van de afhankelijke t-toets is de Wilcoxon signed-rank test.

  7. De niet-parametrische variant van de eenweg onafhankelijke ANOVA is de Kruskal-Wallis test.

  8. Bij de K-W test wordt eerst een gecodeerde variabele gemaakt van de onafhankelijke variabele. Die kunnen getest worden op normaliteit en homogeniteit. Om naar het verschil tussen groepen te kijken moeten deze assumpties per groep getest worden.

  9. Twee manieren voor een follow-up analyse zijn pairwise comparison en homogeneous subsets.

  10. De Jonckhere-Terpstra test kijkt naar het patroon van de medianen van groepen die je met elkaar wilt vergelijken.

  11. Friedman’s ANOVA kan gebruikt worden wanneer dezelfde proefpersonen in meer dan twee verschillende condities gebruikt zijn.

  12. Bij niet-parametrische tests moeten de chi-square statistiek, het aantal vrijheidsgraden, de significantie en de effectgrootte en medianen van de follow-up tests genoteerd worden.

7. De correlatie

  1. Een positieve relatie houdt in dat een toename in de ene variabele samenhangt met een toename in de andere variabele.

  2. De covariantie geeft aan of variabelen samenhangen en of deze samenhang positief of negatief is.

  3. Pearson correlatie coëfficiënt is de gestandaardiseerde covariantie, die ook wordt gebruikt voor het meten van effectgrootte.

  4. Een bivariate correlatie is een correlatie tussen twee variabelen.

  5. De significantie van r onderzoek je door gebruik te maken van een t-toets met N-2 vrijheidsgraden.

  6. Een bootstrap betrouwbaarheidsinterval is een betrouwbaarheidsinterval wat ook accuraat is als de verdeling niet normaal is.

  7. Er is bij correlatie niet automatisch sprake van causaliteit omdat andere variabelen ook invloed hebben op de correlatie, en de correlatie niets zegt over welke variabele de verandering bij de andere variabele teweegbrengt.

  8. Het coëfficiënt van determinatie is een maat voor hoeveel variantie de gecodeerde variabelen delen.

  9. Spearman correlatie coëfficiënt is de niet-parametrische variant van de Pearson correlatie.

  10. Kendall’s tau gebruik je wanneer je een kleine steekproef hebt met veel gelijke scores.

  11. De biseriële correlatie coëfficiënt gebruik je als de variabele continu dichotoom is.

  12. Partiële correlatie is de relatie tussen twee variabelen waarin de effecten van een andere variabele constant worden gehouden.

  13. Het verschil tussen semi-partiële en partiële correlatie is dat bij semi-partiële correlatie wordt gecontroleerd voor het effect dat een derde variabele heeft op één van de variabelen in de correlatie, en niet op beide variabelen zoals bij de partiële correlatie.

  14. Om correlaties te vergelijken gebruik je z-scores en t-toetsen.

  15. Correlaties zijn effectgroottes, dus om de effectgrootte te berekenen heb je geen verdere stappen nodig.

8. Regressie

  1. Je wilt een uitkomstvariabele Y voorspellen door middel van één voorspellende predictor (simpele regressie) of door meerdere predictoren (multiple regressie).

  2. Lineair, want bij een goed model wordt een relatie gevonden tussen de variabelen.

  3. Een residu is de verticale afstand tussen de werkelijke data en de regressielijn, deze verschillen kunnen zowel positief als negatief zijn.

  4. Dit is de hoeveelheid variantie die wordt verklaard door het model in verhouding tot de totale variantie. Het representeert het percentage variantie in de uitkomst dat kan worden verklaard door het model.

  5. Een hoge F-ratio want dit betekend dat de verbetering in voorspelling groot is (MSm) en het verschil tussen het model en de geobserveerde data klein (MSr).

  6. Dit betekent dat een verandering in de predictor variabele resulteert in geen verandering in de uitkomst variabele.

  7. Hiërarchische regressie

  8. Er kan sprake zijn van supressor effecten dit houdt in dat een predictor significant is maar alleen als een andere predictor constant wordt gehouden. Hierdoor heb je bij de forward methode een grotere kans op een type II fout (een predictor elimineren terwijl deze wel significant was).

  9. Er kan kans zijn op overfitting (teveel variabelen met maar kleine variantie) of underfitting (het niet toevoegen van belangrijke variabelen).

  10. Een uitschieter is een meting die substantieel verschilt van de gemiddelde trend van de data.

  11. Respectievelijk met mahalanobis distance, gestandaardiseerde residuen en met de cook’s distance.

  12. De afhankelijke variabele moet van tenminste ratio of interval meetniveau zijn en de onafhankelijke variabele van ratio of interval of omgecodeerd tot een dummy.

  13. Dit ontstaat wanneer er een sterke correlatie is tussen twee of meer predictoren. De problemen die ontstaan zijn: onbetrouwbare b’s, limiteert de grootte van r en moeilijker om onderscheidt te maken in belangrijkheid tussen predictoren.

  14. Hierbij moet op elk niveau van de predictor variabele de variantie van de residuen constant zijn, als deze variantie ongelijk is, is er sprake van heteroscedasticiteit.

  15. Hiermee test je of er sprake is van onafhankelijke errors, vuistregel is dat de waarde tussen de 1 en 3 moet liggen.

  16. Als je niet zeker weet hoe accuraat de steekproef de populatie beschrijft kan worden gekeken hoe goed het model de uitkomst in andere steekproeven voorspelt. Dit kan door middel van de adjusted R2 en data-splitting.

  17. Het betrouwbaarheidsinterval geeft het interval aan waarbinnen de werkelijke waarde van b zich bevind in de populatie.

  18. Dat deel van de variantie wat wordt bepaald en veroorzaakt door de onafhankelijke variabelen en niet door externe factoren.

  19. Dit is een variabele die van nominaal meetniveau is met meer dan 2 categorieën die is omgezet naar een dichotoom item met alleen 0 of 1 als score.

  20. Het effect van de predictor op de afhankelijke variabele verloopt via een derde variabele dit kan gedeeltelijk of geheel zijn.

  21. Het effect van de predictor op de afhankelijke variabele hangt dan af van nog een derde variabele.

9. Vergelijken van twee gemiddelden

  1. Manieren om twee groepen met twee gemiddelden te vergelijken zijn door twee groepen participanten bloot te stellen aan verschillende manipulaties of door een groep participanten meerdere malen bloot te stellen aan verschillende manipulaties.

  2. Een t-toets gebruik je om te kijken of het verschil tussen de groepsgemiddelden significant afwijkt van 0.

  3. De afhankelijke t-toets gebruik je bij twee experimentele condities waarbij dezelfde proefpersonen deelnemen in beide condities.

  4. De wet van de variantiesom zegt dat de variantie van het verschil tussen twee onafhankelijke variabelen gelijk is aan de som van de varianties.

  5. De standaard meetfout is de standaardafwijking van de steekproefverdeling.

  6. Een effect komt niet door toeval wanneer het gemiddelde verschil tussen de steekproeven en populatie groot is en de standaard meetfout klein.

  7. De systematische variantie is groter dan de niet-systematische variantie als een experimentele conditie een effect heeft.

  8. Bij een afhankelijke t-toets moeten de verschillen tussen scores normaal verdeeld zijn.

  9. Levene’s test wordt gebruikt om te kijken of de varianties verschillend zijn en er geen homoscedasticiteit is.

  10. Cohen’s d wordt heeft soms de voorkeur als maat voor effectgrootte, omdat die een effectgrootte heeft die onafhankelijk is van het design.

  11. Bij een herhaalde metingen design vind je eerder een significant effect omdat de niet-systematische variantie een stuk kleiner is dan bij een tussengroepdesign.

10. Moderatie, mediatie en nog meer regressie

  1. De moderator beïnvloedt de relatie tussen een predictor en de uitkomst.

  2. Centreren betekent dat je een variabele transformeert naar deviaties rond een bepaald punt.

  3. Om het effect van de moderator te vinden moet je een eenvoudige richtingscoëfficiënten analyse (simple slopes analysis) uitvoeren.

  4. Je spreekt van mediatie als de relatie tussen een predictorvariabele en de uitkomst verklaard wordt door de relatie met een derde variabele, de mediator.

  5. Het directe effect is de relatie tussen de predictor en de uitkomst, het indirecte effect is het effect van de predictor op de uitkomst via de mediator.

  6. Mediatie is gebaseerd op regressie die de uitkomst voorspelt vanuit de predictor, regressie die de mediator voorspelt vanuit de predictor en regressie die de uitkomst voorspelt vanuit zowel de predictor als de mediator.

  7. Bij mediatie kun je de effectgrootte berekenen door te kijken naar het gecombineerde effect van a en b, door te kijken naar de grootte van het indirecte effect vergeleken met het totale effect van de predictor, of door R2 te berekenen.

  8. Dummy variabelen zijn meerdere variabelen die met alleen nullen en enen gecodeerd zijn.

11. Meerdere gemiddelden vergelijken, ANOVA

  1. Wanneer we meer dan twee condities willen vergelijken gebruiken we de ANOVA.

  2. Omdat losse t-testen de kans op een type I error vergroten, dit wordt kanskapitalisatie genoemd.

  3. Dit zijn alternatieve coderingsschema’s.

  4. Dit wil zeggen dat de gemiddelden van de groepen verschillen.

  5. Wanneer een effect wordt gedetecteerd terwijl deze niet aanwezig is, H0 wordt ten onrechte verworpen.

  6. Een effect wordt niet gedetecteerd terwijl deze wel aanwezig is, H1 wordt ten onrechte verworpen.

  7. De mogelijkheid van een test om een effect te detecteren van een bepaalde grootte (.80 is goed).

  8. Post-hoc procedures.

  9. De Kruskall-Wallis test.

  10. Een Type 1 fout is de nulhypothese verwerpen, terwijl deze hypothese de juiste is.

  11. Per test is de Type 1 fout .95 (5% kans op het verkeerd verwerpen van de nul hypothese) Dus het antwoord is: .95 x .95 x .95= .857, waardoor 1-.857=14.3% het goede percentage is.

12. ANCOVA

  1. Als een ANOVA een continue variabele bevat die ook effect heeft op de afhankelijke variabele kan deze in de analyse worden meegenomen als covariaat.

  2. Continue variabelen die de uitkomstvariabele ook voorspellen.

  3. Hiermee kan je als eerste de binnengroep variantie verminderen, door het meenemen van de covariabele kunnen we meer van de variantie verklaren en blijft er minder onverklaarde variantie over. Daarnaast kunnen confounds worden geëlimineerd (derde variabele).

  4. Onafhankelijke relatie tussen het covariaat en de afhankelijke variabele en homogeniteit van regressiecoëfficiënten.

  5. Dit is de hoeveelheid variantie in de afhankelijke variabele die door de onafhankelijke variabele wordt gedeeld maar niet door het covariaat wordt verklaard.

  6. Dit houdt in dat de relatie tussen de afhankelijke variabele en het covariaat binnen alle groepen gelijk moet zijn anders is het model inaccuraat.

  7. ω2 kan gebruikt worden bij gelijke groepsgroottes.

  8. Met een t-toets kan de effectgrootte van de contrasten berekend worden.

13. Factor ANOVA

  1. Met de factoriële ANOVA kijken we naar twee of meer onafhankelijke variabele.

  2. Een tweeweg ANOVA.

  3. Onafhankelijke factoriële design, repeated measures factoriël design en mixed design.

  4. Onafhankelijke factoren gaat om een tussengroep design, repeated measures om een binnengroep design en mixed design maakt hier een combinatie van.

  5. Het laat de onverklaarde variantie zien.

  6. Ja.

  7. SPSS geeft partial eta squared als effectgrootte, maar het is verstandiger om ω2 te gebruiken of de simpele effecten analyse r.

  8. Bij het rapporteren van de resultaten moet hetzelfde weergegeven worden als bij een gewone ANOVA. De F-ratio en het aantal vrijheidsgraden moeten in elk geval vermeld worden, voor de twee hoofdeffecten en voor het interactie-effect.

14. Herhaalde metingen

  1. Bij repeated measures nemen de participanten deel aan alle condities van het onderzoek. Hierdoor kan je controleren voor individuele verschillen.

  2. De assumptie van onafhankelijke groepen wordt hiermee geschonden omdat er een relatie is tussen de scores van de verschillende condities.

  3. Dit is de aanname dat de relatie tussen de paren van de experimentele condities gelijk zijn. Dit is alleen belangrijk bij tenminste drie condities. Mauchly’s test.

  4. In de binnengroep variantie.

  5. c) De effectgrootte voor herhaalde metingen kan juist niet op dezelfde manier berekend worden als bij een onafhankelijke ANOVA. De juiste formule voor de effectgrootte staat op bladzijde bb van de samenvatting.

  6. d) Het uitvoeren van een ANCOVA. De Greenhouse-Geisser geeft de correctie van de varianties in vrijheidsgraden. Wanneer deze correctie een hoge waarde geeft, kan er gebruik gemaakt worden van een Huynh-Feldt correctie.

  7. c) De Mauchly’s test. Wanneer deze test een significant resultaat laat zien, wordt niet voldaan aan de aanname van sphericity.

  8. b) De aanname van sphericity. Het betekent dat de relatie tussen paren van experimentele condities gelijk is. Dit wordt berekend door de varianties van paren van behandelingsniveaus.

  9. b) Er kan niet voldaan worden aan de aanname dat de verschillende condities onafhankelijk zijn. Een proefpersoon ondergaat alle condities en dus zijn de condities gerelateerd aan elkaar.

15. Gemixt design ANOVA

  1. Bij een mixed design kijk je naar zowel between als within groep variabelen en zijn er dus altijd meer dan twee IV’s. Er wordt gekeken naar participanten in verschillende groepen (binnengroep variantie) en naar de verschillen tussen twee groepen (tussengroepvariantie).

  2. Een nadeel van een herhaalde metingen design is dat er niet voldaan kan worden aan de assumptie dat de verschillende condities onafhankelijk zijn.

  3. Dat de relatie tussen paren van experimentele condities gelijk is en de afhankelijkheid tussen experimentele condities is ongeveer gelijk.

  4. Sfericiteit is iets algemener dan samengestelde symmetrie. Dit houdt in dat de beide varianties tussen de condities gelijk zijn en dat de covarianties tussen de paren ook gelijk zijn. Sfericiteit is minder strikt dan samengestelde symmetrie, het gaat hierbij om het verschil tussen de condities, die varianties moeten ongeveer gelijk zijn.Greenhouse-Geisser correctie, Huynh-Feldt correctie of de MANOVA.

  5. De Bonferroni test.

  6. ω2 .

  7. Bij het rapporten van herhaalde metingen worden dezelfde gegevens vermeld als bij een onafhankelijke ANOVA. Bij herhaalde metingen moeten het aantal gecorrigeerde vrijheidsgraden ook vermeld worden als niet aan de assumptie van sfericiteit voldaan is. De multivariate testen kunnen ook vermeld worden.

16. MANOVA

  1. Een MANOVA is een test waarbij we kijken naar het effect van meerdere afhankelijke variabelen.

  2. Als we losse ANOVA’s zouden uitvoeren is er sprake van kanskapitalisatie (vergroting van de type I error).

  3. Het voordeel is dat mogelijke relaties tussen afhankelijke variabelen kunnen worden aangetoond en hierdoor heeft de MANOVA meer power om een effect te detecteren. Wel kan de MANOVA alleen worden gebruikt als een theoretische onderbouwing voor is.

  4. De toegevoegde assumpties zijn dat de DV’s normaal verdeeld zijn binnen de groepen en dat de correlatie tussen de DV’s gelijk is in alle groepen.

  5. d) Box’s test. Bij de andere drie manieren wordt er steeds gebruik gemaakt van de eigenwaarden om de effectgroottes te bepalen.

  6. c) De variaten zijn gecorreleerd. Variaten zijn orthogonaal, dit betekent dat ze niet gecorreleerd zijn.

  7. c) Kruisproduct. Er zijn verschillende soorten kruisproducten: totale kruisproduct (CPt), model kruisproduct (CPm) en residu kruisproduct (CPr). Het model kruisproduct kijkt naar hoe de relatie tussen twee afhankelijke variabelen is beïnvloed door de experimentele manipulatie. Het residu kruisproduct kijkt naar hoe de relatie van de twee afhankelijke variabelen beïnvloed is door individuele verschillen.

  8. c) De systematische variantie wordt vergeleken met de niet-systematische variantie van meerdere afhankelijke variabelen. Bij een MANOVA kan alleen gebruikt worden in een situatie met meerdere afhankelijke variabelen. De uitkomst van dit vergelijken is een matrix van veel varianties en covarianties.

  9. d) Als de diagonale componenten samen 1 zijn en de niet-diagonale componenten samen 0 zijn.

  10. a) Stelling 1 en 2 zijn juist.

  11. b) Als er meerdere afhankelijke variabelen zijn. Het maakt hierbij niet uit of er één of meer onafhankelijke variabelen zijn.

17. Factor analyse

1. Nee, want een groot altijd items vergroot ook de Cronbach’s alfa, dit hoeft dan niks over de betrouwbaarheid te zeggen

2. De factor lading zegt iets over de coördinaat van een variabele t.o.v. twee (of meer) factoren.

3. A en B zijn beschrijvende methodes (alleen toepasbaar op de steekproef. C en D zijn juist technieken om te generaliseren naar de populatie.

18. Categorische gegevens

  1. Categorische data zijn data waarbij de uitkomstvariabele bestaat uit verschillende categorieën.

  2. Met Pearson’s chi-square test kun je kijken of er een verband is tussen twee categorische variabelen.

  3. Bij kleine steekproeven kun je Fisher’s exact test gebruiken.

  4. De likelihood ratio betekent dat je een model creëert waarbij de kans om de geobserveerde data te verkrijgen maximaal is, en je dit model vergelijkt met de kans om de geobserveerde data te verkrijgen als de nulhypothese waar is.

  5. Yates’s continuïteitscorrectie vermindert de kans op type I fout.

  6. Loglineaire analyse is een analyse voor wanneer je meer dan 2 categorische variabelen hebt.

  7. Er is sprake van een verzadigd model als de standaardafwijkingen allemaal 0 zijn.

  8. Bij loglineaire analyse behoud je het eenvoudige nieuwe model als het eenvoudigere model niet erg verschilt van het complexe.

  9. De assumptie van onafhankelijkheid bij chi-square houdt in dat een persoon niet in meerdere categorieën kan vallen.

  10. De tweede assumptie is dat bij een 2x2 contingency tabel de verwachte frequenties in elke cel groter dan 5 moeten zijn.

  11. De vier opties zijn: het laten vervallen van een variabele, het laten vervallen van één van de categorieën, meer data verzamelen of het accepteren van powerverlies.

  12. Bij chi-square rapporteer je de statistiek, de significantie en het aantal vrijheidsgraden. Ook geef je de contingency tabel weer.

  13. Bij loglineaire analyse vermeld je de likelihood ratio statistiek, verandering van de chi-square en eventueel z-scores met bijbehorende betrouwbaarheidsintervallen.

19. Logistische regressie

  1. Logistische regressie is multipele regressie waarbij de uitkomstvariabele categorisch is, en de predictorvariabelen continu of categorisch zijn.

  2. Er is sprake van multinomiale logistische regressie als er meer dan twee categorieën zijn.

  3. Je maakt de relatie lineair door het gebruik van een logaritmische transformatie.

  4. De R-statistiek is de partiële correlatie tussen de uitkomstvariabele en elk van de voorspellervariabelen.

  5. De Wald statistiek is de z-statistiek die gebruikt wordt om de contributie van de voorspellers aan het model te bepalen.

  6. De odds ratio geeft de verandering in kans weer die komt door de verandering in de predictor.

  7. Onderdrukkende effecten komen voor wanneer een voorspeller een significant effect heeft maar alleen wanneer een andere variabele constant wordt gehouden.

  8. Streven naar parsimonie betekent dat een eenvoudige verklaring van een fenomeen te verkiezen is boven een ingewikkelde verklaring.

  9. De assumptie houdt in dat er sprake moet zijn van een lineaire relatie tussen de continue voorspellers en de logit van de uitkomstvariabele.

  10. Complete scheiding ontstaat als de uitkomstvariabele perfect wordt voorspeld door een voorspeller of een combinatie van voorspellers.

  11. Er is sprake van overspreiding wanneer de geobserveerde variabele groter is dan de verwachte variabele uit een logistisch regressiemodel.

  12. Bij logistische regressie rapporteer je de b-waardes, de standaard meetfouten en de significantie.

  13. Je voert de logistische regressieanalyse opnieuw uit, maar voegt predictors toe die de interactie zijn van elke predictor en de log van zichzelf.

  14. Om multicollineariteit te testen gebruik je de lineaire regressieanalyse.

  15. Bij multinomiale logistische regressie gebruik je ook logistische regressie om groepslidmaatschap van meer dan twee categorieën te voorspellen.

20. Multilevel lineaire modellen

  1. De voordelen van een multilevel lineair model zijn dat het gebruikt kan worden om variatie tussen richtingscoëfficiënten te meten, dat de gegevens niet te hoeven voldoen aan de assumptie van onafhankelijkheid, en dat het model goed te gebruiken is als er missende waarden zijn.

  2. Een vast effect is een effect waarbij alle mogelijke condities waarin een onderzoeker geïnteresseerd is aanwezig zijn in het experiment. Een random effect is wanneer het experiment alleen een random steekproef van mogelijke condities bevat.

  3. Bij multilevel modellen wordt onderscheid gemaakt tussen vaste coëfficiënten en random coëfficiënten.

  4. Er is meestal ook sprake van een random intercept als er sprake is van een random slope.

  5. Bij regressie is er een vaste intercept en regressiecoëfficiënt.

  6. Dit is handig omdat je op deze manier de fit van het nieuwe model kan vergelijken met het basismodel.

  7. De vier covariantiestructuren zijn de variantiecomponentenstructuur, de diagonale structuur, de AR(1) en de ongestructureerde structuur.

  8. Voor een multilevel model geldt ook dat de random intercepts en slopes normaal verdeeld moeten zijn over het model.

  9. Centreren van een variabele houdt in dat de variabele getransformeerd wordt naar deviaties vanaf een vast punt, meestal het gemiddelde of groepsgemiddelde.

  10. Polynomials zijn groeicurven, ofwel lijnen met een trend.

  11. Belangrijk bij groeicurven is dat je polynominals kunt toepassen tot één minder dan het aantal tijdspunten dat je hebt, en dat een polynominal een simpele machtsfunctie is.

  12. Er zijn geen vaste richtlijnen omdat multilevel modellen veel verschillende vormen kunnen aannemen.

Image

Access: 
Public

Image

Image

 

 

Contributions: posts

Help other WorldSupporters with additions, improvements and tips

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.

Image

Spotlight: topics

Check the related and most recent topics and summaries:
Activities abroad, study fields and working areas:
WorldSupporter and development goals:

Image

Check how to use summaries on WorldSupporter.org

Online access to all summaries, study notes en practice exams

How and why use WorldSupporter.org for your summaries and study assistance?

  • For free use of many of the summaries and study aids provided or collected by your fellow students.
  • For free use of many of the lecture and study group notes, exam questions and practice questions.
  • For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
  • For compiling your own materials and contributions with relevant study help
  • For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.

Using and finding summaries, notes and practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Use the summaries home pages for your study or field of study
  2. Use the check and search pages for summaries and study aids by field of study, subject or faculty
  3. Use and follow your (study) organization
    • by using your own student organization as a starting point, and continuing to follow it, easily discover which study materials are relevant to you
    • this option is only available through partner organizations
  4. Check or follow authors or other WorldSupporters
  5. Use the menu above each page to go to the main theme pages for summaries
    • Theme pages can be found for international studies as well as Dutch studies

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study for summaries and study assistance

Main summaries home pages:

Main study fields:

Main study fields NL:

Follow the author: Psychology Supporter
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Statistics
12235 1 3