Samenvattingen bij Discovering statistics using IBM SPSS Statistics van Field
- 2908 keer gelezen
Wat wil je analyseren als je een regressieanalyse uitvoert?
Is bij regressie het model lineair of juist niet?
Wat zijn residuen?
Wat is R2?
Heeft een goed model een hoge F-ratio of juist een lage?
Wat betekent een regressiecoëfficiënt van 0?
Als je een voorspelling hebt over de belangrijkheid van de predictoren, welke invoermethode gebruik je dan in SPSS?
Wat is een probleem bij de forwardmethode van invoer?
Wat is een probleem bij de stapsgewijze invoer?
Wat is een uitschieter?
Hoe bekijk je of er een uitschieter is in de x-ruimte? In de y-ruimte? In de xy-ruimte?
Waaraan moeten de meetniveaus van een regressieanalyse voldoen?
Wat is multicollineariteit? En welke drie problemen ontstaan er bij vergrote multicollineariteit?
Wat is homoscedasticiteit?
Wat test je met de Durbin-Watson test?
Wat is crossvalidatie? En door middel van welke twee methodes kan dit?
Wat geeft het betrouwbaarheidsinterval aan?
Wat is verklaarde variantie?
Wat zijn dummy variabelen?
Wat doet een mediërende variabele?
Wat is een modererend effect?
Wat beïnvloedt de moderator?
Wat betekent centreren?
Wat moet je doen om het effect van de moderator te vinden?
Wanneer spreek je van mediatie?
Waarom heb je bij mediatie een direct en een indirect effect?
Op welke drie regressiemodellen is mediatie gebaseerd?
Hoe kun je de effectgrootte berekenen bij mediatie?
Wat zijn dummy variabelen?
Wanneer voer je een ANOVA uit?
Waarom worden hiervoor geen t-testen gebruikt?
Wat zijn contrasts?
Wat betekend het als de F-ratio significant is?
Wat is een type I fout?
Wat is een type II fout?
Wat is de power van een test?
Welke procedures gebruik je om te kijken welke groepen daadwerkelijk van elkaar verschillen?
Welke test voer je uit als assumpties worden geschonden en ANOVA niet kan worden uitgevoerd?
Wat is een Type 1 fout?
Hoeveel is de Type 1 fout als drie testen door een t-test met elkaar vergeleken worden?
Wanneer voer je een ANCOVA uit?
Wat zijn covariaten?
Wat zijn de twee redenen om een covariaat mee te nemen in de analyse?
ANCOVA heeft dezelfde assumpties als ANOVA maar wat zijn de twee bijvoegingen?
Bij ANCOVA hebben we de partial eta squared, wat is dit?
Wat is de assumptie van homogeniteit van regressiecoëfficiënten?
Wanneer kan de omega squared gebruikt worden bij ANCOVA?
Waarmee kan bij ANCOVA de de effectgrootte van de contrasten berekend worden?
Wanneer voer je een factoriële ANOVA uit?
Wat is een andere naam voor een factoriële ANOVA?
Welke drie soorten factoriële designs zijn er?
Wat is het verschil tussen deze designs?
Wat laat de residuensom zien?
Gelden voor de factor ANOVA dezelfde assumpties als de andere lineaire modellen?
Op welke manier berekend SPSS de effectgrootte en op welke twee andere manieren kan de effectgrootte berekend worden?
Hoe moeten de effecten gerapporteerd worden?
Wat houdt een repeated measures design in?
Welke assumptie wordt hier alleen mee geschonden?
Wat is sfericiteit? Welke test in SPSS gebruik je om deze assumptie te checken?
Uit het effect van dit design zich in de binnengroep of tussengroepsvariantie
Wat is een nadeel van herhaalde metingen?
Er kan niet voldaan worden aan de aanname dat de verschillende groepen onafhankelijk zijn.
Er kan niet voldaan worden aan de aanname dat de verschillende condities onafhankelijk zijn.
Er kan niet voldaan worden aan de aanname dat de verschillende groepen afhankelijk zijn.
Er kan niet voldaan worden aan de aanname dat de verschillende groepen afhankelijk zijn.
Welke aanname bij herhaalde metingen wordt gemaakt door het verval van de aanname die gesteld wordt in vraag 1?
De aanname van samengestelde symmetrie.
De aanname van sphericity.
De aanname van normaliteit.
De aanname van homogeniteit.
Welke test in SPSS toetst of de varianties tussen de paren van condities (aanname van sphericity) gelijk is?
De Greenhouse-Geisser test.
De Pillai-Bartlett test.
De Mauchly’s test.
De Huynh-Feldt test.
Welke opties zijn er wanneer er niet wordt voldaan aan de aanname van sphericity?
Het uitvoeren van een MANOVA.
Het uitvoeren van een Greenhouse-Geisser correctie.
Het uitvoeren van een Huynh-Feldt correctie.
Het uitvoeren van een ANCOVA.
Welke stelling is juist?
Voor herhaalde metingen kan de effectgrootte ω2 gebruikt worden, deze kan op dezelfde manier berekend worden als bij de onafhankelijke ANOVA.
Het berekenen van de totale variantie (SSt) gaat bij herhaalde metingen op dezelfde manier als bij een één-weg onafhankelijke ANOVA.
Stelling 1 en 2 zijn juist.
Stelling 1 is juist, stelling 2 is onjuist.
Stelling 1 is onjuist, stelling 2 is juist.
Beide stellingen zijn onjuist.
Wat houdt een mixed design in?
Wat is een nadeel van een herhaalde meting?
Wat is de assumptie van sfericiteit (sphericity)?
Wat is het verschil tussen sfericiteit en samengestelde symmetrie?
Welke correcties kun je maken als niet aan de assumptie van sfericiteit is voldaan?
Wat is een goede vervanging voor de post hoc toets?
Welke soort effectgrootte meten we bij herhaalde metingen?
Hoe rapporteer je de resultaten van een herhaalde meting?
Wat is een MANOVA?
Waarom voeren we een MANOVA uit en geen losse ANOVA’s?
Wat is het voordeel van het uitvoeren van een MANOVA?
Welke aanvullende assumpties gelden er voor de MANOVA?
Wanneer kan er gebruik gemaakt worden van een MANOVA?
Als er meerdere onafhankelijke variabelen zijn.
Als er meerdere afhankelijke variabelen zijn.
Als er grote groepen gebruikt worden.
Als er gebruik gemaakt wordt van afhankelijke groepen.
Welke stelling is juist?
1. Het nadeel bij gebruik van meerdere ANOVA’s is een grotere meetfout en een grotere kans op type I fouten.
2. Het nadeel bij gebruik van meerdere ANOVA’s is dat er niet gekeken wordt naar de relatie van de afhankelijke variabelen onderling.
Stelling 1 en 2 zijn juist.
Stelling 1 is juist, stelling 2 is onjuist.
Stelling 1 is onjuist, stelling 2 is juist.
Beide stellingen zijn onjuist.
Wanneer wordt een matrix een identiteitsmatrix genoemd?
Als de diagonale componenten samen 0 zijn en de niet-diagonale componenten samen 1 zijn.
Als de verticale componenten samen 1 zijn en de niet-verticale componenten samen 0 zijn.
Als de verticale componenten samen 0 zijn en de niet-verticale componenten samen 1 zijn.
Als de diagonale componenten samen 1 zijn en de niet-diagonale componenten samen 0 zijn.
Wat wordt er bij het berekenen van een MANOVA vergeleken?
De systematische meetfout wordt vergeleken met de niet-systematische meetfout van meerdere afhankelijke variabelen.
De systematische meetfout wordt vergeleken met de niet-systematische meetfout van de onafhankelijke variabele(n).
De systematische variantie wordt vergeleken met de niet-systematische variantie van meerdere afhankelijke variabelen.
De systematische variantie wordt vergeleken met de niet-systematische variantie van de onafhankelijke variabele(n).
Welke term hoort bij de volgende definitie: ‘de totale waarde van de meetfouten tussen twee variabelen’?
Kwadratensom.
Discriminante functie.
Kruisproduct.
Pillai-Bartlett trace.
Wat is geen kenmerk van een variaat?
Het aantal variaten is altijd minder dan het aantal afhankelijke variabelen.
De variaten zijn orthogonaal.
De variaten zijn gecorreleerd.
De variaten zijn ongecorreleerd.
Op welke manier kan geen effectgrootte berekend worden?
Pillai-Bartlett trace.
Wilks’ lambda.
Roy’s largest root.
Box’s test.
Wat is logistische regressie?
Wanneer is er sprake van multinomiale logistische regressie?
Hoe kun je de niet-lineaire relatie toch lineair maken?
Wat is de R-statistiek?
Wat is de Wald statistiek?
Wat geeft de odds ratio weer?
Wanneer komen onderdrukkende effecten voor?
Wat betekent streven naar parsimonie?
Wat is de assumptie van lineairiteit waar aan voldaan moet worden?
Wanneer ontstaat complete scheiding?
Wanneer is er sprake van overspreiding?
Wat rapporteer je bij logistische regressie?
Wat moet je doen om de assumptie van lineairiteit te testen bij logistische regressie?
Hoe kun je multicollineariteit testen?
Wat gebruik je bij multinomiale regressie om groepslidmaatschap van meer dan twee categorieën te voorspellen?
Je wilt een uitkomstvariabele Y voorspellen door middel van één voorspellende predictor (simpele regressie) of door meerdere predictoren (multiple regressie).
Lineair, want bij een goed model wordt een relatie gevonden tussen de variabelen.
Een residu is de verticale afstand tussen de werkelijke data en de regressielijn, deze verschillen kunnen zowel positief als negatief zijn.
Dit is de hoeveelheid variantie die wordt verklaard door het model in verhouding tot de totale variantie. Het representeert het percentage variantie in de uitkomst dat kan worden verklaard door het model.
Een hoge F-ratio want dit betekend dat de verbetering in voorspelling groot is (MSm) en het verschil tussen het model en de geobserveerde data klein (MSr).
Dit betekent dat een verandering in de predictor variabele resulteert in geen verandering in de uitkomst variabele.
Hiërarchische regressie
Er kan sprake zijn van supressor effecten dit houdt in dat een predictor significant is maar alleen als een andere predictor constant wordt gehouden. Hierdoor heb je bij de forward methode een grotere kans op een type II fout (een predictor elimineren terwijl deze wel significant was).
Er kan kans zijn op overfitting (teveel variabelen met maar kleine variantie) of underfitting (het niet toevoegen van belangrijke variabelen).
Een uitschieter is een meting die substantieel verschilt van de gemiddelde trend van de data.
Respectievelijk met mahalanobis distance, gestandaardiseerde residuen en met de cook’s distance.
De afhankelijke variabele moet van tenminste ratio of interval meetniveau zijn en de onafhankelijke variabele van ratio of interval of omgecodeerd tot een dummy.
Dit ontstaat wanneer er een sterke correlatie is tussen twee of meer predictoren. De problemen die ontstaan zijn: onbetrouwbare b’s, limiteert de grootte van r en moeilijker om onderscheidt te maken in belangrijkheid tussen predictoren.
Hierbij moet op elk niveau van de predictor variabele de variantie van de residuen constant zijn, als deze variantie ongelijk is, is er sprake van heteroscedasticiteit.
Hiermee test je of er sprake is van onafhankelijke errors, vuistregel is dat de waarde tussen de 1 en 3 moet liggen.
Als je niet zeker weet hoe accuraat de steekproef de populatie beschrijft kan worden gekeken hoe goed het model de uitkomst in andere steekproeven voorspelt. Dit kan door middel van de adjusted R2 en data-splitting.
Het betrouwbaarheidsinterval geeft het interval aan waarbinnen de werkelijke waarde van b zich bevind in de populatie.
Dat deel van de variantie wat wordt bepaald en veroorzaakt door de onafhankelijke variabelen en niet door externe factoren.
Dit is een variabele die van nominaal meetniveau is met meer dan 2 categorieën die is omgezet naar een dichotoom item met alleen 0 of 1 als score.
Het effect van de predictor op de afhankelijke variabele verloopt via een derde variabele dit kan gedeeltelijk of geheel zijn.
Het effect van de predictor op de afhankelijke variabele hangt dan af van nog een derde variabele.
De moderator beïnvloedt de relatie tussen een predictor en de uitkomst.
Centreren betekent dat je een variabele transformeert naar deviaties rond een bepaald punt.
Om het effect van de moderator te vinden moet je een eenvoudige richtingscoëfficiënten analyse (simple slopes analysis) uitvoeren.
Je spreekt van mediatie als de relatie tussen een predictorvariabele en de uitkomst verklaard wordt door de relatie met een derde variabele, de mediator.
Het directe effect is de relatie tussen de predictor en de uitkomst, het indirecte effect is het effect van de predictor op de uitkomst via de mediator.
Mediatie is gebaseerd op regressie die de uitkomst voorspelt vanuit de predictor, regressie die de mediator voorspelt vanuit de predictor en regressie die de uitkomst voorspelt vanuit zowel de predictor als de mediator.
Bij mediatie kun je de effectgrootte berekenen door te kijken naar het gecombineerde effect van a en b, door te kijken naar de grootte van het indirecte effect vergeleken met het totale effect van de predictor, of door R2 te berekenen.
Dummy variabelen zijn meerdere variabelen die met alleen nullen en enen gecodeerd zijn.
Wanneer we meer dan twee condities willen vergelijken gebruiken we de ANOVA.
Omdat losse t-testen de kans op een type I error vergroten, dit wordt kanskapitalisatie genoemd.
Dit zijn alternatieve coderingsschema’s.
Dit wil zeggen dat de gemiddelden van de groepen verschillen.
Wanneer een effect wordt gedetecteerd terwijl deze niet aanwezig is, H0 wordt ten onrechte verworpen.
Een effect wordt niet gedetecteerd terwijl deze wel aanwezig is, H1 wordt ten onrechte verworpen.
De mogelijkheid van een test om een effect te detecteren van een bepaalde grootte (.80 is goed).
Post-hoc procedures.
De Kruskall-Wallis test.
Een Type 1 fout is de nulhypothese verwerpen, terwijl deze hypothese de juiste is.
Per test is de Type 1 fout .95 (5% kans op het verkeerd verwerpen van de nul hypothese) Dus het antwoord is: .95 x .95 x .95= .857, waardoor 1-.857=14.3% het goede percentage is.
Als een ANOVA een continue variabele bevat die ook effect heeft op de afhankelijke variabele kan deze in de analyse worden meegenomen als covariaat.
Continue variabelen die de uitkomstvariabele ook voorspellen.
Hiermee kan je als eerste de binnengroep variantie verminderen, door het meenemen van de covariabele kunnen we meer van de variantie verklaren en blijft er minder onverklaarde variantie over. Daarnaast kunnen confounds worden geëlimineerd (derde variabele).
Onafhankelijke relatie tussen het covariaat en de afhankelijke variabele en homogeniteit van regressiecoëfficiënten.
Dit is de hoeveelheid variantie in de afhankelijke variabele die door de onafhankelijke variabele wordt gedeeld maar niet door het covariaat wordt verklaard.
Dit houdt in dat de relatie tussen de afhankelijke variabele en het covariaat binnen alle groepen gelijk moet zijn anders is het model inaccuraat.
ω2 kan gebruikt worden bij gelijke groepsgroottes.
Met een t-toets kan de effectgrootte van de contrasten berekend worden.
Met de factoriële ANOVA kijken we naar twee of meer onafhankelijke variabele.
Een tweeweg ANOVA.
Onafhankelijke factoriële design, repeated measures factoriël design en mixed design.
Onafhankelijke factoren gaat om een tussengroep design, repeated measures om een binnengroep design en mixed design maakt hier een combinatie van.
Het laat de onverklaarde variantie zien.
Ja.
SPSS geeft partial eta squared als effectgrootte, maar het is verstandiger om ω2 te gebruiken of de simpele effecten analyse r.
Bij het rapporteren van de resultaten moet hetzelfde weergegeven worden als bij een gewone ANOVA. De F-ratio en het aantal vrijheidsgraden moeten in elk geval vermeld worden, voor de twee hoofdeffecten en voor het interactie-effect.
Bij repeated measures nemen de participanten deel aan alle condities van het onderzoek. Hierdoor kan je controleren voor individuele verschillen.
De assumptie van onafhankelijke groepen wordt hiermee geschonden omdat er een relatie is tussen de scores van de verschillende condities.
Dit is de aanname dat de relatie tussen de paren van de experimentele condities gelijk zijn. Dit is alleen belangrijk bij tenminste drie condities. Mauchly’s test.
In de binnengroep variantie.
c) De effectgrootte voor herhaalde metingen kan juist niet op dezelfde manier berekend worden als bij een onafhankelijke ANOVA. De juiste formule voor de effectgrootte staat op bladzijde bb van de samenvatting.
d) Het uitvoeren van een ANCOVA. De Greenhouse-Geisser geeft de correctie van de varianties in vrijheidsgraden. Wanneer deze correctie een hoge waarde geeft, kan er gebruik gemaakt worden van een Huynh-Feldt correctie.
c) De Mauchly’s test. Wanneer deze test een significant resultaat laat zien, wordt niet voldaan aan de aanname van sphericity.
b) De aanname van sphericity. Het betekent dat de relatie tussen paren van experimentele condities gelijk is. Dit wordt berekend door de varianties van paren van behandelingsniveaus.
b) Er kan niet voldaan worden aan de aanname dat de verschillende condities onafhankelijk zijn. Een proefpersoon ondergaat alle condities en dus zijn de condities gerelateerd aan elkaar.
Bij een mixed design kijk je naar zowel between als within groep variabelen en zijn er dus altijd meer dan twee IV’s. Er wordt gekeken naar participanten in verschillende groepen (binnengroep variantie) en naar de verschillen tussen twee groepen (tussengroepvariantie).
Een nadeel van een herhaalde metingen design is dat er niet voldaan kan worden aan de assumptie dat de verschillende condities onafhankelijk zijn.
Dat de relatie tussen paren van experimentele condities gelijk is en de afhankelijkheid tussen experimentele condities is ongeveer gelijk.
Sfericiteit is iets algemener dan samengestelde symmetrie. Dit houdt in dat de beide varianties tussen de condities gelijk zijn en dat de covarianties tussen de paren ook gelijk zijn. Sfericiteit is minder strikt dan samengestelde symmetrie, het gaat hierbij om het verschil tussen de condities, die varianties moeten ongeveer gelijk zijn.Greenhouse-Geisser correctie, Huynh-Feldt correctie of de MANOVA.
De Bonferroni test.
ω2 .
Bij het rapporten van herhaalde metingen worden dezelfde gegevens vermeld als bij een onafhankelijke ANOVA. Bij herhaalde metingen moeten het aantal gecorrigeerde vrijheidsgraden ook vermeld worden als niet aan de assumptie van sfericiteit voldaan is. De multivariate testen kunnen ook vermeld worden.
Een MANOVA is een test waarbij we kijken naar het effect van meerdere afhankelijke variabelen.
Als we losse ANOVA’s zouden uitvoeren is er sprake van kanskapitalisatie (vergroting van de type I error).
Het voordeel is dat mogelijke relaties tussen afhankelijke variabelen kunnen worden aangetoond en hierdoor heeft de MANOVA meer power om een effect te detecteren. Wel kan de MANOVA alleen worden gebruikt als een theoretische onderbouwing voor is.
De toegevoegde assumpties zijn dat de DV’s normaal verdeeld zijn binnen de groepen en dat de correlatie tussen de DV’s gelijk is in alle groepen.
d) Box’s test. Bij de andere drie manieren wordt er steeds gebruik gemaakt van de eigenwaarden om de effectgroottes te bepalen.
c) De variaten zijn gecorreleerd. Variaten zijn orthogonaal, dit betekent dat ze niet gecorreleerd zijn.
c) Kruisproduct. Er zijn verschillende soorten kruisproducten: totale kruisproduct (CPt), model kruisproduct (CPm) en residu kruisproduct (CPr). Het model kruisproduct kijkt naar hoe de relatie tussen twee afhankelijke variabelen is beïnvloed door de experimentele manipulatie. Het residu kruisproduct kijkt naar hoe de relatie van de twee afhankelijke variabelen beïnvloed is door individuele verschillen.
c) De systematische variantie wordt vergeleken met de niet-systematische variantie van meerdere afhankelijke variabelen. Bij een MANOVA kan alleen gebruikt worden in een situatie met meerdere afhankelijke variabelen. De uitkomst van dit vergelijken is een matrix van veel varianties en covarianties.
d) Als de diagonale componenten samen 1 zijn en de niet-diagonale componenten samen 0 zijn.
a) Stelling 1 en 2 zijn juist.
b) Als er meerdere afhankelijke variabelen zijn. Het maakt hierbij niet uit of er één of meer onafhankelijke variabelen zijn.
Logistische regressie is multipele regressie waarbij de uitkomstvariabele categorisch is, en de predictorvariabelen continu of categorisch zijn.
Er is sprake van multinomiale logistische regressie als er meer dan twee categorieën zijn.
Je maakt de relatie lineair door het gebruik van een logaritmische transformatie.
De R-statistiek is de partiële correlatie tussen de uitkomstvariabele en elk van de voorspellervariabelen.
De Wald statistiek is de z-statistiek die gebruikt wordt om de contributie van de voorspellers aan het model te bepalen.
De odds ratio geeft de verandering in kans weer die komt door de verandering in de predictor.
Onderdrukkende effecten komen voor wanneer een voorspeller een significant effect heeft maar alleen wanneer een andere variabele constant wordt gehouden.
Streven naar parsimonie betekent dat een eenvoudige verklaring van een fenomeen te verkiezen is boven een ingewikkelde verklaring.
De assumptie houdt in dat er sprake moet zijn van een lineaire relatie tussen de continue voorspellers en de logit van de uitkomstvariabele.
Complete scheiding ontstaat als de uitkomstvariabele perfect wordt voorspeld door een voorspeller of een combinatie van voorspellers.
Er is sprake van overspreiding wanneer de geobserveerde variabele groter is dan de verwachte variabele uit een logistisch regressiemodel.
Bij logistische regressie rapporteer je de b-waardes, de standaard meetfouten en de significantie.
Je voert de logistische regressieanalyse opnieuw uit, maar voegt predictors toe die de interactie zijn van elke predictor en de log van zichzelf.
Om multicollineariteit te testen gebruik je de lineaire regressieanalyse.
Bij multinomiale logistische regressie gebruik je ook logistische regressie om groepslidmaatschap van meer dan twee categorieën te voorspellen.
Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>
Deze bundel bevat samenvattingen en ander relevant studiemateriaal dat te gebruiken is bij het boek Discovering Statistics using IBM SPSS Statistics van Field
There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.
Do you want to share your summaries with JoHo WorldSupporter and its visitors?
Main summaries home pages:
Main study fields:
Business organization and economics, Communication & Marketing, Education & Pedagogic Sciences, International Relations and Politics, IT and Technology, Law & Administration, Medicine & Health Care, Nature & Environmental Sciences, Psychology and behavioral sciences, Science and academic Research, Society & Culture, Tourisme & Sports
Main study fields NL:
JoHo can really use your help! Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world
2322 | 1 |
Add new contribution