BulletPointsamenvatting van Discovering statistics using SPSS van Field - 5e druk
- Waarom dwingt een duivelse docent een student tot statistiek? - BulletPoints 1
- Waaruit bestaat statistiek? - BulletPoints 2
- Wat zijn de limieten van statistisch onderzoek? - BulletPoints 3
- Hoe ziet de SPSS statistiek omgeving eruit? - BulletPoints 4
- Op welke manier kunnen gegevens verkend worden met grafieken? - BulletPoints 5
- Wat wordt bedoeld met het bias beest? - BulletPoints 6
- Wat wordt bedoeld met een niet-parametrische test? - BulletPoints 7
- Wat wordt bedoeld met de correlatie tussen variabelen? - BulletPoints 8
- Wat wordt bedoeld met een regressie? - BulletPoints 9
- Op welke manier kunnen twee gemiddelden met elkaar vergeleken worden? - BulletPoints 10
- Wat wordt bedoeld met moderatie, mediatie en meerdere categorische voorspellers? - BulletPoints 11
- Op welke manier worden verschillende onafhankelijke gemiddeldes met elkaar vergeleken? - BulletPoints 12
- Wat wordt bedoeld met een ACOVA? - BulletPoints 13
- Wat wordt bedoeld met een factor design? - BulletPoints 14
- Wat wordt bedoeld met een repeated-measure design? - BulletPoints 15
- Wat wordt bedoeld met gemixte ontwerpen? - BulletPoints 16
- Wat wordt bedoeld met een MANOVA? - BulletPoints 17
- Wat wordt bedoeld met een factor analyse? - BulletPoints 18
- Wat wordt bedoeld met een categoriale uitkomsten? - BulletPoints 19
- Wat wordt bedoeld met een logistische regressie? - BulletPoints 20
- Wat wordt bedoeld met een multilevel lineaire modellen? - BulletPoints 21
Waarom dwingt een duivelse docent een student tot statistiek? - BulletPoints 1
Voor het beantwoorden van diverse vragen is data nodig. Een docent dwingt een student te werken met getallen omdat deze getallen een vorm van data zijn en behoren tot het onderzoeksproces. Er kunnen naast getallen ook andere vormen bestaan van data. Wanneer onderzoeken gebruik maken van data op basis van cijfers is dit een kwantitatieve methode. Onderzoeken waarbij taal wordt gebruikt als basis voor het onderzoek is een kwalitatieve methode om onderzoek te doen. De kwalitatieve en kwantitatieve methode zijn complementair aan elkaar. Dit wil zeggen dat de ene methode niet beter of slechter is dan de andere methode.
Het onderzoeksproces bestaat uit een aantal stappen. De eerste stap is observatie. Hierbij wordt iets waargenomen wat iemand nieuwsgierig maakt. Een onderzoeker heeft een vraag die hij of zij graag beantwoord wil hebben. Om te kijken of de observatie klopt moeten gegevens verzameld worden. Voor het verzamelen van deze gegevens heeft een onderzoeker variabelen nodig. Een variabele is hetgeen dat gemeten wordt om tot een antwoord op de vraag te komen.
Variabelen zijn dingen die kunnen variëren, tussen mensen, of tussen situaties of in de loop van de tijd. Bij de meeste hypothesen zijn er twee variabelen, namelijk de oorzaak en de uitkomst.
De variabele die gezien wordt als de oorzaak van een bepaald effect wordt de onafhankelijke variabele of ook wel de predictor genoemd. Bij een experimentele opzet wordt deze term gebruikt om te benadrukken dat de onderzoeker deze variabele gemanipuleerd heeft. De variabele die verandert door veranderingen in de onafhankelijke variabele wordt de afhankelijke variabele of uitkomst variabele genoemd.Variabelen kunnen op verschillende manieren gemeten worden. Het verband tussen wat gemeten wordt en de cijfers die uitdrukken wat je meet, wordt het meetniveau (level of measurement) genoemd. Variabelen kunnen categorisch of continu zijn en kunnen verschillende meetniveaus hebben. Een categorische variabele bestaat uit verschillende categorieën. Je kan maar in één categorie per keer ingedeeld worden, je hoort niet een beetje bij de ene categorie en een beetje bij de andere categorie. Een voorbeeld van een categorische variabele is de indeling tussen mannen en vrouwen. In dit geval heeft de variabele slechts twee categorieën; een man of een vrouw. Je kunt niet allebei zijn. Een variabele met twee categorieën wordt een binaire variabele genoemd.
Een manier om de meetfout zo klein mogelijk te maken is door eigenschappen van het meetinstrument vast te stellen die iets zeggen over hoe goed het meetinstrument zijn werk doet. Een manier om dat te bepalen is validiteit. De validiteit betekent of het instrument daadwerkelijk meet wat je wilde meten. Criterium validiteit betekent dat je kunt vaststellen of je instrument meet wat je wil meten aan de hand van objectieve criteria.
Er zijn grofweg twee manieren om data te verzamelen, namelijk met correlationeel onderzoek (cross-sectioneel onderzoek) en experimenteel onderzoek. Bij correlationeel onderzoek wordt geobserveerd wat er in de wereld gebeurt zonder het te manipuleren. Dit is goed voor de ecologische validiteit omdat men de natuurlijke situatie observeert. Sommige onderzoeken kunnen alleen op deze correlationele manier worden uitgevoerd, omdat het onmogelijk of onethisch is om bepaalde variabelen te manipuleren. Het nadeel van deze methode is echter dat het niet mogelijk is om een uitspraak te doen over causaliteit.
Randomisatie is belangrijk omdat andere bronnen van systematische variatie verwijderd worden, waardoor men zeker weet dat veranderingen veroorzaakt worden door de experimentele manipulatie. In het binnengroep ontwerp (in-groep design) zijn er nog twee belangrijke bronnen van systematische variatie.
Men kan berekenen waar het centrum van de frequentie verdeling ligt (central tendency). De simpelste methode hiervoor is de modus. Dit is de score met de hoogste frequentie, dus de score die het vaakst voorkomt.
De tweede manier om het midden van de verdeling te berekenen is met de mediaan. De mediaan is middelste score wanneer je alle scores qua frequentie op volgorde van klein naar groot neer zet.
De derde manier om het midden van de verdeling te berekenen is met het gemiddelde. Het gemiddelde bereken je door alle scores op te tellen en te delen door het aantal participanten.
Waaruit bestaat statistiek? - BulletPoints 2
Voor veel studenten bestaat statistiek uit een grote hoop verschillende testen die elk een andere vergelijking en symbolen hebben. Studenten hebben het idee dat ze veel verschillende dingen moeten leren. Het is handig te focussen op de gelijkenissen in plaats van de verschillen tussen de testen. Field heeft vijf key concepten opgesteld aan de hand van het woord SPINE: Standaard error, Parameters, Interval schattingen (betrouwbaarheidsintervallen, Null hypothese testen op significantie en Estimation (schatting).
Wetenschappers willen meestal resultaten die gegeneraliseerd kunnen worden naar een hele populatie. Omdat populaties vaak groot zijn, is het meestal onmogelijk om de hele populatie te onderzoeken. Om toch een indruk van de populatie te krijgen, worden er steekproeven getrokken. Bij een steekproef worden de gegevens van een deel van de populatie verzameld voor een inzicht in de hele populatie.
Statistische modellen bestaan uit variabelen en parameters. Parameters worden niet gemeten, maar worden geschat aan de hand van de data en zijn meestal constanten. Voorbeelden van parameters zijn het gemiddelde en correlatiecoëfficiënten. Verschillende parameters hebben verschillende statistische symbolen. Alle statistische modellen komen in feite neer op deze formule: Uitkomsti = (model) + error i.
Het gemiddelde is het eerste eenvoudige statistische model en heeft een hypothetische waarde. Dit betekent dat het een waarde kan aannemen dat niet in de data voor hoeft te komen. Het gemiddelde aantal vrienden kan bijvoorbeeld 2.6 zijn, terwijl niemand daadwerkelijk 2.6 vrienden heeft. Bij dit model probeer je de uitkomst niet te voorspellen, maar is het gemiddelde een samenvatting van de uitkomst. Het model is in dit geval: outcomei = b0 + errori
De totale error is dan gelijk aan de som van alle devianties. Net als in het vorige hoofdstuk, is ook hier de som van de devianties altijd gelijk aan nul, omdat bij sommige personen de score boven het gemiddelde ligt, en bij anderen onder het gemiddelde. Samen zijn ze uiteraard precies het gemiddelde. Daarom worden, net als in het eerste hoofdstuk, de deviaties gekwadrateerd. Je krijgt dan de som van de gekwadrateerde meetfouten (SS). Sum of squared errors (SS) = ∑(uitkomst – model)²
Vrijheidsgraden staat voor het aantal observaties dat vrij is om te variëren. Als het gemiddelde van 4 mensen bekend is, is het mogelijk voor de eerste drie een getal verzinnen, maar er is geen keus voor het vierde getal als het gemiddelde constant gehouden wordt. Dat ligt namelijk vast. Het aantal vrijheidsgraden is dus het aantal observaties (de steekproefgrootte) min 1.
Een steekproef geeft dus een schatting van de parameters van de populatie en met de standard error krijgt men een idee hoe deze schattingen verschillen bij verschillende steekproeven. Met deze informatie kunnen de grenzen berekend worden waartussen een onderzoeker denkt dat het werkelijke populatiegemiddelde valt. Dit heet een betrouwbaarheidsinterval. Een betrouwbaarheidsinterval van 95% voor het gemiddelde betekent dat het populatiegemiddelde bij 95% van de steekproeven binnen deze berekende grenzen valt.
In tegenstelling tot Fisher, vonden Neyman en Pearson dat wetenschappelijke stellingen moesten worden verwoord als testbare hypothesen. De hypothese die stelt dat er een bepaald effect is, wordt de alternatieve hypothese (of H1) genoemd. De nulhypothese (H0) is het tegenovergestelde omdat deze stelt dat er juist geen effect is.
NHST is een combinatie van het idee van Fisher en Neyman en Pearson. De NHST is een systeem dat ontwikkeld is om aan te geven wanneer de alternatieve hypothese waar is of niet. Het helpt een onderzoeker te beslissen of de hypotheses aangenomen of verworpen moeten worden.
Bij een eenzijdige toets wordt een statistisch model getoetst met een hypothese die een richting voor het effect aangeeft. Bij een tweezijdige toets heeft de hypothese geen richting. Bij het tweezijdige model wordt het onze beslissende waarde van 0.05 ook in tweeën gesplitst, omdat de vijf procent overschrijding in beide staarten van de normale verdeling zit. In de linker- en rechterstaart zit dus allebei 0.025. Een tweezijdige toets betekent immers dat het effect zowel negatief als positief kan zijn.
Wat zijn de limieten van statistisch onderzoek? - BulletPoints 3
- Een eerste misvatting is dat men er altijd vanuit gaat dat een significant resultaat betekent dat het gevonden effect belangrijk is. Namelijk, een p waarde wordt altijd beïnvloed door de steekproefgrootte. Namelijk, kleine en onbelangrijke effecten zullen statistisch signigficant zijn, zolang de geteste groep maar groot is. Andersom zal er sneller een groter effect uit je tests komen als de groepsgrootte klein is. Als in als je 100 personen test een iemand “wijkt af” is dit procentueel een grotere afwijking dan wanneer die ene persoon binnen een groep van 10.000 personen wordt getest.
- Een tweede misvatting is dat men er vaak vanuit gaat dat een niet significant resultaat betekent dat de nulhypothese automatisch waar is. Namelijk, als de p waarde groter is dan 5%, dan kun je de alternatieve hypothese als niet bewezen beschouwen, maar dat betekent zeker niet dat daarmee de nulhypothese waar is. Het vertelt je alleen dat het effect niet groot genoeg is om statistisch gevonden te kunnen worden, het zegt niet dat het effect 0 is.
- Een derde misvatting is de misvatting dat een significant resultaat betekent dat de nulhypothese niet waar is. Dit is makkelijker uit te leggen door middel van een voorbeeld.
- Empirische waarschijnlijkheid is een waarschijnlijkheid die een kans op lange termijn, als gemiddelde, aantoont. Bijvoorbeeld; de kans dat iemand huilt om een bepaald filmpje kan empirisch best 4% (0,04) zijn. Of een specifiek persoon al dan niet gaat huilen is echter of 1 (hij huilt), of 0 (hij huilt niet).
- De degrees of freedom (vrijheidsgraden) kan een onderzoeker gebruiken om de resultaten zo gunstig mogelijk weer te geven. De degrees of freedom van een onderzoeker geeft aan dat een onderzoeker veel keuzes moet maken met betrekking tot het ontwerpen en het analyseren van een onderzoek.
- P-hacking wordt ook wel “fishing”, data mining en selective reporting genoemd, wat neerkomt op alleen maar gedeeltes van onderzoeken rapporteren en het proberen van verschillende soorten analyses om significante resultaten te verkrijgen. Bijvoorbeeld onderzoekers die stoppen met data verzamelen zodra ze het gewenste significante niveau gekregen hebben in plaats van doorgaan tot de van te voren vastgestelde steekproefgrootte behaald is.
- HARKing is hypotheses stellen nadat de resultaten al bekend zijn; in plaats van andersom. Een NHST voer je uit om te kijken of een bepaalde hypothese al dan niet juist is; niet om nieuwe hypotheses te kunnen stellen nadat de resultaten bekend zijn.
- Er zijn vijf standaard manieren om dit te doen, afgekort als EMBERS. Namelijk kijken naar de Effect Size, Meta Analyse toepassen, Bayesian Estimation gebruiken, Registratie en Sense (gezond verstand) gebruiken.
- Significantie is niet hetzelfde als effectgrootte; significantie is namelijk erg afhankelijk van de grootte van je onderzochte groep. Effect groottes onderzoeken en deze ook in je rapport zetten, in plaats van alleen de p-waarde publiceren, kan erg toevoegen aan de waarde van je onderzoeksrapport. Effect groottes kunnen onder andere worden vastgesteld met de Cohen's d methode, de Pearson's r en de odds ratio.
- Meestal worden er meerdere onderzoeken naar hetzelfde onderwerp gedaan. Deze verschillende onderzoeken geven vaak verschillende resultaten. Door de effectgroottes te combineren uit verschillende studies krijg je betere schattingen van de populatie. Dit wordt meta-analyse genoemd. Hiermee wordt dan een gemiddelde effectgrootte berekend. Een meta analyse is dus het schatten van de grootte van een effect in de populatie door het combineren van effectgrootten uit verschillende onderzoeken die dezelfde hypothese testen.
- De Baysian benadering is weer een ander alternatief voor NHST. Er bestaan belangrijkse verschillen tussen deze benadering en de algemene benadering wanneer bijvoorbeeld gebruik gemaakt wordt van SPSS. NHST bepaalt de kans voor de verzamelende data wanneer de hypothese wordt aangenomen: p(data | hypothese).
- De Bayes theorem kan gebruikt worden om de ontwikkeling van een eerdere hypothese op nieuw te bekijken op basis van de waargenomen gegevens en deze up te daten. Het model: P(A|B). De letter A in dit model kan vervangen worden door de hypothese. De letter B wordt vervangen in de verzamelde data. Er bestaat een posterior probability en een pior probability. Een posterior probability is een hypothese die opgesteld is voordat de data bekend is. Het is de voorwaardelijke kans P(A | B) voordat gebeurtenis B al dan niet heeft plaatsgevonden. Een prior probability is de hypothese die opgesteld is voordat de data bekend is. Het is de onvoorwaardelijke kans P(A) voordat bekend is op gebeurtenis B al dan niet heeft plaatsgevonden.
- De marginale waarschijnlijk wordt ook wel 'evidence' of 'bewijs' genoemd. Dit is de waarschijnlijkheid van de geobserveerde data.
- Een Bayes-factor is de verhouding tussen de waarschijnlijkheid van twee concurrerende hypotheses. Meestal zijn dit de alternatieve hypothese en de nulhypothese. Een Bayes-factor groter dan 1 houdt in dat de waargenomen gegevens waarschijnlijker zijn gezien de alternatieve. Waarden kleiner dan 1 suggereren het tegenovergestelde. Waarden tussen 1 en 3 reflecteren bewijs voor de alternatieve hypothese die 'nauwelijks de moeite waard is om te vermelden', waarden tussen 1 en 3 zijn bewijs dat 'substantie heeft', en waarden tussen 3 en 10 zijn 'sterk' bewijs.
Hoe ziet de SPSS statistiek omgeving eruit? - BulletPoints 4
Bij het openen van SPSS krijg je een beginscherm waar men verschillende dingen kan kiezen, zoals het openen van een al bestaand bestand of een nieuw bestand maken. De belangrijkste schermen in SPSS zijn de data editor, waar je je data invoert en je statistische berekeningen mee uitvoert en de viewer, waar je resultaten van de analyses in verschijnen.
Zodra je de keuze hebt gemaakt in het beginscherm, kom je op het SPSS scherm waar alle gegevens staan (of waar je alle gegevens in kunt vullen). Dit is de data editor. De data editor heeft twee opties, de data view en de variable view. De eerste is om de cijfers in te voeren en de tweede is om te kijken wat voor variabelen gebruikt worden. Door erop te klikken kom je op het goede scherm.
De SPSS viewer verschijnt in een ander venster dan de data editor en geeft de uitvoer van alle procedures in SPSS weer: de tabellen met de resultaten, de grafieken, de fouten en meer.
De SPSS syntax is de taal van opdrachten om statistische analyses en datamanipulaties uit te voeren. Met de syntax kan een onderzoeker meer doen dan met behulp van de data editor. Soms kan het zelfs sneller en makkelijk uit te voeren zijn. Om de syntax te open ga je naar file --> new --> syntax.
Om een bestand in SPSS op te slaan ga je naar file - save. Bij een nieuw bestand ga je naar file- save as. Een SPSS format wordt opgeslagen als .sav, een output wordt opgeslagen als .spv en een syntax wordt opgeslagen als .sps. Je kan bij save as type ook andere manieren van opslaan kiezen.
Voor het openen van een bestand ga je naar file --> open --> data (om een data file te openen) / ouput (om een viewer file te openen) / syntax (om de syntax file te openen).
Op welke manier kunnen gegevens verkend worden met grafieken? - BulletPoints 5
Een chartjunk zijn overbodige dingen aan een grafiek. Als je naar een grafiek kijkt zijn er twee assen, namelijk de x-as en de y-as. De verticale as is de y-as en de horizontale as is de x-as.
Grafieken kun je maken in de chart builder. Ga in SPSS naar graphs en klik vervolgens op chart builder. Links wordt de lijst met variabelen weergegeven. Vervolgens laat de canvas zien hoe de grafiek eruit komt te zien en de geselecteerde variabelen kan je naar de juiste drop zones slepen. Onderaan staat de gallerij. Hier kun je aangeven hoe de grafiek eruit moet komen te zien. Er zijn verschillende mogelijkheden bijvoorbeeld een lijndiagram, staafdiagram, 3D, 2D enzovoorts. De properties panel zit aan de rechterkant. Hier kan bepaald worden wat de grafiek weer moet geven, hoe het eruit komt te zien en hoe je om moet gaan met missende variabelen.
Een histogram is een nuttige manier om te kijken naar de vorm van de gegevens en om problemen te ontdekken. Een histogram wordt ook wel een frequentie distributie genoemd. Wanneer bij de gallerij gekozen wordt voor een histogram krijg je de keuze uit vier verschillende vormen van histogrammen.
Een boxplot (of een box-whisker diagram) is een andere goede manier om de verdeling van de gegevens te bekijken. In het midden van de boxplot zit de mediaan. Er zijn drie verschillende boxplots waaruit je kan kiezen.
en bar chart is in het Nederlands een staafdiagram. Een staafdiagram is de meest gebruikelijke manier om de gemiddelden weer te geven. In SPSS kan een staafdiagram gemaakt worden door te gaan naar chart builder --> gallery --> bar.
Lijngrafieken zijn hetzelfde als staafdiagrammen alleen wordt hier een lijn gegeven. Voor een staafdiagram kan ook een lijndiagram gebruikt worden. Het startpunt is weer de chart builder.
Een andere mogelijk manier om om gegevens weer te geven is een scatterplot. Een scatterplot is handig om te gebruiken wanneer je wil kijken naar de relatie tussen twee variabelen. Een scatterplot laat de score op de ene variabele en de score op de andere variabele zien. Bij een scatterplot kan je ook zien wat voor soort relatie er bestaat tussen twee variabelen.
Een matrix scatterplot laat alle mogelijke combinaties zien van alle variabelen die ingevoerd worden. Selecteer eerst alle variabelen die vergeleken moeten worden en sleep deze vervolgens naar de scattermatrix. Het is verstandiger een matrix te plotten van 2D scatterplots. Dit type zorgt ervoor dat een onderzoeker kan kijken naar de relatie tussen alle combinaties van verschillende paren.
Wat wordt bedoeld met het bias beest? - BulletPoints 6
Voordat we gaan kijken naar de aannames is het nuttig te kijken naar 'het hoofd' van de bias. Dit is namelijk een outlier. Een outlier is een score die ver verwijderd ligt van de rest van de data. De score wijkt af van de rest van de data. Het nadeel van outliers is dat het het gemiddelde kan aantasten. Een uitschieter kan het gemiddelde enorm omhoog of omlaag brengen wat zorgt voor een vertekening.
Er zijn vier grote assumpties voor parametrische toetsen: Addiviteit en een lineair verband. Voor toetsen gebaseerd op een lineair model, is de assumptie dat de variabelen ook lineair met elkaar samenhangen. Een normale verdeling. De gegevens moeten normaal verdeeld zijn. Homoscedasticiteit van de varianties. Deze aanname wil zeggen dat de varianties van de verschillende gegevens ongeveer even groot moeten zijn. Onafhankelijkheid. Deze aanname kan op verschillende manieren geinterpreteerd worden. Het kan zijn dat de deelnemers onafhankelijk van elkaar een vragenlijst in moeten vullen. Bij herhaalde metingen kan dit niet bereikt worden maar wordt verwacht dat de gedragingen van de verschillende deelnemers onafhankelijk van elkaar zijn.
De meeste statistische methodes zijn gebaseerd op lineaire modellen. De aanname van addiviteit en lineariteit houdt in dat de relatie tussen de uitkomst variabele en de voorspellende variabele (afhankelijk/ onafhankelijk) accuraat is. Hiermee wordt bedoeld dat de scores van de uitkomst variabele lineair gerelateerd moeten zijn aan de een of meer voorspellende variabelen. Het is dus belangrijk dat de variabelen ook op een lineaire wijze met elkaar samenhangen. Deze aanname is de meest belangrijke aanname. Wanneer deze aanname niet klopt, is het model niet geldig ook al kloppen alle andere aannames wel. Wanneer de variabelen geenlineair verband vertonen, klopt het hele model niet.
Homoscedasticiteit betekent homogeniteit van variantie. Deze assumptie heeft invloed op twee zaken, namelijk: 1) Het schatten van parameters in het regressiemodel en 2) Het testen van de significantie van een hypothese.
Deze assumptie van onafhankelijkheid betekent dat de errors in het model niet aan elkaar gerelateerd zijn. Deze assumptie wordt bijvoorbeeld niet nageleefd wanneer participanten overleggen tijdens een vragenlijst. Het antwoord van de een beïnvloedt hierdoor het antwoord van de andere deelnemer. De vergelijking waarbij gebruik gemaakt wordt van het schatten van de standaard error is alleen geldig wanneer de observaties onafhankelijk van elkaar zijn. De standaard error kan dus alleen berekend worden wanneer er voldaan wordt aan de assumptie van onafhankelijkheid. Het berekenen van de significantietoetsen en de betrouwbaarheidsintervallen zijn bij schending van deze assumptie dus geen optie. Voor het schatten van parameters in het model kan het nog wel gebruikt worden. Een onderzoeker krijgt vervolgens echter geen optimale resultaten.
Een andere grafiek om de normale verdeling goed te bekijken is een P-P plot (probability-probability plot). Deze grafiek laat de cumulatieve kans van een variabele tegen de cumulatieve kans van een bepaalde verdeling zien. Dit betekent dat de gegevens gesorteerd worden en de bijbehorende z-score wordt berekend. Dit is dan de verwachte waarde dat de score zal hebben in een normaalverdeling. De score zelf wordt ook omgezet in een z-score. Dan wordt de werkelijke z-score uitgezet tegen de verwachte z-score. Deze grafiek is een rechte lijn met een normaalverdeling. Voor een P-P plot in SPSS ga je naar Analyze - Descriptive statistics - P-P plots.
Een normaalverdeling toetsen kan door naar de hele verdeling ineen te kijken. De Kolmogorov-Smirvov (K-S) test en de Shapiro-Wilk test vergelijken de verdeling van de steekproef met een normaalverdeling met hetzelfde gemiddelde en een zelfde standaard deviatie. Als de test niet significant is, betekent het dat de verdeling van de steekproef niet significant verschilt van een normaalverdeling (de verdeling van de steekproef is dan normaal). En als de test wel significant is, is de verdeling van de steekproef niet normaal.
De assumpties van homoscedasticiteit en lineariteit kunnen tegelijk bekeken worden. Beide assumpties gaan namelijk over de residuals, de error in het model. Om ze te controleren kan gebruik gemaakt worden van een scatterplot. Hierbij worden de residuals uitgezet tegen de uitkomst volgens het model. Hiermee wordt gekeken of er een verband bestaat tussen de waardes die het model voorspelt en de error. Normaal gesproken worden de voorspelde waarden en de errors omgezet in z-scors. Daarom wordt dit soms ook een zspred of een zresid genoemd. Als de assumpties van homoscedasticiteit en lineairiteit niet geschonden zijn, hoort hier geen verband tussen te zijn en is het scatterplot dus een random stipjespatroon.
Om de homogeniteit van varianties te toetsen wordt Levene’s test gebruikt. Deze toets test de nulhypothese waarbij de variantie in de verschillende groepen gelijk is. Het gaat samen met een één-weg ANOVA. Er wordt gekeken naar het absolute verschil tussen elke score en het gemiddelde van de groep waar het vandaan kwam. Wanneer Levene’s test significant is betekent het dat de nulhypothese niet klopt en de varianties dus significant van elkaar verschillen. Anders zou de homogeniteit van de variantie verzekerd zijn. Niet-significantie betekent dat de varianties ongeveer gelijk zijn aan elkaar. Een levene’s test werkt alleen goed als je gelijke groepsgrootte en grote steekproeven hebt. Maar bij deze omstandigheden maakt een schending van de assumptie van heteroscedasticiteit nauwelijks uit.
Er zijn vier manieren waarop je problemen in je data kunt aanpakken. 1) Winsorizing: Uitschieters vervangen door de hoogste score die geen uitschieter is. 2) Apply a robust estimation method: Je data analyseren met behulp van robuuste methodes. 3) Trimmen van de data: bepaalde extreme scores verwijderen (trimmen). 4) Transform de data.
De beste methode om de bias te verminderen is door gebruik te maken van robuuste methodes. Dit zijn testen die weinig beïnvloed worden door schendingen van assumpties. Een andere optie is kiezen voor een non-parametrische test, een test die niet gebaseerd is op de assumptie van normaliteit.
Wat wordt bedoeld met een niet-parametrische test? - BulletPoints 7
Een niet-parametrische test kan gebruikt worden als niet aan de aannames voldaan kan worden. Niet-parametrische testen hebben bijna geen assumpties en het principe is meestal het sorteren van de gegevens. Het sorteren is een volgorde geven aan de getallen (ranken). De nieuwe getallen die toegekend zijn aan de scores (de rangscores) worden dan gebruikt voor de analyse. Hierdoor heb je geen last meer van uitschieters en scheefheid.
In SPSS moet de onafhankelijke variabele gecodeerd worden. Eerst worden analyses uitgevoerd om te kijken of de gegevens normaal verdeeld zijn en er wordt gekeken naar de homogeniteit. Als de verdeling niet normaal is kan gekozen worden voor een niet-parametrische test.
Wanneer groepen met verschillende entities vergeleken worden ga je naar analyze --> non parametric tests --> independent samples. Wanneer groepen met dezelfde entities onder verschillende condities vergeleken worden ga je naar --> analyze --> non parametric tests --> related samples.
Er zijn twee opties om de verdeling in twee condities bestaande uit scores van verschillende entities met elkaar te kunnen vergelijken. Dit zijn de Wilcoxon rank-sum test en de Mann-Whitney test. Deze testen kunnen gebruikt worden wanneer er sprake is van een tussengroepsontwerp met twee onafhankelijke condities. Beide testen zijn de niet-parametrische versie de onafhankelijke t-toets. Er wordt een nummering aan de scores gegeven. De laagste score krijgt 1. De score daarna krijgt 2 enz. Bij deze rangorde behandel je het als één steekproef. De rangorde is ongeacht tot welke conditie een participant behoort. Dan worden van elke groep rangscores bij elkaar opgeteld. Als er geen verschil is tussen de condities, verwacht je evenveel hoge als lage rankings in beide condities.
De Wilcoxon rank-sum (Ws), de test statistiek van de Wilcoxon rank-sum methode, is simpelweg de kleinste opgetelde rangscore bij gelijke groepsgroottes en bij ongelijke groepsgrootte telt deze is het de opgetelde rangscore van de groep met de minste participanten.
De Cohen's d wordt berekend met de formule: d = X1 - X2 / s
SEws wordt berekend met de formule: SEws = √(n1 * n2 * (n1 + n2 + 1)) / 12
De Mann-Whitney test (met U als test statistiek) lijkt erg op voorgaande test en is met de volgende formule te berekenen. U = n1 * n2 + (n1 * (n1 + 1)) / 2 – R1
De Mann-Whitney test kan op twee manieren gedaan worden. De eerste manier geeft een schatting van de p-waarde die prima is voor grote steekproeven. Bij kleine steekproeven (n < 50) is het echter niet nauwkeurig genoeg. Wanneer er sprake is van een kleine steekproef moet gebruik gemaakt worden van de exacte methode. Bij opties kunnen de descriptives nog aangevinkt worden.
Er bestaan ook alternatieve testen voor de Mann-Whitney test. Deze testen zijn te vinden onder het tabblad settings. De alternatieve testen zijn: 1) Kolmogorov-Smirnov Z. Deze test kijkt of groepen uit dezelfde populatie komen. 2) Moses Extreme Reactions. Deze test vergelijkt de variabiliteit van de scores in de twee groepen. 3) Wald-Wolfowitz runs. Deze test is een variant op de Mann-Whitney test. De scores zijn op dezelfde manier gerankschikt. Het vergelijkt echter naar de 'runs' op de scores in plaats van het analsyeren van de ranks.
De Wilcoxon signed rank test vergelijkt twee condities wanneer de scores gerelateerd zijn. Hiervan is sprake wanneer de scores bijvoorbeeld van dezelfde deelnemers komen. De resultaten mogen niet afwijken van de aannames eerder besproken. De effectgrootte kan op dezelfde manier berekend worden als bij de Mann-Whitney test. Daarnaast is het noteren van de resultaten ook hetzelfde. Ook hier wordt de t-statistiek, de z waarde, de exacte significantie, de effectgrootte, de mediaan en de bijbehorende ranges gerapporteerd.
Friedman’s ANOVA (Fr) kan gebruikt worden wanneer dezelfde proefpersonen in meer dan twee verschillende condities gebruikt zijn. Deze test wordt gebruikt wanneer niet aan de assumpties voor eenweg herhaalde metingen ANOVA voldaan kan worden. Friedman’s ANOVA is net als de andere testen gebaseerd op het ranken.
Het rapporteren van de gegevens wordt op dezelfde manier gedaan als bij de voorgaande testen. De chi-square statistiek (X2), het aantal vrijheidsgraden en de significantie moeten vermeld worden. Daarnaast worden de effectgrote van de follow-up tests en de medianen en de reikwijdte daarvan (of een boxplot) gerapporteerd.
Wat wordt bedoeld met de correlatie tussen variabelen? - BulletPoints 8
De relatie tussen twee variabelen kan aangegeven worden aan de hand van de correlatie. Twee variabelen kunnen op drie manieren gerelateerd zijn aan elkaar: (1) positief, (2) niet gerelateerd en (3) negatief. Een positief verband betekent dat een toename in de ene variabele samenhangt met een toename in de andere variabele. Een negatief verband betekent dat een toename in de ene variabele samenhangt met een afname in de andere variabele. Niet gerelateerd houdt in dat er geen samenhang is tussen de variabelen.
Aan het begin van de correlatieanalyse wordt eerst een scatterplot gemaakt om de relatie tussen de variabelen te bekijken. Zoals in hoofdstuk 2 al is aangegeven komt veel in de statistiek neer op één model. Dit model is het general linear model. De formule van dit model is de volgende: Uitkomsti = model + errori.
De inhoud van dit model hangt af van wat je wil onderzoeken, de data die verzameld is en het doel van het onderzoek. Bij een model dat de relatie tussen twee variabelen weergeeft voorspelt de ene variabele (de uitkomst variabele) de andere variabele (de predictor variabele). Daarom is het nodig dat er een 'predictor' variabele wordt opgenomen in het model. De predictor variabele wordt weergegegen met het symbool X. Het model ziet er dan als volgt uit: Uitkomsti = (b1 * Xi) + errori.
De parameter b staat voor de relatie tussen de twee variabelen. De data uit de steekproef wordt gebruikt om de b te schatten. Als er slechts één predictorvariabele bestaat, is b de Pearson correlatie coëfficiënt (r).
De makkelijkste manier om te kijken of er een relatie bestaat tussen twee variabelen is door te kijken naar de covariantie. Als twee variabelen met elkaar covariëren zijn ze geassocieerd aan elkaar. De covariantie wordt berekend aan de hand van de variantie eerder besproken in dit boek. De variantie van een variabele geeft de gemiddelde hoeveelheid weer dat de gegevens variëren van het gemiddelde. De variantie wordt berekend met behulp van de volgende formule:
Variantie (s2) = (Σ (xi - x)2) / (N - 1) = Σ (xi - x) (xi - x) / (N - 1)
De x is het gemiddelde van de sample. Xi is waar het hier om draait en N is het aantal observaties. Wanneer er een relatie bestaat tussen twee variabelen zijn veranderingen in de ene variabele merkbaar in de andere variabele. Dat betekent dat als de ene variabele afwijkt van het gemiddelde, de andere variabele ook afwijkt van het gemiddelde.
Om de gelijkheid van de patronen te berekenen, kunnen we de totale deviaties berekenen. Dit geeft echter het inmiddels bekende probleem waarbij positieve en negatieve deviaties elkaar uitwissen. Als je slechts een onafhankelijke variabele hebt, kun je de deviaties kwadrateren en daarmee de SS berekenen. Bij meerdere predictors kun je de deviaties van de ene variabele vermenigvuldigen met de deviaties van de andere variabele. Dan krijgen we de kruisproduct deviaties. Als dit dan nog door het aantal observaties -1 wordt gedeeld krijgen we de covariantie. De covariantie is dus de gemiddelde som van de gecombineerde afwijkingen (deviaties). De covariantie wordt berekend aan de hand van de volgende formule: Covariantie (x,y) = (Σ (xi - x) * (yi - y)) / (N - 1)
Er is echter een nadeel aan het gebruik van de covarantie. De covariantie is afhankelijk van de schaal waarop de variabelen gemeten zijn, het is niet gestandaardiseerd. Hierdoor kunnen we niet zeggen of het getal groot of klein is in vergelijking met andere metingen.
SPSS kan geen betrouwbaarheidsintervallen voor r uitrekenen. Het kan wel de bootstrap betrouwbaarheidsintervallen uitrekenen. Dit betrouwbaarheidsinterval is ook accuraat als de steekproefverdeling niet normaal verdeeld is. Als je een gewoon betrouwbaarheidsinterval wil, kan dit handmatig uitgerekend worden. Je krijgt dan een betrouwbaarheidsinterval in z-scores. Deze z-scores kunnen vervolgens weer omgezet worden in correlaties.
De pearson correlatie coëfficiënt wordt bepaald door een algemene procedure te volgen in SPSS. Gebruik de test pearson en klik op OK. De matrix van resultaten wordt getoond in viewer. Er kunnen niet direct conclusies getrokken worden over de causaliteit van een correlatie coëfficiënt. De interpretatie is belangrijk en men moet voorzichtig zijn met causaliteit aangezien een correlatie niet per se causaliteit betekent.
Een non-parametrische versie van de Pearson correlatie is de Spearman correlatie coëfficiënt met het bijbehorende symbool rs. Zoals de eerder besproken non-parameterische toetsen is deze statistiek gebaseerd op rangscores, en is daarom bestand tegen schendingen van de assumpties. Bij deze toets ken je eerst rangscores toe aan de gegevens en pas je daarna de Pearson vergelijking toe. In SPSS ga je naar hetzelfde scherm als bij de Pearson correlatie. Alleen zet je nu het vinkje bij Pearson uit, en vink je Spearman aan. Om een robuust betrouwbaarheidsinterval te genereren, gebruik je ook hier de optie bootstrap.
Kendall’s tau t is handig om te gebruiken wanneer een onderzoeker een kleine steekproef heeft met veel gelijke scores, dus tied ranks. Ook dit is een non-parametrische statistiek en is dus bestand tegen schendingen van assumpties.
Biseriële en punt biseriële correlaties zijn correlaties die gebruikt worden als één van de twee variabelen dichotoom is. Een variabele kan op twee manieren dichotoom zijn. Het kan discreet zijn, waarbij er maar twee categorieën mogelijk zijn en er geen andere opties tussen liggen. De andere dichotome manier is continu waarbij er twee categorieën in de test zijn maar in werkelijkheid nog meer tussen opties zijn.
De punt-biseriële correlatie coëfficiënt (rpb) wordt gebruikt als de variabele discreet dichotoom is, de biseriële correlatie coëfficiënt (rb) wordt gebruikt als de variabele continu dichotoom is.
De partiële correlatie is de relatie tussen twee variabelen waarin de effecten van een andere (derde) variabele constant worden gehouden. Dit wordt gedaan op het moment dat een onderzoeker drie variabelen heeft die allemaal met elkaar samenhangen.
Het verschil tussen de semi-partiële correlatie (of part correlatie) en de partiële correlatie is dat de semi-partiële correlatie controleert voor het effect dat een derde variabele heeft op één van de variabelen in de correlatie (en niet op beide variabelen, zoals bij de partiële correlatie). Partiële correlaties zijn vooral handig als je de unieke bijdrage van de variabelen wilt weten, dus kijken wat de relatie tussen X en Y is zonder Z. Semi-partiële correlatie is handig als je de variantie van een bepaalde variabele wilt verklaren.
Wat wordt bedoeld met een regressie? - BulletPoints 9
Om de relatie tussen twee variabelen te bekijken kan gebruik gemaakt worden van de volgende vergelijking: outcomei = (b1 * Xi) + errori.
Als er wordt gewerkt met ruwe data is het belangrijk extra informatie toe te voegen over de uitkomst variabele (= de afhankelijke variabele). Een constante variabele b0 kan worden toegevoegd. Dit wordt de intercept genoemd. Deze variabele geeft de waarde van de uitkomst wanneer de voorspellende variabele niet aanwezig is. In andere woorden: de voorspellende variabele heeft een waarde van 0. Dit resulteert in het volgende model: Outcomei = (b0 + b1 * Xi) + errori --> Yi = (b0 + b1 * Xi) + ei.
Het is ook mogelijk een lineair model te hebben met verschillende/ meerdere voorspellende variabelen. In dit geval zijn er meerdere onafhankelijke die de uitkomst voorspellen. Wanneer er meerdere onafhankelijke variabelen zijn, is er sprake van een multipele regressie. Deze onafhankelijke variabelen hebben in deze situatie elk een eigen regressiecoëfficiënt. Het model zit er als volgt uit wanneer er twee voorspellende variabelen zijn: Yi = (b0 + b1 * Xi + b2 * X2i) + ei.
Het model geeft een voorspelde waarde die iets afwijkt van de werkelijke data. Het verschil tussen de door het model voorspelde waardes en de werkelijke waardes wordt de error of de residuen (residuals) genoemd. Er bestaat een formule voor de totale error. Deze is de volgende: Totale error = Σ (geobserveerdi – modeli)2
De goodness of fit is de mate waarin het model past in de verzamelde data. De beste lijn kan immers nog steeds een hele slechte fit hebben met de data.
De residuensom (SSR) is het verschil tussen het regressiemodel en de data, dus de error wanneer het best mogelijke model op de data wordt toegepast. Het verschil tussen de SST en de SSR is de verbetering in voorspelling die het model biedt boven het gemiddelde. Deze verbetering is de sum of squares van het model, de SSM.
Een tweede manier om de kwadratensom te gebruiken is voor het berekenen van de F-toets. De F-toets is gebaseerd op de ratio van de verbetering door het model (SSM) en het verschil tussen het model en de geobserveerde gegevens (SSR). Omdat de sum of sqaures afhangen van de steekproefgrootte, wordt de gemiddelde kwadratensom (mean square, MS) gebruikt.
Als een variabele significant een uitkomst wil voorspellen, dan moet het dus een b-waarde hebben die significant verschilt van 0. Dit kan getoetst worden met de t-toets. Hierbij toets je de nulhypothese dat de waarde van b gelijk is aan 0. De t-toets is net als de F-toets een ratio van de verklaarde variantie tegen de onverklaarde variantie van meetfouten. Om error van de b te schatten, wordt de standard error gebruikt. De formule wordt als volgt beschreven: t = (bgeobserveerd - bverwacht) / SEb
Het verwijderde residu (= the deleted residual) is het verschil tussen de aangepaste voorspelde waarde en de geobserveerde waarde. Als dit residu gedeeld wordt door de standaard deviatie krijg je de studentized verwijderde residu.
Een gerelateerde statistiek is de DFFit, het verschil tussen de voorspelde waarde voor een score wanneer het model is berekend met die score erbij en wanneer het model is berekend zonder die score. Wanneer een score geen invloed heeft, is de DFFit 0. Ook hier is een gestandaardiseerde DFFit mogelijk.
Als laatste is er ook nog de covariantie ratio (CVR). Dit meet of een score invloed heeft op de variantie van de regressieparameters. Een score heeft weinig invloed wanneer de waarde van de CVR dicht bij 1 ligt. Als CVRi > 1 + [3 * (k – 1) / n] – het verwijderen van de i-de case tast de precisie van sommige parameters in het model aan. Als CVRi < 1 + [3 * (k – 1) / n] – het verwijderen van de i-de case zorgt voor een verbetering van de precisie van sommige parameters in het model. In beide ongelijkheden staat k voor het aantal voorspellers, staat n voor de omvang van de steekproef en is CVRi de covariantie ratio voor de i-de deelnemer.
Daarnaast zijn er nog een paar assumpties die nog niet besproken zijn. Deze assumpties zijn: 1) Voorspellers moeten ongecorreleerd zijn met externe variabelen: Externe variabelen zijn variabelen die wel invloed hebben op de uitkomstvariabele, maar niet in de regressieanalyse opgenomen zijn. Dit lijkt op het ‘derde variabele probleem’ bij de correlatie. Als er wel een correlatie is worden de conclusies minder betrouwbaar. 2) De type variabelen: Alle voorspellervariabelen moeten kwantitatief (op intervalniveau) of categorisch (met twee categorieën) zijn. De uitkomstvariabele moet kwantitatief, continu en onbegrensd zijn. 3) Geen perfecte multicollineariteit: Er mag geen perfect lineaire relatie tussen twee of meer predictors zijn. De predictors mogen dus niet sterk correleren. 4) Geen variantie van 0: De predictorvariabelen moeten variantie hebben.
Cross-validatie is de nauwkeurigheid van een model bepalen bij verschillende steekproeven. Wanneer een model gegeneraliseerd kan worden, zou het ook op andere steekproeven dezelfde uitslagen moeten geven. Nadat het regressiemodel bepaald is door een onderzoeker heeft hij of zij twee methoden voor het uitvoeren van de cross-validatie.
De ANOVA tabel zegt of het model in het algemeen een goede voorspelling geeft van de uitkomstvariabele, maar vertelt niets over de individuele bijdrage van de variabelen in het model. Bij simpele regressie heb je maar één variabele, dus als het een goed model is, was het ook een goede predictorvariabele.
Een multiple regressie is hetzelfde als de simpele regressie alleen worden hier meerdere voorspellers gebruikt. Wanneer er meerdere voorspellers aan de vergelijking toegevoegd worden kan hierdoor de proportie verklaarde variantie groter worden. Dit hoeft echter niet altijd het geval te zijn. De predictors die meegenomen worden en de manier waarop deze predictors meegenomen worden in de regressie hebben veel invloed. Het is belangrijk om goed te onthouden dat je dus nooit oneindig veel predictors random in een regressieanalyse moet gooien en hopen dat er iets goeds uit komt. De keuze voor de voorspeller en de methode moet een theoretische basis hebben.
De Bayesian benadering kan in SPSS uitgevoerd worden door te klikken op analyze --> Bayesian statistics --> linear regression. Een van de voordelen van de Bayesian regressie is dat een onderzoeker meer evidence-based priors instellen die upgedate worden met de gegevens die verzameld worden.
De summary tabel kan gebruikt worden om te rapporteren. Deze omvat het meeste. Het minimale wat gerapporteerd moet worden zijn de beta's met de bijbehorende standaardafwijkingen en de betrouwbaarheidsintervallen. Het is ook belangrijke sommige statistieken te rapporteren die iets zeggen over de 'fit' van het model. Neem bijvoorbeeld de R2 of de Bayes factor. Voor een hierarchische regressie is het belangrijk dat de waardes per fase gerapporteerd moeten worden.
Op welke manier kunnen twee gemiddelden met elkaar vergeleken worden? - BulletPoints 10
De simpelste vorm van een experiment is een experiment waarbij er slechts één onafhankelijke variabele is die op twee manieren gemanipuleerd wordt en waarbij er ook maar één uitkomst gemeten wordt. Vaak bestaat de onafhankelijke variabele uit een experimentele conditie en een controle conditie. Je hebt hierbij twee groepen. Dit hoofdstuk gaat over onderzoek waarbij twee groepen met twee gemiddelden worden vergeleken.
Er zijn twee manieren waarop een onderzoeker zo’n onderzoek kunt uitvoeren. Een onderzoeker kan twee groepen participanten hebben die hij of zij blootstelt aan verschillende manipulaties of een onderzoeker heeft dezelfde groep participanten die de verschillende manipulaties op verschillende tijdstippen krijgen. Dit is respectievelijk een onafhankelijk of tussen groep design (independent or between group design) en een herhaalde metingen of within groep design (repeated measures or within subject design).
Als een onderzoeker de verschillen tussen twee groepsgemiddelden wil vergelijken is dat hetzelfde als een uitkomst voorspellen op basis van het lidmaatschap van die twee groepen. In andere woorden: dit is een regressie met één dichotome predictor. Een onderzoeker kan ook gebruik maken van een lineair model om gemiddelden met elkaar te kunnen vergelijken. Een onderzoeker kan dus ook het standaard model hierbij gebruiken: Uitkomsti = (b0 + b1 * X) + errori.
Bij twee groepen heeft een onderzoeker een nominale variabele. Deze moet een onderzoeker omzetten in de cijfers 0 en 1. Het cijfer 0 staat in dit geval voor de ‘baseline’. In andere woorden: dit is de controle conditie. De controle conditie krijgt dus het cijfer 0 en de experimentele groep krijgt het cijfer 1. De beste gok voor de uitkomst van iemand in een bepaalde conditie is het gemiddelde in die groep. In de controleconditie wordt de formule dan (als je de errorterm weglaat): Xcontrole = b0 + (b1 * 0) --> Xcontrole = b0
De t-toets is een methode waarmee een onderzoeker twee groepsgemiddelden kunt vergelijken. Hoewel dit zo is wordt de t-toets toch meestal apart gezien van lineaire modellen. De t-toets kan gebruikt worden om te kijken of twee groepsgemiddelden van elkaar zijn afwijken. Er zijn twee verschillende t-toetsen:
De onafhankelijke t-toets (independent samples t-test). De onafhankelijke t-toets wordt gebruikt bij twee verschillende experimentele condities waarbij verschillende proefpersonen bij een conditie worden geplaatst.
De afhankelijke t-toets (paired samples t-test). De afhankelijke t-toets wordt gebruikt bij twee experimentele condities waarbij dezelfde proefpersonen deelnemen in beide condities.
Er kan gekeken worden naar het verschil tussen steekproefgemiddelden. Dit verschil is meestal nul of dicht bij de nul omdat de steekproeven vaak hetzelfde gemiddelde hebben als ze uit dezelfde populatie komen. De standaard meetfout van verschillen is de standaardafwijking van de steekproefverdeling. Gelijke gemiddelden betekent een kleine standaard meetfout. Dus, als de H0 waar is, is µD nul.
De standaardafwijking van deze steekproefvergeling is de standaard meetfout van de verschillen. Een grote standaardafwijking betekent dat steekproeven erg kunnen afwijken van het populatiegemiddelde, dus dat er veel verschillen tussen paren kunnen zijn op basis van toeval. Er is dan een groter verschil nodig om een significant resultaat te krijgen.
Om de standaarddeviatie van de steekproefverdeling (= standard error) van de verschillen tussen de steekproefgemiddelden te krijgen, gebruiken we de wet van de variantiesom. Deze wet zegt dat de variantie van het verschil tussen twee onafhankelijke variabelen gelijk is aan de som van de varianties. Je kan de standaard deviaties van de steekproeven gebruiken om de standaard meetfout te berekenen.
De onafhankelijke t-toets en de afhankelijke t-toets zijn beide parametrische toetsen gebaseerd op de normaalverdeling. In hoofdstuk 6 is te lezen over de bias die ontstaat als deze assumptie geschonden wordt. Bij afhankelijke t-toetsen is het belangrijk om te weten dat de verschillen tussen scores normaal verdeeld moeten zijn, niet de scores zelf.
De eerste stap is het onderzoeken van de data om twee onafhankelijke gemiddelden te vergelijken. Het is belangrijk te controleren of er sprake is van uitschieters en of voldaan wordt aan de assumpties van normaliteit, homogeniteit enzovoorts. Dit kan gedaan worden aan de hand van boxplots, histogrammen of door beschrijvende statistieken in SPSS. Vervolgens kan een onderzoeker een t test uitvoeren. Wanneer er problemen zijn met de data kan een bootstrap uitgevoerd worden. Tot slot kan een onderzoeker de effectgrootte of de Bayes factor berekenen.
Bij herhaalde metingen (met dezelfde proefpersonen) is de niet-systematische variantie een stuk kleiner dan bij een tussengroepdesign. Dit betekent dat een onderzoeker sneller een significant effect vindt bij een herhaalde metingen design dan wanneer hij of zij verschillende proefpersonen gebruikt.
Wat wordt bedoeld met moderatie, mediatie en meerdere categorische voorspellers? - BulletPoints 11
Voordat een onderzoeker moderatie en mediatie analyses gaat uitvoeren in SPSS, kan een onderzoeker het best een extra dialog box installeren namelijk een PROCESS.
Een gecombineerd effect van twee of meer voorspellende variabelen wordt een moderatie genoemd. In statistische termen wordt dit een interactie-effect genoemd. Een moderator beïnvloedt de relatie tussen de voorspellende variabele en de uitkomst variabele.
Het verschil tussen wel of geen effect is de meest simpele vorm van moderatie. Je kunt ook andere vormen van verandering hebben door een moderator. Denk hierbij bijvoorbeeld aan een versterking van het effect of een verandering van richting.
Als de moderatorvariabele continu is, kan een onderzoeker kijken op welke manier de relatie tussen de voorspellende variabele en uitkomst variabele verandert als een functie van de moderator. In het voorbeeld wordt de helling van het regressievlak vergeleken waarbij gekeken worden naar een hoge of een lage mate van hardvochtigheid. Als er geen sprake is van een moderatie effect, vertoont het regressievlak een gelijke helling bij hoge en lage mate van hardvochtigheid. Als er wel sprake is van een moderatie effect, is de helling verschillend bij een verschillende mate van hardvochtigheid.
De formule voor de uitkomst variabele is gebaseerd op het standaard lineaire model. De formule voor dit model is de volgende: Uitkomsti = (b0 + b1 * predictor + b2 * moderator + b3 * interactie) + errori
Centreren houdt in dat een onderzoeker een variabele transformeert naar deviaties rond een bepaald punt. Het punt dat doorgaans gekozen wordt is het overkoepelende gemiddelde over de condities heen. Het gecentreerde punt wordt door een onderzoeker bepaalt door de score af te trekken van het overkoepelende gemiddelde. Het centreren heeft geen invloed op de b-waarde voor de ‘highest-order’ predictor. Het heeft echter wel invloed op de ‘lower-order’ predictors.
De higher order predictor is het effect met de meeste variabelen, dus in dit geval de interactieterm (gamen x hardvochtigheid). In dit geval verandert b3 niet, maar veranderen b1 en b2 wel. In deze situatie staat de b-waarde voor het effect van de betreffende predictor wanneer de andere predictor de gemiddelde waarde heeft. De PROCESS tool centreert de variabelen automatisch dus dit hoeft een onderzoeker niet zelf te doen.
Moderatie is een significante interactie tussen de twee variabelen. Wanneer de interactie significant is, is het moderatie effect ook significant. Wanneer een moderatie gevonden wordt, weet een onderzoeker hiermee nog niet precies wat het effect van de moderator is. Daarom kan een onderzoeker een follow up analyse uitvoeren aan de hand van een eenvoudige richtingscoëfficiënten analyse (simple slopes analysis). Deze analyse berekent regressievergelijkingen van de predictor variabele op de uitkomst variabele bij hoge, gemiddelde en lage scores van de moderator. Een onderzoeker vergelijkt deze b-waardes op significantie en richting.
Er is sprake van mediatie wanneer de relatie tussen een predictor variabele en de uitkomst verklaard wordt door de relatie met een derde variabele, namelijk de mediator. De predictor voorspelt dan de mediator en de mediator voorspelt de uitkomst. De uitkomst wordt ook wel weergegeven met de letter c.
Bij mediatie is er sprake van een direct effect. Dit houdt in dat er een relatie bestaat tussen de predictor en de uitkomst terwijl er wordt controleert voor de mediator. Er is sprake van een indirect effect wanneer het effect van de predictor op de uitkomst plaatsvindt via de mediator.
De makkelijkste manier om de effectgrootte bij mediatie te berekenen is door te kijken naar het gecombineerde effect van a en b, de regressiecoëfficiënten van de relatie tussen predictor en mediator / mediator en uitkomst. Dit doet een onderzoeker door a en b met elkaar te vermenigvuldigen. Hiermee wordt een niet gestandaardiseerde regressie coëfficiënt berekend. Om het indirecte effect gedeeltelijk te standaardiseren, wordt het gecombineerde effect a * b gedeeld door de standaardafwijking van de uitkomst.
Dummy variabelen zijn meerdere variabelen die met alleen nullen en enen gecodeerd zijn.
De output begint met een samenvatting van het model en een ANOVA tabel. De tabel met Coefficients is het belangrijkst met dummyvariabelen. Hierin kun je per dummyvariabele vinden wat de coëfficiënten zijn en of er een significant verschil is tussen een bepaalde groep en de basisgroep.
Conclusie: categorische variabelen worden in het model geplaatst door het coderen van dummies.
Op welke manier worden verschillende onafhankelijke gemiddeldes met elkaar vergeleken? - BulletPoints 12
Een ANOVA laat zien of drie of meer gemiddelden gelijk zijn aan elkaar. Dit wordt gedaan aan de hand van de F-statistiek. Deze statistiek vergelijkt de systematische variantie met de niet systematische variantie. Dit wordt ook wel de variance ratio methode genoemd. De F-ratio wordt ook bij regressie gebruikt. Bij regressie laat het zien hoe goed het model de uitkomst vergeleken met de meetfout kan voorspellen. Bij ANOVA wordt het verschil tussen gemiddelden getest door een regressiemodel erop te passen. De F statistiek wordt gebruikt om te kijken hoe goed de gegevens in het model passen.
ANOVA kan als een multiple regressievergelijking gezien worden waarbij het aantal voorspellers 1 minder is dan het aantal categorieën van de onafhankelijke variabele. De categorieën krijgen dan een dummycodering.
Als de predictor bestaat uit groepen, is de beste gok voor de voorspelde waarde het gemiddelde van die groep. De placebogroep heeft dus als voorspelde waarde het gemiddelde van de placebogroep. Deze basisgroep is gecodeerd met 0 op alle dummy variabelen.
De F ratio test de verschillen tussen groepsgemiddelden. De F ratio test daarnaast de algemene fit van een lineair model met een set geobserveerde data. De F statistiek is echter een algemene test die niet de verschillen tussen specifieke gemiddelden identificeerd. De parameters in het model zoals de b doen dit echter wel. Wanneer alle gemiddeldes aan elkaar gelijk zijn, hebben de b coëfficiënten allemaal een waarde van nul. In feite geeft de F statistiek aan of de groepsgemiddeldes significant van elkaar verschillen.
De totale hoeveelheid variantie in de data kan berekend worden door het verschil te nemen van elk waargenomen data punt en de grand mean. De verschillen worden gekwadrateerd en dat biedt de total sum of squares (SSt). De formule hiervoor is de volgende: SSt = Σ (xi - x̅)2
SSM (model sum of squares) wordt berekend door eerst het verschil tussen het gemiddelde van elke groep (x̅k) en het grote gemiddelde te berekenen. Daarna worden alle gemiddelden gekwadrateerd. Vervolgens wordt elk resultaat vermenigvuldigd met het aantal deelnemers in de groep (nk). Ten slotte worden de waardes van elke groep opgeteld. De vrijheidsgraden zijn hier altijd 1 minder dan het aantal groepen (df = k - 1). De formule voor SSM is de volgende: SSM = Σ ng * (x̅g - x̅ grand)2
De kwadratensom van de residuen (SSR) geeft aan hoeveel variantie er niet verklaard kan worden door het model. Het is het verschil tussen de werkelijke data en wat er voorspeld was. Het laat het verschil zien tussen de score van een deelnemer en het gemiddelde van de groep waar de deelnemer in zit. De SSR is de SS van elke groep bij elkaar opgeteld. Omdat de SS en de variantie nauw met elkaar samenhangen, kan het met de volgende formules berekend worden: SSR = Σ k en g = 1 * Σ n en i = 1 (xig - x̅g)2
Daarnaast kan ook de gemiddelde kwadratensom berekend worden. Omdat de SS afhankelijk is van het aantal scores waarmee het berekend wordt, wordt de gemiddelde kwadratensom berekend. Dit wordt de Mean Square (MS) genoemd. De formule hiervoor is de volgende: MSm = SSm / dfM en MSr = SSr / dfR
Vanuit deze twee statistieken kan de F-ratio berekend worden: F = MSm / MSr
Om erachter te komen tussen welke gemiddelden het verschil zit moet een onderzoeker een follow-up test uitvoeren bij een significante ANOVA. Er zijn hiervoor twee methodes die niet zorgen voor een inflatie van de kans op een type I fout: 1) contrast coding en 2) elke groep met een t-toets vergelijken en dan een strenger significantiecriterium hanteren om de kans op een type I fout gelijk te houden. Dit worden post hoc vergelijkingen genoemd en dit is handig wanneer een onderzoeker geen specifieke hypothesen heeft.
Wanneer een onderzoeker een contrast maakt worden er waardes toegekend aan de variabelen in het regressiemodel. Gewichten zijn de waarden die gegeven worden aan de dummy variabelen.
Niet-orthogonale vergelijkingen komen voor wanneer je een groep hebt die al een keer gebruikt is, opnieuw gebruikt wordt in een ander contrast. Wanneer dit het geval is zijn de contrasten dus gecorreleerd en daarmee zijn ook de p-waardes gecorreleerd. Om een inflatie van de familywise error rate te voorkomen moet je conservatiever zijn in het significantieniveau.
Een polynomiaal contrast kijkt naar de trend van de gegevens: de manier waarop de lijn in de grafiek loopt. De simpelste is de lineaire trend. Dit is een rechte lijn. Bij de kwadratische trend loopt er een bocht in de lijn waardoor de lijn eerst in de ene richting loopt en vervolgens de andere richting op gaat. Je hebt minimaal drie groepen nodig om een kwadratische trend te zien.
Een stap verder is de cubic trend. In deze lijn zijn twee bochten de zien. Er zijn minimaal vier groepen nodig om deze trend te zien. De quartic trend heeft nog een bocht extra, en heeft dus ook minimaal vijf groepen nodig. De trends zijn van belang als er een volgorde in de categorieën van de onafhankelijke variabele zitten. Elke trend heeft een aantal codes voor de dummyvariabelen in het regressiemodel.
Het is mogelijk een robustness test uit te voeren voor diverse gemiddeldes door gebruik te maken van R. De essentials voor R moet in het model ingevoerd worden en WRS2 package moet geïnstalleerd worden. Deze test neemt aan dat er geen normaliteit of homogeniteit van de variantie is. Deze aannames kunnen genegeerd worden.
De statistics in SPSS kunnen niet de effectgrootte berekenen. We kunnen voor de ANOVA echter wel de R2 berekenen. R2 kan berekend worden door het between-group effect (SSm), de totale variantie in de data (SSt). Dit wordt bij een ANOVA het eta squared genoemd. R2 = η2 = SSm / SSt
Om de effectgrootte voor de populatie in de schatten gebruiken we omega squared. ω2 = (SSm - dfM * MSr) / (SSt + MSr)
Wat wordt bedoeld met een ACOVA? - BulletPoints 13
De regressievergelijking van een ANOVA kan worden uitgebreid met continue variabelen die de uitkomstvariabele ook voorspellen. Deze variabelen die geen deel zijn van de experimentele manipulatie worden covariaten genoemd. Zodra de covariaten in de ANOVA analyse betrokken worden, wordt het een ANCOVA. Door covariaten mee te nemen de invloed die ze op de afhankelijke variabele hebben gecorrigeerd worden.
De covariaten worden als eerst ingevoerd zodat gekeken kan worden watvoor effect de onafhankelijke variabele heeft nadat het effect van de covariaat bekend is.
Er zijn twee redenen om covariaten in de ANOVA mee te nemen: 1) Het verminderen errorvariantie binnen de groepen. Door covariaten kunnen we de onverklaarde variantie verminderen en daardoor nauwkeuriger bepalen wat het effect van de onafhankelijke variabele is. 2) Het elimineren van vertekeningen. Bij elk experiment kunnen er variabelen zijn die de resultaten vertekenen doordat ze ook de uitkomstvariabele beïnvloeden. Door deze variabele als covariaat mee te nemen, kan deze vertekening worden weggehaald.
Dit model test het verschil tussen groepsgemiddelden nadat er gecorrigeerd is voor de covariaat. ANCOVA kan ook gedaan worden als hiërarchische multiple regressie. De output bij deze regressie laat eerst de goodness of fit zien en vervolgens hoe de ANOVA eruit ziet zonder en met covariaat. De ANOVA tabel is in twee delen gesplitst. Het bovenste deel is het effect van alleen het covariaat en het onderste deel laat het hele model zien. ANCOVA hoeft niet op deze manier gedaan te worden en beide analyses uitvoeren is ook niet nodig. Maar als je graag de contrasten wilt weten is het regressiemenu handiger. Contrasten kunnen dan gevonden worden door een ANOVA in de regressie te doen en de variabelen als dummy’s te coderen.
ANCOVA heeft dezelfde assumpties als ANOVA met nog twee aandachtspunten. Ten eerste moet de covariaat onafhankelijk zijn van het experimentele effect. De ideale situatie is wanneer het covariaat volledig in het gedeelte van de onverklaarde variantie zit. Dit is niet altijd het geval en soms zit het tussen de verklaarde en onverklaarde variantie in. Daardoor wordt het experimentele effect kleiner omdat een deel van het effect verklaard wordt door de covariaat. In dit geval moet geen ANCOVA gebruikt worden.
Het tweede aandachtspunt bij de ANCOVA is de homogeniteit van de regressiehellingen. Bij een ANCOVA kijk je naar de hele relatie tussen de afhankelijke variabele en de covariaat, waarbij je negeert uit welke groep iemand komt. Daarom moet deze relatie tussen de uitkomstvariabele en de covariaat hetzelfde zijn in alle groepen. Deze assumptie kan het best bekeken worden door een scatterplot te maken van elke groep met de covariaat op de ene as en de uitkomstvariabele op de andere as. Als de regressielijnen bij deze groepen allemaal ongeveer hetzelfde zijn (oftewel, dezelfde b-waardes), is voldaan aan deze assumptie.
Wanneer niet aan deze assumptie voldaan wordt, kan je met SPSS gebruik maken van bootstrap voor de model parameters en de post hoc tests, maar niet bij de belangrijkste analyse, de F-statistiek. Dit kan wel met het programma R.
Bij de assumptie van homogeniteit tussen hellingshoeken wordt aangenomen dat de relatie tussen de covariaat en de uitkomstvariabele voor elke experimentele groep hetzelfde is. In een scatterplot zou dat betekenen dat de regressielijnen parallel lopen. Om deze assumptie te testen wordt een ANCOVA uitgevoerd maar dan met een aangepast model om te kijken naar de interactie tussen de onafhankelijke variabele x de covariaat.
De effectgrootte kan berekend worden door: η2 = SSeffect / SStotaal. Gedeelde η2 = SSeffect / (SSeffect + SSresidual)
Wat wordt bedoeld met een factor design? - BulletPoints 14
Wanneer een experiment twee of meer onafhankelijke variabelen heeft wordt dit een factor design genoemd. De onafhankelijke variabelen worden factors genoemd. Er zijn drie soorten designs mogelijk: 1) Onafhankelijke factoren. Hierbij zijn er meerdere onafhankelijke variabelen en worden er verschillende deelnemers getest (tussengroep design). 2) Herhaalde metingen factoren: Hierbij zijn er meerdere onafhankelijke variabelen en worden dezelfde deelnemers getest (binnengroep design). 3) Gemixt design: Hierbij zijn er meerdere onafhankelijke variabelen waarbij sommige variabelen met dezelfde deelnemers zijn gemeten en andere variabelen met verschillende deelnemers.
Voor een factor ANOVA ziet het er als volgt uit:
Uitkomst = (b0 + b1 * onafhankelijke variabele1 + b2 * onafhankelijke variabele2 + b3 * interactie) + error
In een tweeweg ANOVA zijn er dus twee factoren die allebei met dummy variabelen gecodeerd kunnen worden met nullen en enen. De code van de interactieterm is onafhankelijke variabele 1 x onafhankelijke variabele 2.
Een tweeweg ANOVA is in veel opzichten hetzelfde als een gewone ANOVA. De totale kwadratensom wordt opgedeeld in de modelsom en de residuensom --> SST bestaat uit SSm en SSr. Bij een tweeweg ANOVA wordt de modelsom gesplitst omdat de effecten van twee onafhankelijke variabelen komen. Dit zijn de variabelen SSa, SSb een SSa * b. De totale kwadratensom wordt als volgt berekend: SST = s2 groot * (N - 1).
Voor de modelsom berekenen we eerst de totale modelsom: SSM = Σ ng * (x̅g - x̅grand)2. Hier is het grote gemiddelde het gemiddelde van alle scores samen. N is het aantal scores in elke groep. Het aantal vrijheidsgraden is het aantal groepen – 1 (df = k - 1).
SSA = SSA = Σ ng * (x̅g - x̅grand)2
De derde stap is het berekenen van de interactie. De interactie is makkelijk te berekenen aangezien de totale modelsom bestaat uit SSa, SSb een SSa * b. De berekening is als volgt: SSA * B = SSM – SSA - SSB. Het aantalvrijheidsgraden gaat op dezelfde manier: DfA * B = dfM – dfA - dfB
SSR = Σ sg2 * (ng - 1). De vrijheidsgraden is voor elke groep 1 minder dan het aantal scores in de groep. Daarna worden de vrijheidsgraden van alle groepen bij elkaar opgeteld.
Elk effect heeft zijn eigen F-ratio. Om de F-ratio te berekenen wordt eerst de mean squares (MS) van elk effect bepaald door de modelsom te delen door het aantal vrijheidsgraden wat erbij hoort. De F kan dan als volgt berekend worden: F a * b = MS a * b / MSr
Dezelfde assumpties gelden voor factor ANOVA als de andere lineaire modellen. Wanneer niet aan de assumptie van homogeniteit voldaan kan worden kan de Welch procedure toegepast worden. De post hoc tests kunnen robuust gemaakt worden met bootstrap maar de F-ratio zelf niet. Hiervoor is het programma R nodig.
Interacties om goed te interpreteren. De ANOVA tabel in de output laat alleen zien of de interactieterm significant is maar niet wat dat effect is. Dit effect zie je wel in een grafiek. Als de lijnen parallel aan elkaar lopen is er geen interactie-effect. Als de lijnen kruisen is er een interactie-effect aanwezig. Dit wil nog niet per se zeggen dat het interactie-effect ook significant is. Het hangt er vanaf hoe goed de lijnen gekruist zijn. Wanneer de lijnen niet kruisen maar duidelijk niet parallel lopen betekent het dat er wel een interactie-effect is.
Voor de interactie-effecten kunnen ook staafdiagrammen gemaakt worden. Als de staven in het diagram hetzelfde zijn op verschillende niveaus is er geen interactie-effect. Ook als de staven niet overal even hoog zijn maar hetzelfde patroon houden is er geen interactie. Een verschil in patroon betekent een interactie-effect.
SPSS geeft partial eta squared als effectgrootte, maar het is verstandiger om ω2 te gebruiken. Dit kunnen we berekenen door eerst de variantie van elk effect en de meetfout uit te rekenen. Dit kan met de volgende formules: σ2a*b = (a - 1) * (b -1) * (MSa*b - MSr) / n*a*b
Met deze gegevens kan de effectgrootte berekend worden: ω2effect = σ2effect / σ2totaal
Wat wordt bedoeld met een repeated-measure design? - BulletPoints 15
Bij herhaalde metingen worden er bij verschillende condities in een experiment dezelfde proefpersonen gebruikt of waarbij dezelfde proefpersonen op verschillende momenten data leveren. Een nadeel van een herhaalde metingen design is dat er niet voldaan kan worden aan de assumptie van onafhankelijkheid. Een proefpersoon ondergaat alle condities waardoor de condities gerelateerd aan elkaar zijn. De gewone F-ratio is niet accuraat in zulke situaties.
In plaats van onafhankelijkheid is er de assumptie van sfericiteit. Dit houdt in dat de relatie tussen paren van experimentele condities gelijk is, de afhankelijkheid tussen experimentele condities is ongeveer gelijk. Deze assumptie lijkt op de assumptie van homogeniteit in variantie bij tussengroep ANOVA. Sfericiteit is iets algemener dan samengestelde symmetrie. Dit houdt in dat de beide varianties tussen de condities gelijk zijn en dat de covarianties tussen de paren ook gelijk zijn. Sfericiteit is minder strikt dan samengestelde symmetrie. Het gaat hierbij om het verschil tussen de condities en die varianties moeten ongeveer gelijk zijn.
Dit kan handmatig berekend worden door het verschil tussen de paren bij alle combinaties van behandelingsniveaus te berekenen. De varianties worden berekend op basis van die verschillen. De formule voor sfericiteit ziet er als volgt uit: Variantie A - B = variantie A - C = variantie B - C
Mauchly´s test in SPSS toetst de hypothese dat de varianties van de verschillen tussen de condities gelijk zijn. Als deze test significant is, wordt dus niet aan de assumptie van sfericiteit voldaan. Als de assumptie van sfericiteit wordt geschonden, daalt de power en heeft de test statistiek geen F-distributie meer. Dit zou wel zou moeten. Voor post hoc tests kan schending van deze assumptie ook invloed hebben, dus mocht dit het geval zijn, kan het beste Bonferroni gebruikt worden.
Voor herhaalde metingen wordt de effectgrootte met de volgende formule berekend worden: w2 = ( (k - 1) / (n * k) * (MSm - MSr) ) / (MSr + (MSb - MSr / k) + (k - 1) / (n * k) * (MSm - MSr) )
MSb wordt berekend door: SSb = SSt – SSm - SSr. MSb = SSb / dfB
Voor de contrasten kan ook de effectgrootte berekend worden: r = √(F(1, dfr) / (F(1, dfr) + dfr).
Bij het rapporten van herhaalde metingen worden dezelfde gegevens vermeld als bij een onafhankelijke ANOVA. Bij herhaalde metingen moeten het aantal gecorrigeerde vrijheidsgraden ook vermeld worden als niet aan de assumptie van sfericiteit voldaan is. De multivariate testen kunnen ook vermeld worden.
Bij de vorm van ANOVA is het advies om alleen nog de effectgroottes voor de contrasten te berekenen, omdat het nuttiger is om een bepaald effect te beschrijven dan een algeheel effect. De r kan berekend worden op dezelfde manier namelijk met behulp van de F-ratio’s van de contrasten.
Het rapporteren van de resultaten is hetzelfde als bij de andere ANOVA’s. Je moet hierbij drie effecten rapporteren, die van de twee onafhankelijke variabelen en de interactieterm. Deze effecten kunnen verschillende vrijheidsgraden hebben.
Wat wordt bedoeld met gemixte ontwerpen? - BulletPoints 16
Bij een gemixt ontwerp zijn er zowel herhaalde metingen variabelen als variabelen met onafhankelijke groepen. Voor dit ontwerp zijn minstens twee onafhankelijke variabelen nodig. Vier of meer variabelen is echter geen goed idee omdat het interpreteren van de interactie-effecten veel gedoe is.
Omdat je bij dit design zowel onafhankelijk groepen als herhaalde metingen hebt, gelden de assumpties van deze beide designs. Als er niet voldaan wordt aan de voorwaarde van sfericiteit kunnen gewoon de correcties worden gebruikt. Bij schendingen van de andere assumpties is er een groter probleem. Er is voor een gemixt ontwerp geen niet-parametrische test uit te voeren. Er is geen bootstrap mogelijk.
Interacties kunnen erg complex zijn en je kan snel een contrast overslaan. Het is handig deze systematisch te verwerken en van te voren te bepalen welke contrasten je wilt bekijken. Kijk naar de gemiddelden of grafieken voor hulp bij het interpreteren van de interactie-effecten.
Voor gemixte ontwerpen is het lastig om één effectgrootte te berekenen. Het is simpeler om alleen de effectgroottes voor contrasten en voor hoofdeffecten die twee groepen vergelijken uit te rekenen. Dit kan op dezelfde manier als in het vorige hoofdstuk.
Bij een gemixt ontwerp bestaat er veel informatie die vermeld kan worden: hoofdeffecten, interacties en contrasten. Bij een significante interactie is het niet nuttig om hoofdeffecten te interpreteren.
Wat wordt bedoeld met een MANOVA? - BulletPoints 17
Multivariate variantieanalyse (MANOVA) kan gebruikt worden in een situatie waarin je meerdere afhankelijke variabelen hebt. Er kan naar interacties en contrasten gekeken worden met MANOVA. Omdat met ANOVA niet meer dan 1 afhankelijke variabele gebruikt kan worden wordt het een univariate toets genoemd. Het wordt een multivariate analysis wanneer meerdere uitkomst variabele in het model zetten.
Met meerdere afhankelijke variabelen zouden we ook meerdere ANOVA’s uit kunnen voeren. Een nadeel hiervan is dat hoe meer ANOVA’s je uitvoert, hoe groter de familywise meetfout wordt en dus hoe groter de kans op type I fouten is. Een ander nadeel van meerdere ANOVA’s is dat er niet gekeken wordt naar de relatie van de afhankelijke variabelen onderling.
Pas wel op met de afhankelijke variabelen in MANOVA. Niet elke variabele heeft een goede reden om in de analyse te zitten. Statistisch gezien kan dat soms wel een goede uitkomst kunnen geven, maar empirisch niet.
Een matrix is een verzameling van cijfers die geordend zijn in rijen en kolommen. Een 2X3 matrix heeft bijvoorbeeld twee rijen en drie kolommen. In SPSS is de data editor bijvoorbeeld een matrix waarbij de rijen de deelnemers zijn en de kolommen als variabelen gezien worden. De waardes in een matrix worden componenten of elementen genoemd. De rijen en kolommen heten vectoren.
Een square matrix heeft evenveel rijen als kolommen en ziet eruit als een vierkant. De getallen die op de diagonaal van de square matrix liggen zijn diagonale componenten en de getallen die niet op de diagonaal liggen zijn niet-diagonale componenten. Als de diagonale componenten allemaal 1 zijn en de niet-diagonale componenten allemaal 0 wordt de matrix een identiteitsmatrix genoemd.
De matrix dat de systematische variantie laat zien heet de hypothese kwadratensom en kruisproducten matrix (hypothese SSCP). Deze matrix wordt aangeduid met de letter H. De matrix dat de niet-systematische variantie laat zien wordt de meetfout kwadratensom en kruisproducten matrix (Meetfout SCCP) genoemd. Deze matrix wordt aangeduid met de letter E. Er is ook nog een matrix die de totale variantie voor elke afhankelijke variabele weergeeft. Deze matrix heet de totale kwadratensom en kruisproducten matrix (totaal SCCP) en wordt aangeduid met de letter T.
De univariate F voor een uitkomst kan berekend worden door eerst drie sum of squares te berekenen. Om de F statistiek te berekenen moeten eerst de volgende variabelen berekend worden: SSt, SSm SSr, MSm en MSr. De F ratio wordt vergeleken met kritieke waarden.
CPt = Σ k (xi - x̅g) * (xi- x̅g). De uitkomst variabele worden hier omgedraaid voor de tweede (xi - x̅g).
CPm = Σ n * (xi - x̅g) * (xi - x̅g)
Het residu kruisproduct (CPR) kijkt naar hoe de relatie van de twee afhankelijke variabelen beïnvloed is door individuele verschillen. CPr = Σ (xi - x̅g) * (xi - x̅g) => CPr = CPt - CPm
De residu SSCP matrix bevat de residu kwadratensom voor elke afhankelijke variabele en het residu kruisproduct tussen de twee afhankelijke variabelen. Deze matrix ziet er hetzelfde uit als de totale SSCP matrix alleen gaat het hier om de meetfouten.
De model SSCP matrix bevat de model kwadratensom voor elke afhankelijke variabele en het model kruisproduct tussen de twee afhankelijke variabelen. Matrices kunnen bij elkaar opgeteld worden. Je kan dus twee matrices samenvoegen door de componenten bij elkaar op te tellen. T = H + E
Het probleem bij MANOVA is dat matrices niet deelbaar zijn door andere matrices. Op een omgekeerde manier kan het wel gedeeld worden. Als H door E gedeeld wordt, moet H vermenigvuldigd worden met het omgekeerde van E namelijk (E - 1). Er ontstaat een nieuwe matrix dat HE-1 wordt genoemd.
De eerste discriminante functie (V1) is de combinatie van twee afhankelijke variabelen met het grootste verschil tussen de groepen. Bij de eerste discriminante functie proberen we het hoogst mogelijke getal te berekenen. Met een vergelijking is de discriminante functie als volgt: Y = b0 + b1 * X1 + b2 * X2. V1 = b0 + b1 * DV1 + b2 * DV2. DV = dependent variable
Tenslotte moeten deze waardes worden vergeleken met wat we zouden verwachten als er geen effect is in de populatie. Dit kan op vier verschillende manieren: 1) Pillai-Bartlett trace (V) 2) Hotelling-Lawley trace (Hotelling’s T2). Het is de som van de eigenwaarden van de variaten. T = Σ λi, 3) Wilks’s lambda (Λ) en Roy’s largest root.
MANOVA heeft ongeveer dezelfde assumpties als de andere modellen: 1) onafhankelijkheid en 2) een random steekproef. De assumptie van normaliteit heeft betrekking op multivariate normaliteit: bij MANOVA hebben de afhankelijke variabelen multivariate normaliteit binnen de groepen. De vierde assumptie heeft betrekking op de homogeniteit van de covariantie matrices. Voor elke afhankelijke variabele moeten de varianties gelijk zijn en de correlatie tussen elk van de afhankelijke variabelen moet hetzelfde zijn in alle groepen. Deze assumptie kan getest worden door te kijken of alle populatie variantie-covariantie matrices van de verschillende groepen gelijk zijn.
Een discriminant analyse kan gebruikt worden na een MANOVA om te kijken hoe de uitkomst variabele de groepen discrimineren. De discriminant function analyse identificeert variates. Dit zijn combinaties van de uitkomst variabele. Om te kijken hoeveel variates significant zijn wordt gekeken naar de Wilk's Lambda.
Wat wordt bedoeld met een factor analyse? - BulletPoints 18
Met factoranalyse worden heel veel variabelen ingekort tot een aantal variabelen. Variabelen die niet direct gemeten kunnen worden latente variabelen genoemd. Verschillende facetten van dit construct kunnen wel direct gemeten worden. Dan moet de vraag beantwoord worden of deze variabelen samen één onderliggende variabelen hebben.
Bij een factoranalyse en principal component analyse (PCA) worden clusters van variabelen geïdentificeerd. Je gebruikt deze technieken voor drie dingen: 1) Om inzicht te krijgen in de structuur van de variabelen, 2) Om een vragenlijst te ontwikkelen die de onderliggende variabele meet en 3) Om de data te reduceren, waarbij zoveel mogelijk informatie behouden blijft.
Factoranalyse en principal component analyse reduceren de data allebei tot een aantal dimensies. Veel praktische zaken komen overeen. In de praktijk maakt het weinig uit welke techniek gebruikt wordt.
Een R-matrix is een matrix die alle correlaties tussen de variabelen weergeeft. Wanneer een groep variabelen sterk met elkaar correleert kan het betekenen dat ze aspecten van een onderliggende dimensie meten. Bij een factoranalyse wordt de maximale gedeelde variantie in een correlatiematrix verklaart door het kleinst mogelijke aantal verklarende constructen (factoren). Bij PCA wordt gekeken naar de maximale totale variantie die verklaard wordt in een correlatiematrix door lineaire componenten.
Factoren en componenten kunnen visueel worden weergegeven in de grafiek waarin de variabelen geplot worden. De coördinaten van de variabelen op elke as staat voor de sterkte van de relatie tussen die variabele en de factoren. In de ideale wereld hebben variabelen een grote coördinaat op de ene as (factor) en een kleine coördinaat op de andere factor. De coördinaat van een variabele op een as wordt de factorlading genoemd. De factorlading kan gezien worden als de Pearson correlatie tussen de factor en de variabele. De as loopt van -1 tot 1 voor de factoren omdat dit het limiet is voor de correlaties.
De factoren in een factor analyse worden anders gepresenteerd dan componenten. Dit wordt gedaan aan de hand van de volgende formule: variabelen = gemiddelde van de variabele + (lading x gewone factor) + unieke factor
Twee andere methoden kunnen nog gebruikt worden: de Bartlett methode en de Anderson-Rubin methode. De eerste methode geeft scores die geen bias hebben en alleen correleren met de eigen factor. De factorscores kunnen nog wel onderling met elkaar correleren.
De Anderson-Rubin methode produceert factorscores die niet gecorreleerd en gestandaardiseerd zijn. Wanneer er geen gecorreleerde scores mogen zijn is de Anderson-Rubin methode aan te raden. In alle andere gevallen kan het beste de regressiemethode gebruikt worden. De factorscores laten de samengestelde score voor elk individu op een factor zien.
Er zijn meerdere methoden voor het vinden van factoren. Er zijn twee dingen waar rekening mee gehouden moet worden bij het kiezen van de methode: 1) wil je de bevindingen generaliseren naar een populatie en 2) wil je de gegevens verkennen of een specifieke hypothese wil toetsen. Voor het testen van specifieke hypothesen wordt de confirmatory factoranalyse aangeraden. Bij PCA kunnen de resultaten niet gegeneraliseerd worden naar de hele populatie. Conclusies worden alleen gedaan over de steekproef.
Roteren is makkelijk te visualiseren als er twee factoren zijn: de assen in de grafiek. Roteren is het draaien van de assen zodat de as (factor) dichter bij de punten in de grafiek (de variabelen) komt.
Er zijn twee soorten rotatie: orthogonale rotatie en oblique rotatie. Bij orthogonale rotatie blijven de factoren ongecorreleerd. Bij deze rotatie blijven de X-as en Y-as in een hoek van 90 graden op elkaar staan. Bij oblique rotatie mogen de factoren wel met elkaar correleren, dus de assen hoeven niet loodrecht op elkaar te blijven staan.
Wat wordt bedoeld met een categoriale uitkomsten? - BulletPoints 19
Bij categorische data bestaat de uitkomstvariabele uit verschillende categorieën. Een observatie valt in één van deze categorieën. Een voorbeeld is dat iemand is zwanger of niet zwanger. Het is dus niet mogelijk dat een observatie in allebei de categorieën valt.
Het gemiddelde uitrekenen van een categorische variabele heeft geen nut omdat de cijfers die zijn toegekend aan de categorieën arbitrair zijn. Bij categorische variabelen wordt er gekeken naar de frequenties. Het gemiddelde hangt namelijk af van hoeveel observaties er zijn in een bepaalde categorie. Daarom kijkt men naar het aantal dingen dat valt in elke categorie. Een tabel met de frequenties van alle categorieën wordt een contingency tabel genoemd.
De Pearson’s chi-square test (X2) wordt gebruikt om te testen of er een verband bestaat tussen twee categorische variabelen. Voorbeeld: of het type training (beloning met eten of affectie) verschil maakt in het feit dat katten leren linedancen. Deze test vergelijkt de geobserveerde frequenties in de categorieën met de frequenties die je in die categorieën zou verwachten op basis van toeval. De fit (of error) in het model kan berekend worden door het gekwadrateerde verschil tussen de werkelijke data en het model te berekenen. Error = Σ (observedi - modeli)2
De chi-square test is een benadering van de chi-square distributie waardoor de test bij een kleine steekproeven niet altijd nauwkeurig is. De verwachte frequentie in de cellen van de contingency tabel moeten minstens vijf zijn. De benadering is dan goed genoeg. Voor kleine steekproeven kan de Fisher’s exact test gebruikt worden om de exacte p-waarde van de chi-square statistiek te berekenen. Deze test is niet nodig bij grote steekproeven.
De likelihood ratio is een alternatief voor de chi-square statistiek. Het idee hierachter is dat een model gecreëerd wordt waarbij de kans om de geobserveerde data te verkrijgen maximaal is. Dit model wordt vergeleken met de kans om de geobserveerde data te verkrijgen als de nulhypothese waar is. De formule voor deze ratio is: LX2 = 2 * Σ observedij * Ln (observedij / modelij)
Ln staat voor het natuurlijke logaritme. Deze statistiek heeft ook een chi-square distributie en dezelfde vrijheidsgraden. In grote steekproeven is er weinig verschil tussen de twee statistieken maar in kleine steekproeven kun beter deze likelihood ratio gebruikt worden.
Een Pearson's Chi-square geeft significante waardes bij een 2x2 contigency tabel die te klein zijn en de kans op een type 1 fout groter is. Een correctie op deze formule is de Yates´s continuïteitscorrectie. Als de deviatie van het model berekend wordt moet 0.5 afgetrokken worden van de absolute waarde van de deviatie voordat het gekwadrateerd wordt. Absolute waarde betekent dat het plus- of minteken genegeerd wordt. De formule ziet er als volgt uit: X2 = Σ ((observedij - modelij) - 0.5)2 / modelij. Onthoud dat de Yates’s correctie teveel corrigeert wat resulteert in een lagere chi-square waardes. Het is daarom beter om het niet te gebruiken.
Phi: een statistiek die gebruikt kan worden voor 2x2 contingency tabellen.
Contingency coefficient: deze statistiek kan voor grotere tabellen gebruikt worden wanneer phi niet tussen tussen 0 en 1 ligt. Deze statistiek heeft altijd een waarde tussen 0 en 1 maar bereikt de 1 vrijwel nooit.
Cramér’s V: deze statistiek is bij een 2x2 tabel hetzelfde als phi. Wanneer een variabele meer dan twee categorieën heeft kan V de maximale waarde bereiken. Deze is daarom het meest nuttig.
Om een model met categorische variabelen lineair te maken worden logaritmes gebruiken. Het model wordt dan: Ln (Oi) = ln (model) + ln(εi). Ln (Oij) = (b0 + b1 * Variabele1 + b2 * Variabele2 + b3 * Interactie) + ln (εi).
Een verzadigd (saturated) model is een model waarbij de gecodeerde variabelen de geobserveerde waardes volledig verklaren en er geen meetfout is. De standaardafwijkingen zijn dus allemaal 0.
Het weghalen van de voorspellers gaat hiërarchisch. De interactie van de hoogste orde (ABC) wordt als eerst weggehaald. Met het nieuwe model worden de verwachte frequenties berekend en die verwachte frequenties worden dan vergeleken met de geobserveerde frequenties. Als het verwijderen van een bepaalde interactie geen significant effect heeft op de likelihood ratio, kan de term uit het model worden weggelaten. Zo ga je door tot je een effect vindt dat wel een effect heeft op het model.
Om te kijken of het nieuwe model de likelihood ratio verandert, wordt het volgende berekend. LX2Verandering = LX2Huidig model – LX2Vorige model
Wat wordt bedoeld met een logistische regressie? - BulletPoints 20
Logistische regressie is multipele regressie waarbij de uitkomstvariabele categorisch is. De predictorvariabelen kunnen continu of categorisch zijn. Een logistische regressie voorspelt in welke categorie personen vallen op basis van andere informatie. Als de uitkomstvariabele twee categorieën heeft wordt het binaire logistische regressie genoemd en bij meerdere categorieën wordt het multinomiale logistische regressie genoemd.
Een gewone regressieanalyse kan niet gebruikt worden omdat bij een categorische uitkomstvariabele de assumptie dat er een lineaire relatie is tussen de variabelen geschonden wordt. Een niet lineaire relatie kan door een logaritmische transformatie alsnog lineair worden gemaakt door een logistische regressie. Bij een logistische regressie wordt de kans op Y bij de waarde van X berekend. Wanneer er sprake is van één predictorvariabele kan de kans op Y berekend worden met de formule: P(Y) = 1 / (1 + e^-(b0+b1*X1i)
P(Y) is de kans dat Y voorkomt: de kans dat iemand in een bepaalde categorie hoort. E staat voor de natuurlijke logaritmes. Wanneer er meerdere voorspellers zijn, wordt het gedeelte binnen de haakjes uitgebreid met een extra predictor en de bijbehorende parameters.
De uitkomst van deze formule varieert tussen de 0 en de 1. Waardes dichtbij 0 stellen dat Y heel onwaarschijnlijk is terwijl een waarde dichtbij 1 stelt dat Y heel waarschijnlijk is.
De waardes van de parameters worden geschat met de maximum-likelihood schatting. Deze schatting selecteert de coëfficiënten die het meest overeenkomen met de geobserveerde gegevens. P(Yi) staat voor de kans op Y bij de iste persoon. Voor een bepaald persoon is Y 0 of 1: de uitkomst vond plaats of de uitkomst vond niet plaats. De geobserveerde uitkomsten kunnen vergeleken worden met de voorspelde uitkomsten om te kijken naar de fit in het model. Bij logistische regressie wordt de fit bepaald met de log-likelihood statistiek. De formule hiervoor is: Log-likelihood = Σ [Yiln (P(Yi)) + (1-Yi)ln(1-P(Yi))]
De log-likelihood komt ongeveer overeen met SSR in multiple regressie. Ze zijn allebei een indicator van hoeveel onverklaarde informatie er is nadat het model en de gegevens vergeleken zijn. Hoge waardes van de log-likelihood statistiek betekent een slechte fit.
De deviantie lijkt op de log-likelihood en wordt berekend door -2 x log-likelihood. De deviatie statistiek wordt daarom vaak de -2LL genoemd. Het voordeel is van deze statistiek ten opzichte van de log-likelihood is dat deviantie een chi-square distributie heeft.
Het logistische equivalent van R bij lineaire regressie is de R-statistiek. De R-statistiek is de partiële correlatie tussen de uitkomstvariabele en elk van de voorspellervariabelen en het kan variëren tussen de -1 en 1. Een positieve waarde betekent dat wanneer de predictorvariabele toeneemt, de kans op de gebeurtenis ook toeneemt. Een negatieve R betekent dat de kans afneemt wanneer de predictorvariabele toeneemt. Wanneer een variabele een lage R heeft draagt het weinig bij aan het model.
De individuele contributie van voorspellers is nodig om te kijken naar de fit van het model. In een logistische regressie wordt de z-waarde gebruikt. De z-waarde geeft aan of de b-waarde voor de voorspeller significant anders is dan nul. Als dit zo is wordt aangenomen dat de voorspeller toegevoegde waarde heeft in het voorspellen van de uitkomst Y. De z wordt berekend door b / SEb. Dit wordt ook de Wald statistiek genoemd.
De odds ratio is belangrijk voor het interpreteren van logistische regressie exp(B). Het is een indicator voor verandering in de odds die voortkomt uit een verandering in de predictor.
Het is nuttig iets te stellen over de volgende assumpties: 1) Lineariteit. Dit betekent dat er een lineaire relatie moet zijn tussen de continue voorspellers en de logit van de uitkomstvariabele. Deze assumptie wordt getest door te kijken of het interactie-effect tussen de predictor en de logtransformatie significant is. 2) Onafhankelijkheid van de meetfouten. Schenden van deze assumptie zorgt bij logistische regressie voor overspreiding.
Logistische regressie heeft een paar unieke problemen. Logistische parameters worden geschat door een iteratief proces. Er wordt geprobeerd met elke iteration een accuratere schatting te maken. Het stopt met schatten als het maximale aantal schattingen dat je hebt ingevoerd is bereikt, of wanneer convergentie is bereikt. Dit laatste betekent dat elke nieuwe schatting vrijwel hetzelfde antwoord oplevert.
In twee situaties kan het voorkomen dat convergentie niet wordt bereikt wat een volledig incorrecte output oplevert: 1) Incomplete informatie van de predictors. Dit houdt in dat er niet van alle combinaties van de variabelen data is verzameld. 2) Complete scheiding. De uitkomst variabele wordt perfect voorspeld door een voorspeller of een combinatie van voorspellers. Dit probleem ontstaat vaak wanneer er te veel variabelen worden gebruikt voor te weinig data. Een oplossing is dan meer data verzamelen. Soms kan een simpeler model uitkomst bieden.
Overspreiding (overdispersion): Er is sprake van overspreiding wanneer de geobserveerde variantie groter is dan de verwachte variantie uit een logistisch regressiemodel. Dit kan veroorzaakt worden doordat de aanname van onafhankelijkheid niet wordt geschonden of doordat de kans op succes varieert. De standaardmeetfouten zijn dan te klein waardoor de teststatistiek te groot is en er te snel statistische resultaten worden gevonden.
Een multinomiale logistische regressie is het gebruiken van logistische regressie om groepslidmaatschap van meer dan twee categorieën te voorspellen. Hierbij wordt de uitkomstvariabele gesplitst in een aantal vergelijkingen tussen twee categorieën. Je moet hierbij een baseline categorie kiezen waarmee je alles vergelijkt.
Het rapporteren van de resultaten is hetzelfde als bij een binaire logistische regressie, behalve dat de resultaten in een tabel gesplitst worden.
Wat wordt bedoeld met een multilevel lineaire modellen? - BulletPoints 21
Variabelen kunnen hiërarchisch zijn: ingebed in variabelen op hogere niveaus. Deze variabelen op hogere niveaus worden contextuele variabelen genoemd.
Hiërarchische gegevens zijn niet alleen voor situaties tussen verschillende participanten maar ook binnen participanten. De variabele op niveau 1 kunnen bijvoorbeeld herinneringen zijn van een bepaalde participant.
Door de hiërarchie in de variabelen is er afhankelijkheid in de data. Dit houdt in dat de residuen gecorreleerd zijn.
Multilevel lineaire modellen kunnen op veel manieren gebruikt worden en hebben een aantal voordelen. 1) Zet de assumptie van homogeniteit van regressieslopes opzij. Wanneer de covariantie gebruikt wordt wordt aangenomen dat de relatie tussen de covariaat en de uitkomst hetzelfde is tussen verschillende groepen die de voorspeller vormen. Bij een multilevel lineair model hoeft niet nagedacht te worden over deze assumptie. 2) De gegevens hoeven niet te voldoen aan de assumptie van onafhankelijkheid. 3) Een multilevel model is goed te gebruiken wanneer de gegevens missende waarden bevatten.
Een vast effect is een effect waarbij alle mogelijke condities waarin een onderzoeker geïnteresseerd is aanwezig zijn in het experiment. Het effect wordt een random effect wanneer het experiment alleen een random steekproef van mogelijke condities bevat. Een vast effect kan alleen gegeneraliseerd worden naar de condities in het experiment, terwijl random effecten ook gegeneraliseerd kunnen worden buiten de condities in het experiment. Een vaste variabele verandert (in principe) niet over tijd (bijvoorbeeld geslacht) en een random variabele kan wel veranderen over tijd (bijvoorbeeld gewicht).
Bij multilevel modellen heb je het onderscheid tussen vaste coëfficiënten en random coëfficiënten. Bij de regressie, ANOVA en ANCOVA worden vaste coëfficiënten gebruikt. De b-waardes in de regressievergelijking zijn vaste waardes die voor de hele steekproef gelden. De scores van elke deelnemer worden voorspeld met dezelfde parameters. Bij random coëfficiënten kunnen de b-waarden wel veranderen.
Het model voor een multilevel lineair model ziet er hetzelfde uit als een model voor regressie. Het regressiemodel heeft echter een vaste intercept (b0) en een vaste regressiecoëfficiënt (slope) heeft. Wanneer er sprake is van een random intercept, komt er een extra term bij de intercept die aangeeft hoeveel variatie er is in de b0-waardes in het model.
Met een random intercept en een random slope worden de bovenstaande modellen gecombineerd. Het model ziet er als volgt uit: Yij = (b0 + u0j) + (b1 + u1j)Xij + εij Of: Yij = b0j + b1jXij + εij, b0j = b0 + u0j, b1j = b1 + u1j
De fit van een multilevel model wordt getest met een chi-square likelihood ratio test. De statistiek die ervoor gegeven wordt is de -2 log-likelihood en hoe kleiner de waarde hoe beter.
SPSS produceert ook aangepaste versies van de -2LL. Dit zijn de volgende: Akaike’s information criterion (AIC), Hurvich and Tsai’s criterion (AICC), Bozdogan’s criterion (CAIC) en Schwarz’s Bayesian criterion (BIC).
Voor alle statistieken geldt: hoe kleiner de waarde, hoe beter de fit.
Aangeraden wordt te beginnen met een model met alleen vaste parameters en random coëfficiënten toe te voegen als dat nodig is. Hiermee kan de fit van het nieuwe model vergeleken worden met het basismodel. X2verandering = (-2LLoud) – (-2LLnieuw). dfverandering = Aantal parametersoud – Aantal parametersnieuw
Er zijn vier veel voorkomende structuren: 1)De variantiecomponenten structuur, 2) De diagonale structuur, 3) De AR(1) en 4) de ongestructureerde structuur.
Alle assumpties voor een lineair model gelden ook voor een multilevel model. De assumptie van onafhankelijkheid kan meestal worden omzeild als dit wordt veroorzaakt door een niveau 2 of 3 variabele. Een extra assumptie is dat de random intercepts en slopes normaal verdeeld moeten zijn over het model. Als je in je model interacties hebt over de verschillende niveaus van de hiërarchie, kan multicollineariteit een probleem zijn. Hierbij helpt het centreren van voorspellers.
Het is mogelijk om een robuust betrouwbaarheidsinterval te produceren voor de parameters in het model met de bootstrap methode. De steekproefgrootte en power voor multilevel modellen zijn erg ingewikkeld, want het gaat om de power om zowel de vaste als de random effecten te meten. Voor de steekproef geldt: hoe groter, hoe beter.
Het centreren van een variabele is de variabele transformeren naar deviaties vanaf een vast punt. Dit vaste punt is meestal het grote gemiddelde of het groepsgemiddelde. Bij centreren vanaf het groepsgemiddelde worden meestal niveau 1 variabelen gecentreerd op het gemiddelde van een niveau 2 variabele.
Het doel van een groeimodel is om te kijken naar de verandering van een variabele over tijd. Polynomials zijn groeicurven: lijnen met een trend. Eerste orde polynominals zijn lineaire trends, tweede orde polynominals zijn kwadratische trends en derde orde polynominals hebben een derdemachts (cubic) trend. Hogere polynominals betekent een snellere groei. In werkelijkheid zijn er zelden trends van de derde orde of hoger.
Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>
Contributions: posts
Spotlight: topics
Online access to all summaries, study notes en practice exams
- Check out: Register with JoHo WorldSupporter: starting page (EN)
- Check out: Aanmelden bij JoHo WorldSupporter - startpagina (NL)
How and why use WorldSupporter.org for your summaries and study assistance?
- For free use of many of the summaries and study aids provided or collected by your fellow students.
- For free use of many of the lecture and study group notes, exam questions and practice questions.
- For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
- For compiling your own materials and contributions with relevant study help
- For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.
Using and finding summaries, notes and practice exams on JoHo WorldSupporter
There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.
- Use the summaries home pages for your study or field of study
- Use the check and search pages for summaries and study aids by field of study, subject or faculty
- Use and follow your (study) organization
- by using your own student organization as a starting point, and continuing to follow it, easily discover which study materials are relevant to you
- this option is only available through partner organizations
- Check or follow authors or other WorldSupporters
- Use the menu above each page to go to the main theme pages for summaries
- Theme pages can be found for international studies as well as Dutch studies
Do you want to share your summaries with JoHo WorldSupporter and its visitors?
- Check out: Why and how to add a WorldSupporter contributions
- JoHo members: JoHo WorldSupporter members can share content directly and have access to all content: Join JoHo and become a JoHo member
- Non-members: When you are not a member you do not have full access, but if you want to share your own content with others you can fill out the contact form
Quicklinks to fields of study for summaries and study assistance
Main summaries home pages:
- Business organization and economics - Communication and marketing -International relations and international organizations - IT, logistics and technology - Law and administration - Leisure, sports and tourism - Medicine and healthcare - Pedagogy and educational science - Psychology and behavioral sciences - Society, culture and arts - Statistics and research
- Summaries: the best textbooks summarized per field of study
- Summaries: the best scientific articles summarized per field of study
- Summaries: the best definitions, descriptions and lists of terms per field of study
- Exams: home page for exams, exam tips and study tips
Main study fields:
Business organization and economics, Communication & Marketing, Education & Pedagogic Sciences, International Relations and Politics, IT and Technology, Law & Administration, Medicine & Health Care, Nature & Environmental Sciences, Psychology and behavioral sciences, Science and academic Research, Society & Culture, Tourisme & Sports
Main study fields NL:
- Studies: Bedrijfskunde en economie, communicatie en marketing, geneeskunde en gezondheidszorg, internationale studies en betrekkingen, IT, Logistiek en technologie, maatschappij, cultuur en sociale studies, pedagogiek en onderwijskunde, rechten en bestuurskunde, statistiek, onderzoeksmethoden en SPSS
- Studie instellingen: Maatschappij: ISW in Utrecht - Pedagogiek: Groningen, Leiden , Utrecht - Psychologie: Amsterdam, Leiden, Nijmegen, Twente, Utrecht - Recht: Arresten en jurisprudentie, Groningen, Leiden
JoHo can really use your help! Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world
2310 | 2 |
Add new contribution