Hoorcollegeverslagen

Deze samenvatting is gebaseerd op het studiejaar 2013-2014.


Hoorcollege 1: Introductie

Inferentiële Statistiek, intuïtief
Inferentieel staat voor inferentie, iets afleiden. We gaan op basis van een steekproef iets afleiden over de populatie waar die steekproef uit getrokken is. Dit wordt ook wel generaliserende statistiek genoemd, omdat we vanuit de steekproef iets willen zeggen over de populatie. Verder wordt het ook nog inductieve statistiek genoemd, dit gebeurt vooral in het boek. Inferentiële statistiek is ingewikkeld, omdat het generaliseren vaak moeilijk is. Verder is het ook behoorlijk abstract.
Met beschrijvende statistiek kan je regressieanalyses, associatiematen en frequenties uitrekenen. Deze resultaten zijn altijd waar. Je beschrijft dan wat in de steekproef zit.
Bij inferentiële statistiek kijk je naar een kans, je kijkt ook naar andere steekproeven.
Bij inferentiële statistiek creëer je een kansvariabele. Bij een kansvariabele krijg je een verdeling, dit is een kansverdeling. In een kansverdeling wordt niet naar afzonderlijke steekproeven gekeken, maar naar een verzameling van steekproeven. Deze verdeling wordt dan ook een steekproefverdeling genoemd.

De kernbegrippen van de cursus zijn:

  • Inferentiële statistiek: schatten en toetsen, waarbij kansrekening gebruikt wordt. je weet niet zeker wat er uit komt, zoals bij beschrijvende statistiek. Je weet dingen alleen met een zekere waarschijnlijkheid.

  • Schatten: je probeert een getal te kiezen voor een kenmerk van de populatie (een parameter). Het gemiddelde van de populatie is een voorbeeld van een parameter. Je schat met een percentage.

  • Toetsen: nagaan of een idee dat je had over de populatie klopt. Je stelt een nulhypothese op, deze gaat altijd over een kenmerk van de populatie. Voor de populatie moet je een denkbeeldige wereld scheppen, want je kent de populatie niet.

  • Statistisch significant: de nulhypothese wordt verworpen als hij zeer onwaarschijnlijk is. De toets is dus statistisch significant wanneer deze nulhypothese verworpen wordt.

  • Kansrekening: je gebruikt een theoretische kansverdeling, zoals de normale verdeling.

  • Steekproevenverdeling: geeft de verdeling of kansen van alle mogelijke steekproefresultaten. Hoe groot is de kans op het ene resultaat of het andere resultaat.

  • Steekproefresultaat: een kansvariabele die een kenmerk van de steekproef weergeeft, bijvoorbeeld de steekproefproportie. Het is een kansvariabele omdat het een kenmerk van een steekproef is.

Significantie en Relevantie

Bij een statistisch significant resultaat wordt dus een nulhypothese verworpen. De eerste vraag die je jezelf moet stellen is: over welke populatie hebben we het eigenlijk?
Hoe algemener de populatie, hoe meer we kunnen generaliseren, hoe interessanter het resultaat. Dan is het significante resultaat de moeite waard, dus relevant.
Daarnaast kijk je naar de nulhypothese, want een significant resultaat betekent dat je alleen de nulhypothese verwerpt. De nulhypothese kan heel onzinnig zijn geweest, dan is een significant resultaat niet relevant.
Tot slot kijk je naar hoe groot het verschil is dat je gevonden hebt. Het verschil tussen het steekproefresultaat en de nulhypothese moet relevant zijn. Wanneer het verschil tussen het steekproefresultaat en de nulhypothese bijvoorbeeld maar 2% is, is het wel significant maar niet relevant. De effectgrootte (2%) is te klein.
Dit bewijst dat significantie niet per se relevant hoeft te zijn.

Steekproeven

Een steekproef moet aselect (op basis van toeval) getrokken worden, omdat deze steekproef vaak representatief is voor de populatie. Representatief betekent dat de variabelen in de steekproef op dezelfde manier verdeeld zijn als in de populatie. Bij deze steekproef worden onderzoekseenheden op basis van toeval getrokken, dus elke eenheid heeft dezelfde kans om in de steekproef te komen. De kans dat een kenmerk in de steekproef voorkomt, is gelijk aan de mate waarin het kenmerk in de populatie voorkomt.
Met niet-aselecte steekproeven als quotasteekproeven en sneeuwbalsteekproeven doen we niks, omdat je hierbij niet iets over de populatie kan zeggen. Het is onmogelijk om bij deze steekproeven te generaliseren. Inferentiële statistiek kan wel met gestratificeerde- en clustersteekproeven, maar dit wordt vaak vermeden omdat het ingewikkeld is.

Steekproeven trekken
Je kan steekproeven trekken met of zonder terugleggen.
Steekproef met terugleggen:
Iedereen die je trekt wordt teruggelegd en kan nog een keer getrokken worden. De kans op een uitkomst blijft daarom gelijk bij elke trekking. Dit maakt de kansrekening eenvoudig.
Steekproeven zonder terugleggen:
Dit betekent dat wanneer persoon 1 getrokken wordt, niet nog een keer getrokken kan worden. Dit wordt altijd gedaan, de personen worden dus niet teruggelegd. Dat mag wanneer de populatie veel groter is dan de steekproef, omdat één persoon verschil in de kansrekening dan niet uitmaakt. De kans verandert dan niet substantieel.
We gaan uit van steekproeven zonder terugleggen, maar rekenen met teruglegging.
Dit doen we, omdat de kans hetzelfde blijft met teruglegging. Daarnaast is er makkelijker mee te rekenen. Dit is alleen een probleem wanneer de populatie niet veel groter is dan de steekproef.

Populaties
Er zijn twee betekenissen voor populaties.
Een empirische populatie (1) is de verzameling van onderzoekseenheden waar je iets over wilt zeggen. Bijvoorbeeld mensen, stukjes tekst, nieuwsinhoud. Je kan deze dingen waarnemen. Wanneer je resultaten interpreteert heb je het vaak over de empirische populatie.
Mensen die alleen denken in getallen praten eerder over de statistische populatie (2). Zij tonen iets aan door nulletjes en eentjes. Het is een reeks van scores die bij elkaar horen.
Dit is relevant, omdat je uitspraken wilt doen over een bepaalde populatie.

Onafhankelijke- of afhankelijke steekproef
Een onafhankelijke steekproef zijn metingen die onafhankelijk van elkaar gedaan worden. Er worden metingen gedaan voor verschillende groepen onderzoekseenheden. Mannen en vrouwen worden bijvoorbeeld onafhankelijk getrokken.
Bij een afhankelijke steekproef ligt de steekproef vast. De steekproef is afhankelijk van de steekproef die je de eerste keer hebt gebruikt. Bij twee tijdstippen ga je vaak dezelfde mensen ondervragen. Elke persoon krijgt dan meerdere scores. De ene statistische populatie is afhankelijk van de andere statistische populatie.

 

Hoorcollege 2: Kansverdelingen

Kansvariabelen en kansverdelingen

Inferentiële statistiek houdt in dat je op basis van een kenmerk in een steekproef iets zegt over een kenmerk in de populatie. Een aselecte steekproef is in principe representatief voor de populatie. Representatief betekent dat elke variatie in een variabele hetzelfde is in de steekproef als de variatie van de variabele in de populatie. Je mag alleen zeggen dat iets ‘in principe’ representatief is, je kan niets met zekerheid zeggen. Dit is zo, omdat je met kansen werkt. Er moet dus rekening worden gehouden met kans en toeval. Met kansberekening wil je bepalen hoe groot de kans op toeval is. In feite weet je dus nooit of je de echte proportie weet, maar door deze statistiek weet je hoe zeker of onzeker je erover kan zijn.

Centraal in dit hoorcollege:
Hoe bepalen we de marges van toeval als je de kansverdeling kent?

Wat is een kans precies?
Een kans is een verwachting op de lange termijn. Als je erg lang gooit met een dobbelsteen, is de kans 1/6 dat je 6 gooit. Het is iets dat gebeurt als je iets erg vaak herhaald.
Een kansverdeling is de steekproevenverdeling. Dit vind je wanneer je erg veel steekproeven trekt. De relatie tussen de kansverdeling en de steekproef die je trekt is: welke heeft een grote kans en welke heeft een kleine kans voor te komen?
Richtlijnen cursus:

  • Kansen rapporteer je altijd met 3 cijfers achter de komma, andere waarden met 2 cijfers achter de komma

  • Een kans telt altijd op tot 1

  • Een kans is altijd een verwachting

De verwachte waarde van een kansverdeling is een ander woord voor het gemiddelde van een kansverdeling. Deze geef je aan met E (expected) en X (kansvariabele): E(X). Hoe meer steekproeven, des te dichter zal het gemiddelde steekproefresultaat liggen bij de verwachte waarde (ofwel gemiddelde van de populatie). Soms heb je een iets grotere waarde, soms een iets kleinere waarde. Dit is waar je naar op zoek bent, je wilt op basis van de proportie in de steekproef iets zeggen over de proportie in de populatie.

Hier is een voorwaarde voor: de steekproefproportie moet een zuivere schatter zijn van de populatieproportie. Een schatter is zuiver wanneer de verwachte waarde hetzelfde is in de steekproefverdeling als in de populatie. Als een schatter zuiver is, dan mag je er van uit gaan dat de verwachte waarde van de steekproef gelijk is aan het kenmerk in de populatie.

De standaarddeviatie van elke steekproef en hier het gemiddelde van, is standaard lager dan die in de populatie. De standaarddeviatie en de variantie zijn geen zuivere schatters, omdat ze dus niet gelijk zijn aan de populatie. Vandaar wordt in de formule N (eenheden) – 1 genomen. Dan zijn de standaardafwijking en de variantie van de steekproef wel zuivere schatters en mag je ze gebruiken bij inferentiële statistiek.

 

Als we de kansverdeling kennen, kunnen we:

  • Iets over de steekproef zeggen, omdat we de verdeling weten.

  • Iets zeggen over de populatie, want de verwachte waarde is wat we over de populatie willen zeggen. Mits de schatter zuiver is

  • Via de kansverdeling iets zeggen over de populatie van onze steekproef.

Je hebt dus een populatie, een steekproef en een kansverdeling. De kansverdeling speelt de centrale rol.

Een parameter is een kenmerk van de populatie. Bijvoorbeeld gemiddelde in de populatie, of de variantie in de populatie. Iets dat je niet weet, maar graag iets over wil zeggen. Hierbij worden Griekse letters gebruikt. is bijvoorbeeld het gemiddelde in de populatie (mu), dit vind je op het formuleblad.
Bij een steekproefgrootheid, een statistisch kenmerk van de steekproef, worden gewone letters gebruikt. M is het gemiddelde (mean).

Normale verdeling als kansverdeling

Vaak weet je niet wat de kansverdeling is. Je komt dan aan een kansverdeling door een theoretische kansverdeling te kiezen, die waarschijnlijk lijkt op een steekproevenverdeling. Je weet niet of deze keuze klopt, het is een veronderstelling. Soms weet je dat de verdeling moet kloppen, maar wel onder bepaalde voorwaarden. Wanneer je uitgaat van de normale verdeling is een voorwaarde dat de steekproef niet te klein is.
Vaak wordt de normale verdeling gebruikt, bijvoorbeeld voor het steekproefgemiddelde.
Je hoopt dat hij past op de steekproefverdeling waarin je geïnteresseerd bent.

De normale verdeling is symmetrisch en heeft een klokvorm. De klokvorm betekent dat de kans op een uitkomst kleiner wordt naarmate je verder van het gemiddelde af zit. De verwachte waarde, ofwel het gemiddelde, heeft de grootste kans om voor te komen. Deze vind je dan ook bij de hoogste waarde: in het midden van de klokvorm.

Discrete en continue variabelen

Wanneer je een beperkt aantal mogelijkheden hebt, is het een discrete variabele. Voor elke mogelijkheid kan je de kans apart berekenen.
Wanneer je het hebt over bijvoorbeeld het gemiddelde gewicht, kan dit niet een beperkt aantal waardes aannemen. Dan spreek je over een continu verdeelde kansvariabele. Bij een continue kansvariabele kan je altijd tussen twee waardes nog een waarde geven.
Dit heeft een gevolg voor het werken met kansen. Het betekent namelijk dat je bij een continu verdeelde variabele oneindig kan zoeken. Je kan het alleen over hele precieze waarden hebben. Het heeft geen zin te praten over één specifieke waarde, want die kans is verwaarloosbaar. Daarom ga je uit van een interval. Een voorbeeld hier van is: wat is de kans op een waarde van 1,20 of groter. Dit heet de overschrijdingskans: de kans op een uitkomst die hoger of lager is dan een bepaalde waarde.

Wanneer de overschrijdingskans lager is, ga je uit van een linkeroverschrijdingskans.
Wanneer de overschrijdingskans hoger is, ga je uit van een rechteroverschrijdingskans.

 

 

Normaalverdeling met linker- en rechteroverschrijdingskans
95% van de waarnemingen ligt tussen + twee standaardafwijkingen en – twee standaardafwijkingen van het gemiddelde. De overige percentages worden links en rechts verdeeld, omdat de verdeling zowel een linker- als een rechteroverschrijdingskans heeft. Dus zowel de linker als de rechterkant heeft een overschrijdingskans van 2,3%.

Wanneer mag je de normale verdeling als kansverdeling gebruiken?

  • De verdeling moet normaal zijn

  • Je moet het populatiegemiddelde () en de standaardafwijking () kennen

  • Dan kan je de overschrijdingskans uit laten rekenen

Bij een z-score neem je elke X die je hebt, daar haal je het gemiddelde (mu) van af en je deelt door de standaardafwijking (sigma). Zx = Xi – :

Je moet een getal standaardiseren voordat je aan een getal aan een kans kan koppelen. Deze vind je in de tabel, achter de z-score staat de kans. De kans die in de tabel staat is de rechteroverschrijdingskans. Omdat de normale verdeling symmetrisch is, kan de linkeroverschrijdingskans als hetzelfde gezien worden als de rechteroverschrijdingskans. De kans is precies hetzelfde.
In principe kan je alle kansen berekenen als je de z-waarde hebt van nul en hoger.
De normaalverdeling met de z-waardes wordt de standaardnormaalverdeling genoemd.

Wanneer je een percentage hebt, kan je ook kijken wat de proportie van die kans is. Je kijkt dan naar de rechteroverschrijdingskans in de tabel, waar de z-waarde naast staat. Dan weet je waar in de standaardnormaalverdeling de grens ligt van het percentage.
Met de z-waarde vul je deze formule in: X = + Zx • . Je kan dus ook de grenswaarde berekenen en beredeneren wat het percentage zegt.

Nulhypothese

De statistische nulhypothese bij een toets op het gemiddelde kiest 1 waarde op het populatiegemiddelde. Je gaat er van uit dat dit gemiddelde waar is. Je kiest een waarde, omdat hij interessant zou zijn voor de parameter. Deze waarde leg je vast, omdat je anders niet kan rekenen met de kansverdeling. Je gaat kijken hoe groot de kans is op het gemiddelde van .. of nog hoger/lager. Hierbij vind je een kans, als deze erg groot is accepteren we de nulhypothese. We trekken de conclusie dat hij waar is, maar dit hoeft niet zo te zijn. Ons steekproefgemiddelde wijkt dan te weinig af om te concluderen dat de nulhypothese fout is. Is het verschil heel klein, dan gaan we er van uit dat de nulhypothese niet waar is.

 

Hoorcollege 3: Toetsen en hypothesen

Steekproevenverdeling
Tussen de steekproef en de populatie zit een kansverdeling, namelijk de steekproevenverdeling. Om iets te kunnen zeggen over de populatie, moeten we een theoretische kansverdeling kiezen waar we van aannemen dat hij goed past bij de steekproefverdeling. Als je zo’n kansverdeling hebt kan je iets zeggen over de populatie.

Elke steekproef is één waarneming/case, na het trekken van één steekproef heb je in een steekproevenverdeling dus één balkje.

Hoe meer steekproeven je trekt, hoe dichter het steekproefgemiddelde bij het gemiddelde van de populatie(of bepaalde parameter) komt te liggen. Na veel steekproeven kan de grafiek gaan lijken op een normale verdeling.
Als je een populatie hebt met een rare verdeling, kan de steekproef toch normaal verdeeld zijn. Hoe de populatieverdeling er ook uitziet (bijvoorbeeld een uniforme verdeling), de steekproevenverdeling gaat wel lijken op een normale verdeling. Dit is zo onder twee voorwaarden. De steekproef mag niet te klein zijn en los van de verdeling in de populatie moet de steekproef altijd een normale verdeling worden. Je kan de normale verdeling kiezen als een steekproevenverdeling als je vanuit het steekproefgemiddelde iets kan zeggen over de populatiegemiddelde.

In het kort is de steekproevenverdeling:

  • De verdeling van alle mogelijke steekproefresultaten die je zou kunnen krijgen. Het is een feite een verwachting die je krijgt.

  • Een kansverdeling, waarbij je er voor moet zorgen dat de kans 1 of 100% is.

  • Centrum van steekproevenverdeling: het gemiddelde van de steekproevenverdeling ligt heel dicht bij het populatiegemiddelde, dit is omdat M een zuivere schatter is voor het populatiegemiddelde mu.

  • Spreiding van de steekproevenverdeling: dit is ook wel de standaardfout. De standaardfout is de standaardafwijking van de steekproevenverdeling

Standaardfout
Kan je berekenen op basis van de standaardafwijking van de populatie. Hoe groot is de spreiding tussen de gemiddelden van de steekproefgemiddelden (M)? SEm= is de formule voor de standaardfout. N is de omvang van de steekproef.
Als de teller groter wordt, wordt het resultaat groter. Als de populatie grotere spreiding heeft, wordt standaardfout groter. Als de spreiding groter is, heb je een grotere kans een steekproefgemiddelde te vinden die verder af ligt van het populatiegemiddelde.

Vorm verdelingen
Bij kleine verdelingen heb je plattere en dikkere staarten, dus steekproefgemiddelden die verder van het populatie gemiddelde afliggen. Je hebt dan een grotere kans steekproef te trekken verder van het gemiddelde.
Bij een grotere verdeling liggen alle steekproefgemiddelden die je kan verwachten dicht bij het midden van de verdeling. Je hebt dan een grote kans om een steekproef te trekken die dicht bij het gemiddelde ligt. Je hebt een kleinere kans een steekproef te trekken die verder af ligt. Het is veel preciezer.
De standaardfout bepaald hoe zeker of onzeker je bent over je uitspraken over de populatie.

Vorm van de steekproevenverdeling van het gemiddelde:

  • altijd normale verdeling wanneer de populatie normaal verdeeld is.

  • ook normaal verdeeld bij andere populatieverdeling als de steekproef redelijk groot is N>100. Als je 100 of meer mensen hebt getrokken, mag je er van uit gaan dat de steekproef normaal verdeeld is.

Het gemiddelde van een kansverdeling ga je na door een nulhypothese op te stellen. Je legt hiermee het gemiddelde van de denkbeeldige populatie vast. Hierbij is het ook meteen het gemiddelde van de steekproevenverdeling. Je komt hier indirect bij uit. Je legt vast waar op de x-as de kansverdeling ligt. Bij de nulhypothese leg je dus het centrum vast. Je moet daarnaast de spreiding vastleggen. Dit doe je door middel van de standaardfout,SEm = . Je komt aan de sigma door de standaardafwijking in de steekproef aan te houden als standaardafwijking in de populatie. Daardoor is het een schatting. Met de standaardfout heb je de kansverdeling opgesteld. Deze verdeling klopt, als de nulhypothese klopt.

Significantieniveau
Wanneer is de overschrijdingskans klein genoeg om de nulhypothese te verwerpen?
Op basis van de overschrijdingskans nemen we een beslissing de nulhypothese te verwerpen of te accepteren. We willen maximaal 5 % het risico lopen de nulhypothese te verwerpen, terwijl hij eigenlijk waar is. De grens 5% wordt het significantieniveau genoemd . De kans onder 5% is te klein, daarom verwerp je de nulhypothese. Het toetsresultaat is significant, het betekent dat de overschrijdingskans die je hebt uitgerekend kleiner is dan het significantieniveau. Je kiest altijd 5% tenzij je een hele grote steekproef hebt.. Het significantieniveau moet je van te voren vastleggen.
Je verwerpt de nulhypothese naar aanleiding van 5 %, omdat de kans dat de steekproef goed is heel erg klein is. Je verwerpt hem, maar er kan 5% kans zijn dat je dit ten onrechte doet. Je kan deze kans willen verlagen, bijv. 1% er van maken. Dan heb je een kleine kans dat je de nulhypothese verwerpt terwijl hij waar is. Dit is toch meer zekerheid? Nee, dat is niet zo. Je hebt de kans om de nulhypothese onterecht te verwerpen. Maar het andere probleem is dat je de nulhypothese niet verwerpt, terwijl hij niet waar is. Als je heel voorzichtig bent met het verwerpen van de nulhypothese, betekent dat je heel veel nulhypotheses gaat accepteren die eigenlijk fout zijn. Je moet een balans vinden, daarom wordt voor 5% significantieniveau gekozen.

Een fout van de 1e soort is de fout dat de juiste nulhypothese ten onrechte wordt verworpen. De kans is erg klein maar het kan wel. Je kan dus niet zeggen, de kans is maar 5% dat de nulhypothese waar is. Alle uitspraken die we doen gaan ervan uit dat de nulhypothese waar is. De overschrijdingskans zegt hoe onwaarschijnlijk of waarschijnlijk het steekproefresultaat is, wanneer de nulhypothese waar zou zijn. Je weet niet of hij waar of onwaar is.
Een fout van de 2e soort is de fout dat je onterecht de nulhypothese aanneemt, omdat je voor een erg laag significantieniveau hebt gekozen.

Rechts-, linkseenzijdig en tweezijdig toetsen
Bij rechtseenzijdig toetsen hou je alleen rekening met de rechterkant. de grens ligt op de plek waar de 5% kans helemaal in de rechterstaart ligt.
Bij linkseenzijdig toetsen hou je alleen maar rekening met het populatie- en steekproefgemiddelde onder een bepaald gemiddelde ligt. De grens is de 5% helemaal in de linkerstaart.
Bij tweezijdig toetsen hou je rekening dat het steekproefgemiddelde zowel ligt als rechts liggen. Dit doe je wanneer je geen duidelijke verwachting van de richting hebt. Het kan of extreem hoog zijn of extreem laag. Dan verdeel je het significantieniveau over de linker- en de rechterstaart. In beide kanten ligt dan 2,5% significantieniveau.

 

De keuze is een inhoudelijke keuze die je maakt bij het formuleren van je hypothese, je legt de ‘zijdigheid’ dus vooraf vast. Dit leg je vast in de statistische hypothese, door middel van een alternatieve hypothese. De alternatieve hypothese staat de nulhypothese altijd tegen. De alternatieve hypothese en nulhypothese moeten elkaar totaal dekken.
Het is gelijk teken in de nulhypothese (=) kiezen we om het gemiddelde van de kansverdeling vast te leggen. Dit teken kiest een getal. De nulhypothese gaat niet over de kenmerken van een steekproef maar over de kenmerken van een populatie. De onderzoekshypothese kan zowel de nulhypothese als de alternatieve hypothese zijn.

z-toets: toets op 1 gemiddelde
Je moet met een kenmerk van een steekproef een beetje rekenen, bij elke toets hoort een toetsingsgrootheid. In dit geval is het standaardiseren, vandaar de z-toets.

Algemene stappen om een toets uit te voeren:

  1. Specificeer de nulhypothese h0 en statistische hypothesen h1, dit hangt af van wat je wilt toetsen. Hierbij kies je meteen welke richting je neemt.

  2. Kies de kansverdeling en de toets. Nu hebben we alleen nog maar de keuze om een toets uit te voeren op één gemiddelde: de standaardnormale verdeling (z-verdeling) en z-toets. Als je meerdere toetsen hebt waar je uit kan kiezen, moet je afvragen wat het statistisch kenmerk is waar de toets over gaat. Hierbij moet je zoeken welke toets er bij hoort.

  3. Kies het significantieniveau (α): bijv 5%

  4. Berekenen de toetsingsgrootheid z voor de steekproef. Dit gebeurt vaak aan de hand van SPSS. Soms doe je dit met de hand, het levert de waarde van de toetsingsgrootheid op voor de steekproef die je hebt getrokken. Zegt iets over de verhouding over het steekproefgemiddelde dat je gevonden hebt en de populatiegemiddelde dat je in de nulhypothese hebt opgegeven.

  5. Ga na of de overschrijdingskans (p) van de berekende z-waarde kleiner is dan het significantieniveau
    * Ja: uitkomst is significant. De nulhypothese wordt verworpen en alternatieve hypothese wordt geaccepteerd. De kans op het steekproef resultaat is te klein, om de nulhypothese aan te nemen.
    * Nee: nulhypothese aannemen

Na de significantie kijk je naar de relevantie. Is het wel substantieel veranderd? Wijkt het wel behoorlijk af? Dit is de laatste stap. Voor elke toets is er een maat die aangeeft of het nou veel of weinig is, namelijk de effectgrootte d (Cohens d). Je neemt het verschil van het gemiddelde in de steekproef (M) en het gemiddelde in de populatie van de nulhypothese (0) gedeeld door de standaarddeviatie (). Hoe groter het verschil is, hoe relevanter. 0,20=klein 0,50= middelmatig 0,80= groot. Richting van het verschil maakt niet uit, het gaat om de afstand. Om deze reden maak je het altijd positief.

Voorwaarden voor een z-toets

  1. De variabele moet minsten interval meetniveau zijn, omdat je met gemiddelden werkt.

  2. De variabele is in de populatie normaal verdeeld.

  3. Voorwaarde 1 en 2 vervallen als N groter is dan 100, omdat de steekproevenverdeling dan ook normaal verdeeld is

 

Hoorcollege 4: Betrouwbaarheidsintervallen

P-waarde
Een overschrijdingskans wordt ook wel een p-waarde (probability)genoemd. De p-waarde de kans op gevonden resultaat nog extremer (nog hoger of lager) als de nulhypothese waar is. De toets is significant, wanneer de p-waarde is kleiner of gelijk aan het significantieniveau. Dit is, omdat de p-waarde hetzelfde is als een overschrijdingskans.

Bij eenzijdig toetsen kom je bij de p-waarde door naar 1 staart te kijken van de standaardnormaalverdeling. De p-waarde is dan gewoon de linker of rechter overschrijdingskans. Die kan je opzoeken of berekenen.
Bij een tweezijdige toets moet je rekening houden met het populatiegemiddelde dat zowel hoger als lager is, je hebt kansen in beide staarten. Bij de rechterstaart kijk je gewoon naar de kans, maar je moet rekening houden met een kans aan de linkerkant. Bij de linkerkant doe je dat door dezelfde staart als de rechterstaart af te knippen. Je verdubbelt dus eigenlijk de kans. Bijvoorbeeld: de p-waarde van een eenzijdige toets is 0,3, wat is de p-waarde van een tweezijdige toets? Dat is dan 0,6, omdat je verdubbelt. Bij een tweezijdige toets die je omzet in een eenzijdige toets, moet je logischerwijs halveren. SPSS levert een tweezijdige overschrijdingskans, onafhankelijk van hoe je geformuleerd hebt.

Kritieke waarde, verwerpingsgebied
We doen een toets met een z-verdeling, ergens is een grens die precies het significantie niveau onder die grafiek afscheidt van de rest. In plaats van de overschrijdingskansen, kan je ook kijken naar de z-waarde. Als je z waarde vergelijkt met de kritieke waarde(grenswaarde) kan je kijken of het significant is. De z-waarde is een toetsingsgrootheid voor je steekproef.
Z-waarde klein: nulhypothese niet verwerpen, niet significant resultaat.
Z-waarde gelijk: z-waarde is dan hetzelfde als de kritieke waarde. De overschrijdingskans is precies 5%, dit is de hoogste z-waarde van de steekproef waarbij je de 0 hypothese handhaaft.
Als de z-waarde groter wordt: oppervlakte onder de grafiek naast de z-waarde wordt kleiner, dus dan heb je een significant resultaat. Want als de overschrijdingskans onder de 5% zit, is de toets significant en wordt de nulhypothese verworpen. Zodra je Z groter wordt dan de kritieke waarde, heb je een significant resultaat. Je kijkt hierbij niet meer naar overschrijdingskansen.

Conclusie: Als de toetsingsgrootheid buiten de grenswaarde (kritieke waarde) ligt, heb je een significant resultaat. Dan is de overschrijdingskans kleiner dan de 5% significantieniveau. Met die kritieke waarde kan je een verwerpingsgebied (kritiek gebied) afbakenen, als je dit vindt is de toets significant. Kritieke z-waarden zijn vaste getallen, die je vindt in een tabel.
Als je een z vindt voor je steekproef die groter is dan 1,96 weet je zonder te kijken dat de toets significant is.

Toetsen bij kritieke waarden
Wanneer je kiest voor een een- of tweezijdige toets en je het significantie niveau hebt gekozen (5%), weet je de kritieke waarde als je werkt met een z-verdeling. Je kan aangeven voor welke uitkomsten van de steekproef je de nulhypothese gaat verwerpen (verwerpingsgebied). Dat zijn alle z-waardes die je in de steekproef zou vinden boven de 1,96 of kleiner dan -1,96. Nulhypothesen hier buiten verwerp je dus.

Betrouwbaarheidsintervallen
Een nulhypothese formuleer je door bijvoorbeeld eerder onderzoek of praktische informatie, hier krijg je met toeval een waarde uit.
Door nulhypothesen in te vullen kan je er meteen achter komen of het wel of niet significant zou zijn door de berekening van Zm = M – o : . Je krijgt alle nulhypothesen die je wel of niet kan verwerpen aan de hand van de kritische waarde.
De betrouwbaarheidsinterval is het gebied van de nulhypothesen die niet verworpen zouden worden bij het gegeven significantieniveau.
95% betrouwbaarheidsinterval: nulhypothese niet verwerpen bij = 0,05
99% betrouwbaarheidsinterval: nulhypothese niet verwerpen bij = 0,01
Je gaat hierbij altijd uit van de tweezijdige toets. Je krijgt alle populatiewaarden waarbij dit steekproefresultaat voldoende kans heeft om voor te komen, populatiewaarden waarbij je met deze steekproef de nulhypothese kan verwerpen.

Betrouwbaarheidsinterval bepalen
De kritieke waarde is de grens waarbij het verschil dat je in de steekproef gevonden hebt en de nulhypothese die je uit de populatie verwacht te groot wordt. Te groot om te zeggen dat de steekproef voldoende kans heeft om voor te komen. Met het betrouwbaarheidsinterval geef je aan tussen welke waarden je de nulhypothese nog aanneemt.
De z-waarde is het verschil dat je in steekproef vindt en wat je in de populatie verwacht.
Gemiddelde steekproef bevindingen en de grenzen van betrouwbaarheidsinterval bereken je door: kritieke waarden x standaardfout. Toetsen: als de nulhypothese waar is, hoe groot is dan de kans om een steekproef met een gemiddelde van … te krijgen? Dit is dus vaak 5%. Het betrouwbaarheidsinterval is altijd symmetrisch rond het steekproefgemiddelde.

Schatten
Bij schatten zeg je iets over de populatie op grond van de steekproef. Je wilt een getal hechten aan het populatiegemiddelde.
1. Puntschatting, 1 getal kiezen voor . schatting is vrijwel zeker niet precies goed

  • het steekproefgemiddelde is de beste puntschatting want dit is een zuivere schatting (bijv 20).

2. Intervalschatting (betrouwbaarheidsinterval), grenzen waartussen met een bepaalde mate van zekerheid ligt.

  • je geeft een gebied aan, daar zal het waarschijnlijk liggen. De schatting is je betrouwbaarheidsinterval: grenzen waar waarschijnlijk het populatiegemiddelde tussen zal liggen (95% zekerheid ligt het populatiegemiddelde tussen de 16 en 24).

  • vermijden om kans van 95% te zeggen, want dat kan je alleen doen als je een nulhypothese gaat formuleren en je kan zeggen als hij waar is, is de kans zo groot dat.. Kansen veronderstellen dat je weet dat het gemiddelde een bepaalde waarde heeft.

Rapporteren: (en interpreteren)
1. Uitkomst van de toetsingsgrootheid. Wat is de toetsingsgrootheid en de waarde. Z=… en de berekende waarde.
2. De overschrijdingskans voor dit toetsresultaat (SPSS -> sig. Tabel, p-waarde).
De p-waarde noteer je, ook wanneer het resultaat niet significant is. Als je de precieze overschrijdingskans niet weet, omdat je met kritieke waarden hebt gewerkt, vermeld je het laagst passende significantieniveau. Dus het laatste niveau waar het nog significant is of n.s. (niet significant). Als P kleiner is dan 0,001, noteer je dit als P 3. Wanneer de toets eenzijdig is vermeld je dit, omdat je van tweezijdig uitgaat.
4. Het betrouwbaarheidsinterval wanneer je dit weet (CI voor confidence interval). Hier wordt vaak meer naar gekeken dan naar het feit of het significant is of niet.
5. De effectgrootte bij een significant resultaat, misschien is het namelijk maar een heel klein effect. Bij de z heb je daar Cohens d voor.

Toets op één proportie
Je hebt een onderzoekshypothese over het deel van een populatie met een bepaald kenmerk. Bijvoorbeeld: stemt meer dan 20% van de Nederlanders op de PvdA? De statistische maat is de proportie in de populatie, pi .Deze toets gebruikt meestal de z-toets met de z-verdeling als kansverdeling, als de steekproef groot genoeg is. N x 0 > 5 en N x (1- 0) > 5. Het gemiddelde van de steekproevenverdeling is hetzelfde als de steekproefproportie in de populatie waar je geïnteresseerd in bent. Als de steekproefgrootte niet groot genoeg is, moet je een binomiaal toets doen. Hier hoef je geen nulhypothese bij te formuleren.
Bij de z-toets moeten we een waarde voor een parameter vastleggen, dus het heet een parametische toets. Bij de binominale toets hoeven we geen nulhypothese vast te leggen, dus dit is een non-parametische toets.

 

Hoorcollege 5: Toetsen op gemiddelden en correlatie

(On)afhankelijke steekproef

Wanneer je een populatie met een meting hebt, omdat je maar één statistische populatie hebt hoef je niet te kijken naar (on)afhankelijkheid. Wanneer je een toets uitvoert op een gemiddelde en twee steekproeven trekt, is het een onafhankelijke steekproef. Dit is zo als je bijvoorbeeld onderscheid maakt tussen geslacht. Wanneer je verschillende groepen mensen hebt in 1988 en een groep in 2013 is het wederom een onafhankelijke steekproef. Als je in 2007 een steekproef hebt getrokken en in 2008 dezelfde populatie hebt onderzocht, is het een afhankelijke steekproef. De tweede steekproef hangt dan volledig af van de vorige steekproef. Wanneer niet precies dezelfde populatie wordt onderzocht, maar zeer een zeer vergelijkbare populatie, is er ook sprake van een afhankelijke steekproef. Dit heet matching.

t-verdeling als kansverdeling

Bij de t-verdeling kijk je bijvoorbeeld naar de statistische maat, is het gemiddelde oordeel positief of negatief?
Wanneer je dit wilt berekenen, merk je dat de z-toets niet efficiënt is. Dit kan zijn, omdat je de standaardafwijking (sigma) en de populatie niet kent. Daarnaast kan de N kleiner zijn dan 100. Er wordt vaak gebruik gemaakt van de s als standaardafwijking. Maar bij een kleine N, is s in principe te laag om te gebruiken. Hoe kleiner de steekproef, hoe kleiner de standaardafwijking is in de steekproef ten opzichte van de standaardafwijking in de populatie. Een te lage standaardafwijking leidt tot een te lage standaardfout. Dit leidt ertoe dat er te snel significante resultaten zullen zijn. De nulhypothese wordt dan sneller verworpen dan bij de 5% significantieniveau.
Om deze reden wordt er gezocht naar een andere kansverdeling, namelijk de t-verdeling. Deze verdeling heeft ook een klokvorm. Voor elke steekproefomvang heb je een aparte t-verdeling. Hoe kleiner de kansverdeling, hoe platter de verdeling. Het oppervlakte onder de staarten gaat naar buiten. De grens (2,5%) ligt bij een kleine steekproef verder van nul af dan bij een grotere steekproef.
Wanneer we een steekproef groter dan 100 hebben, gebruiken we gewoon de z-toets met de standaardnormaalverdeling. SPSS gebruikt altijd de t-verdeling. Er is één uitzondering waarbij je niet de t-verdeling moet gebruiken, maar de z-verdeling. Dit is als de steekproef klein is, maar je weet de sigma en dat de populatie normaal verdeeld is. Op dit moment is de z-verdeling namelijk een stuk preciezer.

Vrijheidsgraden (degrees of freedom, df)

Dit is een bruggetje tussen de steekproefomgang en de verdeling die je kiest. Vrijheidsgraden is het aantal scores dat in de steekproef kan variëren wanneer het steekproefresultaat bekend is. Als we het gemiddelde kennen, hoef je niet meer te vragen wat een bepaald persoon gescoord heeft. Je kan dit beredeneren. Het kan nog maar 1 getal zijn, dus heeft geen vrijheid meer om te variëren.
Wanneer we een toets uitvoeren op een gemiddelde, is het aantal vrijheidsgraden gelijk aan alle waarnemingen- de laatste waarneming. Ofwel de omvang van de steekproef-1, df=N-1. De laatste waarneming beredeneer je dus. Voor elk aantal vrijheidsgraden heb je een t-toets.

Bijvoorbeeld: je hebt 48 vrijheidsgraden, je wilt tweezijdig met 0,05 toetsen, dan is je kritieke waarde 2,011. Hoe kleiner je steekproef, hoe verder van nul af de kritieke waarde is. Wanneer je oneindig veel vrijheidsgraden hebt, dus een oneindig grote steekproef, zijn de kritieke waarden van de t-toets hetzelfde als die van de z-toets. Hier blijkt uit dat je beide verdelingen kan gebruiken bij een grote steekproef.

 

t-verdeling gebruiken

t is een toetsingsgrootheid die scores aan kansen verbindt, net als z in de standaardnormaal verdeling.

Het enige verschil met de z-waarde is dat hier wordt gerekend met de vaste standaarddeviatie en niet met de sigma. Het enige dat dus verandert is dat je dus directe standaardafwijking kan gebruiken. Er worden 6 stappen onderscheiden:

  1. De statistische hypothesen worden gespecificeerd, bijvoorbeeld H0=0

  2. Kies de kansverdeling en de toets: t-verdeling en de t-toets voor gemiddelden. Omdat de steekproef kleiner is dan 100, we de sigma niet weten en de populatie niet normaal verdeeld is.

  3. Kies het significantieniveau. Dit kan je doen door de kritieke waarde op te zoeken, dan weet je wat het verwerpingsgebied is.

  4. Bereken de toetsingsgrootheid t voor de steekproef.

  5. Je gaat na of de t-waarde in het verwerpingsgebied valt. Hieruit blijkt of je de nulhypothese wel of niet kan aannemen en of je resultaat wel of niet significant is.

  6. Bepaal en interpreteer de effectgroote, wanneer je een significant resultaat hebt. Dit is cohens d. Is het significante resultaat wel relevant?

t is een toetsingsgrootheid die scores aan kansen verbindt, net als z in de standaardnormale verdeling. Bij de z-waarde moet je de sigma weten, standaardafwijking van de steekproef. Bij de t-waarde hoef je alleen de s-waarde, de vaste standaardafwijking.
Het enige dat verandert van de z-toets is dat je dus direct de standaardafwijking kan gebruiken. ligt de t-waarde in het verwerpingsgebied? -> kijken naar kritieke waarde.

T-verdeling voorwaarden

Als je een steekproef hebt van 30 of minder, mag je de t-toets alleen gebruiken als de populatie normaal verdeeld is. dit kan je doen door een histogram te maken en hier een normaalverdeling in te tekenen. Wanneer de populatie boven de 30 is, hoeft de populatie niet per se normaal verdeeld te zijn. Als je een te kleine steekproef hebt en geen normale verdeling hebt, bereken je alsnog de t-toets en schrijf je op dat je twijfels hebt of je de toets mag toepassen. Je laat merken dat je weet dat de resultaten misschien wel niet te vertrouwen zijn.
Bij de t-toets bereken je ook een betrouwbaarheidsinterval. Het enige dat verandert is, is dat je de kritieke waarde van t gebruikt in plaats van z. en je gebruikt de s in plaats van de sigma.


Bij het rapporteren van de t-verdeling vermeld je t, zoals bij de z-toets op 1 gemiddelde. Het enige verschil is dat je het aantal vrijheidsgraden () vermeldt direct achter t.

 

Toets voor 2 gemiddelden bij afhankelijke steekproeven


De nieuwe variabele is het verschil tussen wat iemand vorig jaar zei en wat die persoon nu zegt. Je gaat het gemiddelde van de verschillen bekijken, de nulhypothese hierbij is dat het nul zal zijn. De verwachting is dus dat er geen verschil zal zijn in wat iemand vorig jaar zegt en wat die persoon nu zegt. Deze nulhypothese kan je gewoon toetsen door het toetsen op een gemiddelde. Je hebt twee statistische populaties, die van vorig jaar en die van dit jaar. Beide moeten normaal verdeeld zijn, tenzij er meer dan 30 waarnemingen zijn. De steekproef moet afhankelijk zijn en de variabele moet minstens interval meetniveau hebben.

Toets voor het verschil tussen twee gemiddelden

Toets voor het verschil tussen twee gemiddelden, dit is onafhankelijke steekproef. Is er een verband tussen een groepsindeling (dichotomie) en een gemiddelde score per groep (minstens interval)? Hierbij ga je ook uit van de nulhypothese van 0. Het verschil tussen deze twee gemiddelden is de standaardfout. Dit heb je nodig om de standaardfout te berekenen:

Populatievarianties kunnen wel of niet gelijk zijn. Via SPSS kan je deze keuze maken, hebben de groepen wel of niet dezelfde populatievariantie? Dit is moeilijk omdat je de populatie niet weet, je weet slechts de steekproef. Je moet dus een beslissing maken over een kenmerk van de populatie, op basis van een steekproef. De nulhypothese is dat de populatievarianties hetzelfde zijn. We moeten de versie van de t-toets gebruiken die juist uitgaat van ongelijke populatievarianties, omdat we significantie willen. Deze toets is een voorwaarde voor de keuze van een andere toets.

t-toets voor correlatiecoëfficiënt


Je kan de t-verdeling gebruiken om de correlatiecoëfficiënt te toetsen. De nulhypothese moet zijn dat de correlatie in de populatie 0 nul is. Je hebt de correlatie van de steekproef en de correlatiecoëfficient nodig om te toetsen. Als je de nulhypothese verwerpt kan je stellen dat er wel een correlatie is tussen de variabelen. We hebben geen standaardfout dus we kunnen geen betrouwbaarheidsinterval bekijken. Je kan slechts een puntschatting geven.

 

Hoorcollege 6: Non-parametrische toetsen

Non-parametrische toetsen

Onze definitie van een non-parametrische toets is een toets waarbij alle variabelen maximaal ordinaal meetniveau hebben. Hiervoor zijn alleen parametrische toetsen besproken, namelijk toetsen op gemiddelden. De enige non-parametrische toets die hiervoor besproken is, is de toets op één proportie. Wanneer je een centrummaat voor een nominale of ordinale variabele gebruikt, kan je deze centrummaat ook voor een hogere variabele gebruiken. Je zou dus in principe altijd non-parametrische toetsen kunnen gebruiken. De reden waarom we dit niet doen, is omdat de centrummaat het gemiddelde meer informatie gebruikt. Het is zonde om een hoop informatie weg te gooien, omdat het onderscheidingsvermogen van een non-parametrische toets veel lager is dan het onderscheidingsvermogen van een parametrische toets. Wanneer je een lager onderscheidingsvermogen hebt, wordt de nulhypothese minder snel verworpen wanneer hij niet waar is.

Toets op een frequentieverdeling

Bij een nominaal of ordinaal meetniveau heb je vaak een klein aantal categorieën. Hier kan je makkelijk een frequentieverdeling van maken. Een frequentieverdeling is het aantal keren dat categorieën (van 1 variabele) voorkomen in de steekproef. Je wil iets over de populatie zeggen, waar de steekproef uit getrokken is.
Je hebt twee soorten nulhypothesen:

  • Doen alsof je niks van de wereld weet en doen alsof elke categorie een zelfde proportie hebben in de populatie. Dus alle categorieën zijn hetzelfde en de proportie in de populatie ook. 1= 2 = 3 etc.

  • Vaak is de bovenstaande te eenvoudig. Het alternatief is dat je voor elke partij een proportie in de populatie kiest. Bijvoorbeeld: de eerste is 20% de tweede is 30% etc. Maar hoe kom je dan aan deze getallen? Deze toets wordt het meest gebruikt als we een steekproef uit een populatie trekken waar we bepaalde kenmerken van kennen. Je gaat naar aanleiding van een bepaalde verhouding of resultaten, aannames doen. Je gaat er dus van uit dat de steekproef representatief is op een of meer kenmerken die je van de populatie weet. De nulhypothese is dan: mijn steekproef komt uit die populatie, als je deze niet kan verwerpen heb je een argument dat je steekproef goed getrokken is. Dit, in ieder geval binnen de marges van toeval.

De alternatieve hypothese is dus dat dit niet waar is. Dit betekent dat minstens 1 van de proporties in de populatie anders is dan in de steekproef.

De Chi kwadraat is de frequenties die je mag verwachten – de frequenties die je gevonden hebt. Chi kwadraat is een toetsingsgrootheid. De verwachte frequenties zijn de frequenties die je in de steekproef verwacht op grond van de nulhypothese. De geobserveerde frequenties zijn de frequenties die in de steekproef geteld zijn. Bij Chi kwadraat krijg je altijd positieve getallen. Bij de Chi kwadraat hoort als toetsingsgrootheid de Chi kwadraatverdeling. Deze ziet er zeer anders uit dan een normale verdeling. Hij kan namelijk alleen maar positief zijn en hij is niet symmetrisch. Je hebt dus een kansverdeling met slechts een staart, er kan dus ook alleen naar deze overschrijdingskans gekeken worden.

Een eenzijdige Chi kwadraattoets is mogelijk bij een toets op twee categorieën. Het is een toets op één proportie. Alleen bij twee categorieën kan je een nuttige nulhypothese opstellen. Je deelt dan de kans op, de ene houdt er rekening mee dat het wel hoger kan zijn en de ander houdt er rekening mee dat het wel lager kan zijn dan een bepaald percentage. De grens waarbij je zegt dat je resultaat significant wordt, wordt dan verdubbeld. Het ligt aan je statistische hypothese of je een- of tweezijdig toetst.

Bij elke Chi kwadraat kansverdeling heb je vrijheidsgraden. Df= k-1. Je hebt bijvoorbeeld 6 partijen, dus df = 6-1 = 5. Als we 5 van de 6 frequenties kennen, weten we de 6e, want we weten N. Als de vrijheidsgraden toenemen worden de kritieke waarden hoger, dus precies andersom als bij de t-verdeling. Hoe meer categorieën, hoe meer verschillen we bij elkaar optellen, dus het totaal aantal verschillen wordt logischerwijs groter. Hoe meer categorieën, hoe hoger de Chi kwadraat moet zijn om de nulhypothese te verwerpen.

Voorwaarden voor een benadering van steekproevenverdeling door Chi kwadraat kansverdeling.

  • Minstens 80% van de verwachte waarden is minstens 5

  • Geen enkele verwachte waarde is kleiner dan 1

Toets op een kruistabel

De kruistabel is een toets op twee waarden. Bij de kruistabel wordt de nulhypothese opgezet zonder Griekse letters. Nulhypothese: de twee variabelen zijn statistisch onafhankelijk in de populatie, dit betekent dat er geen verband is tussen de twee variabelen in de populatie. De samenhang tussen de variabelen is volgens de nulhypothese 0. We verwachten dat we uit elke aparte groep een aparte steekproef hadden kunnen nemen. Deze steekproeven zijn dus onafhankelijk. De onafhankelijke steekproeven staan in de kolommen. Statistische onafhankelijkheid betekent dat de verdeling van een groep over elke kolom dan hetzelfde is. De percentages die je in de steekproef vindt over bijvoorbeeld verschillende kranten, dat zijn de percentages die je op basis van de nulhypothese verwacht in elke kolom binnen die steekproef. In principe zeg je dat je de steekproef uit dezelfde populatie had kunnen trekken, dan zouden de kolompercentages hetzelfde moeten zijn. De verwachte frequenties kan je in een kruistabel uitrekenen. De toetsingsgrootheid is de Chi kwadraat. De vrijheidsgraden bereken je door df=(k-1)(r-1). K staat voor kolommen, het aantal categorieën en r staat voor rijen. Je moet het aantal cellen tellen, maar de laatste kolom en de laatste rij moet je buiten beschouwing laten. Dit is, omdat je de laatste cellen kan berekenen. De kritieke waarden kan je zoeken in de significantietabel. Wanneer er samenhang is, zoek je een associatiemaat uit. Je zegt dan ook iets over de sterkte van de samenhang, dus niet alleen iets over de significantie. Na dat je weet dat er een verband is, kijk je nog naar de inhoud van het verband. Daarom ga je een aantal cellen uitlichten, om de significante verschillen te tonen. Dit doe je door per cel een toets te doen. De nulhypothese hierbij is dat de cel oninteressant is, wanneer je dit verwerpt is de cel wel interessant. Deze cellen heten gestandaardiseerde celresiduen, die bij benadering standaardnormaal verdeeld zijn.

 

 

Voorwaarden Chi kwadraat kansverdeling als benadering

  • 80% van de verwachte waarden van de cellen is minstens 5 en geen enkele verwachte waarde is kleiner dan 1

  • En minstens één van beide variabelen heeft meer dan twee categorieën.

Als je een 2x2 kruistabel hebt, gebruik je altijd de Fischer-exact toets. Deze levert SPSS automatisch. Hierbij krijg je slechts een overschrijdingskans (p-waarde), maar toets je wel dezelfde nulhypothese als de Chi kwadraattoets.

Toets op rangcorrelatie

<

p>Rangcorrelatie Spearman gebruik je wanneer beide variabelen ordinaal meetniveau hebben of wanneer het verband tussen de variabelen duidelijk krom is. Een verband is krom wanneer interval of ratio variabelen niet normaal verdeeld zijn of duidelijk geen lineair verband hebben. De nulhypothese is dat de rangcorrelatie nul is (of groter of gelijk aan nul of kleiner of gelijk aan nul). Bij een kleine steekproef (N<30) kijk je naar de kritieke waarde uit de tabel, dus je hebt geen toetsingsgrootheid. Bij een grotere steekproef krijg je deze toetsingsgrootheid:

Keuzeschema voor het toetsen

 

Hoorcollege 7: Eenwegs-variantieanalyse

Variantie

Variantie is een spreidingsmaat voor een interval of ratio meetniveau variabele. Interval of ratio wordt ook wel numeriek genoemd. De toetsen hierbij hebben een groot onderscheidingsvermogen. Een variantie geeft aan hoe goed het gemiddelde een verdeling karakteriseert. De variantie is de gemiddelde gekwadrateerde afwijking ten opzichte van het rekenkundig gemiddelde. Elke variantie heeft een kwadratensom en een aantal vrijheidsgraden.

F-toets op gelijke varianties

Is de spreiding in scores binnen de ene groep anders dan in de andere groep? Dit is een onderzoeksvraag over varianties. Als het draait om de spreiding, moet een variantietoets gedaan worden. Een grotere spreiding is een grotere afstand van de scores ten opzichte van het gemiddelde. Wanneer er meer spreiding is, heb je meer extreme waarden. Als je wilt toetsen dat er geen spreiding is, kan je zeggen dat er geen verandering zal zijn in gemiddelden. De groep met de grootste variantie moet in de teller staan, groep 1 moet dus de grootste variantie zijn. Zo heb je H1 2010 > 2000. Dan is groep 1 groter dan groep 2.

De toetsingsgrootheid is F. De variantie in de steekproef van groep 1 wordt gedeeld door de variantie in de steekproef van groep 2. Deze kansverdeling heeft twee vrijheidsgraden. De verhouding in de twee varianties heeft zowel vrijheidsgraden in de teller als in de noemer. De vorm van de varianties verschilt nogal door de vrijheidsgraden. De F-verdeling is asymmetrisch. Wanneer je een tabel maakt moet je de vrijheidsgraden zowel in de rijen als in de kolommen zetten. Zo kan je de kritieke waarde van een vrijheidsgraad in de teller en een vrijheidsgraad in de noemer zoeken. Elk significantieniveau heeft een aparte tabel met kritieke waarden.

De F-waarde is altijd 1 of groter, omdat je de grootste variantie als teller hebt. Om deze reden kijk je alleen naar de rechterstaart van de kansverdeling. Wanneer je niet wilt uitsluiten dat iets zo is, stel je de nulhypothese tweezijdig op. Beide mogelijkheden moeten dan in de rechterstaart worden gedaan. Je gaat de oppervlakte van de rechterstaart horizontaal door twee delen. Het bovenste gedeelte hoort dan bij een kans en het onderste gedeelte hoort dan bij een kans. Wanneer je twee keer 5% significantieniveau hebt, heb je dus een significantieniveau van 10%. Wanneer je iets wel uitsluit, dan zeg je dat het bovenste deel niet mogelijk is. Dan is het significantieniveau slechts 5% en wordt er eenzijdig getoetst.
Als je tweezijdig wilt toetsen, moet de kritieke waarde dus nog een stukje naar rechts. Het is een inhoudelijke keuze of je een- of tweezijdig wilt toetsen.

Voorwaarden voor een F-toets

  • De variabele heeft minstens interval meetniveau

  • Beide populaties moeten normaal verdeeld zijn, of beide steekproeven moeten groot zijn (

  • De F-toets wordt het meest gebruikt als ingangstoets bij de t-toets op twee gemiddelden (onafhankelijke steekproeven)

 

Uitgangspunten variantieanalyse

Hoe kunnen we de gemiddelden van drie of meer groepen tegelijk vergelijken? Je kijkt hier naar door een schaalscore. Het gemiddelde wordt hierbij meer bekeken dan de spreiding. Voor 1 of 2 gemiddelden hebben we al toetsen. Bij de nulhypothese zeg je dat het gemiddelde hetzelfde is voor elke groep. De alternatieve hypothese volgt hieruit, minstens 2 van deze groepsgemiddelden zijn niet hetzelfde als de populatie. Bij meer of twee groepen moet je in één getal kunnen uitdrukken hoe groot de verschillen zijn tussen de gemiddelden. Bij de t-toets met twee gemiddelden, zie je dat aan het verschil tussen twee gemiddelden. Bij een variantieanalyse werkt dit niet.
De oplossing hiervoor is de spreiding van de groepsgemiddelden te gebruiken. Hoe meer spreiding, hoe groter de verschillen tussen de groepsgemiddelden. De spreidingsmaat die je hierbij gebruikt is de variantie. Dit heet ook wel de tussengroepsvariantie (between groups variances): de spreiding van de groepsgemiddelden ten opzichte van de totaalgemiddelden. Wanneer de tussengroepsvariantie 0 is, is er geen spreiding en zijn alle groepsgemiddelden gelijk aan het totale gemiddelde. Je hebt bijvoorbeeld het gemiddelde van trouw, het gemiddelde van nrc en het gemiddelde van telegraaf. Deze vergelijk je dan met het totaalgemiddelde.

De analyse heet dus variantieanalyse, maar de nulhypothese gaat over groepsgemiddelden. De variantie van de groepsgemiddelden ga je dus toetsen. Als er geen spreiding is tussen de groepsgemiddelden, moeten de groepsgemiddelden hetzelfde zijn. De nulhypothese kan dus zijn dat de tussengroepsvariantie nul is.

Binnen elke populatie zijn er verschillen in scores op de variabele: binnengroepsvariantie. Dit is de spreiding binnen de groep. Het steekproefgemiddelde (M) kan dus afwijken van het populatiegemiddelde (sigma). Dit is de toevallige binnengroepsvariantie in de steekproef, het zou zo maar kunnen zijn dat het gemiddelde wel klopt. Dit heeft te maken met de standaardfout. Is er een kleine spreiding, is er een kleine standaardfout. De steekproevenverdeling zal dan hoger en smaller zijn. Het steekproefgemiddelde ligt dan dichterbij het populatiegemiddelde. Als er een grote standaardfout is ligt het steekproefgemiddelde juist verder van het populatiegemiddelde.

Als de nulhypothese waar is, moet de tussengroepsvariantie gelijk zijn aan de binnengroepsvariantie. Dan hou je rekening met toeval. Dit is een nieuwe nulhypothese met twee varianties. Als de nulhypothese niet klopt, zijn niet alleen de toevallige fouten verschillend, maar zijn er ook echte verschillen tussen de steekproefgemiddelden. De tussengroepsvariantie kan niet kleiner zijn dan de binnengroepsvariantie, vandaar dat er rechtseenzijdig getoetst wordt.

Toetsingsgrootheid F

Om de nulhypothese met twee varianties te toetsen gebruik je toetsingsgrootheid F. Des te kleiner de kans om deze verschillen in de steekproef te vinden wanneer de nulhypothese waar zou zijn, des te eerder verwerpen we de nulhypothese dat er geen verschillende groepsgemiddelden in de populatie zijn.

Tussen- en binnengroepsvarianties schatten:

  • Splits de totale kwadratensom

  • Splits de vrijheidsgraden

  • Deel de kwadratensom door de vrijheidsgraden (mean squares)

Waarbij J het aantal groepen is.

Voorwaarden variantieanalyse

  • Afhankelijke variabele moet minstens interval meetniveau zijn

  • De groepen kunnen worden beschouwd als onafhankelijke steekproeven.

  • De groepen zijn ongeveer even groot OF ze zijn niet even groot, maar ze hebben gelijke varianties voor de afhankelijke variabele in de populatie. Met het laatste wordt homogeniteit van varianties bedoeld. Met ongeveer even groot wordt maximaal 10% verschil bedoeld. Wanneer deze beide voorwaarden niet kunnen, wordt Levene’s Test of Equality of Error Variances op SPSS gedaan.

Bij de rapportage vermeld je

  • Soort variantieanalyse: eenwegs-variantieanalyse voor onafhankelijke waarnemingen

  • Het toetsresultaat F (df1, df2) en p

  • De gemiddelde scores van de groepen (met s), de eenheden en de variabelen

  • Als groepen niet even groot zijn: het resultaat van de toets op homogeniteit van varianties (equal error variances): F (df1, df2) en p.

 

Hoorcollege 8: Tweewegs-variantieanalyse

Eenwegs-variantieanalyse

De spreiding tussen de scores in de numerieke variabelen gaan we splitsen. Je kijkt naar de verschillen tussen- en binnen de groepen. Hoe groter de gemiddelde verschillen in de steekproef zijn, hoe groter de gemiddelde verschillen in de populatie zullen zijn. Wat is beter als je een significant resultaat wilt vinden? Een grote of kleine binnengroepsspreiding? Als je door een groter getal deelt, krijg je sneller een kleine F, dus is hij minder snel significant. Je vindt dus eerder een significant verschil als de binnengroepsspreiding kleiner is. Hoe groter de spreiding, hoe toevalliger het steekproefgemiddelde. Als je een kleinere spreiding hebt, zeggen de gemiddelden meer. Dit is zo, omdat bij een grotere spreiding je één uitschieter kan hebben, waardoor de waarden meer toevallig worden.

Post-hoctoetsing

Wanneer we een significante F-toets hebben, stellen we dat de populatiegemiddelden van 2 of meer groepen verschillend zijn. Je wilt weten waar de verschillen liggen. Hierbij moet je dus groepsgemiddelden onderling gaan vergelijken. Dit is een soort t-toets voor elk paar van gemiddelden, of wel een post-hoc toets. Hier zit een probleem aan vast. Als we vaker een toets uitvoeren met dezelfde gegevens, dan is bij elke toets de kans dat we de nulhypothese verwerpen geen 5% meer, maar 10%. Je wilt toetsen met een significantieniveau van 5%, maar omdat de toets herhaald wordt, is de totale kans dat we een keer een significant resultaat vinden veel groter dan 5%. Dit heet kanskapitalisatie, de kans wordt steeds groter dat je een significant verschil vindt.
Als je drie vergelijkingen gemaakt heb, deel je dat significantieniveau door 3. 5% wordt dan door 3 gedeeld. Dan heb je alsnog een maximaal 5% kans de nulhypothese ten onrechte te verwerpen. Dit heet de Bonferroni correctie: deel α door het aantal vergelijkingen die je maakt. Bij de rapportage van de Bonferroni correctie vermeld je tussen welke groepsgemiddelden er significante verschillen gevonden zijn, het gemiddelde verschil en de bijbehorende overschrijdingskans.

Tweewegs-variantieanalyse

Een- of tweewegs-variantieanalyse staat voor het aantal variabelen dat je gebruikt bij de analyse. Bij de tweewegs-variantieanalyse wordt er gekeken naar 2(of meer) onafhankelijke categorische variabelen en één interval/ratio variabele. Het is een multivariate analyse, een verband tussen 3 of meer variabelen. Het effect van één onafhankelijke variabele (factor) op de afhankelijke variabele heet het hoofdeffect. Je hebt dus altijd 2 of meer hoofdeffecten. Voor elk hoofdeffect stel je een nulhypothese op: de gemiddelden in de groepen is hetzelfde. Ofwel, de tussengroepsvariantie-binnengroepsvariantie = 1. Dit wordt precies op dezelfde manier als bij een eenwegs-variantieanalyse berekend, met een F-toets.

Interactie-effect

Als je drie of meer variabelen gaat bekijken, kijk je niet alleen naar de hoofdeffecten. Je kijkt ook naar de combinatie van de variabelen, namelijk een interactie-effect. De kern hiervan is dat je zegt dat de verschillen tussen mannen en vrouwen niet bij alle kranten hetzelfde zijn. Deze probeer je vaak te interpreteren door een grafiek. Wanneer er een parallelle lijn loopt in de grafiek, is er geen sprake van een interactie-effect. De lijnen lopen dan gelijk met elkaar. Wanneer er duidelijk niet-parallelle lijnen lopen, is er sprake van een interactie-effect. Het toont ongelijke verhoudingen binnen groepen. Het kan ook zijn dat deze lijnen elkaar kruizen.
Interactie effecten zijn veel relevanter dan hoofdeffecten, omdat ze meer interessant zijn. Moderatie: het soort boodschap heeft alleen of meer effect op mensen die daar ontvankelijk voor zijn, om welke reden dan ook.

Voor een interactie effect is ook een F-toets. Je hebt subgroepen (mannen VS vrouwen en soort krant) waarbij je een nulhypothese kan opstellen. De tussengroepenvariantie is het verschil tussen het gemiddelde van deze subgroepen. De binnengroepsvariantie is het verschil binnen deze subgroepen. De tussengroepsvariantie is de combinatie van beide groepen. De vrijheidsgraden is dan het aantal groepen op de eerste factor x het aantal groepen op de andere factor.

Effectgrootte

Statistisch significant, hoeft niet relevant te zijn. Een statistisch significant resultaat zegt dat de gemiddelden niet hetzelfde zijn in de populatie, maar misschien zijn deze verschillen zo klein dat ze niet relevant zijn. Om te kijken hoe groot de verschillen zijn hebben we de effectgrootte eta2. Eta2 is de proportie verklaarde variantie, de kwadratensom van het effect gedeeld door de totale kwadratensom.
Eenwegs-variantieanalyse: n^2 = SSb : SSt
Tweewegs-variantieanalyse n^2a= SSa: SSt en n^2b = SSb:SSt
Interactie-effect: n^2 = axb:SSt

Vuistregel interpretatie sterkte verband:
0,01: klein/zwak effect, 1% verklaarde variantie
0,09: middelmatig effect, 9% verklaarde variantie
0,25: groot effect, 25% verklaarde variantie

Stappen variantieanalyse

  1. F-toets op de effecten van de categorische variabelen: is er een effect? Zijn er verschillen tussen de (sub) groepen.

  2. Als het significant is, bereken je eta2. Dit doe je om te weten hoe groot het effect is.

  3. Dan wil je weten waar het verschil is aan de hand van een post-hoctoets. Dit doe je door middel van een Bonferroni correctie.

Voorwaarden (zelfde als bij een eenwegs-variantieanalyse)

  1. De afhankelijke variabele is minstens interval

  2. De groepen kunnen beschouwd worden als onafhankelijke steekproeven

  3. De groepen hebben gelijke varianties voor de afhankelijke variabele in de populatie OF de groepen zijn ongeveer even groot. De grootste groep mag maximaal 10% groter zijn dan de kleinste groep. Deze regels gelden bij een interactie-effect ook voor subgroepen.

Rapportage

  • Vermeld het soort variantieanalyse

  • Vermeld het toetsresultaat voor elk effect: F (df1, df2), p en eta2 (indien significant).

  • Bij elk significant effect moet je uitleggen wat de gemiddelde scores van de groepen zijn met de standaardafwijkingen, je geeft de sterkte van het effect aan en geeft de eenheden en variabelen van het onderzoek

  • Je rapporteert tussen welke paren van groepen je een sifnigicant hebt gevonden met de post-hoc toetsen.(Mverschil en p)

Je mag deze getallen in één tabel geven.

 

Hoorcollege 9: Regressieanalyse

Enkelvoudige regressie

Regressie gebruiken we voor een asymmetrisch verband tussen twee interval/ratio variabelen. De onafhankelijke variabele (X) is de prediktor, versus de afhankelijke criterium variabele (Y). Om te kijken of hiertussen een lineair verband is, kijk je naar de spreidingsdiagram.
a= constante (intercept) Y bij X=0 en b= regressiecoëfficiënt, de toename van Y als X met 1 toeneemt. R2 is de proportie verklaarde variantie. Kan je het een voorspellen door het ander?

Toets op een regressiecoëfficiënt

Een andere steekproef levert een andere regressielijn op, geen enkele steekproef is hetzelfde. Hierbij kan zowel a als b veranderen. Er is dus een steekproevenverdeling voor zowel a als b. Ergens is er een steekproevenverdeling aangegeven hoe groot de kans is dat je a of b in de steekproef vindt. Op basis hiervan kan je iets schatten.

Schatten van een regressiecoëfficiënt:

  • De regressiecoëfficiënt in de steekproef (b) is een zuivere schatter van de regressiecoëfficiënt in de populatie (β). Als je een getal moet noemen, geef je dus dit getal als beta van de populatie. β is de gestandaardiseerde b (b*). Dit is de puntschatting, die hoogstwaarschijnlijk fout is.

  • Sb is de standaardafwijking van de regressiecoëfficiënt in de steekproevenverdeling (de standaardfout).

  • Als je een intervalschatting wilt doen, bereken je het betrouwbaarheidsinterval. Hierbij heb je de standaardfout van de richtingscoëfficiënt nodig.

  • De vrijheidsgraden bereken je zo: df = N – k – 1 (k is het aantal onafhankelijk variabelen).

De nulhypothese is vaak dat de richtingscoëfficiënt in de populatie 0 is. Dit kan zowel eenzijdig als tweezijdig getoetst worden. De toetsingsgrootheid is een t-waarde

met df = N- k- 1.
De overschrijdingskans van deze t-waarde is de kans dat je deze t-waarde of een meer extreme vindt, wanneer de nulhypothese juist zou zijn.

Waarom toetsen we de regressiecoëfficient?

  • Als β=0: een verandering in de onafhankelijke variabele (x) geeft geen verandering in de voorspelde waarde van Y.

  • Als je deze kan verwerpen, mag je er al van uit gaan dat de onafhankelijke variabele wel voorspelt: dus een effect heeft.

Waarom toetsen we de constante (intercept)?

  • Wanneer we inhoudelijke redenen hebben om te verwachten dat de constante 0 (of een ander getal) in de populatie.

  • Voorbeeld: als je 0 keer internet gebruikt, lees je ook 0 keer de krant. Als dit inhoudelijk interessant is krijg je naar de bovenste regel.

 

Nominale predictoren

Een man (0) en vrouw (1) variabele, is geen interval/ratio meetniveau. Je kan niet zeggen hoe hoger je scoort, hoe meer je vrouw bent. Het is een dichotomie, met een nominaal meetniveau.
De regressievergelijking: Y^= a + bsekse x sekse, met sekse als variabele.
Voor mannen geld dan: Y^= a + bsekse x 0, dus b valt als het ware weg.
Voor vrouwen geld dan: Y^= a + bsekse x 1, dus b blijft dezelfde waarde hebben.
Je mag het gebruiken, omdat je als het ware twee regressievergelijkingen combineert. Je maakt verschillende versies van dezelfde regressieanalyse. De interpretatie van bsekse geeft het gemiddelde verschil tussen mannen en vrouwen. Voor de mannen voorspellen we allemaal a, voor alle vrouwen voorspellen we allemaal a + b. Daarom is het als het ware hetzelfde als een t-toets doen tussen voorspelde gemiddelden van mannen en vrouwen. Bij een regressieanalyse moet één van de onafhankelijke variabelen dus wel interval/ratio zijn. Je gebruikt het dus slechts bij een meervoudige regressieanalyse, niet bij een enkelvoudige regressieanalyse.

Je mag dummyvariabelen (1 vs 0) gebruiken voor de regressievergelijking. Een predictor met J > 2 categorieën mag. Je gaat er dan een dichotome variabele van maken, met waarden 0 en 1. Je hebt maar twee dummy’s nodig, als je drie groepen hebt is de derde de vergelijkingsgroep. We kijken hierbij bij de SPSS output naar de ongestandaardiseerde B, omdat je dan makkelijk kan vergelijken. Je hoeft niet naar de Beta te kijken bij een 0-1 verdeling. De t-waarde is wel belangrijk.

Meervoudige regressie

Elk effect (b die je schat) is onder constant houding van de effecten van de andere variabelen. Dit zijn ook wel partiële effecten. Je moet dit bij het rapporteren ook vernoemen. Je schat meer dan 1 b richtingscoëfficiënt. Je wilt bekijken welke effecten sterk of zwak zijn. Met de 0-1 variabele kan je prima interpreteren, dus je kan prima zeggen dat als de b voor mannen of vrouwen groter is dan bij hoog of laag opgeleiden. Je kan deze vergelijking maken, wel onder voorwaarde dat je bij die 0-1 variabele de dummyvariabele zet. Bij de interval/ratio zegt de regressiecoëfficiënt niet zo veel. Je kijkt hierbij liever naar de gestandaardiseerde regressiecoëfficiënt (b*). Als je de ongestandaardiseerde b weet en de standaardafwijkingen van de variabelen, kan je deze berekenen.

Als je een meervoudige regressie hebt, kan je elke afzonderlijke b toetsen. Het is handiger eerst een toets te doen op het hele regressiemodel. Voorspelt dit regressiemodel ook in de populatie iets in de afhankelijke Y? Als dit niet het geval is, hoef je niet meer naar de resultaten te kijken. Je kan dan niks met het regressiemodel voorspellen. R is de totale correlatie tussen de afhankelijke variabele Y en de onafhankelijke variabelen X. Je toetst altijd eenzijdig, omdat de R niet lager dan 0 kan zijn. De nulhypothese is, dat alle regressiecoëfficiënten die je hebt 0 zijn in de populatie.

Variantiesplitsing: de totale kwadratensom splitsen in de ‘verklaarde’ kwadratensom (SSregressie) en de ‘onverklaarde’ kwadratensom van de residuen (SSresidu). Dit lijkt veel op de F-toets.

F significant: minstens één van de onafhankelijke variabelen voorspelt Y in de populatie. Wanneer F significant is, ga je de toetsen op b bekijken. Je gaat kijken welke onafhankelijke variabelen een significant effect hebben. Het kan zijn dat er geen enkele b is, die significant is. Als een toegevoegde waarde geen significante b heeft, is de kans klein dat je voor deze variabele een effect vindt. Bij replicatie krijg je dan verkeerde resultaten. Bij een nieuwe steekproef kan je dan namelijk andere resultaten vinden. Er wordt er een nieuwe toets bij verzonnen, om te kijken of je de reservevariabele ook kan gebruiken.

Dit is de F-change toets, met als nulhypothese dat beide modellen evengoed de populatie voorspellen. Hierbij is de toetsingsgrootheid F. Het ene model bestaat uit de vaste predictoren, bij het andere model wordt de reservevariabele toegevoegd. Als het significant is, blijkt dat het model met de reservevariabele beter is. Dan wordt de voorspelling van de populatie beter.
Je kan wel veranderende effecten hebben bij het toevoegen/ weghalen van predictoren. Als je het aantal voorspellers verandert, veranderen de effecten ook vaak. Dit kan wanneer de andere predictoren onderling gecorreleerd zijn. Bijvoorbeeld: tussen internetgebruik en leeftijd zit ook een correlatie. Dit is een spurieus effect dat je vindt. Je ziet dit in een causaal model, de gewichten bij de pijlen (b*) zijn de directe effecten. Mediatie is een indirect effect, dit is een product van de directe effecten.

Voorwaarden en controles

  • Minstens interval meetniveau (onafhankelijke variabele mag een dichotomie zijn)

  • Het verband tussen variabelen is lineair (rechtlijnig). Dit controleer je door een puntenwolk te maken in spreidingsdiagrammen. Zolang de puntenwolk niet duidelijk scheef is, mag je de regressieanalyse uitvoeren.

  • De residuen die we naast onze voorspelling zitten, moeten normaal verdeeld zijn en homoscedastisch. Als iets homoscedastisch is, moet voor elke dwarsdoorsnede die je verticaal kan maken de spreiding van de punten hetzelfde zijn. Als de getrokken lijnen horizontaal lopen, is het wel homoscedastisch. Dit kan je controleren door de histogram normaal verdeeld zijn en de spreidingsdiagram er goed uit ziet.

Als aan de aannamen voldaan wordt, mag je de standaardfout en overschrijdingskans vertrouwen.

 

Hoorcollege 10: Effectgrootte en onderscheidingsvermogen

Omvang steekproef en effectgrootte

Hoe groot moet de steekproef zijn die ik trek? Dit hangt af van de voorwaarden van de toets, deze kunnen soms direct consequenties hebben voor de toets. Je moet eerst kijken welke toets je moet uitvoeren, door naar de variabelen die je wilt toetsen te kijken en het meetniveau hiervan.

  • t-toets: >30 cases per groep (misschien niet normaal verdeeld).

  • Variantieanalyse: groepen van gelijke omvang, dan hoef je geen toets op homogene varianties uit te oefenen.

  • Chikwadraattoets: fe > 5 per categorie (toets op 1 variabele) of per combi

  • natie van waarden op 2 variabelen (toets op kruistabel). Maximaal 20% mag lager dan 5 zijn.

  • Regressie: > 15 cases per onafhankelijke variabele.

Uiteindelijk is de omvang van de steekproef vooral van belang in combinatie met wanneer je een significant resultaat hebt, oftewel de effectgrootte.

Bijvoorbeeld:
H0 van 16 uur per week. Stel dat het in het echt 22 uur is. Als je vind dat het in het echt 22 uur zijn, dan kan je in ieder geval je nulhypothese verwerpen. Waar ga je die grens leggen? Wanneer het 16,5 is, vind je het vast niet zo erg. Maar als het verschil zo groot is, wil je je nulhypothese verwerpen. Effectgrootte: hoe groot moet het verschil zijn in tussen wat je in de nulhypothese verwacht en wat in het populatie echt is, als je een significant resultaat wilt hebben? Hoe groter de steekproef, hoe eerder je significant resultaat vindt. Als je kleine verschillen wilt, heb je een grote steekproef nodig en als je grote verschillen wilt vinden heb je een kleine steekproef nodig.

 

Voor welke aspecten is de omvang van de steekproef relevant voor de toets die je gaat uitvoeren?

  • De vrijheidsgraden zijn afhankelijk van de steekproef, dus als je een grotere steekproef hebt, heb je meer vrijheidsgraden. De kritieke waarden worden wat lager als je meer vrijheidsgraden hebt, dan verwerp je dus eerder de nulhypothese. Meer vrijheidsgraden leidt tot een grotere kans op significant resultaat.

  • Bij de berekening van de toetsingsgrootheid is de grootte van de steekproef ook relevant, omdat je de standaardfout van het steekproefgemiddelde hierbij gebruikt. Bijvoorbeeld: als de N groter wordt, wordt de standaardfout kleiner, dus t wordt dan groter. De t-waarde zal sneller groter zijn dan de kritieke waarde, dus hij heeft meer kans in het verwerpingsgebied te liggen. Wederom heb je eerder een significant resultaat bij een grotere steekproef.

Wanneer er een groter verschil is tussen M en μ wordt het hoger en vaker significant en is er een kleinere steekproef nodig om H0 te verwerpen. De effectgrootte waarbij de nulhypothese verworpen moet worden is het criterium voor de omvang van de steekproef. Je moet nadenken over het kleinste verschil tussen de gemiddelde en populatiegemiddelde waarbij je significant resultaat vindt.

Voorbeeld:
H0: μ = 16, (geschatte) s = 12
α = 5%, tweezijdig toetsen. De minimale effectgrootte die significant moet zijn is een verschil van 6. Dus wanneer μ echt= 22 (of 10) dan moet t significant zijn. Het populatiegemiddelde is de meest waarschijnlijke waarde voor het steekproefgemiddelde. Je kan dan in de formule alles invullen, behalve N. Hier ga je een aantal mogelijkheden voor kiezen. Ergens tussen een steekproefomvang van 16 en 25 wordt dit significant, dit is de minimale steekproefomvang om een significant resultaat te krijgen wanneer μ echt >_ μ + 6.

 

Complicatie: je moet de standaardafwijking weten. We gaan verder door niets te zeggen over de effectgrootte, maar het alternatief is dat we een gestandaardiseerde effectgrootte gaan opzetten. Dit is het verschil tussen de gemiddelden gedeeld door de standaardafwijking. M – μ 0: s. Deze waarde kan je dan in de formule van t invullen. Hierbij gelden dezelfde vuistregels: 0,2 klein effect, 0,5 middelmatig effect en 0,8 is een sterk effect. Dit is makkelijk, omdat je dan niet hoeft te schatten maar je richt op de globale richtlijn.

Dus wanneer je werkt met de gestandaardiseerde effectgrootte mag s onbekend blijven, omdat we de gestandaardiseerde effectgrootte in de formule voor t. De gestandaardiseerde effectgrootte verschilt per toets.

 

Onderscheidingsvermogen

 

Het steekproefgemiddelde ligt meestal iets boven of onder het populatiegemiddelde. Als je er vanuit zou mogen gaan dat je precies hetzelfde gemiddelde krijgt, klopt de bovenste beredenering. Maar dit is juist niet het geval. Je moet hierbij ook nog kijken naar kansen en kansverdelingen. Dus wat is de kans dat we de nulhypothese H0 : μ = 16 verwerpen wanneer μ echt = 22? Als in het echt het populatiegemiddelde 22 is, wil je de nulhypothese verwerpen. Als je deze accepteert, klopt hij niet. De kans dat we een foute nulhypothese verwerpen, trekken we de juiste conclusie. Als we de foute nulhypothese niet verwerpen, trekken we een foute conclusie. Dit is de fout van het tweede soort. Je weet echter niet dat we een foute conclusie trekken.

Hoe groot is de kans dat we de foute nulhypothese (μ = 16) verwerpen?

  • Dit is het onderscheidingsvermogen (power) van de toets

  • Onderscheidingsvermogen is 1- β. Het overige gedeelte wordt de nulhypothese niet verworpen, dan krijg je een fout van de tweede soort.

  • β = de kans op een fout van de tweede soort. De kans dat je de foute nulhypothese niet verwerpt.

De onderzoeker denkt dat de populatie 16 is. De onderzoeker beslist op grond van deze verdeling. De H0 wordt verworpen als t in het verwerpingsgebied ligt. Je hebt dus onderscheid tussen de echte wereld (μ echt = 22) en de hypothetische wereld (μ 0 = 16). Als je een steekproef vindt, rechts van de kritieke waarde, wordt de hypothese verworpen. Zonder dat de onderzoeker dat weet, spreekt hij dan de waarheid. Hij neemt de juiste beslissing over de echte werkelijkheid, omdat in de echte wereld het gemiddelde 22 is en geen 16. Als hij de nulhypothese wel aanneemt, maakt hij een fout van de tweede soort.

Net als voor het significantieniveau (fout op eerste soort) is er voor het onderscheidingsvermogen ook een vuistregel. Je streeft naar een onderscheidingsvermogen van 80%, dus de maximale kans op een fout van de tweede soort is 20%.

 

H0 is waar

H0 is niet waar

H0 accepteren

Geen fout
(95%)

Fout van de tweede soort kans β
(max. 20%)

H0 verwerpen

Fout van de eerste soort, kans is significantieniveau α
(5%)

Geen fout kans: onderscheidingsvermogen (1-β)
(80%)

De onderzoeker weet dus niet wanneer hij een fout maakt, omdat hij de populatie niet kent. Hij weet wel dat hij maximaal 5% een fout kan maken.

Uiteindelijk zijn de keuzes die je moet maken. Idealiter wordt de omvang van de steekproef gekozen op grond van:

  • Het gekozen significantieniveau: meestal 5%

  • De gekozen gestandaardiseerde effectgrootte

  • Het gekozen onderscheidingsvermogen van de toets: minstens 80%.

Dit hoef je niet zelf te berekenen, maar je maakt gebruik van software.

 

Samenvatting:

  • Onderscheidingsvermogen (power) van de toets: de kans dat we een foute nulhypothese verwerpen.

  • Als deze te laag is, moet je of grotere steekproeven trekken of beter een parametrische toets uitvoeren in plaats van een non-parametrische toets.

Wanneer je een hogere onderscheidingsvermogen hebt is een kleinere effectgrootte significant en kan een kleinere effectgrootte dus minder relevant zijn. Dit is een keerzijde van een hoog onderscheidingsvermogen. Praktische relevantie is niet altijd aanwezig als de verschillen heel klein zijn.

 

Keuzeschema toetsen
Stap 1: hoe veel en wat soort variabelen heb je?

 

Aantal onafhankelijke variabelen

 

Nominaal

Afhankelijke Variabele

Ordinaal

 

Interval

0

X² 1 variabele
z 1 proportie

X² op 1 variabele (we behandelen de variabele dan alsof het nominaal meetniveau is)

(z-) of t-toets op 1 gemiddelde

0 gepaard
(1 variabele vaker gemeten)

 

Rs

t-toets, r

1

 

ZIE VOLGENDE TABEL

 

>2 alleen nominaal of ordinaal

 

 

Variantieanalyse

>2 ook interval

 

 

Regressie

Als je alleen maar nominale of ordinale variabelen hebt, doe je een variantieanalyse. Je kan een regressieanalyse doen, maar dan moet je overal een dummyvariabele maken. Dus dan is het minder makkelijk een regressieanalyse gebruikt.

Een z-toets heeft een hoger onderscheidingsvermogen dan een t-toets, daarom zou je daar voor kunnen kiezen.

Stap 2: bij 1 onafhankelijke en 1 afhankelijke variabele

Onafhankelijke variabele

 

Nom 2 cat.

Afhankelijke variabele
Nom > 2 cat.

 

Ordinaal

 

Interval

Nom. 2 cat.

Fischer-exact

(z-) of t-toets, Levene’s F

Nom. >2 cat.

Variantieanalyse

Ordinaal (>2 cat)

Rs

Variantieanalyse

Interval


groeperen


groeperen

Rs

Correlatie, regressie

 

Hoorcollege 11: Responsie

Tussenwaarden in sifnificantietabellen

Vraag:
Wat als je de z-waarde 0,175 moet opzoeken? Moet je dan kijken van Pr(0,17) of Pr(0,18)?
Antwoord:
Als je alleen de kans wilt weten, kun je op de normale manier afronden: 0,175 wordt 0,18.
In de praktijk maakt dit echter niet veel uit.

Een vergelijkbaar probleem krijg je bij vrijheidsgraden in tabellen t en F (en rs). Stel: je hebt een variantieanalyse gedaan met een F-waarde, die heeft df=11 in de teller en df = 40 in de noemer. Dan kan je in een keuze probleem zitten, namelijk de keuze tussen de kritieke waarde van iets minder of iets minder vrijheidsgraden. Je kiest of 10 of 12, de waarde scheelt weinig. Principieel kies je hiervoor de dichtstbijzijnde lagere aantal vrijheidsgraden. Dus je kiest voor de hogere kritieke waarde. Omdat: als iets significant is bij minder vrijheidsgraden, is het sowieso significant bij meer vrijheidsgraden. Als we de hogere kritieke waarde nemen en de lagere vrijheidsgraden en het significant is, weten we zeker dat het op de echte waarde ook significant is. Stel dat we een F-waarde vinden die net tussen de kritieke waarde ligt, lopen we het risico toch uiteindelijk een verkeerde beslissing te nemen. Om deze reden kiezen we voor een lager aantal vrijheidsgraden.

Schijnverband in de regressieanalyse

Vraag:
Hoe kan je in de resultaten van een regressieanalyse zien dat er sprake is van een schijnverband?

Een schijnverband is een correlatie tussen twee variabelen die het gevolg is van een gemeenschappelijke oorzaak. Bijvoorbeeld: TV-gratificaties heeft een effect op TV-kijktijd. Onderwijs blijkt hiervan een gemeenschappelijke oorzaak te zijn. Het effect van TV-gratificaties op TV-kijktijd lijkt een schijnverband, want onderwijs is hierbij de oorzaak. Je komt achter het schijnverband door de verbanden van onderwijs op TV-kijktijd en TV-gratificaties te vermenigvuldigen. Het antwoord hierop toont aan of er een sterk of zwak schijnverband is.
Bij een enkelvoudige regressieanalyse heb je een afhankelijke variabele en een onafhankelijke variabele. Hierbij kijk je slechts naar de variabelen TV-kijktijd en TV-gratificaties, omdat je slechts 2 variabelen hebt. Hier is de kans dat er een schijnverband is. De gestandaardiseerde regressiecoëfficiënt geeft de totale correlatie inclusief eventuele schijnverbanden.
Bij een meervoudige regressieanalyse controleer je effecten voor andere onafhankelijke variabelen. Je houdt rekening met de mogelijkheid dat andere onafhankelijke variabelen een gemeenschappelijke oorzaak zijn voor de afhankelijke variabele waar je in geïnteresseerd bent. Je controleert dus zonder schijnverbanden door andere onafhankelijke variabelen, je sluit ze als het ware uit.

Je kan alleen maar iets over schijnverbanden zeggen wanneer je verschillende regressieanalyses na elkaar doet. Je kan zeggen dat je eerst een regressieanalyse hebt gedaan, daarna een onafhankelijke variabele hebt toegevoegd. Het schijnverband is dan het verschil tussen de beta van de eerste regressieanalyse en de tweede regressieanalyse. Je kan dus schijnverbanden alleen zien met regressieanalyses waarbij je onafhankelijke variabelen een voor een toevoegt. Het verband tussen de beta’s kan ook hoger worden, dit betekend dat het verband versluierd was. Het echte effect wordt dan juist groter.

Rapporteren: bespreek de veranderingen van een effect bij het toevoegen van onafhankelijke variabelen in termen van schijnverbanden of versluierde verbanden.
Bijvoorbeeld: “het effect van TV-gratificaties op TV-kijktijd neemt licht af wanneer we controleren voor Onderwijs, dus de correlatie tussen TV-gratificaties en TV-kijktijd is voor een klein deel een schijnverband.”

Kennen en kunnen voor het tentamen:

  • Alle toetsen die in de hoorcolleges aan bod zijn gekomen

  • Alle toetsen in het boek H1-H11, exclusief paragraaf 6.2 en 8.2. en H9.

  • Excellentie- en honoursprogramma: ook H9 en H12.

Handmatig berekenen:

  • Alles waarvoor een formule op het formuleblad staat, dus de standaardfout en df bij t-toets op twee gemiddelden niet voor het reguliere programma. De vrijheidsgraden of standaardfout wordt dan gegeven. Bij de variantieanalyse zullen de kwadratensommen zijn gegeven.

  • Regulier programma: werken met tabellen overschrijdingskansen en kritieke waarden. Ook kan je een ontbrekend getal uit SPSS output moeten berekenen.

  • Excellentie- en honoursprogramma: ook rekenen met een datamatrix.

Rekenvragen komen in het tentamen bij het reguliere programma alleen voor in de MC-vragen. Bij het excellentieprogramma is de open vraag ook een rekenvraag.

Access: 
Public
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Image

Comments, Compliments & Kudos:

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.
Check how to use summaries on WorldSupporter.org


Online access to all summaries, study notes en practice exams

Using and finding summaries, study notes en practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Starting Pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
  2. Use the menu above every page to go to one of the main starting pages
  3. Tags & Taxonomy: gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
  4. Follow authors or (study) organizations: by following individual users, authors and your study organizations you are likely to discover more relevant study materials.
  5. Search tool : 'quick & dirty'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject. The search tool is also available at the bottom of most pages

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study (main tags and taxonomy terms)

Field of study

Access level of this page
  • Public
  • WorldSupporters only
  • JoHo members
  • Private
Statistics
2576