Aantekeningen hoorcollege 1: MLR - Universiteit Utrecht (2023-2024)

Hoorcollege 1

Frequentist vs bayesian statistics

Frequentist framework:

  • p-waarden, BI’s, effect sizes en power analyses

Bayesian framework:

  • Wordt populairder
  • We testen geen H0, we kunnen ook alternatieve hypotheses testen.
  • Het gemiddelde benaderen kunnen we op een frequentist of bayesian manier doen.
  • We kunnen ook een hypothese testen: Nederlanders zijn langer dan Belgen.

Likelihood function: wat is de meest likeable gemiddelde waarde.

Je hebt een normaalverdeling:

  • Je krijgt een gemiddelde. De likelihood is de waarschijnlijkheid van de data, gegeven het gemiddelde van de populatie.
  • Data helemaal links is dus erg unlikely, gegeven het gemiddelde van de populatie.
  • Bij de piek is het erg likely (waarschijnlijk).
  • Als we nog verder naar rechts gaan, dan daalt de likelihood weer. Likelihood is kans vgm.

Bayesian approach

  • Bij bayesian approach kan je tijdens het proces nog informatie toevoegen. Je kan je kennis updaten. Dat geeft de posterior distribution for u.
  • Nadeel is: de resultaten zijn afhankelijk van de choice of prior. Dus welke data je prior toevoegt vgm.

Priors in de data

  • Je kan van verschillende priors uitgaan
  • Bij de prior: we weten helemaal niks.
  • De data die we dan toevoegen zorgt voor een verwachting. DIt is bij bayesian statistics. We gebruiken de prior en de data.
  • Onze prior was so uninformed. Daarom lijkt de posterior bijna compleet op de data. Dit gebeurt vaak bij frequentic statistics. Daar gebruiken we geen prior.
  • De data en de prior zorgen dan voor een andere posterior. De posterior volgt niet gewoon de data. De posterior is een stuk steiler. Dit gebeurt er dus als je al iets weet over de data: de prior. Dit is dus bayesian statistics.
  • Als we maar een beetje data hebben, heeft de data niet echt invloed. Als we erg veel data hebben, overruled dat de prior.
  • De mode is de hoogste waarschijnlijkheid. Dus de hoogste waarde, maar dit hoeft niet het gemiddelde te zijn

95-betrouwbaarheidsinterval

  • Met 95% zekerheid weten we dat de echte populatie in dat interval ligt.

The same data can give different results! Ligt aan je sampling plan

Frequentic statistics:

  • we focussen op de H0.
  • Hoe waarschijnlijk zijn deze data, als H0 waar is. Dus gegeven H0.
  • Deze twee probabilities zijn heel erg verschillend. Ze zijn niet hetzelfde.

Bayesian probability:

  • data = person is dead
  • H (hypothesis) = shark has bitten person’s head off

Bayesian probability:

  • Lage probability. hoofd is eraf gebeten, gegeven het persoon is dood.
  • Hele kleine kans dat als iemand dood is, dat dit gebeurd is door een haai

Frequentist probability:

  • Person is dead gegeven dat haai je hoofd eraf heeft gebeten. Die kans is groot. Zonder hoofd ben je zegmaar dood.

PMP is the probability of the hypothesis after observing the data. Dit is afhankelijk van de data en the prior.

Bayesian:

  • De BF 10 staat voor one zero.
  • De waarschijnlijk de probability voor H1 over H0.
  • BF10 = 10
  • Dan is de support voor H1 10x sterker dan voor H0.
  • Als we onder 1 komen, dan is H0 waarschijnlijk sterker dan H1.
  • Bayes Factor (BF) is geen posterior. Dus het is anders dan een PMP.
  • Maar we gebruiken de BF om de PMP te berekenen.
  • PMP zijn ook relative probabilities. We kunnen ze dus vergelijken.
  • We updaten de prior probabilities met de BF en dan krijg je PMP’s.

Frequentist:

  • Hoe vaak zal iets gebeuren. Dus als je meer thee aanbiedt (thee-experiment voorbeeld uit het college), hoeveel heeft ze er goed.

Bayesian:

  • Gebaseerd op belief. Wat geloven we vooraf (prior probability) en op basis van de data (achteraf). Dat is de posterior probability.

Bij frequentist:

  • als je het experiment 1x uitvoert, dan weet je niet of het in die 95% valt of in de 5% fout.
  • Bayesian 95%-BI zijn meer logisch en direct.

Nu gaan we het hebben over multiple linear regression (MLR):

Linear regression

  • De relatie tussen twee variabelen vastleggen met een lineaire relatie. Je hebt twee variabelen: 1 op de x-as en 1 op de y-as. We willen een rechte lijn door de wolk met metingen.
  • Why hat: dakje op de y.
  • beta zero is de intercept. Waar de lijn de y-as kruist.
  • beta one is de slope, hoe stijl de lijn is.
  • De blauwe lijn vangt niet alle data-punten. Hij loopt er een beetje tussendoor.
  • Er is een error die erbij in wordt genomen. Dus als je een x-waarde hebt, kom je uit op een plek op de lijn. Maar het echte punt ligt iets boven de lijn, zoals je ziet in het voorbeeld. Die rode lijn wordt dus aangegeven als de error die er nog bij komt.
  • e is een residual.

Bij MLR hebben we meer predictors.

Bij 3 variabelen heb je dan een 3 dimensionaal model. We gaat ervan uit dat hoever de punten liggen van lijn, dat dat gelijk is. Dus het gemiddelde van de punten om de regressielijn is 0.

Why hat

  • Why hat is de model dat we hebben
  • Dan is de echte y-waarde: de why hat + de prediction error.
  • Bij elk model hebben we assumptions.

Leer de model assumptions voor het uitvoeren van een MLR!

  • Soms zijn er goede oplossingen van een assumption overschrijden. Bijvoorbeeld door het verwijderen van een uitschieter.
  • In real life altijd de assumptions checken. Bij de toets mag je ervan uitgaan dat dit al gedaan is.

Interval / ratio variables:

  • Grade on scale: 0-10. Dit is 
  • Age in years: ratio
  • Gender is gecodeerd als 1 = man en 2 = vrouw
  • Dit is categorische variabele.
  • Categorische variabele kan alsnog gebruikt worden in MLR dmv dummy variables.
  • Je recodeert man of vrouw dan naar waarde 1 en 0.

Parameters en predictors

  • Estimate the paramters of the models: dat zijn de coefficenten, dus de B-waarden.
  • We testen of de parameters niet gelijk zijn aan 0. Dit doen we door NHST. dus H0 = de parameter is 0.
  • Dit wordt ook gedaan met de R2, dus om te kijken of we iets van variantie verklaren met dit model. Dit doen we ook met de coefficienten. Deze moeten wel verschil maken, dus ze moeten een waarde hebben die niet gelijk is aan 0.
  • De predictors moeten namelijk wel een invloed hebben.

Bij bayesian statistics doen het anders.

  • R2 is hoeveel variantie verklaart het hele model. 0.135 is 13,5% van de variantie verklaard is door het hele model. We verklaren niet de residuals, die wijken erg af van onze regressielijn.
  • De normale R, dat is de multiple correlation coefficient. Dit is de correlatie tussen de geobserveerde y-waarde die we hebben en de why hat tussen ons model. Snap het niet.
  • Adjusted R2 is estimate of hoeveel variantie we buiten ons model kunnen verklaren. Dit is dus generaliseerbaar. Gebaseerd op de sample size. Hoe kleiner de sample size, hoe moeilijker het is dit terug te generaliseren naar de populatie.
  • Adjusted R2 dit is dus altijd een kleinere waarde dan R2.
  • Gigantische sample is beter te generaliseren en Adjusted R2 is dan ook groter.
  • Hoe meer predictors je hebt, hoe meer variantie je verklaart. Maar je pakt ook random variaties die misschien helemaal niet in de populatie aanwezig zijn. Dus meer predictors zorgen voor een lagere Adjusted R2. Simpeler model is beter te generaliseren naar de populatie.
  • R2 gelijk aan 0 is de nulhypohtese. Dit moet significant verschillen van 0.
  • De p-waarde is significant en dus verklaart het model at least wat variantie.

Coefficients in de regression equation

  • Unstandardized coefficients zijn onze B-waarden.
  • We hebben ook standardized coefficients. Deze gebruik je om te kijken welke predictor de meeste invloed heeft. Age en education staan op verschillende schalen. Met de standardized coefficients kan je ze goed vergelijken met elkaar.
  • Dan heb je de p-waarden per predictor. De nulhypothese is dat de coefficient gelijk is aan 0. Nou ze zijn alle twee significant. Dat betekent dus dat de predictoren invloed hebben en niet gelijk zijn aan 0. Ze doen er beiden toe.

Dan gaan we nu naar bayesian analysis: MLR.

  • Eerst willen we het hele model evalueren.
  • Je ziet links de verschillende modellen. De null model is waar age en education 0 invloed heeft.
  • Daaronder is het model met age en education, deze hadden we ook bij de frequentic analysis.
  • Daaronder hebben we het model met alleen education en een model met alleen age.
  • In dit geval zijn er drie mogelijkheden voor combinaties voor modellen. 1 model voor beiden en beiden 1 individueel model voor elke predictor.

Output interpreteren

  • P(M) is de prior probability van dit model.
  • P(M/data) posterior probability van het model gegeven de data.
  • Daarna zien we de bayes factors.
  • We vergelijken het model van age + education met het null model. Daar is de BF op gebaseerd hier.
  • BF10 is ons model 1 vegeleken met model 0: null model. Ons model wordt dus 28x meer gesupport dan het null model.
  • Dit is vergelijkbaar met de coefficient tabel bij de frequentist model.
  • Elke predictor zien we mean en SD. Dit gaat over de posterior distribution.
  • Het vertelt ook de 95%-BI. Er is een 95% kans dat de ware coefficient waarde tussen deze twee grenzen ligt.
  • Uninformative bayesian prior dan lijkt het heel erg op de frequentist model.
  • Als je meer informatie hebt vooraf, dan krijg je een andere uitikosmt dan het frequentist model.

BF inclusion is 

  • Als we age toevoegen, dan is het model 5.467x beter.
  • Deze tabel refereert naar een gemiddelde van alle modellen hierboven genoemd. Bayesian statistic gebruikt namelijk ook de predictors los als model.

Dan hebben we hierarchical MLR:

  • Hier willen we twee modellen vergelijken

Eerst frequentist analysis.

  • We hebben model 0 en model 1.
  • We hebben R2 Change.
  • Dit is de verandering in R2, als we de twee predictors toevoegen. Die 0.135 is de onveranderde R2. Deze hadden we al.
  • Als we de predictors toevoegen veranderd de R2 Change naar 0.127.
  • Als je naar de p-waarde kijkt, zie je dat de verandering significant is. Dus hij verandert volgens mij 12,7% variantie meer.
  • Hij verklaart dus meer variantie dan het eerste model.

Coefficient tabel.

  • We hebben nu een tweede rij erbij. Nu is spouse support de belangrijkste predictor.
  • Child support en age zijn niet significant zie je in dit model.
  • MAAR: in het eerste model is age nog wel een significante predictor. Hoe is dat mogelijk?
  • Al deze coefficienten zijn afhankelijk van het model waarin ze staan.
  • Een ander model zorgt dus voor andere significantie per coefficient.
  • Age kan nu overlappen met een van de nieuwe predictor. En is daardoor nu niet meer relevant.

Bij frequentist manier kies je zelf welke predictors je erin doet: method enter.

Stepwise method is omstebeurt kijken wat welke predictor doet. DIt is exploration. Dit is gebaseerd op kans. Hier zijn vals-positieve uitkomsten veel voorkomend.

Access: 
Public
Check more of this topic?
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Image

This content is also used in .....

Studiehulp ARMS - UU (2023-2024)

Aantekeningen hoorcollege 1: MLR - Universiteit Utrecht (2023-2024)

Aantekeningen hoorcollege 1: MLR - Universiteit Utrecht (2023-2024)

Hoorcollege 1

Frequentist vs bayesian statistics

Frequentist framework:

  • p-waarden, BI’s, effect sizes en power analyses

Bayesian framework:

  • Wordt populairder
  • We testen geen H0, we kunnen ook alternatieve hypotheses testen.
  • Het gemiddelde benaderen kunnen we op een frequentist of bayesian manier doen.
  • We kunnen ook een hypothese testen: Nederlanders zijn langer dan Belgen.

Likelihood function: wat is de meest likeable gemiddelde waarde.

Je hebt een normaalverdeling:

  • Je krijgt een gemiddelde. De likelihood is de waarschijnlijkheid van de data, gegeven het gemiddelde van de populatie.
  • Data helemaal links is dus erg unlikely, gegeven het gemiddelde van de populatie.
  • Bij de piek is het erg likely (waarschijnlijk).
  • Als we nog verder naar rechts gaan, dan daalt de likelihood weer. Likelihood is kans vgm.

Bayesian approach

  • Bij bayesian approach kan je tijdens het proces nog informatie toevoegen. Je kan je kennis updaten. Dat geeft de posterior distribution for u.
  • Nadeel is: de resultaten zijn afhankelijk van de choice of prior. Dus welke data je prior toevoegt vgm.

Priors in de data

  • Je kan van verschillende priors uitgaan
  • Bij de prior: we weten helemaal niks.
  • De data die we dan toevoegen zorgt voor een verwachting. DIt is bij bayesian statistics. We gebruiken de prior en de data.
  • Onze prior was so uninformed. Daarom lijkt de posterior bijna compleet op de data. Dit gebeurt vaak bij frequentic statistics. Daar gebruiken we geen prior.
  • De data en de prior zorgen dan voor een andere posterior. De posterior volgt niet gewoon de data. De posterior is een stuk steiler. Dit gebeurt er dus als je al iets weet over de data: de prior. Dit is dus bayesian statistics.
  • Als we maar een beetje data hebben, heeft de data niet echt invloed. Als we erg veel data hebben, overruled dat de prior.
  • De mode is de hoogste waarschijnlijkheid. Dus de hoogste waarde, maar dit hoeft niet het gemiddelde te zijn

95-betrouwbaarheidsinterval

  • Met 95% zekerheid weten we dat de echte populatie in dat interval ligt.

The same data can give different results! Ligt aan je sampling plan

Frequentic statistics:

  • we focussen op de H0.
  • Hoe waarschijnlijk zijn deze data, als H0 waar is. Dus gegeven H0.
  • Deze twee probabilities zijn heel erg verschillend. Ze zijn niet hetzelfde.

Bayesian probability:

  • data = person is dead
  • H (hypothesis) = shark has bitten person’s head off

Bayesian probability:

  • Lage probability. hoofd is eraf gebeten, gegeven het persoon is dood.
  • Hele kleine kans dat als iemand dood is, dat dit gebeurd is door een haai

Frequentist probability:

  • Person is dead gegeven dat haai je hoofd eraf heeft gebeten. Die kans is groot. Zonder hoofd ben je zegmaar dood.

PMP is the probability of the hypothesis after observing the data. Dit is afhankelijk van de data en the prior.

Bayesian:

  • De BF 10 staat voor one zero.
  • De waarschijnlijk de probability voor H1 over H0.
  • BF10 = 10
  • Dan is de support voor
.....read more
Access: 
Public
Aantekeningen hoorcollege 2: MLR - Universiteit Utrecht (2023-2024)

Aantekeningen hoorcollege 2: MLR - Universiteit Utrecht (2023-2024)

Hoorcollege 2

MlR:

  • >1 continuous predictor variable
  • 1 continuous depedent variable

Simple ANOVA

  • 1 categorical predictor variable (factor)
  • 1 continuous dependent variable

Factorial ANOVA:

  • >1 categorical predictor variable
  • 1 continuous dependent variable

ANOVA

  • ANOVA doet comparing group means.
  • ANOVA kan ook twee gemiddelden vergelijken, dan is het hetzelfde als een t-test.
  • We avoid type 1 error inflation door ANOVA te gebruiken
  • ANOVA verklaart de between-group variation met de within-group variation

Residuals is hoever een individuele meting weg ligt van het groepsgemiddelde
We kijken hoe ver ligt elk groep gemiddelde van de grand gemiddelde af. Dit is between-group variance.

Within-group variance:

  • Hoe ver liggen de punten van hun eigen groep gemiddelde af. Dit zijn de residuals.
  • Dat is de unexplained variance, oftewel de within-group variance.

Een ANOVA assumption:

  • Observations independent. De deelnemers beïnvloeden elkaar niet.

Dan gaan we nu naar Factorial ANOVA:

  • Meer dan 1 factor, meer dan 1 independent variable.
  • Bij marginal means zijn we echt geïnteresseerd in alleen maar factor A of factor B. Dit is het main effect van therapy type (factor A). We testen de nulhypothese: m1. = m2.
  • Het tweede main effect dat we onderzoeken is individuele therapie vs groepstherapie. Dit is factor B. We kijken naar de marginal means van factor B.
  • Ook hier doen we weer een nulhypothese dus m.1 = m.2
  • Dan hebben we ook nog de vraag: interacteren deze twee main effects met elkaar.

Alleen naar de plots kijken is niet genoeg.

  • Je kijkt naar 1 factor dus daarom een simple ANOVA.
  • Is dit verschil significant? Tussen deze twee verschillende gemiddelden.
  • We weten er is een verschil, maar welke richting weten we niet.
  • Dit kan ook met de Bayesian ANOVA.

Twee factoren met elk 2 levels. Dit is een 2x2 design.

  • 1 factor is type: dat is speciesism of racism.
  • 1 factor is prejudiced vs non-prejudiced
  • De derde rij is kijken naar het interactie-effect.

Dit is afkomstig uit het artikel dat hoort bij dit college:

  • Main effect van prejudiced vs non-prejudiced is als enige significant.
  • Laatste kolom is de effect size. partial eta kwadraat.
  • Deze gebruiken we in een factorial ANOVA omdat het voor elk effect uitlegt wat de invloed is van de factor, terwijl we controllen voor de andere factoren. Isolatie van het effect waar je interesse in hebt.
  • Prejudiced vs non-prejudice heeft een groot effect.
  • Ze zijn bijna parallel. Dus het interactie-effect is niet significant.
  • Ook de verschillen tussen racisme en speciesisme zijn heel klein, dus niet significant.
  • Prejudiced vs unprejudiced is een duidelijk significant verschil.

We hebben een significant interactie effect. Nu willen we meer specifiek weten. Dit doen we met simple main effects analysis.

  • Geen main effect voor level of type condition. Speciesism is niet significant.
  • Bij level of person condition zijn beide uitkomsten significant.
  • Simple main effects analysis doen we alleen als we een significant interactie-effect hebben gevonden in de main ANOVA.

H0

.....read more
Access: 
Public
Aantekeningen Seminar 1 - Universiteit Utrecht (2023-2024)

Aantekeningen Seminar 1 - Universiteit Utrecht (2023-2024)

ARMS seminar 1

Preregistratie en Registerd Reports

  • Preregistratie is een korte versie van registered reports
  • Wat buiten controle is voor een onderzoeker: Results
  • Maar (paradox) wat is het meest belangrijk voor je carrière: Results again

Questionable research practices

  • Publication bias: je ziet geen no results.
  • Data peeking: zo lang data pakken tot je een significant resultaat hebt.
  • Selective reporting = picking statistical analysis.
  • De focus ligt op significante resultaten krijgen.
  • Na het zien van de resultaten zien, maak je of verander je de hypothese = HARKING

Planned test: van tevoren hebben we een hypothese. alfa is 0.05, dus dat is de type I fout ook.

  • Gebaseerd op de gemiddelden besloot je meerdere testen te doen. Dit zorgt voor een grotere type I fout.
  • Meerdere tests die je doet? Of je moet het alfa level corrigeren. Of je moet je resultaten anders interpreteren. Dus met een grotere type I fout.
  • Wanneer je peekt naar je data, doe je automatisch meerdere tests. Dan gaat je type I fout error omhoog, terwijl je alfa level hetzelfde blijft. Dit is bad research practice.
  • HARKING is bad, want het is lack of replication. Niemand zal hetzelfde resultaat terugvinden.
  • Exploratory research kan wel: hey ik heb wat onderzoek gedaan en dit is een goede hypothese voor toekomstig onderzoek.
  • Impliciet doe je meerdere tests dus het is een hogere wise error rate.
  • Meerdere uitkomsten? Maar ze reporteren er maar 1? Dat kan selective reporting zijn, omdat alleen die een significante uitkomst geeft.

Publication bias: Je ziet in de literatuur alleen de significante resultaten.

  • Als je de ruwe data niet deelt, kan je het niet repliceren.
  • Solution: dead currency zijn resultaten. Resultaten moeten niet zo veel meer waard zijn.

Oplossingen

Registered reports zijn een goede andere manier:

  • Replicatiestudies zijn ook welkom bij registered reports.

Registered Reports:

  • Er kunnen extra analyses gedaan worden, maar dit mogen dan alleen exploratieve analyses zijn. Anders had het van tevoren vastgelegd moeten worden in het registered report.
  • Je stuurt je onderzoeksplan op voordat je het uitvoert
  • Op die manier kan je zelf niks veranderen, en houd je je aan je eigen onderzoeksplan
  • Je kan afwijken van je plan, zolang je het maar aangeeft en waarom je dit hebt gedaan.
  • Er zijn meer nul bevindingen door RR’s. Dat willen we juist zien. Want soms is er gewoon geen effect in de populatie.
Access: 
Public
Aantekeningen Seminar 2 - Universiteit Utrecht (2023-2024)

Aantekeningen Seminar 2 - Universiteit Utrecht (2023-2024)

Seminar 2

De replicatiecrisis: 67% kon niet gerepliceerd worden.

  • Due to inflated Type I error.
  • Meerdere tests is hogere Type I error rate.
  • Wat kan helpen: open data analysis: dan kan je beter replicatie doen. Is meer transparant.
  • JASP is open software, free of use and charge.

Open Data Analyses should be FAIR:

  • Findable
  • Accesible
  • Interoperable
  • Reusable

JASP zorgt voor accessibility. Het is gratis, dus iedereen kan erin.

Interoperable

  • Je kan in JASP aantekeningen zetten bij je analyse stappen. Dat is interoperable.
  • Je kan ook een codeboek gebruiken en aangeven wat wat betekent.
  • JASP houdt echt bij wat je hebt gedaan. Dat is ideaal voor interoperable
  • Het is dus een soort logboek van je analyses.

Reusable

  • Gaat om de license.
  • Wat er wel of niet mag gebeuren met jouw data.
  • Je kan dus zelf beslissen wat er met jouw open data gedaan mag worden.
  • Je moet echt data anoniem maken. Je moet persoonlijke informatie verwijderen.
  • Soms is er geen geschikte license. Dan kan je een deel van je data delen

Hoofdboodschap is dus: wees transparant over wat je doet.

Access: 
Public
Aantekeningen Seminar 3 - Universiteit Utrecht (2023-2024)

Aantekeningen Seminar 3 - Universiteit Utrecht (2023-2024)

ARMS Seminar 3

Closed vs open

  • Closed software is paid. SPSS en Mplus zijn voorbeelden.
  • Open source software: R en JASP, dit kan minder snel zijn, omdat het gratis is. We kunnen naar de code van anderen bekijken. Het is geen black box meer. Je kan peer review doen.

Als we het hebben over een informatieve hypothese, dan is het in populatie parameters. Dus in griekse letters: mu. Na een analyse, dan moet je post hoc testing doen. Kan tot nu toe niet in 1 test. Bij een inconsistent resultaat, kan je geen bonferroni test doen. Bonferroni is explanatory, je gaat alle mogelijkheden af. Je kan ook contrasts toepassen, dan onderzoek je specifieke hypothesen.

Contrasts

  • Meer power, want je onderzoekt alleen degenen die je wil checken
  • Je krijgt geen inconsistentie in resulaten, want je onderzoekt specifieke hypothesen. Dit is beter dan alle mogelijkheden onderzoeken zoals bij post hoc toetsen.
  • Minder inflated alfa level, omdat je minder tests uitvoert.
  • Je krijgt nog steeds een p-waarde. Het test nog steeds niet precies onze informatieve hypothese.

Dan krijg je model selection.

  • Bij Bayesian model selection heb je BFs en PMPs.
  • Je wil het model met zo weinig mogelijk parameters beschrijven.
  • Maar je wil ook de data zo goed mogelijk beschrijven. Maximize the fit.
  • Complement is alle andere mogelijkheden.

BFc = 59

  • Dan is jouw informatieve hypothese 59x meer waarschijnlijk dan het complement. Dus dan elke andere volgorde van de informatieve hypothese.
  • Voor alles kan je BAIN gebruiken, niet voor repeated measures.
  • Information-theoretical model selection: GORIC(A).
  • AIC-type kan ook de informatieve hypothese analyseren.

Hier heb je weer dit:

  • Je wil het model met zo weinig mogelijk parameters beschrijven.
  • Maar je wil ook de data zo goed mogelijk beschrijven. Maximize the fit.

Het selecteert ook de beste informatieve hypothese uit de set

GORICA weights zijn soort PMPs.

  • Ratio van GORICA weights is een soort de Bayes Factor.
  • Model with the smallest GORICA value is the best model in your set.
  • We’re looking for the smallest distance which is the same as the highest support.
  • In de GORICA heb je geen priors.
  • GORIC(A), de A staat voor approximation.
  • Meer advanced models, dan gebruik je de GORICA. GORIC gebruik je gewoon voor ANOVA’s.

Je gebruikt in de software, de naam van de parameter.

  • Output in JASP: GORIC value is het kleinst. Dus dat is het beste model. Maar nu weet je alleen o dit is het beste model.
  • Je kan dan beter naar de weights kijken, dan kun je de verschillen interpreteren.

Twee failsafe opties.

  • De unconstrained kun je gebruiken. Die gebruik je bij meerdere informatieve hypothesen. Alle opties, Including de hypothese die je nu hebt.
  • Als dan een van de informatieve hypothesen het beter doet dan de unconstrained. Dan weet je dat hij niet zwak is, dan kan je ze vergelijken.
  • Als ze beide slechter zijn dan je unconstrained. Dan heeft het geen nut deze twee Hi te vergelijken, omdat
.....read more
Access: 
Public
Follow the author: Hugo
More contributions of WorldSupporter author: Hugo:
Comments, Compliments & Kudos:

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.
Promotions
special isis de wereld in

Waag jij binnenkort de sprong naar het buitenland? Verzeker jezelf van een goede ervaring met de JoHo Special ISIS verzekering

Check how to use summaries on WorldSupporter.org


Online access to all summaries, study notes en practice exams

Using and finding summaries, study notes en practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Use the menu above every page to go to one of the main starting pages
    • Starting pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
  2. Use the topics and taxonomy terms
    • The topics and taxonomy of the study and working fields gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
  3. Check or follow your (study) organizations:
    • by checking or using your study organizations you are likely to discover all relevant study materials.
    • this option is only available trough partner organizations
  4. Check or follow authors or other WorldSupporters
    • by following individual users, authors  you are likely to discover more relevant study materials.
  5. Use the Search tools
    • 'Quick & Easy'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject.
    • The search tool is also available at the bottom of most pages

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study for summaries and study assistance

Field of study

Check related topics:
Activities abroad, studies and working fields
Access level of this page
  • Public
  • WorldSupporters only
  • JoHo members
  • Private
Statistics
687