Society and culture - Theme
- 2703 reads
Gegevens bij de 5e druk:
Gegevens bij de 4e druk:
Na het lezen van deze samenvatting zul je veel meer verstand hebben van sociale onderzoeksmethoden. Dit is vooral belangrijk om twee redenen: (1) vanwege de vele valkuilen waar beginnende onderzoekers tegen aanlopen te ontwijken, en (2) om bekend te raken met de manier waarop onderzoek uitgevoerd wordt zodat je artikelen beter kunt begrijpen. De term ‘sociaal onderzoek’ refereert naar wetenschappelijk onderzoek waarbij de hoofdvragen opgesplitst zijn in verschillende sociaal wetenschappelijke gebieden (zoals de sociologie en criminologie). Sociaal onderzoek wordt vooral uitgevoerd omdat er bepaalde aspecten die in de huidige maatschappij spelen, onopgelost zijn gebleken.
Sociaal onderzoek is niet hermetisch afgesloten van de buitenwereld: veel factoren creëren gezamenlijk de context voor jouw onderzoek en kunnen bepalend zijn bij alle beslissingen. De voornaamste invloeden zijn: de theorie, de epistemologische overwegingen en de ontologische overwegingen. Hieronder de voornaamste invloeden en enkele aanvullende invloeden op het sociale onderzoek:
Theorieën: de informatie binnen een onderzoeksgebied is vaak al meermaals in theorieën gegoten. Deze theorieën beïnvloeden jouw onderzoek omdat ze je helpen om de achtergrond beter te begrijpen en om jouw onderzoek vorm te geven;
Literatuur: je moet bekend zijn met wat er al onderzocht is met betrekking tot datgene waar je geïnteresseerd in bent;
Jouw visie op de relatie tussen de theorie en het onderzoek: je kan beginnen met een theorie (en daarop je hypothese baseren), of eindigen met een theorie;
Epistemologische overwegingen: de aannames en visies over hoe het onderzoek uitgevoerd moet worden. Wat is de beste manier om dit sociale fenomeen te meten?
Ontologische overwegingen: de aannames van het sociale fenomeen zelf. Is het fenomeen wel door ons te beïnvloeden? Is het een product van onze interacties?
De normen en waarden binnen de maatschappij: wat is ethisch verantwoord?
Het doel van het onderzoek: draagt het enkel bij aan de stapel met kennis die er is over de sociale wereld is of moet het praktisch nut hebben en de wereld veranderen? Twee soorten onderzoeken die min of meer exclusief zijn ontwikkeld om implicaties te hebben voor het alledaagse leven zijn evaluatie onderzoek en actie onderzoek.
De politieke context: veel onderzoek wordt gefundeerd door overheidsinstellingen. Bepaalde onderwerpen zijn dus aantrekkelijker om te onderzoeken, krijgen meer aandacht en worden vaker gepubliceerd;
De training en persoonlijke waardes en voorkeuren van de onderzoeker zelf.
De volgende elementen zijn volgens de auteur van het boek de kernelementen van sociaal onderzoek die meestal in deze zelfde volgorde afgewerkt moeten worden.
Literatuuronderzoek. In dit onderdeel moet de onderzoeker kritisch kijken naar (1) wat er al bekend is over het onderwerp (2) welke concepten en theorieën zijn gevormd (3) welke onderzoeksmethoden al zijn gebruikt om dat onderwerp te onderzoeken (4) welke conclusies er zijn getrokken en of er controversies zijn ontstaan, en (5) wie de meeste toonaangevende onderzoekers zijn op dat gebied.
Theorieën. Zoals al eerder besproken kunnen theorieën of de basis vormen voor onderzoek of juist de uitkomst ervan. Dit ligt ten grondslag aan het verschil tussen de deductieve en inductieve benadering van de relatie tussen respectievelijk de theorie en het onderzoek. Vertrouwd raken met de concepten en theorieën is van groot belang omdat het (1) ons helpt om de gegevens te interpreteren door een ‘framework’ te bieden en (2) een beeld geeft van hoe nuttig of juist beperkt de theorieën zijn in het ontrafelen van sociale fenomenen.
Onderzoeksvragen. Het denken over onderzoeksvragen dwingt ons om te kijken naar wat we werkelijk willen weten en onderzoeken. Slecht (niet concreet) geformuleerde onderzoeksvragen resulteren in slecht onderzoek, omdat je warrig te werk gaat. Onderzoeksvragen hebben zeven belangrijke functies(1) het leiden van jouw onderzoek (2) het leiden van jouw beslissingen met betrekking tot het onderzoeksdesign (3) het leiden van jouw beslissingen met betrekking tot het kiezen van jouw data (werving) (4) het leiden van jouw data-analyse (5) het leiden van de manier waarop jij jouw data rapporteert (6) het zorgt ervoor dat je niet onnodige zijwegen inslaat, en (7) het zorgt ervoor dat het de lezers duidelijk wordt gemaakt waar jouw onderzoek over gaat.
Steekproef met ‘cases’. De term ‘cases’ wordt toegevoegd, omdat de steekproeven niet altijd (maar meestal) bestaan uit mensen. Soms wordt de data gehaald uit bijvoorbeeld kranten. Vaak bestaan ‘cases’ dus wel uit mensen en wordt er geprobeerd om een zo representatief mogelijke steekproef te verkrijgen die de populatie goed weerspiegeld. Soms wordt er een enkele ‘case’ onderzocht, dit heet dan een ‘case study’. De bedoeling bij deze opzet is dan niet om een aspect (zoals een mening) van de populatie te onderzoeken, maar alleen deze enkele ‘case’ zo gedetailleerd mogelijk te analyseren.
Dataverzameling. Er zijn ontzettend veel instrumenten die gebruikt kunnen worden tijdens de dataverzameling. Een voorbeeld hiervan is een neuropsychologische test of een gestructureerd interview. Participantobservatie en een semigestructureerd interview worden gebruikt als de onderzoeker het onderzoek wat opener wilt houden. De dataverzameling moet natuurlijk heel goed afgestemd worden op de onderzoeksvraag.
Data-analyse. Voor het et managen, analyseren en interpreteren van de verzamelde data, wordt vaak een gecomputeriseerd programma gebruikt (zoals IBM SPSS). Er wordt weleens onderscheid gemaakt tussen primaire en secundaire analyse. Wanneer de data primair geanalyseerd wordt, wordt het geanalyseerd door de onderzoeker die verantwoordelijk was voor de dataverzameling. Bij secundaire data-analyse analyseert iemand anders eerder verzamelde gegevens. Bij het opstellen van het onderzoek moet al snel rekening gehouden worden met de data-analyse: wacht daarom niet met kiezen welke analyse methodes jij gaat gebruiken totdat de data compleet verzameld is!
Rapporteren. De rapportage van (sociaal) wetenschappelijk onderzoek kent in ieder geval de volgende onderdelen: een introductie, bespreking van de literatuur, onderzoeksmethoden en resultaten, een discussie en een conclusie.
Er moeten twee belangrijke theoretische kanttekeningen gemaakt worden met betrekking tot de verhouding tussen een theorie en een onderzoek. Ten eerste zijn sociale onderzoeksmethoden onderhevig aan de manier waarop gedacht wordt dat de sociale realiteit bestudeerd moet worden. Ten tweede is het soms moeilijk om te bepalen hoe specifieke onderzoeksmethoden zich precies verhouden tot de bredere sociale context.
Een theorie wordt vaak gedefinieerd als een verklaring van geobserveerde regelmatigheden. Er wordt een tweedeling gemaakt tussen zogenoemde ‘theorieën van de middenklasse’ en ‘grandioze theorieën’ waarbij de laatste soort theorieën vooral abstractere, algemenere theorieën zijn (zoals symbolisch interactionisme, posstructuralisme, etc.) die moeilijker te toetsen zijn en moeilijker direct te relateren aan de realiteit. Naïef empirisme houdt in dat sommige sociale wetenschappers geneigd om zich niet te interesseren in onderzoek dat niet heel concreet te relateren is aan een theorie.
Volgens de deductieve theorie leidt de onderzoeker zijn hypothese af van de beschikbare literatuur (van de theorie naar de observaties). Aan het einde van het onderzoek zal hij de conclusie terug moeten plaatsen in de literatuur en vindt er dus inductie plaats (van de observaties naar de theorie). Bijna alle onderzoekers werken voornamelijk vanuit een deductief standpunt. Deze benadering wordt vaak geassocieerd met kwantitatief onderzoek. Een alternatieve strategie om theorie en onderzoek te linken is vanuit een inductief standpunt waarbij de onderzoeker gegeneraliseerde theoretische conclusies trekt uit de observaties. Echter, dit alternatief bevat ook een deductief element aangezien het uitgangspunt gebruikt zal worden voor deductieve doeleinden. De inductieve benadering wordt vooral goed geïllustreerd in geaarde theorieën die geïntroduceerd zijn door Glaser en Strauss (1967). Deze benadering wordt vooral geassocieerd met kwalitatief onderzoek.
Wat is of zou gezien kunnen worden als acceptabele kennis binnen gebied x? Dit is de vraag waar epistemologische vraagstukken zich mee bezighouden. Het draait hier dan vooral om het volgende vraagstuk: kan en zou de sociale wereld volgens dezelfde principes, procedures en ethos onderzocht moeten worden als andere wetenschapsgebieden? Voorstanders van deze visie nemen een positivistisch standpunt in (zie sleutelconcept B2). Belangrijk om te onthouden is dat (volgens het eerste principe uit het sleutelconcept) een grotere epistemologische status wordt gegeven aan observaties dan aan een theorie.
Realisme (specifieker kritisch realisme) is een andere filosofische positie die tracht duidelijkheid te verschaffen over de aard van wetenschappelijk onderzoek (zie sleutelconcept B3). Er is een voortdurend debat gaande over het vraagstuk of sociale wetenschappen hetzelfde getoetst moeten worden als natuurwetenschappen waarbij aan de ene kant het positivisme staat en aan de andere kant het realisme. Aangezien veel hedendaagse modellen een sterke positivistische ondertoon hebben lijkt het erop dat positivisme het voorlopig wint van het realisme.
‘Interpretivism’ is een epistemologische positie die lijnrecht tegenover positivisme en realisme staat, omdat zij stelt dat het onderwerp van sociale studies (mensen) fundamenteel verschilt van het onderwerp van natuurwetenschappen en dus niet hetzelfde bestudeerd kan worden. Om mensen te kunnen onderzoeken is een strategie nodig die de verschillen tussen mensen respecteert en de subjectiviteit van de sociale wereld kan omvatten. De fenomenologie is één van de voornaamste tradities die verantwoordelijk is voor een dergelijke antipositivistische positie. De fenomenologie is een filosofie die zich bezighoudt met de manier waarop mensen de wereld om hen heen begrijpen. Ook het symbolisch interactionisme en Weber’s versie van ‘verstehen’ dragen bij aan deze zogenoemde antipathie voor positivisme.
Ontologische vraagstukken houden zich bezig met de aard van sociale entiteiten: kunnen en zouden sociale entiteiten gezien moeten worden als objectieve entiteiten die een bestaan hebben los van de sociale ‘actors’ (aanhangers van het objectivisme) of zijn zij sociale constructies die enkel en alleen gebouwd zijn op de percepties en acties van anderen (aanhangers van het constructivisme)? Het objectivisme is dus een ontologische positie die aanneemt dat sociale fenomenen en hun betekenissen een onafhankelijk bestaan hebben en buiten ons bereik of onze invloeden bestaan. Constructivisme daarentegen is een ontologische positie die stelt dat sociale fenomenen continu uitgevoerd worden door ‘actors’. In dit opzicht is kennis onbepaald, een positie die ook ingenomen wordt door het postmodernisme. Constructivisme is alleen tegen het objectivisme, terwijl het postmodernisme ook tegen het realisme is. Een vorm van constructivisme die ook recht tegenover het realisme staat is redevoerende analyse: Potter (1996: 98) stelt dat de wereld wordt gevormd door diegenen die erover praten, schrijven en redeneren.
Veel onderzoekers maken onderscheid tussen twee brede onderzoeksstrategieën: kwantitatief en kwalitatief onderzoek. De fundamentele verschillen staan hieronder:
(1) Deductief (testen van theorieën) Inductief (creëren van theorieën)
(2) Natuurwetenschappelijk model (vooral positivisme) ‘Interpretivism’
(3) Objectivisme Constructivisme
Het is belangrijk om te weten dat deze verschillen tussen (1) de rol van theorie (2) de epistemologie en (3) de ontologie niet zo duidelijk zijn als ze hier afgeschilderd worden. Bovenstaande verschillen zijn dan ook geen wetten, maar normaliteiten: kwalitatief onderzoek is geneigd om theorieën te creëren, maar zij kan ook theorieën testen. Beide strategieën komen uitgebreider aan bod in de komende hoofdstukken. Veel onderzoekers pleiten voor een gemixt methodeonderzoek waarbij methoden die geassocieerd worden met zowel kwantitatief als kwalitatief onderzoek gecombineerd worden. Meer daarover in het hoofdstuk over gemengd methodenonderzoek.
Zoals al we weten zijn vooral de theorie, epistemologie en ontologie van invloed op het sociaal onderzoek. Dit hoofdstuk voegt nog twee andere invloeden toe: waardes en praktische overwegingen.
Waardes reflecteren de persoonlijke geloofsovertuigingen of de gevoelens van de onderzoeker. Het is vrijwel onmogelijk om het onderzoek 100% objectief en dus waardevrij te houden. Waardes kunnen bijvoorbeeld terugkomen in de keuze van het onderzoeksveld, de formulering van de onderzoeksvraag, de keuze van methoden, de data-analyse en de interpretatie van de data. Zo hebben feministische onderzoekers vaak een voorkeur voor een kwalitatieve onderzoeksstrategie, hoewel hier de laatste tijd verandering in lijkt te komen. Vaak krijgt de onderzoeker sympathie voor de mensen die hij onderzoekt, vooral wanneer het gaat om een kwalitatief onderzoek waarbij participantobservatie of intensief interviewen wordt gebruikt. Volgens Becker (1967) is deze neiging het ergst wanneer de respondenten uit minderheidgroepen komen. Zowel de waardes als de mogelijke bias moet herkent en erkent worden. Ook is er een ongeschreven regel dat er sprake moet zijn van reflexiviteit (een soort bekentenis): een geschreven stukje voor andere sociale onderzoekers waarin duidelijk wordt in hoeverre zij denken dat dergelijke factoren (zoals verwachtingen, hoop, attitudes e.d.) invloed hebben uitgeoefend tijdens het onderzoek .
Praktische vraagstukken kunnen niet genegeerd worden als het gaat om mogelijke invloeden op het onderzoek. Zo past bijvoorbeeld de kwalitatieve benadering soms gewoon beter bij de onderzoeksvraag of bij het doel van het onderzoek dan een kwalitatieve benadering.
In het vorige hoofdstuk hebben we geleerd dat een onderzoeker moet kiezen tussen twee onderzoeksstrategieën (kwalitatief of kwantitatief). Vervolgens moeten er nog twee belangrijke keuzes gemaakt worden voordat je een onderzoek werkelijk kan opzetten, namelijk het kiezen van een onderzoeksdesign en de onderzoeksmethode. Deze twee termen worden vaak onterecht met elkaar verward: een design (algemeen) is een structuur die de uitvoering van een methode (specifieke techniek) en de analyse van de data in bepaalde banen leidt.
Er worden drie belangrijke eisen gesteld aan een sociaal onderzoek:(1) betrouwbaarheid (‘reliability’) (2) repliceerbaarheid en (3) validiteit. Betrouwbaarheid (‘reliability’) betreft de consistentie van onderzoeksresultaten: worden dezelfde resultaten verkregen bij een meting op een ander tijdstip? Dit is nauw verbonden met de repliceerbaarheid, oftewel de herhaalbaarheid van het onderzoek. Het repliceren van een sociaal onderzoek is best zeldzaam, terwijl het wel erg op prijs gesteld wordt als het onderzoek de mogelijkheid biedt tot repliceerbaarheid, vooral in kwantitatief onderzoek. De validiteit houdt zich vooral bezig met de integriteit van de getrokken conclusies. Er zijn verschillende soorten validiteit, onderscheden worden:
Constructvaliditeit: ook wel ‘measurement validity’ genoemd. Meet het meetinstrument het bedoelde construct?
Interne validiteit: dit is vooral gerelateerd aan causaliteit. Is een conclusie met betrekking tot een causale relatie houdbaar? Veroorzaakt de onafhankelijke variabele (x) echt de afhankelijke variabele (y) of is misschien een andere factor verantwoordelijk?
Externe validiteit: dit heeft betrekking op de vraag of de resultaten van een studie generaliseerbaar zijn: zijn de conclusies ook toepasbaar in andere contexten? Een representatieve steekproef is dan ook een vereiste.
Ecologische validiteit: dit verwijst naar de mate waarin de wetenschappelijke bevindingen toepasbaar zijn in het alledaagse leven. Een kunstmatige / onnatuurlijke testomgeving of testconditie leidt vaak tot een lage ecologische validiteit.
De betrouwbaarheid (‘reliability’), repliceerbaarheid en validiteit (constructvaliditeit, interne validiteit en externe validiteit) spelen een grote rol bij kwantitatief onderzoek. Enkel de ecologische validiteit is belangrijk bij zowel kwalitatief als kwantitatief onderzoek. Lincoln en Guba (1985) stellen daarom alternatieve termen en manieren voor om kwalitatief onderzoek te beoordelen. Hun criterium is betrouwbaarheid, maar zij gebruiken (vertaald) niet de term ‘reliability’, maar ‘trustworthiness’. Elk aspect van dit criterium is parallel aan een criterium van kwantitatief onderzoek:
Geloofwaardigheid: gelijk aan interne validiteit.
Overdraagbaarheid: gelijk aan externe validiteit.
Afhankelijkheid: gelijk aan de betrouwbaarheid
‘Conformality’: gelijk aan objectiviteit
Volgens Hammersley (1992) is ook relevantie een belangrijk criterium.
Er worden vijf soorten designs besproken:
Experimenteel design (en de varianten er op, zoals quasi-experimenten)
‘Cross-sectioneel’ of ‘survey’ design
Longitudinaal design
‘Case study’ design
Vergelijkingsdesign
Een experiment is zeldzaam binnen de sociologie, maar wordt vaak gebruikt in gerelateerde onderzoeksgebieden zoals sociale psychologie. Experimenten zijn vooral sterk in termen van interne validiteit. De reden dat sociale onderzoekers deze methode weinig gebruiken is omdat er een onafhankelijke variabele gemanipuleerd moet worden om te bepalen of deze invloed heeft op de afhankelijke variabele. Binnen dit design wordt elke proefpersoon willekeurig toegewezen aan één van de experimentele groepen. Elke groep verschilt in de mate van de afhankelijke variabele. Binnen het experimentele design wordt er onderscheid gemaakt tussen een laboratorium experiment (in een sterk gecontroleerde setting) en een veldexperiment (in het echte leven). Een klassiek experimenteel design wordt ook wel een gerandomiseerd experiment of een ‘randomized controlled trial’ (RCT) genoemd en bestaat uit twee groepen: een experimentele of behandelingsgroep en een controlegroep. De afhankelijke variabele wordt voor en na de experimentele manipulatie gemeten. Proefpersonen worden willekeurig toegewezen aan één van de twee groepen zodat beide groepen even representatief zijn. Een RCT wordt hoog aangeschreven in de literatuur.
Volgens Campbell (1957) en Cook en Campbell (1979) zijn er vijf grote bedreigingen voor de externe validiteit:
Selectie en behandeling: naar welke sociale en psychologische groepen kan een resultaat gegeneraliseerd worden? Hier moet gelet worden op factoren zoals etniciteit, sociale klasse, regio, geslacht en persoonlijkheid.
Setting en behandeling: is het onderzoeksresultaat generaliseerbaar naar andere settings (zoals andere scholen)?
Geschiedenis en behandeling: kunnen gegevens gegeneraliseerd worden naar het verleden en de toekomst? Zijn gegevens van een paar jaar geleden nog wel toepasbaar vandaag de dag?
De effecten van ‘pre-testing’: na getest te zijn kunnen proefpersonen gevoelig worden voor de experimentele behandeling. De resultaten zijn daarom vaak niet generaliseerbaar naar mensen die niet eerder getest zijn en wordt er zo weinig gebruik gemaakt van zogenoemd ‘pre-testing’.
‘Reactieve’ effecten van experimentele afspraken: mensen zijn regelmatig bewust van het feit dat ze meedoen aan een experiment. Dit beïnvloedt hun reactiviteit en leidt tot verminderde generaliseerbaarheid.
Veel onderzoeken binnen de sociale psychologie zijn laboratorium onderzoeken, omdat de onderzoeker dan veel meer invloed heeft dan wanneer hij/zij een veldexperiment uitvoert. Deze methode kent echter ook veel beperkingen. Zo is de externe en ecologische validiteit waarschijnlijk zeer beperkt. Het zogenoemde alledaagse realisme (‘mundane realism’) van laboratoriumexperimenten is dus slecht, maar het experimentele realisme is vaak wel van toepassing. Het experimentele realisme houdt in dat de proefpersonen erg betrokken zijn en het experiment serieus nemen.
Een quasi-experiment is een studie die een paar kenmerken van een experimenteel design heeft, maar niet aan alle eisen van de interne validiteit voldoet. Zo is er vaak geen sprake van willekeurige toewijzing aan de groepen binnen de studie. Toch zijn de resultaten verkregen middels een quasi-experiment bruikbaar omdat ze niet gebruik maken van kunstmatige interventies in het sociale leven waardoor de ecologische validiteit vaak sterk is. Experimentele studies en vooral quasi-experimenten worden vooral gebruikt in evaluerende onderzoeksstudies: studies die zich ontfermen over de evaluatie van sociale (of in mindere mate organisatorische) interventies.
Een belangrijk kenmerk van elk experiment is het toestaan van een vergelijking: de resultaten van de experimentele groep worden vergeleken met de resultaten van de controlegroep.
Bij sociaal onderzoek is het vaak niet mogelijk om de variabelen waarin de onderzoeker geïnteresseerd is te manipuleren (niet-manipuleerbare variabelen). Daarom maakt kwantitatief sociale onderzoek gebruik van een ‘cross-sectioneel’ onderzoeksdesign. Dit design wordt soms onterecht een ‘survey’ genoemd. In het vervolg wordt de term ‘survey’ gebruikt om een specifiek ‘cross-sectioneel’ onderzoek aan te duiden waarbij data wordt verzameld die verkregen is door vragenlijsten of gestructureerd interviewen af te nemen. De algemenere term ‘cross-sectioneel’ design kan echter ook gebruik maken van andere methoden zoals gestructureerde observatie, inhoudsanalyse en andere. Bij een ‘cross-sectioneel’ design wordt altijd (1) meer dan één case onderzocht (onderzoekers zijn geïnteresseerd in de variatie) (2) op één moment (data van verschillende variabelen worden ongeveer tegelijkertijd verzameld) (3) kwantitatieve data wordt verzameld die vervolgens worden geanalyseerd in de hoop om (4) associatiepatronen te ontdekken. Binnen dit design kan alleen de relatie tussen variabelen onderzocht worden: er is immers geen sprake van manipulatie van een variabele. Dit betekent niet dat het per definitie onmogelijk is om causale conclusies te trekken (zie hoofdstuk 15), maar de geloofwaardigheid is minder dan conclusies die getrokken kunnen worden naar aanleiding van een experimenteel design.
Hoe verhoudt ‘cross-sectioneel’ onderzoek zich tot de eisen (betrouwbaarheid, herhaalbaarheid en validiteit) van kwantitatief onderzoek? De betrouwbaarheid en constructvaliditeit zijn niet zozeer gerelateerd aan het onderzoeksdesign zelf, maar vooral aan de meetinstrumenten die worden gebruikt. De mogelijkheid tot replicatie is in bijna alle studies aanwezig. De interne validiteit is vaak zwak omdat het moeilijk is om uitspraken te doen over de causaliteit. De externe validiteit is sterk zolang er gebruik wordt gemaakt van willekeurige steekproefmethodes. De ecologische validiteit kan in het nauw komen omdat methodes zoals observatieprogramma’s de natuurlijke omgeving kunnen verstoren.
Soms wordt het ‘cross-sectioneel’ design ook gebruikt bij kwalitatief onderzoek, bijvoorbeeld wanneer de onderzoeker op één moment in tijd veel mensen ongestructureerd of semigestructureerd interviewt.
Het longitudinaal design vergt veel tijd en geld en wordt daarom relatief weinig gebruikt in sociaal onderzoek. Het is vaak een uitbreiding op ‘survey’ onderzoek. Wat betreft de betrouwbaarheid, herhaalbaarheid en validiteit lijkt dit design veel op het ‘cross-sectioneel’ design, hoewel dit design iets geschikter is om causale conclusies te trekken. Er zijn twee soorten longitudinale onderzoeken: (1) een panelstudie en (2) een cohort studie. Bij de eerste is een (willekeurig geselecteerd, nationale) steekproef de focus van de dataverzameling op minstens twee (maar vaak meer) tijdstippen. Deze steekproef kan bestaan uit mensen, maar ook uit huishoudens, scholen, etc. Bij een cohort studie is een heel cohort of een willekeurige selectie daarvan geselecteerd. Het cohort bestaat uit mensen of andere ‘cases’ die een bepaalde karakteristiek delen (bijv. allemaal geboren in dezelfde week). Beide soorten longitudinale onderzoeken hebben dezelfde structuur: data wordt op minstens twee tijdstippen verzameld met dezelfde participanten. Ook hebben beide studies als doel om de sociale verandering aan het licht te brengen en causale invloeden over tijd beter te begrijpen. Daarnaast zijn er twee grote verschillen tussen de types onderzoek. Een panelstudie kan, in tegenstelling tot een cohort studie, onderscheid maken tussen leeftijdseffecten (het effect van ouder worden) en cohort effecten (effecten die ontstaan doordat een groep geboren wordt op eenzelfde moment). Bij een cohort studie worden alle mensen min of meer op hetzelfde moment geboren, dus kan alleen gekeken worden naar leeftijdseffecten. Daarnaast heeft een panelstudie regels nodig over de omgang met nieuwe deelnemers, bijvoorbeeld, wanneer een panelstudie huishoudens onderzoekt en er (door geboorte, trouwen of mantelzorg) nieuwe leden bijkomen.
Zowel panelstudies als cohort studies kennen de volgende beperkingen:
De kans op uitval van deelnemers door dood, verhuizing, etc (‘the problem of sample attrition’). Diegene die uitvallen kunnen op belangrijke punten verschillen van diegene die overblijven, waardoor er geen representatieve groep overblijft. Onderzoek van Berthoud (2000) suggereert dat dit probleem vermindert naarmate tijd verstrijkt: zij die na de eerste 1 á 2 metingen nog meedoen, blijven vaak tot het einde van het onderzoek meedoen.
Er zijn weinig richtlijnen als het gaat om het ‘beste moment’ om opnieuw te testen.
Veel longitudinale studies zijn niet goed doordacht, wat resulteert in een grote verzameling van data waarbij bijna geen sprake is geweest van planning.
Er kan een zogenoemd ‘panel conditioneringeffect’ optreden waarbij de continue deelname in een longitudinale studie invloed heeft op hoe mensen zich gedragen.
Hoewel longitudinale studies vaak alleen geassocieerd worden met kwantitatief onderzoek, blijken kwalitatieve onderzoeken ook gebruik te maken enkele elementen van het longitudinale design. Een voorbeeld hiervan is etnografisch onderzoek: de etnograaf is voor een lange periode op één locatie waar hij/zij meerdere keren een interview afneemt om zo uitspraken te doen over verandering.
Bij een ‘case study’ design wordt een enkele ‘case’ gedetailleerd en intensief geanalyseerd. Een ‘case’ kan ook hier weer een enkele persoon, samenleving, school, familie, organisatie of gebeurtenis zijn. Vaak wordt een ‘case’ studie automatisch maar onterecht uitsluitend geassocieerd met kwalitatief onderzoek. Hoewel de meeste elementen van dit onderzoeksdesign( zoals methoden als participant observatie en ongestructureerd interviewen) behoren tot kwalitatief onderzoek, wordt deze methode ook vaak genoeg toegepast bij kwantitatieve onderzoeken (zie hoofdstuk over gemengd methodenonderzoek). Soms is het heel moeilijk om te bepalen of een onderzoek beschreven moet worden als een ‘case study’ of als ‘cross-sectioneel’ onderzoeksdesign.
Volgens Yin (2009) zijn er vijf verschillende soorten ‘cases’:
De kritische ‘case’: de ‘case’ wordt gekozen op grond van de aanname dat door de analyse van de case omstandigheden beter begrepen kunnen worden.
De extreme of unieke ‘case’: de ‘case’ wordt gekozen omdat deze zo uniek is.
De representatieve of typische ‘case’: dit wordt ook wel de ‘exemplifying case’ genoemd en wordt gekozen omdat deze een bredere categorie van ‘cases’ belichaamt of omdat deze een geschikte context creëert. Vanuit dit punt kunnen bepaalde onderzoeksvragen beantwoord worden.
De openbarende ‘case’: deze ‘case’ wordt gekozen wanneer de onderzoeker de mogelijkheid heeft om een fenomeen te observeren en analyseren die eerst niet toegankelijk was voor wetenschappelijk onderzoek.
De longitudinale ‘case’: deze ‘case’ wordt gekozen omdat het hierbij mogelijkheid is om het fenomeen op twee of meer tijdstippen te onderzoeken .
Eén van de meest gehoorde “kritiekpunten” van een ‘case study’ is dat de resultaten niet gegeneraliseerd kunnen worden. Dit is echter ook niet het doel van dit design.
Een ‘case study’ design heeft vaak een longitudinaal element: de onderzoeker maakt vaak deel uit van een organisatie of maatschappij. Individuen kunnen maanden of zelfs jaren geïnterviewd worden. Ook wordt een ‘case’ vaak later nog een keer bestudeerd.
Bij een vergelijkingsdesign worden twee of meer verschillende ‘cases’ vergeleken die soortgelijke methoden gebruiken (zoals ‘cross-cultureel’ onderzoek). Dit kan plaatsvinden binnen een kwantitatief of kwalitatief kader. In het geval van kwantitatief onderzoek wordt de data van elke ‘case’ vaak binnen een ‘cross-sectioneel’ kader verzameld. In termen van betrouwbaarheid, herhaalbaarheid, validiteit en generaliseerbaarheid is een vergelijkingsstudie dan ook niet anders dan een ‘cross-sectioneel’ design. Binnen een kwalitatieve onderzoeksstrategie kan het vergelijkingsdesign de vorm aannemen van een ‘multiple-case study oftewel een ‘multi-case study’. Het grootste voordeel van deze methode is dat het bijdraagt aan de theorievorming en anders verduidelijking kan geven over de bestaande literatuur. Dyer en Wilkins (1991) stellen echter dat tijdens een ‘multi-case study’, de onderzoeker meer let op het vergelijken van de twee ‘cases’ dan op de specifieke context.
Het is belangrijk dat je precies weet wat voor eisen jouw institutie stelt aan jouw onderzoek. Volg altijd hun instructies en gebruik de informatie die zij jou bieden. Gebruik jouw begeleider optimaal en probeer positief te reageren op hun feedback. Onderzoek wordt altijd aan banden gelegd door tijd en bronnen. De volgende twee punten zijn hierbij relevant:
Creëer (samen met je begeleider) een ‘timetable’: wanneer doe je wat?
Kom erachter welke bronnen jij tot jouw beschikking hebt.
Kwalitatief onderzoek heeft vaak een wat meer ‘open einde’ dan kwantitatief onderzoek (Wat is het doel van gestructureerde observatie bij sociaal onderzoek? - Chapter 12), waardoor dit type onderzoek riskanter is en vaak leidt tot een verzameling van te veel data en verwarring.. Probeer daarom jouw onderzoeksvragen te richten op kwantitatief onderzoek. Let erop dat jouw onderzoeksvragen een duidelijk sociaalwetenschappelijk perspectief hebben. Volgens Marx (1997) zijn er veel mogelijke bronnen van onderzoeksvragen, zoals:
Intellectuele puzzels en tegenstellingen
De bestaande literatuur
Replicatie van resultaten
Structuren (zoals organisaties) en functies
Een sociaal probleem Nieuwe methodes en theorieën
Persoonlijke ervaringen
Sponsoren en leraren
Deze bronnen sluiten elkaar natuurlijk niet uit: een onderzoeksvraag kan voortkomen uit twee of zelfs meerdere bronnen.
Bij het opstellen van de onderzoeksvragen moeten wij ons realiseren dat wij niet alle vragen die in ons opkomen kunnen beantwoorden. Wij moeten daarom weloverwogen keuzes maken en vragen kiezen die in ieder geval gerelateerd zijn aan elkaar (om zo de focus van het onderzoek niet te verliezen). Onderzoeksvragen moeten niet alleen gerelateerd zijn aan elkaar, maar ook moeten zij voldoen aan de volgende eisen:
Ze moeten duidelijk zijn;
Ze moeten onderzoekbaar zijn;
Ze moeten enigszins gerelateerd zijn aan de beschikbare theorie;
Ze moeten een unieke bijdrage leveren;
Ze moeten niet te breed en niet te smal zijn.
Vaak verwacht jouw institutie dat je een onderzoeksvoorstel inlevert voordat je begint met de uitvoering van het onderzoek. Zonder goedkeuring door de begeleider mag je dan ook nog niet beginnen. Zelfs wanneer het geen vereiste is van jouw opleiding is het voor jezelf handig om dit voorstel te maken, zodat je een duidelijk overzicht hebt van jouw onderzoek. De volgende onderwerpen moeten in ieder geval verwerkt worden in het voorstel:
Wat is het doel van jouw onderzoek?
Waarom is jouw onderzoek belangrijk?
Wat zijn jouw onderzoeksvragen?
Wat heeft de literatuur te zeggen over jouw onderzoeksgebied?
Hoe ga jij data verzamelen?
Welke methodes wil jij gaan gebruiken?
Wat is jouw planning?
Welke problemen voorzie jij?
Wat zijn de mogelijke ethische problemen?
Hoe ga jij jouw data analyseren?
Wie ga jij bestuderen?
Hoe makkelijk heb jij toegang tot een ‘sampling frame’?
Wat voor steekproef strategie zal jij gebruiken (onderbouw!)? Voorbeelden hier zijn de ‘probability’ steekproeven of ‘non-probability’ steekproeven (zoals quota steekproef of een ‘convenience’ steekproef).
Het boek noemt een aantal tips die jij kunt gebruiken tijdens jouw onderzoek, zo is het bijvoorbeeld heel handig om een dagboek bij te houden met wat jij wanneer hebt gedaan. Zorg er ook voor dat jij bekend bent met de hardware die je gebruikt tijdens jouw onderzoek (zoals opnameapparatuur). Zorg dat jij zo snel mogelijk bekend raakt met de data-analyse programma’s zoals SPSS of NVivo en wacht niet met het coderen totdat jij alle data hebt verzameld.
Het is belangrijk om je in te lezen in de bestaande literatuur, allereerst omdat je wilt weten wat er al bekend is op het gebied van jouw onderzoek. Hierop aansluitend wil je de volgende vragen beantwoord hebben: welke theorieën zijn relevant? Welke methoden en strategieën zijn er toegepast? Zijn er significante tegenstrijdigheden of inconsistenties? Welke onderzoeksvragen zijn nog onbeantwoord? Bij het inlezen (in het vervolg ‘reviewen’ genoemd) is het belangrijk om:
Goede notities te maken.
Kritisch te lezen.
Je onderzoeksvragen in je achterhoofd te houden.
Niet alles te willen verwerken in jouw verslag.
Niet te stoppen met inlezen zodra je begint met je eigen onderzoek.
Volgens Golden-Biddle en Locke (1993, 1997) zijn er twee verschillende manieren waarop de literatuur kan worden gepresenteerd:
Door te bouwen aan intertekstuele coherentie: de auteur laat zien hoe het onderzoek bijdraagt aan en zich verhoudt tot de literatuur. Verschillende technieken zijn:
Gesynthetiseerde coherentie: hier worden onderwerpen met elkaar verbonden die eigenlijk aanvankelijk geen relatie met elkaar hadden.
Progressieve coherentie: hier wordt gebouwd aan een berg van kennis waarover consensus is in de literatuur.
Non-coherentie: hier wordt herkend dat er veel contributies zijn aan een bepaald gebied en dat er veel onenigheid is tussen de resultaten.
Door het problematiseren van de situatie: de literatuur wordt ondermijnd door het vaststellen van een probleem. Het probleem kan zijn dat de literatuur incompleet, inadequaat of onverenigbaar is. Vervolgens wordt het eigen onderzoek hieruit gepresenteerd. Als de literatuur incompleet is, overbrugd het eigen onderzoek de kloof; als de literatuur inadequaat is brengt het eigen onderzoek een veelbelovend perspectief aan het licht dat nooit onderzocht is, en; als de literatuur onverenigbaar is introduceert het eigen onderzoek voor een alternatief perspectief dat superieur is aan de onverenigbare bestaande theorieën.
Er wordt onderscheid gemaakt tussen systematisch reviewen en verhalend reviewen. Hoewel reviews vaak verhalend zijn is er een groeiende interesse in de systematische vorm.
Systematisch reviewen is volgens Tranfield en collega’s (2003) een herhaalbaar, wetenschappelijk en transparant proces gericht op het minimaliseren van de bias door (1) uitputtende analyses van gepubliceerde en ongepubliceerde studies, en (2) het bieden van een zogenoemde ‘audit trail’ waar de auteur zijn/haar besluiten, procedures en conclusies in aangeeft. Deze definitie is voortgevloeid uit de veronderstelling dat veel reviews niet de lading dekken en een bias bevatten. Twee voorbeelden van een systematisch review zijn de meta-analyse en meta-etnografie. Een systematisch review beslaat vrijwel altijd uit de volgende stappen:
Bepaal het doel en de omvang van jouw review
Zoek naar relevante studies lettend op het doel en de omvang van jouw review
Taxeer deze studies (maak, bijv. op basis van uitgave jaar of de gebruikte methode een selecte uit de relevante studies)
Analyseer de uiteindelijke selectie en synthetiseer de resultaten
Het grootste kritiekpunt van systematisch reviews is dat onderzoeksvragen vaak niet vertaald kunnen worden in termen van het effect van een specifieke variabele of dat de grenzen van het onderwerp niet duidelijk zijn afgebakend. Dit is vaak het geval in sociaal onderzoek. Een tweede kritiekpunt is dat dit soort review kan leiden tot een bureaucratisering van het review proces: er wordt meer en meer gelet op de technische aspecten van hoe iets tot stand komt, dan dat er daadwerkelijk gelet wordt op de analytische interpretaties. Een derde kritiekpunt is de toepassing van het review in kwalitatief onderzoek: vanuit het systematische perspectief kan er een objectief oordeel geveld worden over de kwaliteit van een artikel, maar vooral in kwalitatief onderzoek is er over het algemeen weinig consensus over hoe de kwaliteit van studies methodologisch beoordeeld kan worden.
De meeste reviews gebeuren niet systematisch, maar verhalend. Interpratieve onderzoekers (zie hoofdstuk 2 voor de definitie van ‘interpretivism’) lezen de literatuur namelijk niet na om erachter te komen wat hun project kan bijdragen aan de bestaande literatuur, maar willen de menselijke redevoering verrijken: niet door bij te dragen aan de berg met kennis maar door het begrip te ‘verhogen’(Geertz, 1973). Verhalend reviewen is dan ook minder gefocust/specifiek en algemener dan systematisch reviewen. Verhalende reviewen is waarschijnlijk geschikter voor kwalitatieve onderzoekers wiens onderzoeksstrategie is gebaseerd op een interpretatieve epistemologie.
De meest gebruikte elektronische database voor sociale wetenschappen is de ‘Social Sciences Ciration Index (SSCI)’ waarvoor een Athens gebruikersnaam en wachtwoord is vereist. ‘Scopus’ is ook heel nuttig en bevat een iets breder spectrum aan artikelen. Ook Google Scholar wordt vaak gebruikt. Een beperking bij het gebruiken van Google en andere zoekmachines: het vindt sites, maar evalueert deze niet dus kijk kritisch naar wat jij hebt gevonden (wie is de auteur, wat is de bron van het artikel, etc.). Gebruik de juiste sleutelwoorden, maak notities tijdens jouw zoektocht en ga de referenties na.
Iedere institutie kent zijn eigen richtlijnen met betrekking tot het refereren naar gebruikte artikelen. De twee meest gebruikte methodes zijn de Harvard oftewel auteur-datum methode (Zoiets, 2013) en de voetnoot in de vorm van superscript1.
Wat zorgt voor een goede referentielijst? De lengte ervan speelt een rol. Een langere lijst laat zien dat de auteur vrij volledig is geweest in zijn of haar zoektocht naar literatuur. Een te lange lijst is ook niet goed: een lijst moet ook selectief zijn! Een veelgebruikte maatstaf voor de kwaliteit van de referentielijst is de reputatie van het blad waarin het artikel is gepubliceerd, hoewel er ook relevante, goede artikelen gehaald kunnen worden uit een blad voor beoefenaars. Het derde kenmerk van een goede bibliografie is secundair refereren: dit is wanneer gerefereerd wordt naar een artikel of boek wat geciteerd wordt door een ander artikel of boek en het origineel niet toegankelijk is. Echter, in het verslag moeten secundaire referenties niet centraal staan aangezien jij afhankelijk bent van de interpretatie van de originele tekst.
Hoewel vanzelfsprekend, moet plagiaat ten allen tijde vermeden worden. Afgezien van eventuele strafrechtelijke consequenties maakt plagiaat geen indruk op de begeleider en is het voor de originele auteur respectloos om de eer niet aan hem of haar toe te kennen. Probeer altijd ideeën in eigen woorden om te zetten.
De ‘British Sociological Association (BSA)’ en de ‘Social Research Association (SRA)’ zijn organisaties die zich bezighouden met het formuleren van regels met betrekking tot ethiek in sociaal onderzoek. De discussie over ethiek in sociaal onderzoek in de literatuur is vaak frustrerend vanwege vier redenen:
Auteurs verschillen in wat zij ethisch acceptabel vinden;
Er komt niet echt schot in de discussie (dezelfde argumenten van de jaren ’60 worden aangehaald en er is weinig vooruitgang geboekt);
Discussies over de ethiek gaan vaak gepaard met extreme voorbeelden van studies die ethisch niet verantwoord zijn. Hierdoor worden de subtielere gevallen waar ethiek wordt geschonden niet besproken;
Deze beruchte voorbeeldstudies (punt 3) gaan vaak gepaard met specifieke onderzoeksmethoden (zoals misleiding en geheime observaties). Hierdoor wordt geïmpliceerd dat ethische problemen alleen of vooral berusten op sommige methoden(gerelateerd aan punt 3).
Volgens Diener en Crandall (1978) manifesteren ethische principes zich voornamelijk binnen de volgende vier (enigszins overlappende) gebieden: schade aan deelnemers, een gebrek aan ‘informed consent’ (in het vervolg geïnformeerde toestemming genoemd), privacyschending en misleiding. Volgens de BSA en SRA moeten deelnemers tegen alle vier fenomenen beschermd worden.
Onder ‘schade’ valt fysieke schade, schade aan de ontwikkeling, een verlies van eigenwaarde, het induceren van stress en angst en het laten uitvoeren van verwerpelijke taken. Dit punt is gerelateerd aan privacyschending en specifieker, het vertrouwelijk omgaan met de verkregen data. In kwantitatief onderzoek is het relatief makkelijk om data anoniem te verwerken, maar bij kwalitatief onderzoek is dat lastiger. Het is bijvoorbeeld moeilijk (maar lang niet onmogelijk) om veldnotities zo te presenteren dat de persoon of de plek niet geïdentificeerd kan worden. Afgezien van het deontologische argument met betrekking tot intrinsieke foutheid van het schenden van vertrouwelijkheid is er ook het consequentialistische argument dat stelt dat het de toekomstige generatie onderzoekers kan schaden aangezien niemand hen meer vertrouwd. Het kan soms moeilijk zijn om te achterhalen wat voor effect een onderzoek kan hebben op de deelnemers.
Dit onderwerp is het meest besproken onderwerp in de discussie over ethiek en sociaal onderzoek met een focus op vermomde of bedekte observatie of bedekt onderzoek, waarbij de werkelijke identiteit van de onderzoeker verborgen blijft. Bij deze vorm van observatie krijgen de deelnemers niet alle informatie die zij nodig zouden kunnen hebben bij het besluiten of ze wel of niet willen deelnemen aan het onderzoek: ze doen mee, of ze nu willen of niet. Ook in andere gevallen (waar de deelnemers wel bewust zijn van deelname en toestemming hebben gegeven) kan er sprake zijn van een gebrek aan geïnformeerde toestemming indien zij niet volledig op de hoogte zijn gebracht van de aard van het onderzoek (zoals bij Milgram’s studie). Volgens Homan (1991) is het implementeren van geïnformeerde toestemming makkelijker gezegd dan gedaan:
De onderzoeker kan simpelweg niet alles over het onderzoek vertellen, omdat er een grote kans is dat de antwoorden van de respondenten daardoor beïnvloed worden.
In etnografisch onderzoek krijgt de etnograaf met heel veel mensen te maken. Het is praktisch onmogelijk om van iedereen geïnformeerde toestemming te krijgen, omdat dat heel erg zou interfereren met de dagelijkse context.
Volgens Erikson (1967) is de geïnformeerde toestemming als volgt gerelateerd aan de schade aan deelnemers: als deelnemers niet alles (maar wel wat) van de studie afweten en daardoor schade oplopen zou volgens hem de onderzoeker minder schuld hebben dan wanneer de deelnemers helemaal geen informatie hadden over het onderzoek en dus niet vrijwillig hebben meegedaan.
De geïnformeerde toestemming wordt tegenwoordig verkregen met behulp van formulieren. Een nadeel hiervan is dat het vaak meer bezorgdheid opwekt bij de respondenten dan dat er aanvankelijk was.
Dit gaat vooral om de geïnformeerde toestemming, omdat door die toestemming de respondent zijn/haar privacy voor een bepaald domein opgeeft. Uiteraard geeft de respondent de privacy op tot een bepaald punt, aangezien hij/zij altijd mag afzien van het beantwoorden van vragen of het hele onderzoek om welke reden dan ook. De eerder besproken vertrouwelijkheid van verkregen data speelt hier natuurlijk ook een grote rol.
Misleiding vindt plaats wanneer de onderzoeker zijn/haar werk presenteert als iets anders dan dat het werkelijk is. Het ethisch bezwaar tegen misleiding kent vaak twee vormen: allereerst is het onaardig om mensen te misleiden. Daarnaast kan het onderzoekers afschilderen als vervelende bemoeials die mensen misleiden voor hun beroep. Dit heeft een negatief effect op de medewerking van respondenten in de toekomst (en de financiering van onderzoek). Een groot probleem met betrekking tot dit aspect is dat deceptie eigenlijk in elk onderzoek wel voorkomt en de grens tussen acceptabele en niet-acceptabele misleiding hierdoor soms moeilijk te bepalen is.
Ethische overwegingen raken meer en meer verweven met de kwaliteit van het onderzoek: commissies die aanvragen voor onderzoek moeten controleren op ethische toelaatbaarheid leveren ook kritiek op de kwaliteit van de voorgestelde onderzoeksprocedures. Als de kwaliteit deel uitmaakt van het ethische domein, is de kans groot dat de onderzoekers zich moeten verantwoorden voor hun onderzoeksbeslissingen met betrekking tot hun steekproef etc. in plaats van enkel verantwoording te hoeven afleggen voor de eerder genoemde vier ethiekdomeinen.
Tegenwoordig is het verleidelijk om elektronische middelen (zoals chat rooms, forums, nieuwsgroepen etc.) te gebruiken als onderzoeksonderwerp. Er is nog een debat gaande of elektronische communicaties publiekelijk of privé zijn. Volgens Pace en Livingstone (2005) moeten elektronische communicaties alleen gebruikt worden voor onderzoek als (1) de informatie publiekelijk gearchiveerd en toegankelijk is, (2) er geen wachtwoord nodig is om bij de informatie te komen, (3) de informatie ongevoelig is, en (4) het beleid van de website het gebruik van de informatie niet tegenhoudt. In elk ander geval zou een geïnformeerde toestemming nodig zijn zonder dat de online activiteit daardoor verhinderd wordt.
Zoals we al hebben besproken vindt een sociaal onderzoek nooit plaats in een moreel vacuüm: de onderzoeker (met onder andere normen en waarden, voorkeuren, verwachtingen, neigingen en interesses) zal ongetwijfeld veel invloed hebben op zijn/haar onderzoek. Geheel objectief is een onderzoek dus nooit. Dit is een visie die zelfs aangemoedigd wordt door sommige onderzoekers, waaronder feministische onderzoekers: onderzoek met vrouwen op een geheel objectieve, waardevrije manier is onwenselijk (en heel moeilijk), omdat het onverenigbaar is met de waardes van het feminisme. Als we het hebben over de politiek in sociaal onderzoek hebben we het niet alleen over een‘kant kiezen’ zoals net besproken is, maar ook over de volgende onderwerpen:
Gesponsord onderzoek: de organisatie die het onderzoek fundeert zal voornamelijk zoeken naar resultaten die hun product of visie ondersteunen.
Toegang krijgen tot de organisaties: Reiner (2000) suggereert dat instanties vaak moeilijk doen over het verlenen van toegang omdat ze zich zorgen maken over hoe ze vervolgens gepresenteerd zullen worden. Toegang krijgen is dan ook vaak een onderhandelingsproces waarin het resultaat ‘the research bargain’ wordt genoemd.
Eenmaal in de organisatie is het boeken van vooruitgang binnen deze organisatie ook een politiek proces op zich (mede vanwege de afhankelijkheid van medewerking).
Als onderzoek wordt gedaan in teams is er binnen deze teams ook vaak sprake van een politiek spel: hoe verhouden de mensen zich tot elkaar, wie vindt wat, e.d.
Er wordt soms veel weerstand geboden tegen de publicatie van het onderzoek.
De politicologie van de methoden zoals benoemd door Savage (2010).
Het proces van kwantitatief onderzoek bevat 11 stappen: verdiepen in de theorie, opstellen van hypothese(s), kiezen van onderzoeksdesign, creëren van indicatoren om concepten te meten, het vinden van een onderzoekslocatie, werven van respondenten, verzamelen verwerken en analyseren van de data, formuleren van een conclusie en verwerken van de gegevens in een verslag. Enkele stappen zijn al in eerdere hoofdstukken aan bod gekomen. Vaak is binnen de kwantitatieve benadering de hypothese afgeleid van de theorie (deductie). Deze volgorde van stappen is een ideaal model dat zich bijna nooit in die pure vorm presenteert. Zo wordt gesteld dat indicators ontwikkeld moeten worden om concepten te meten. Dit vormt de basis van operationalisme, een term uit de natuurkunde die een deductieve werkwijze impliceert. Echter, soms worden metingen ontwikkeld die vervolgens leiden tot conceptualisatie, door bijvoorbeeld een factor analyse.
Concepten zijn de bouwstenen van de theorie. Een voorbeeld van een concept is bijvoorbeeld ‘gezonde levensstijl’ of ‘cultuur’. Volgens Bulmer (1984) zijn concepten categorieën voor de organisatie van ideeën en observaties. Een concept kan een verklaring bieden voor een bepaald fenomeen of ze kunnen staan voor dingen die we juist willen verklaren. Er zijn 3 belangrijke redenen voor het gebruik van meetinstrumenten/metingen:
Met behulp van meetinstrumenten kunnen kleine individuele verschillen naar voren komen. Grove verschillen zijn makkelijker te herkennen, maar de fijne verschillen moeten getest worden alvorens ze herkend kunnen worden.
Meetinstrumenten zorgen voor consistentie. Een meetinstrument is een maatstaf waardoor er een consistente meting over tijd kan plaatsvinden en er consistentie bestaat tussen onderzoekers onderling.
Metingen zijn de basis voor preciezere schattingen van de aard van de relatie tussen concepten (door bijvoorbeeld correlatie). Als we werktevredenheid en de concepten waarmee het gerelateerd kan zijn (zoals stressgerelateerd verzuim) testen kunnen we preciezere schattingen geven van de aard van de relatie.
Om het concept te kunnen meten is er een operationele definitie van het concept nodig: een indicator (of meerdere) die het concept goed representeert. Indicatoren kunnen bestaan uit een vraag of meerdere vragen (door een gestructureerd interview), gedrag (door gestructureerde observatie), officiële statistieken op te zoeken of door een uitvoerige analyse van media inhoud (door een inhoudsanalyse).
Het gebruik van meerdere indicatoren, ofwel een ‘multiple-indicator’ van een concept is nuttig als een enkele indicator niet de hele lading dekt. Ook is het nuttig als jij als onderzoeker specifieke verschillen wilt vinden. Een voorbeeld van zo’n meting is de Likert-schaal.
In veel of zelfs het meeste kwantitatieve onderzoek wordt er vaak gebruik gemaakt van een enkele indicator. Dit is het meest adequaat. Er wordt vaak ten onrecht beweerd dat een enkele indicator tekort zou schieten: zolang de meting zowel betrouwbaar is, als een valide representatie van het te meten concept, is het een geschikte methode.
De betrouwbaarheid is fundamenteel afhankelijk van de consistentie van de metingen. Deze consistentie wordt geanalyseerd door te kijken naar de stabiliteit (vaak getest door de test-hertest methode), interne betrouwbaarheid (meestal getest met Cronbach’s alfa) en inter-onderzoeker consistentie. Cronbach’s alfa is een test waarbij het gemiddelde van alle mogelijke ‘split-half’ betrouwbaarheidscoëfficiënten wordt berekend. Dit cijfer varieert tussen 1 (perfecte interne betrouwbaarheid) en 0 (geen interne betrouwbaarheid). De vuistregel is dat een waarde van 0.80 een acceptabele interne betrouwbaarheid is.
De validiteit houdt zich vooral bezig met de vraag of een meting van een concept werkelijk dat concept meet. In dit hoofdstuk wordt de term validiteit gebruikt voor hetzelfde wat in hoofdstuk 4 ‘measurement validity’ werd genoemd en moet daarom onderscheden worden van de andere vormen van validiteit die daar aan bod zijn gekomen. Om de ‘measurement validity’ te meten moeten de volgende aspecten bekeken worden:
‘Face validity’: lijkt de meting op het eerste gezicht te meten wat het moet meten?
‘Concurrent validity’: een meting wordt gerelateerd aan een criterium waarop mensen (of andere ‘cases’) verschillen en relevant is voor het concept. Bij het onderzoeken van de werktevredenheid kan bijvoorbeeld naar het verzuim gekeken worden. Twee metingen op hetzelfde moment in tijd worden met elkaar vergeleken.
Voorspellende validiteit: een meting wordt niet gerelateerd aan een huidig criterium (huidig verzuim), maar naar een toekomstig criterium (toekomstig verzuim). Wat is de voorspellende waarde van de meting op moment x voor de meting op moment y?
Convergente validiteit: in hoeverre meten andere meetinstrumenten (die bedoeld zijn om hetzelfde concept te meten) hetzelfde? De meting wordt hier vergeleken met andere, soortgelijke metingen.
De vier essentiële hoofdzaken van kwantitatieve onderzoekers zijn de metingen, het bepalen van causaliteit, de generaliseerbaarheid en de herhaalbaarheid.
Drie veelgehoorde kritiekpunten zijn de volgende:
Kwantitatieve onderzoekers erkennen niet dat mensen en sociale instituties anders zijn dan andere onderwerpen in de wereld. Sociale wetenschappers gebruiken immers vaak een natuurwetenschappelijk model voor het bestuderen van de sociale realiteit: vooral fenomenologen beschuldigen sociale wetenschappers ervan om verschillen tussen de sociale wereld en de natuurkundige wereld te negeren.
Het meetproces is kunstmatig. Hier is Cicourel’s (1964) notie van ‘metingen door goedkeuring’ (‘measurement by fiat’) van toepassing waarbij gesteld wordt dat het verband tussen de metingen en de concepten gebaseerd is op aannames. Manieren om de validiteit te meten lossen dit probleem niet op, omdat deze testen ook ‘metingen door goedkeuring’ zijn.
Het gebruik van de instrumenten en procedures staat in de weg van het bestuderen van de werkelijke relatie tussen onderzoek en het alledaagse sociale leven. Dit kritiekpunt refereert naar (het gebrek aan) ecologische validiteit (zie ook: Wat voor onderzoekdesigns bestaan er? - Chapter 3).
Dit hoofdstuk ontfermt zich over één van de vele belangrijke aspecten over het opzetten van een survey: het selecteren van individuen. De principes die hier besproken worden gelden ook voor andere kwantitatieve onderzoeksvormen, zoals een inhoudsanalyse. Een survey wordt vaak gedaan met behulp van de volgende meetinstrumenten: (1) een gestructureerd interview (via telefoon of persoonlijk afgenomen, zie: gestructureerd interview - Chapter 9), of (2) een vragenlijst (onder toezicht, per post of via internet, zie: zelfrapportage en vragenlijsten - Chapter 10).
Drie bronnen van een steekproef bias zijn:
Een non-respons
Een inadequaat ‘sampling frame’
Het gebruik van een niet-waarschijnlijkheid steekproef
Belangrijk is om op te merken dat een ‘sampling error’ ook kan voorkomen wanneer er gebruik wordt gemaakt van een ‘probability’ steekproef. Zelfs met een erg representatieve steekproef is het waarschijnlijk dat er enige mate van ‘sampling error’ aanwezig is. Uiteraard is de ‘sampling error’ wel minder aanwezig dan bij een ‘non-probability’ steekproef.
De basisvorm van een ‘probability’ steekproef is de simpele willekeurige steekproef waarbij elke unit in de populatie een even grote kans heeft om deel uit te maken van de steekproef. Deze kans wordt uitgedrukt in de zogenoemde steekproef fractie en wordt geformuleerd als: n / N. Dus: als je 20 studenten van jouw studierichting wilt ondervragen van de totaal 100 studenten die deze studierichting volgen, is de steekproef fractie (20/100) 1 op 5. De stappen die hier opgevolgd moeten worden zijn als volgt: bepaal de populatie (N), in dit geval 100. Creëer een ‘sampling frame’ waarbij de studenten die voldoen aan de inclusie criteria wordt opgenomen. Bepaal vervolgens je steekproefgrootte (n), in dit geval 20. Geef al de studenten uit je ‘sampling frame’ een nummer van 1 tot N (100) en gebruik een tabel met willekeurige cijfers (achterin het boek) of een computerprogramma waarmee je n aantal studenten selecteert.
Een variatie op de simpele willekeurige steekproef is de systematische steekproef. Hierbij selecteer je units direct uit de ‘sampling frame’ dus zonder ze een nummer toe te kennen. In het voorbeeld wordt 1 op de 5 studenten geselecteerd. Daarom gebruik je een tabel met willekeurige cijfers of een programma om willekeurig 1 van de eerste 5 studenten te kiezen, en daarna gebruik een je vast interval, nu elke vijfde student op de lijst (bijv. 3, 8, 13, 18).
Het is mogelijk om de populatie te selecteren op basis van een criterium, in dit geval was dat studenten die een bepaalde studierichting volgen. In het boek wordt hiernaar gerefereerd met ‘stratified random sampling’. Vervolgens kan uit die populatie een simpele willekeurige steekproef of een systematische steekproef worden genomen.
Als we een nationale steekproef studenten willen (van bijvoorbeeld n is 5000) kunnen we gebruik maken van cluster ‘sampling’. Als er alleen gebruik wordt gemaakt van een simpele willekeurige steekproef is er de kans dat de onderzoekers heel het land over moeten reizen om één student per universiteit te ondervragen. Bij cluster ‘sampling’ wordt er eerst geclusterd (in dit geval per universiteit) in plaats van gelijk vanuit units te ‘samplen’.
De belangrijkste reden om gebruik te maken van een ‘probability’ steekproef is zodat de onderzoeksgegevens gegeneraliseerd kunnen worden. Dit betekent niet dat de steekproef en de populatie gelijk moeten worden behandeld. Als bij het aantal studenten gekeken wordt naar het alcoholgebruik kan het (aritmetisch) gemiddelde units alcoholconsumptie gebruikt worden om het populatie gemiddelde te schatten.
De grootte van de steekproef is afhankelijk van meerdere factoren. Allereerst moet in het achterhoofd gehouden worden dat de absolute grootte van de steekproef belangrijker is dan de relatieve steekproefgrootte: een steekproef van 1000 respondenten in de USA is even valide als een steekproef van 1000 in Nederland. Daarnaast wordt de waarschijnlijke (!) precisie van de steekproef groter naarmate de steekproefgrootte groter wordt, omdat de ‘sampling error’ kleiner wordt. De mate van ‘sampling error’ die de onderzoeker tolereert in het onderzoek bepaalt dus mede de steekproefgrootte. Indien de steekproef om en nabij de 1000 is wordt de precisie niet zo sterk meer verhoogd (het stijgt nog wel, maar slechts beetje bij beetje). Ook zijn tijd en kosten belangrijke aspecten om rekening mee te houden. Bij het samenstellen van een steekproef moet ook gelet worden op de verwachte non-respons en de heterogeniteit of homogeniteit van de populatie (bij een sterk heterogene populatie zal een grotere steekproef nodig zijn om de populatie te representeren). Ten slotte speelt ook de manier van data-analyse mee, aangezien voor sommige soorten data-analyse een grotere steekproef is vereist.
Deze term omvat alle steekproeven die zijn verworven zonder gebruik te maken van willekeurige toewijzing. Één van deze soorten, de quota steekproef, is volgens sommige beoefenaars even goed als een ‘probability’ steekproef. Twee andere soorten steekproeven die we zullen behandelen zijn de ‘convenience’ steekproef en de sneeuwbalsteekproef.
Een ‘convenience’ steekproef is een steekproef geselecteerd op basis van de beschikbaarheid voor de onderzoeker (bijv. een steekproef waarvan de respondenten allemaal uit dezelfde klas komen als jij). Het probleem met deze steekproefstrategie is dat de gegevens per definitie niet generaliseerbaar zijn. Het voordeel is natuurlijk dat deze manier van steekproef trekken geschikt (niet ideaal) kan zijn als een pilot studie. Deze steekproef wordt heel regelmatig gebruikt in organisatiestudies, omdat ‘probability’ steekproeven veel voorbereiding en kosten met zich mee brengen.
Een sneeuwbalsteekproef heeft de laatste jaren meer aandacht gekregen. De onderzoeker legt contact met een kleine groep mensen die relevant zijn voor het onderzoeksgebied en gebruikt hen om contacten met anderen te leggen. Het probleem is dat de steekproef vaak niet representatief is voor de populatie. Dit type steekproef wordt bijna nooit binnen de kwantitatieve onderzoeksstrategie gebruikt, maar wel binnen de kwalitatieve strategie omdat de oriëntatie met betrekking tot steekproeven selecteren meer wordt geleid door de theorie dan statistiek: er is een betere ‘fit’ tussen deze soort steekproef en de theorie.
Een quota steekproef is een steekproef waarbij de respondenten worden gekozen op basis van een quota, bijvoorbeeld: de steekproef moet drie mannen van 65+ hebben met minimaal een afgerond HBO diploma (waarbij het geslacht, de leeftijd en de opleiding allemaal een apart quota zijn). Op deze manier wordt een steekproef verkregen die de populatie representeert in termen van de relatieve verhoudingen tussen mensen in bepaalde categorieën, zoals geslacht, leeftijd, etc. De keuze van de uiteindelijke respondenten in de steekproef is helemaal afhankelijk van de onderzoeker. Enkele kritiekpunten zijn:
De steekproef is niet representatief (ondanks de quota’s), omdat de onderzoeker uiteindelijk zelf kiest wie wel en wie niet deel te laten nemen in de steekproef op basis van bijvoorbeeld hoe vriendelijk iemand is;
Hierop aansluitend gebruikt de onderzoeker vaak alleen degene in de buurt: mensen die parttime werken zijn toegankelijker voor de onderzoeker (die van deur tot deur gaat) dan mensen die fulltime werken. Ook maakt de onderzoeker soms foutieve aannames met betrekking tot de persoon in verhouding tot de quota’s (zoals leeftijd) waardoor besloten wordt om iemand niet te vragen;
Er kan geen standaardfout van het gemiddelde worden berekend.
Er zijn echter ook veel voordelen voor deze manier van steekproef trekken: het is goedkoper en sneller dan een survey en is de steekproef is makkelijker te managen (de respondenten hoeven bijvoorbeeld niet teruggebeld te worden).
Er is eerder besproken dat de bevindingen verkregen vanuit een representatieve steekproef hoe dan ook te generaliseren zijn. Echter zijn hier een paar kanttekeningen die gemaakt moeten worden: Zijn de bevindingen te generaliseren buiten de stad of het land waarin ze verkregen zijn (invloed van cultuur en gewoontes)? Zijn bevindingen van vroeger vandaag de dag nog geldig (invloed van verleden en heden)?
‘Errors’ zijn binnen een sociaal onderzoek binnen vier categorieën te scharen:
‘Sampling error’ steekt de op om omdat het extreem onwaarschijnlijk is dat de onderzoeker met een werkelijk representatieve steekproef komt, zelfs wanneer ‘probability sampling’ wordt gebruikt.
‘Non-sampling error’ komt door activiteiten of gebeurtenissen die gerelateerd zijn aan het proces van het selecteren van een steekproef.
‘Data-collection error’ komt door fouten in het data verzamelingproces.
‘Data-processing error’ komt door het foutief managen (vooral coding) van de data.
Het gestructureerde interview is één van de twee voornaamste meetinstrumenten binnen een survey (onderzoek) en binnen kwantitatief onderzoek in het algemeen. Soms wordt dit type interview ook wel een gestandaardiseerd interview genoemd. Het doel is dat alle geïnterviewden precies dezelfde vorm van ondervraging ervaren. De formulering van de vooraf vastgestelde vragen is heel specifiek en heel vaak kunnen geïnterviewden kiezen uit een aantal antwoorden (dit is dan een gesloten, ‘pre-coded’ vraag of ‘fixed choice’). Het grootste voordeel is dat zowel de vragen als antwoorden gestandaardiseerd kunnen worden waardoor (1) de ‘error’ als gevolg van variabiliteit tussen interviewers verminderd wordt en (2) het verwerken van de antwoorden makkelijker is. Met betrekking tot (1): De meeste variabelen hebben een element van ‘error’, daarom wordt variatie geformuleerd als: variatie = werkelijke variatie + variatie door ‘error’. Dit laatste component wordt dus met een gestructureerd interview zo klein mogelijk gehouden. Met betrekking tot (2): door gebruik te maken van dergelijke gesloten vragen kan de onderzoeker niet alles wat de geïnterviewde zegt opschrijven, verfraaien of foutief interpreteren. Hierdoor wordt het verwerken van de data veel makkelijker: antwoorden hoeven niet gecodeerd te worden opdat ze kwantitatief verwerkt kunnen worden zoals het geval is bij open vragen. Bij open vragen kan het coderen een belangrijke bron van ‘error’ zijn. Allereerst kunnen de regels die aangehouden worden voor het plaatsen van antwoorden binnen categorieën (collectief het ‘coding frame’ genoemd) gebrekkig zijn. Ten tweede kan er variabiliteit zijn in de manier waaorp antwoorden worden gecodeerd. Dit kent twee bronnen: ‘intra-coder’ variabiliteit (waarbij de onderzoeker over tijd varieert in de manier waarop hij/zij codeert) en ‘inter-coder’ variabiliteit (waarbij onderzoekers onderling verschillen op hun coding manieren). Bij een gesloten vraag worden deze problemen omzeild omdat de participant zichzelf in een categorie plaatst (vandaar de term ‘pre-coded’ eerder in het verhaal).
Bij de meest gebruikelijke vorm van interviewen zit de interviewer tegenover de respondent tijdens het afnemen van het interview. Het eerste geval waarin dit wordt verbroken is in het geval van groepinterviews of focus groepen waar er uiteraard meer dan één respondent is. Het is echter ongebruikelijk om gestructureerde interviews te gebruiken bij de manier van ondervragen: in een survey (onderzoek) is het vrijwel altijd één specifiek individu die ondervraagd wordt en wordt de aanwezigheid van anderen gezien als stoorfactor die verminderd moet worden. De tweede situatie waarin wordt afgeweken van de gebruikelijke interviewvorm is wanneer er meer dan één interviewer aanwezig is. Ook dit is heel ongebruikelijk vanwege de onnodige extra kosten. De derde manier om af te wijken van het typische interview is wanneer het interview gedaan wordt per telefoon. Er zijn een aantal voordelen (1 t/m 3) en een aantal nadelen (2 t/m 8) van een telefonisch afgenomen interview ten opzichte van een persoonlijk afgenomen interview:
Ze zijn goedkoper en sneller af te nemen.
Het is makkelijker te controleren.
De antwoorden van de respondent worden niet langer (of veel minder) beïnvloed door eigenschappen (zoals geslacht) of zelfs de aanwezigheid van de interviewer.
Er is een potentie voor ‘sampling bias’ aangezien niet alle huishoudens beschikken over een telefoon (het boek maakt hier een link met armere huishoudens).
Respondenten die hoormoeilijkheden hebben vinden dit type interview erg lastig.
Telefonische interviews duren meestal niet langer dan 20-25 minuten; persoonlijke interviews kunnen veel langer duren (Frey, 2004).
Er kan geen observatie plaatsvinden; bij een persoonlijk interview ziet de interviewer het als de respondent de vraag lastig vindt of niet begrijpt en kan hij/zij daar makkelijker en beter (gestandaardiseerd) op inspelen.
Er kunnen geen visuele hulpmiddelen (zoals kaarten waarop respondenten hun antwoord moeten aanwijzen) gebruikt worden.
Tegenwoordig wordt er bij commercieel survey onderzoek veel gebruik gemaakt van computer geassisteerd interviewen. De twee voornaamste vormen hiervan zijn CAPI (computer geassisteerd persoonlijk interviewen) en CATI (computer geassisteerd telefonisch interviewen). Bijna alle commerciële telefonische interviews worden gedaan met behulp van CATI. CAPI wordt binnen de commerciële context ook meer en meer gebruikt vanwege de verbeterde draagbaarheid (via laptops), betaalbaarheid en kwaliteit van softwareprogramma’s waarmee interviewprogramma’s gemaakt kunnen worden. CAPI en CATI zijn niet zo sterk geïnfiltreerd binnen de academische context van survey onderzoek. Een groot voordeel van computer geassisteerd interviewen is dat de mate van controle over het interviewproces wordt verhoogd en dus de standaardisatie van de vragen en antwoorden verbetert, door bijvoorbeeld het gebruik van filter vragen waardoor programma’s naar de volgende relevante vraag springen na een gegeven antwoord terwijl een interviewer door zou gaan met het lijstje (onrelevante) vragen. Het is niet duidelijk of de kwaliteit van de verkregen data superieur is aan de papier-en-pen interviews.
Er is in dit deel niet dieper ingegaan op Internet surveys, omdat deze surveys vaker gebruik maken van vragenlijsten dan van gestructureerde interviews (zie: E-onderzoek (internet) - Chapter 28).
Er zijn een aantal belangrijke tips en regels voor het afnemen van een gestructureerd interview. Allereerst moet de interviewer het interview door en door kennen. Bij het benaderen van de respondent moet de interviewer bereid zijn om te blijven bellen wanneer de respondent geen gehoor geeft, waarbij rekening moet worden gehouden met de dagindeling van de respondent. Ook moet de interviewer zelfverzekerd zijn (als de interviewer aanneemt dat de respondent meedoet met het onderzoek zal er eerder een positieve reactie komen dan wanneer de onderzoeker aanneemt dat de persoon niet mee doet). Overtuig de respondent dat jij geen verkoper bent, kleed je op een manier dat in een brede context acceptabel is en maak duidelijk dat jij graag wilt afspreken op een tijdstip die uitkomt voor de respondent. De antwoorden van een respondent moeten zo precies mogelijk opgeschreven worden (ontwijk interpretatie). De interviewer moet erop gewezen worden dat de volgorde van de vragen niet veranderd mag worden en onderzoekers moeten letten op de mogelijke implicaties van het effect van eerdere vragen op daarop volgende antwoorden. De volgende regels met betrekking tot het stellen van vragen worden meestal aangehouden:
De eerste vragen van het interview moeten direct gerelateerd zijn aan het onderzoeksgebied, zodat de respondent zich niet afvraagt waarom hem/haar irrelevante vragen worden gesteld. Persoonlijke vragen over leeftijd, sociale achtergrond en dergelijke moeten dus niet aan het begin gevraagd worden.
Opmerkelijke vragen moeten zoveel mogelijk aan het begin gesteld worden, zodat de interesse van de respondent gewekt is en de aandacht gegrepen is.
Potentieel beschamende vragen moeten pas later gevraagd worden.
Als er heel veel vragen zijn moeten deze gegroepeerd worden in categorieën, zodat de interviewer niet van onderwerp naar onderwerp blijft springen.
Binnen elke categorie vragen moeten algemene vragen eerder gesteld worden dan specifieke vragen.
Vragen over meningen en attitudes moeten voorafgaan aan vragen die te maken hebben met gedrag en kennis.
‘Probing’ is een groot probleem voor onderzoekers die gebruik maken van een gestructureerd interview: soms snappen de respondenten de vraag niet goed of geven zij een niet passend antwoord waardoor de interviewer moet ingrijpen om een compleet antwoord te krijgen. Echter, de interventie kan het antwoord van de geïnterviewde beïnvloeden en interventies kunnen per interviewer verschillen. Tactieken die gebruikt worden zijn als volgt:
Gebruik gestandaardiseerde interventies, zoals “kun jij daar iets meer over vertellen?” of “waarom denk jij dat?”
Wanneer het antwoord op een gesloten vraag niet past binnen de antwoordcategorieën, kan de interviewer de opties opnieuw oplezen en aangeven dat de respondent moet kiezen uit één van die antwoorden.
Als de interviewer vraagt naar een specifieke kwantificatie (bijvoorbeeld: “hoe vaak per week ga jij naar de sportschool?”) en de respondent reageert met algemene termen (zoals “niet zo vaak”), dan is het nodig dat de interviewer de vraag herhaalt en echt om een numerieke waarde vraag (suggereer er niet zelf een).
‘Prompting’ gebeurt wanneer de interviewer een mogelijk antwoord op de vraag voorstelt. Belangrijk is dat elke respondent dezelfde ‘prompts’ moeten krijgen. De interviewer kan bijvoorbeeld gebruik maken van kaarten waarop antwoorden staan waaruit de respondent moet kiezen. Dit is handig wanneer er bijvoorbeeld gevraagd wordt naar de krant die de interviewer leest: in plaats van alle mogelijke kranten op te lezen wordt de respondent een kaart overhandigt met alle kranten waaruit hij/zij kan kiezen.
Als iemand anders dan de leidende onderzoeker het interview afneemt zal de interviewer getraind moeten worden op de volgende punten:
Het benaderen van prospectieve respondenten en de studie introduceren
Het oplezen van vragen en opvolgen van de instructies
Gepaste ‘probing’ manieren gebruiken
Exact noteren wat er is gezegd
Een interviewstijl eigen maken waarmee geen bias in de antwoorden komt
Volgens Fowler (1993) is één dag intensieve training onvoldoende om goede interviewers te creëren. De leidende onderzoeker kan het best de ‘response rate’ van de interviewer checken; minstens een paar interviewen (laten) opnemen en (circa 10% van de) respondenten terugbellen om te vragen hoe het is gegaan.
Ten eerste suggereert veel literatuur dat de karakteristieken van de interviewer invloed hebben om de gegeven antwoorden. Helaas kunnen er geen generalisaties getrokken worden uit deze onderzoeken, mede omdat de karakteristieken (zoals leeftijd, geslacht, sociale status en dergelijke) niet van elkaar kunnen worden onderscheden.
Ten tweede is het gebruik van een responsset een probleem. Dit houdt in dat respondenten reageren op een consistente manier die irrelevant is voor het concept wat gemeten wordt. De twee voornaamste types responssets zijn ‘acquiescence’ (oftewel: “ja” zeggen of “nee” zeggen) en de sociale wenselijkheidbias (de antwoorden zijn afhankelijk van wat de respondenten achter dat sociaal wenselijk is).
Ten derde is er het probleem van betekenis waarbij aangenomen wordt dat de interviewer en de respondent dezelfde betekenis toekennen aan gebruikte termen.
Ten vierde is er het feministische kritiekpunt die gericht is op kwantitatief onderzoek in haar algemeenheid. Het gestructureerde interview kent volgens feministische sociale onderzoekers echter meer beperkingen dan andere kwantitatieve methoden, omdat dit type interview de belichaming is voor de asymmetrische relatie tussen onderzoeker en respondent: de onderzoeker krijgt informatie uit de respondent en geeft niks terug. Wanneer een vrouwelijke interviewer een vrouw interviewt wordt er een wig geslagen tussen beiden die, in overeenstemming met de implicatie dat er een hiërarchische relatie is tussen de interviewer en de respondent, onverenigbaar is met de waardes. Enkele tips hiervoor:
Interviewers moeten zo min mogelijk hun visie of mening geven over de onderwerpen waarover ze vragen stellen;
Interviewers moeten zo min mogelijk persoonlijke informatie geven, omdat de respondent daar conclusies uit kan trekken met betrekking tot de normen en waarden van de interviewer en haar antwoorden worden hier vervolgens door beïnvloedt;
Een beetje geklets over het weer (of andere neutrale onderwerpen) is toelaatbaar, maar de interviewer moet zich vooral focussen op haar taak.
De meest voorkomende vorm van een vragenlijst is de post- of mail vragenlijst waarbij de vragenlijst dus per post of mail wordt opgestuurd. De vragenlijst kent veel overeenkomsten met het gestructureerde interview. Het vanzelfsprekende en centrale verschil is natuurlijk dat er bij de vragenlijst geen interviewer is die de vragen stelt. Vragenlijsten hebben daarnaast minder open vragen (gesloten vragen zijn namelijk makkelijker te beantwoorden), makkelijk op te volgen designs (zodat de respondent niet kan falen in het opvolgen van filter vragen) en vragenlijsten zijn ten slotte korter (zodat respondenten niet halverwege moe worden).
Het is goedkoper
Het is sneller af te nemen
Er zijn geen effecten van de interviewer (zoals de karakteristieken van de interviewer en de neiging om sociaal wenselijk te antwoorden in zijn of haar bijzijn).
Er is geen interviewer variabiliteit (sluit aan op punt 3)
Het is heel gemakkelijk voor de respondenten (aangezien ze het in hun eigen tijd kunnen invullen op hun eigen tempo).
Er kan niet niet ge-‘prompt’ (geholpen) worden (wanneer iets niet wordt begrepen)
Er kan niet ge-‘probed’ worden (om een vollediger antwoord te krijgen)
Er kunnen niet teveel vragen gesteld worden die niet interessant zijn voor de respondent opdat hij/zij zich dan zal vervelen en zal stoppen.
Er kunnen sowieso niet teveel vragen gesteld worden.
Er moeten andere soort vragen gesteld worden (minder open vragen en minder vragen met een complexe structuur).
De vragenlijst kan helemaal doorgelezen worden voordat begonnen wordt waardoor geen enkele vraag echt losstaat van een ander. Dit betekent ook dat jij er niet zeker van kan zijn dat alle vragen in dezelfde volgorde zijn ingevuld.
De onderzoeker weet nooit zeker wie de vragenlijst heeft ingevuld.
Er kan geen extra data worden verzameld.
Mensen die moeite hebben met de geschreven taal of mensen met een beperkte woordenschat kunnen moeite hebben met het invullen.
Er is een groter risico op missende data.
Er zijn lagere ‘response rates’. Volgens Mangiona (1995) is de ‘response rate’ bij vragenlijsten over de post als volgt:
>85% = uitstekend
70-85% = heel goed
60-69% = acceptabel
50-59% = amper acceptabel
<50% = niet acceptabel
Schrijf een goede brief waarin duidelijk wordt wat de redenen zijn voor het onderzoek, waarom dit belangrijk is en waarom de respondent is geselecteerd. Stuur, indien mogelijk, altijd een retourenvelop mee. Ga de respondenten achterna als ze de eerste keer niet reageren. Stuur zo’n twee weken na de eerste contactpoging een herinneringsbrief met vragenlijst en twee weken daarna desnoods nog één als de respondent nog niet heeft gereageerd. Kortere vragenlijsten hebben vaak een betere ‘response rate’ dan langere vragenlijsten. Laat de vragenlijst er niet onnodig volumineus uitzien. Dillman en collega’s (2009) raden aan om de vragenlijst te printen in een flyer formaat. Dit geeft ook een professionelere indruk. Begin met vragen die de respondent hoogstwaarschijnlijk interesseert. Geef in ruil voor een ingevulde vragenlijst een monetaire beloning. Het is effectiever als het geld al bij de vragenlijst zit wanneer je deze opstuurt dan wanneer je belooft dat de beloning achteraf komt! Een kleine vergoeding is voldoende; een hogere voldoening verhoogt de ‘response rate’ niet meer dan een kleine vergoeding.
De vragenlijst mag niet onnodig dik lijken en dus kiezen de meeste onderzoekers ervoor om de vragenlijst zo kort mogelijk te laten lijken. Echter, volgens Dillman en collega’s (2009) is een aantrekkelijke layout belangrijk om de ‘response rate’ te verhogen. De vragen moeten op een duidelijke manier gepresenteerd zijn, bijvoorbeeld, een donkere of grotere print voor de vraagstelling en een lichtere of kleinere print voor de antwoorden. Dit moet natuurlijk wel met mate gebruikt worden. De meeste vragen zijn gesloten van aard en dus komt het vraagstuk op of de antwoorden verticaal of horizontaal gepresenteerd moeten worden. Heel vaak wordt er gebruik gemaakt van een verticale ordening, aangezien een horizontale ordening voor verwarring kan zorgen. Daarnaast is er bij een verticale ordening ook een beter onderscheid te maken tussen vragen en antwoorden en is de coderingstaak makkelijker. Wees in de vragenlijst altijd duidelijk over hoe er geantwoord moet worden.
Met een dagboek wordt binnen deze context het type dagboek bedoeld dat Elliot (1997) het ‘researcher-driven diary’ noemt: de onderzoeker ontwikkelt een structuur voor het dagboek en het is de bedoeling dat de respondenten hun activiteiten gelijk op dat moment invullen (zoals zelfverzorging) samen met de hoeveelheid tijd die ze hieraan besteden (zoals 60 minuten). Deze methode kan gebruikt worden als de onderzoeker specifiek geïnteresseerd is in preciezere schattingen van verschillende soorten gedrag. Deze methode wordt niet vaak gebruikt maar kan bij zowel kwantitatief als kwalitatief onderzoek ingezet worden. Het kan gezien worden als het equivalent van gestructureerde observatie bij kwantitatief onderzoek, hoewel de observatie natuurlijk gebeurd door de ‘actor’ zelf en niet de onderzoeker. Corti (1993) maakt onderscheid tussen gestructureerde dagboeken en vrije-tekst dagboeken. Het bijhouden van vrije-tekst dagboek kost echter veel tijd en is het coderen van antwoorden een lastig karwei. Corti (1993) suggereert dat degene die de structuur voor het dagboek ontwikkelt onder andere (1) expliciete instructies meegeeft voor het invullen van het dagboek (2) duidelijk is over de tijdsperiode waarbinnen gedrag genoteerd moet worden, en (3) checklijsten meegeeft zodat de respondent extra houvast heeft.
Dagboeken geven de mogelijkheid om een precieze schatting te maken van de frequentie of de hoeveelheid tijd die gespendeerd wordt aan verschillende vormen van gedrag. Het dagboek genereert in dit geval meer valide en betrouwbaardere data dan vragenlijsten.
Wanneer informatie nodig is over de volgorde van verschillende vormen van gedrag bieden dagboeken ook meer inzicht dan vragenlijsten of interviews.
De eerste twee punten zouden suggereren dat gestructureerde observatie even geschikt zou zijn, maar dit is niet het geval wanneer het gaat om het produceren van data over erg persoonlijk gedrag, zoals seks.
Ze zijn duurder dan persoonlijke interviews.
De methode is gevoelig voor uitval van respondenten.
Het tweede punt suggereert ook dat respondenten minder gewillig zijn om hun dagboek bij te houden naarmate de tijd verstrijkt.
Het is soms moeilijk om alle details van het gedrag zo snel mogelijk op te schrijven waardoor geheugenproblemen invloed kunnen hebben op de rapportage.
Bij een open vraag in een interview of vragenlijst mag de respondent reageren hoe hij of zij wenst. Bij een gesloten vraag moet de deelnemer uit een aantal mogelijke antwoorden kiezen voor het antwoord dat het beste past het antwoord. Vaak kiezen survey onderzoekers voor een gesloten vraag.
De voordelen:
De respondenten antwoorden met hun eigen bewoordingen.
Er is ruimte voor ongewone antwoorden.
De vragen suggereren niet bepaalde antwoorden waardoor er een kans geboden wordt om de kennis en het begrip van de respondenten met betrekking tot onderwerpen te meten.
Ze kunnen inzicht bieden in nieuwe onderzoeksgebieden of in gebieden waar de onderzoeker beperkte kennis van heeft.
Ze zijn geschikt om vervolgens antwoordopties uit te genereren voor gesloten vragen.
De nadelen:
Het kost veel tijd om open vragen af te werken.
Antwoorden moeten gecodeerd worden wat ook veel tijd kost en ‘error’ kan veroorzaken. Het proces is identiek aan een inhoudsanalyse en wordt ook wel eens ‘post-coding’ genoemd om het zo te differentiëren van ‘pre-coding’.
Er wordt meer inzet gevraagd van de respondenten.
Er is interviewer variabiliteit.
De voordelen:
Het is makkelijk om de antwoorden te verwerken.
De antwoorden kunnen met elkaar vergeleken worden.
De beschikbaarheid van de antwoorden kunnen de respondent helpen om de vraagstelling beter te begrijpen.
Deze vragen zijn makkelijk in gebruik voor de interviewers en respondenten.
Gesloten vragen verminderen de kans op variabiliteit.
De nadelen:
Er is minder spontaniteit in de antwoorden van de respondent. Er kunnen antwoorden worden gegeven waar niet op gerekend is en die dus niet binnen de antwoordopties vallen (het is daarom sowieso aan te raden om een categorie ‘other’ toe te voegen).
Het is moeilijk om de antwoordopties exclusief te maken (ten opzichte van elkaar).
Het is moeilijk om de antwoordopties alomvattend te maken.
Er kan variatie zijn tussen de respondenten in de interpretatie van de antwoordopties.
Gesloten vragen kunnen frustraties opwekken bij respondenten wanneer ze vinden dat de antwoordopties niet goed bij hun antwoord passen.
De meest voorkomende categorieën van vraagsoorten zijn hieronder op een rijtje gezet. Gestructureerde interviews en vragenlijsten zullen vaak meer dan één van ondertaande soorten vragen bevatten.
Persoonlijke feitelijke vragen (zoals vragen over eigen leeftijd, opleiding, beroep, etc.)
Feitelijke vragen over anderen (zoals vragen naar het gezamenlijk inkomen)
Informant feitelijke vragen (vragen over de grootte van het bedrijf waar ze werken, wie de manager is, of er specialistische functies zijn, etc.)
Vragen over attitudes (de Likert-schaal wordt hier het meest gebruikt)
Vragen over geloofsovertuigingen (zowel religieuze als politieke overtuigingen)
Vragen over normen en waarden
Vragen over kennis
Er zijn drie vuistregels voor het opstellen van vragen:
Vuistregel #1: houd altijd de onderzoeksvragen in het achterhoofd
Vuistregel #2: bepaal precies wat jij wilt weten.
Vuistregel #3: zet jezelf in de positie van de respondent, hoe zou jij antwoorden?
Daarnaast moet geprobeerd worden bepaalde vraagstellingen te vermijden.
Ontwijk ambiguïteit. Voorbeeld: “Hoe vaak ga je naar de bioscoop?” Antwoordopties: heel vaak, vaak, soms, nooit. De antwoordopties zijn hier ambigu. Vraag in dit geval naar de precieze frequentie of een schatting daarvan.
Ontwijk lange, complexe vragen, vooral wanneer je vraagt naar attitudes (Sudman & Bradburn, 1982). Wanneer de focus van de vraag op gedrag ligt is het stellen van een lange vraag niet zo erg.
Vraag niet in één keer naar twee dingen. Voorbeeld: “Hoe vaak helpt jouw man met koken en schoonmaken?” Hij kan immers vaker helpen met het één dan met het ander dus dit is een ongeschikte vraagstelling.
Ontwijk hele algemene vragen: deze zijn niet specifiek genoeg om goed te kunnen interpreteren.
Ontwijk sturende vragen. Voorbeeld: “Ben jij het ermee eens dat…?”
Ontwijk vragen die aannames bevat. Voorbeeld: “Op welke politieke partij heb jij vorige keer gestemd?”. Hiermee wordt aangenomen dat de respondent heeft gestemd.
Ontwijk vragen met een ontkenning. Voorbeeld: “Ben je het ermee eens dat studenten niet zouden moeten lenen om hun onderwijs te kunnen financieren?” Naast het feit dat deze vraag niet sturend geformuleerd moet worden, moet de vraag positief geformuleerd worden (zonder ontkenning).
Ontwijk technische termen: gebruik simpele, alledaagse woordenschat.
Illustrerende (in het boek ‘vignette’) vragen is een type gesloten vragen waarbij gevraagd wordt naar de normen en waarden van de respondent. De interviewer presenteert één of meer scenario’s en vraagt aan de respondent hoe hij/zij hierbinnen zou reageren (waarbij dus gekozen moet worden uit één van de antwoordopties). Een voorbeeld van zo’n vraag naar aanleiding van een situatie kan zijn: “Wat zouden Boris en Kim moeten doen?”
A: Verhuizen naar Chicago. B: Gaan inwonen bij Kim’s ouders. C: Abortus plegen. D: Geld lenen van Kim’s ouders om een eigen plek te kunnen bekostigen. E: Anders, namelijk….
Het is altijd wenselijk om, indien mogelijk, een pilot studie uit te voeren voordat de vragenlijst of het gestructureerd interview wordt afgenomen. Als de uiteindelijke studie vooral gesloten vragen zal gebruiken, kunnen open vragen gebruikt worden in de pilot om de antwoordopties vanuit daar op te kunnen maken. Als vrijwel iedereen tijdens de pilot hetzelfde antwoord geeft op een vraag zal die vraag niet zo interessant zijn voor het onderzoek, omdat het geen verschil in antwoorden weergeeft. . Ook kunnen vragen die respondenten ongemakkelijk of verwarrend zijn veranderd worden. Ook kan er gekeken worden of de vragen fijn samenhangen Of moeten er wat vragen uitgehaald worden zodat het wat beter loopt? Tijdens een pilot studie kan de interviewer zelf ook vertrouwd raken met het meetinstrument en zelfverzekerder worden door de ervaring die hij/zij opdoet.
Een survey (onderzoek) is niet geschikt voor het observeren van gedrag. Gedrag wordt immers aangenomen en niet direct geobserveerd en er zijn meerdere redenen om aan te nemen dat de gegeven antwoorden met betrekking tot gedrag niet accuraat zijn:
Probleem van betekenis: respondenten kunnen dezelfde vraag anders interpreteren.
Probleem van omissies: bij het invullen van een vraag kunnen respondenten per abuis delen van de vraag niet hebben gelezen.
Geheugenproblemen: respondenten kunnen bepaald gedrag foutief herinneren.
Sociaal wenselijkheideffect: antwoorden kunnen het resultaat zijn van wat respondenten denken dat sociaal wenselijk gedrag is.
Bedreigende vragen: respondenten kunnen vragen als bedreigend zien en daarom niet op een eerlijke manier antwoorden.
Interview karakteristieken: karakteristieken van de interviewer kunnen invloed hebben op het gegeven antwoord (alleen bij gestructureerd interviewen).
Er kan een kloof/inconsistentie zijn tussen gerapporteerd en werkelijk gedrag
Een methode die de onderzoeker wel in staat stelt om direct gedrag te observeren is door gestructureerde observatie. Gestructureerde observatie (ook wel systematische observatie genoemd) is een methode voor het systematisch observeren van het gedrag van individuen door het naleven van expliciet geformuleerde regels voor het observeren en noteren van gedrag. Elke deelnemer wordt voor een vastgestelde tijdsperiode geobserveerd. Centraal tijdens deze observatie is het observatieschema oftewel coding schema. Dit schema specificeert de categorieën van te bestuderen gedrag en bepaalt hoe gedrag toegewezen moet worden aan deze categorieën.
Bij het opstellen van een observatieschema moet er aandacht worden besteed aan de volgende punten: er moet een duidelijke focus zijn (op wie en wat precies gelet moet worden), de categorieën (zoals ‘leraar’ en ‘student’) mogen niet overlappen en moeten allesomvattend zijn, het noteersysteem moet makkelijk te hanteren zijn en - in gevallen waarin de observant moet interpreteren - moeten er duidelijke richtlijnen zijn hoe er geïnterpreteerd moet worden.
Gedrag kan genoteerd worden in termen van:
Incidenten: de observant wacht tot er iets gebeurt en registreert dan dit incident.
Korte tijdsperiodes: de observant observeert voor een korte tijd (bijv. 5 minuten).
Lange tijdsperiodes: de observant is voor een langere periode continu aan het observeren (en registreren), iets waarnaar Martin en Bateson (1986) simpelweg refereren als ‘continue registreren’. Dit wordt vaak gecontrasteerd met tijd ‘sampling’.
Tijd ‘sampling’: er wordt op willekeurige tijdstippen geobserveerd.
Wanneer een steekproef uit mensen bestaat moeten dezelfde soort aspecten in overwegingen genomen worden zoals besproken zijn in hoofdstuk 8 (zoals willekeurige toewijzing). Wanneer er steekproeven worden genomen van tijd, moet ervoor gezorgd worden dat degene die geobserveerd worden niet telkens op hetzelfde moment van de dag worden geobserveerd. Volgens Martin en Bateson (1986) zijn er nog meer soorten steekproeven waarmee rekening gehouden moet worden:
Ad libitum ‘sampling’: de observant registreert alles wat er op dat moment gebeurt.
Focale ‘sampling’: één individu wordt voor een bepaalde periode geobserveerd.
Scan ‘sampling’: een groep individuen wordt ‘gescanned’ met vastgestelde intervallen en het gedrag van iedereen wordt telkens geregistreerd.
Gedrag ‘sampling’: een hele groep wordt geobserveerd, maar alleen het gedrag van degene die betrokken zijn bij een bepaalde actie wordt geregistreerd.
De meeste gestructureerde observaties gebruiken de eerste twee types: ad libitum en focale ‘sampling’.
Gebruikers van gestructureerde observatie maken zich vaak zorgen om de mate van inter-observant consistentie: de mate van consistentie tussen observanten. Het beoordelen van dit type betrouwbaarheid wordt gedaan door middel van Cohen’s kappa. Net als Cronbach’s alfa heeft de kappa een waarde tussen 0 en 1: des te dichter bij 1, des te hoger de overeenstemming en dus de inter-observant consistentie. Een coëfficiënt van 0.75 of hoger is heel goed; tussen de 0.6 en 0.75 is goed; tussen de 0.4 en 0.6 is redelijk. Het tweede punt met betrekking tot de betrouwbaarheid is de intra-observant consistentie: de mate van consistentie in het gebruik van het observatieschema over tijd moet goed zijn. Soms is betrouwbaarheid moeilijk te bereiken vanwege observant ‘fatigue’ of het verminderen van de aandacht. Dit moet echter niet uit proportie getrokken worden aangezien er ook onderzoeken zijn geweest die erg betrouwbare data heeft opgeleverd waarbij observanten voor lange periodes aan het observeren waren.
De validiteit wordt beïnvloed door de mate waarin het meetinstrument meet wat het hoort te meten en de fouten tijdens de implementatie van het meetinstrument. Eerst moet er gekeken naar dezelfde vormen validiteit als bij het gestructureerd interview en vragenlijsten: ‘face’ validiteit, ‘concurrent’ validiteit, etc.. Bij fouten tijdens het implementeren moet vooral gelet worden op twee zaken: wordt het observatieschema gebruikt zoals het hoort? En: veranderen mensen hun gedrag omdat ze weten dat ze worden geobserveerd (het reactieve effect)?
De term ‘veldstimulatie’ is geïntroduceerd door Salancik (1979) om een vorm van gestructureerde observatie te beschrijven. Hoewel hij veldstimulaties classificeerde als een kwalitatieve methode, passen ze beter binnen een kwantitatieve onderzoeksstrategie aangezien de onderzoeker de uitkomsten van de interventie op een typische manier wil kwantificeren. In tegenstelling tot de meeste gestructureerde observaties weten de deelnemers in een veldstimulatie niet dat zij bestudeerd worden. Sommige veldstimulaties nemen de vorm aan van een experimenteel design. Veldstimulaties kennen geen probleem met reactiviteit, maar kunnen problemen opleveren op ethische gronden.
Hoewel het niet heel veel wordt gebruikt in sociaal onderzoek, zijn er enkele kritiekpunten als onderzoekers toch besluiten om gebruik te maken van gestructureerde observaties.
Ten eerste is er het risico dat een potentieel ongepast of irrelevant framework geobserveerd wordt. Dit punt lijkt op het probleem dat ontstaat als er gesloten vragen gebruikt worden. Het risico is vooral groot als het gaat om een gebied waar de observant weinig van weet. Het probleem kan opgelost worden als voorafgaand aan de gestructureerde observatie er eerst ongestructureerde observatie plaatsvindt.
Ten tweede zeggen gestructureerde observaties niets over de intenties van gedrag, omdat observanten zich alleen concentreren op het directe gedrag. Wat betekent het gedrag?
Ten derde hebben gestructureerde observaties de neiging om veel fragmenten data te verzamelen en het samenvoegen van deze data om een algemeen beeld te krijgen kan erg lastig zijn. Kortom: het is moeilijk om het grote plaatje te zien.
Ten vierde is het vaak zo dat gestructureerde observaties de context waarin het gedrag plaatsvindt negeren.
Ondanks deze overduidelijke beperkingen moet onthouden worden dat deze methode nog steeds de meest accurate en effectieve methode is wanneer openlijk gedrag de focus van het onderzoek is (en betekenis ervan op de achtergrond staat).
Een inhoudsanalyse is een onderzoekstechniek waarbij gevolgtrekkingen kunnen gemaakt worden door het (1) objectief en (2) systematisch analyseren van documenten en teksten (de steekproef). De inhoudsanalyse is diep geworteld binnen de kwantitatieve onderzoeksstrategie. Een inhoudsanalyse wordt vaak gecontrasteerd met twee andere benaderingen die ook de inhoud van communicatieve boodschappen trachten te analyseren, namelijk semiotiek (de wetenschap van tekens) en etnografische oftewel kwalitatieve inhoudsanalyse (waar de nadruk ligt op de betekenis van en in teksten).
Net als met andere kwantitatieve onderzoeksmethoden is het belangrijk om concrete onderzoeksvragen te formuleren omdat deze in dit geval de selectie en het coderingsschema van de te analyseren media bepaalt. Een voorbeeld van een passende onderzoeksvraag is: publiceert de media eerder onderzoek wanneer er gebruik wordt gemaakt van bepaalde methoden?
Als er gekeken wordt naar personen met betrekking tot een geschreven stuk wordt er gekeken naar wat voor persoon het artikel schrijft, wie de hoofdpersonen in het artikel waren, wie de alternatieve stemmen waren in het artikel, etc. Als gekeken wordt naar het rapporteren van sociale wetenschap in de media wordt gekeken naar de auteur, het type item, wat de drijfveer was voor het schrijven, etc. Ook wordt soms het tellen van bepaalde woorden meegenomen in de inhoudsanalyse (zo bleek de Britse media in de late jaren ’60 de voetbalsfeer te dramatiseren door veelvuldig het woord ‘hooligan’ te gebruiken).
Er zijn twee cruciale elementen van het coderen: het ontwikkelen van een coderingschema en het ontwikkelen van een coderinghandleiding. Het coderingsschema is een formulier waarop alle data, gerelateerd aan een te coderen item ,ingevoerd kan worden. Één formulier wordt gebruikt voor elk te coderen media-item. Het coderingsschema zelf biedt geen informatie over hoe de informatie ingevuld moet worden. Daarom is het belangrijk dat er ook een coderingshandleiding wordt ontwikkeld: het biedt alle nodige informatie over alle categorieën en het biedt regels indien er informatie geïnterpreteerd moeten worden.
De regels voor het opstellen van een coderingsschema lijken erg op die van het ontwikkelen van een gestructureerd observatieschema of een gestructureerd interview. Zo mogen de categorieën niet overlappen en ze moeten alomvattend zijn.
De voordelen:
Het is een erg transparante onderzoeksmethode;
Het kan een bepaalde hoeveelheid longitudinale analyse relatief makkelijk aan;
Het is een ‘unobtrusive’ methode, zoals Webb en collega’s (1966) het noemen;
Het is een hele flexibele methode;
Deze methode kan informatie produceren over sociale groepen waarvan het normaliter moeilijk is om toegang tot te krijgen.
De nadelen:
Een inhoudsanalyse kan alleen even goed zijn als de gebruikte documenten;
Het is vrijwel onmogelijk om een coderingshandleiding te maken waarin precies gespecificeerd wordt hoe alle het interpretabele geïnterpreteerd moet worden;
Het is moeilijk om de ‘waarom?’ vraag te adresseren;
Inhoudsanalyse worden er soms van beschuldigd a-theoretisch te zijn.
De tot nu toe besproken kwantitatieve technieken (survey met behulp van een gestructureerd interview of vragenlijst, gestructureerde observatie en inhoudsanalyse) kunnen duur zijn en extreem veel tijd in beslag nemen (vooral voor studenten). Het is soms een beter idee om bestaande data te analyseren dan om nieuwe data te verzamelen. Secundaire analyse biedt deze mogelijkheid. Bij secundaire analyse wordt de data die eerder verzameld is door andere onderzoekers geanalyseerd. Het kan ook zijn dat jij zelf de primaire data hebt verzameld, een deel hiervan publiceert en later nog eens die data analyseert. In dit geval kan er ook sprake zijn van secundaire analyse. Dit type analyse kan uitgevoerd worden op kwantitatieve data of op kwalitatieve data, maar in dit hoofdstuk wordt gefocust op het eerste punt.
De voordelen:
Het bespaart tijd en kosten;
De meeste gebruikte data is van hoge kwaliteit;
Het is een ‘unobstrusive’ methode (zie sleutelconcept N3);
Er is een mogelijkheid voor longitudinale analyse (wat zeldzaam is in sociaal onderzoek vanwege de kosten en tijd die hieraan verbonden zijn);
Er is de mogelijkheid om subgroupen te analyseren;
Er is de mogelijkheid voor ‘cross-culturele’ analyse;
Er is meer tijd beschikbaar voor de data-analyse;
Doordat data opnieuw geanalyseerd wordt kunnen er nieuwe interpretaties aan het licht komen;
De data wordt volledig gebruikt (de onderzoeksdeelnemers hebben hun tijd opgeofferd voor het leveren van de data; het is niet meer dan eerlijk om zoveel mogelijk gebruik te maken van deze data).
De nadelen:
De onderzoeker is niet bekend met de data (omdat hij/zij deze niet verzameld heeft);
De data kan erg complex zijn van aard;
Er is geen controle over de kwaliteit van de data;
Sleutelvariabelen kunnen missen.
De voornaamste bron om kwantitatieve data voor secundaire analyse te verkrijgen is het UK Data Archief op de Universiteit van Essex. Het beste is om dan de online cataloog te bestuderen. De voornaamste bron voor kwalitatieve data kan door ESDS Qualidata, onderdeel van ESDS. Voor precieze namen van beschikbare datasets.
De betrouwbaarheid komt vaak ter sprake, omdat definities en visies met betrekking tot het fenomeen of de officiële statistieken veranderd kunnen zijn door de jaren heen. Een ander belangrijk probleem zijn de geassocieerde variabelen: als na het bestuderen van regionale verschillen blijkt dat de misdaadcijfers variëren op grond van etnische status of sociale klasse van een gebied, impliceert dit dat etnische status en sociale klasse gerelateerd zijn aan de misdaad. Echter, volgens de ecologische bedrieglijkheid (een analytisch aspect) kunnen dergelijke gevolgtrekkingen over individuen niet gemaakt worden uit samengevoegde data. Daarnaast kunnen er ook validiteitproblemen optreden: misschien waren er variaties in hoeveelheid surveillances van de politie in een specifiek gebied of worden er vaker of minder vaak meldingen gedaan van overtredingen als de aanstichter van een bepaalde sociale klasse is.
Er is algemene overeenstemming over het feit dat bepaalde vormen van officiële statistieken (vooral de statistieken die gerelateerd zijn aan misdaad) fouten bevatten of onjuist zijn. Nadat Bulmer (1980) dit onderwerp had aangesneden in zijn toonaangevende artikel is de algehele afwijzing van officiële statistieken een stuk minder geworden.
Veel onderzoekers nemen onterecht aan dat zij zich nog niet bezig hoeven te houden met data-analysemethodes totdat zij de data hebben verzameld. Echter, al in een vroeg stadium moet er rekening gehouden worden met de data-analyse, omdat (1) niet elke techniek gebruikt kan worden voor elke variabele, en (2) de grootte en aard van de steekproef beperkingen opleggen voor de data-analyse.
De soorten variabelen zijn al eerder aan bod gekomen in sleutelconcept C3 (zie ook: Wat voor onderzoekdesigns bestaan er? - Chapter 3):
Interval / ratio variabele: de eerste is een variabele waarbij de afstand tussen de categorieën identiek is aan de afstand tussen alle andere categorieën, de tweede is een interval variabelen met een werkelijk nulpunt.
Ordinale variabele: een variabele waarvan de categorieën gerangschikt kunnen worden (net als bij interval en ratio variabelen), maar waarbij de afstand tussen de categorieën niet gelijk is aan elkaar.
Nominale variabele: wordt ook wel een categorische variabele genoemd en betreft een variabele die bestaat uit categorieën die niet gerangschikt kunnen worden maar waarbij alleen een naam is toegewezen.
Dichotome variabele: bestaat enkel uit twee categorieën (zoals geslacht).
‘Multiple-indicator’ of ‘multi-item’ metingen (zoals de Likert-schaal) produceren strikt gesproken alleen ordinale variabelen. Veel onderzoekers menen echter dat de variabelen ook gezien kunnen worden als interval/ratio variabelen vanwege de relatief grote hoeveelheid variabelen die geproduceerd worden.
Een ‘univariate’ analyse verwijst naar de analyse waarbij één variabele tegelijkertijd wordt geanalyseerd. Er zijn verschillende benaderingen van een dergelijke analyse.
Een frequentietabel geeft per categorie (bijvoorbeeld leeftijd of redenen om naar de sportschool te gaan) het aantal mensen (n) en het percentage (%) wat die groep beslaat van de hele groep. Een frequentietabel kan gebruikt worden bij alle soorten variabelen.
Een diagram kan ook goed de kwantitatieve data weergeven. Het voordeel is dat diagrammen relatief makkelijk te interpreteren begrijpen zijn. In het geval van nominale of ordinale variabelen is een staafdiagram en het taartdiagram de meest gebruikte en makkelijkste methode. Bij het weergeven van een interval/ratio variabele is een histogram het meest geschikt. Net als bij het staafdiagram laat een histogram de relatieve grootte van de groepen zien, maar is er geen witte ruimte tussen de staven (‘bars’).
Een maat van de centrale neiging is een statistiek die in één getal de verdeling van waardes samenvat. Er zijn drie veelgebruikte maten:
Het (aritmetisch) gemiddelde: het gemiddelde (de som van alle waarden delen door het aantal waarden) wordt vooral gebruikt bij interval/ratio variabelen en soms bij ordinale variabelen.
De mediaan: deze waarde is - in tegenstelling tot het gemiddelde - ongevoelig voor uitschieters (extreme waarden). Alle waardes worden genoteerd en de middelste van deze waarden is de mediaan. Wanneer het middelpunt bestaat uit twee waardes wordt het gemiddelde van die twee waardes genomen.
De ‘mode’: de waarde die het meest voorkomt in een verdeling. Deze maat kan gebruikt worden bij alle soorten variabelen.
De mate van spreiding binnen waardes wordt vaak gemeten door het bereik: het verschil tussen de minimum waarde en de maximum waarde bij een interval/ratio variabele. Het bereik is echter (net als het gemiddelde) gevoelig voor uitschieters. Een tweede maat voor de spreiding is de standaarddeviatie: de gemiddelde hoeveelheid variatie rondom het gemiddelde. De standaarddeviatie wordt berekend door het verschil te nemen tussen elke waarde en het gemiddelde waarna het totale verschil gedeeld wordt door de aantal waardes. Een derde manier om de spreiding te achterhalen bij een interval/ratio variabele is door het gebruik van een boxplot. In een boxplot wordt een maat gegeven voor de centrale neiging (de mediaan: in vorm van een blokje) en de spreiding (het bereik: in de vorm van een verticale lijn boven en onder het blokje).
Een ‘bivariate’ analyse analyseert, zoals je misschien al verwacht, de analyse van twee variabelen op hetzelfde moment om zo te kunnen bepalen of de variabelen zijn gerelateerd. Er wordt dus onderzoek gedaan naar het type relatie tussen de variabelen. De techniek die hiervoor gebruikt wordt is afhankelijk van de aard van de variabelen:
Een ‘contingency’ tabel is waarschijnlijk de meest flexibele methode van het analyseren van relaties, omdat het elk paar variabelen kan analyseren. Het is echter niet de meest efficiënte methode voor sommige paren. Normaliter bevatten deze tabellen percentages omdat hierdoor de tabel makkelijker te interpreteren is. Bij een dergelijke tabel wordt bijvoorbeeld de correlatie tussen geslacht en redenen voor naar de sportschool gaan weergegeven. Met zo’n tabel kunnen associatiepatronen achterhaald worden (bijvoorbeeld: mannen gaan vooral naar de sportschool om sterker te worden terwijl vrouwen vooral naar de sportschool gaan om af te vallen).
Perason’s r is een manier om de correlatie tussen twee interval/ratio variabelen te achterhalen. Dit correlatiecoëfficiënt ligt altijd tussen 0 (geen relatie) en 1 (sterke relatie) wat de kracht van de relatie aangeeft. Het coëfficiënt kan daarnaast negatief of positief zijn wat de richting aangeeft van de relatie. Bij een perfecte negatieve relatie (r = -1) wordt de ene variabele veel minder naarmate de andere variabele toeneemt. Bij een coëfficiënt van nabij 0 is er zo goed als geen verband tussen de twee variabelen. Bij een perfecte positieve relatie (r = 1) neemt de ene variabele evenveel toe als de andere variabele. Om Pearson’s r te kunnen gebruiken moet de correlatie tussen de twee variabelen vrijwel lineair zijn, oftewel, in een puntendiagram moeten de waardes van de twee variabelen een grove rechte lijn vormen (ook al kunnen ze iets verspreid zijn: als er maar een rechte lijn in te herkennen is). Het plotten van zo’n diagram is dus belangrijk voordat deze statistiek wordt gebruikt. Wanneer de wortel wordt genomen van Pearson’s r krijg je het ‘coefficient of determination’, oftewel r2. Deze waarde geeft aan hoeveel van de variatie wordt verklaard door deze variabele . Voorbeeld: r = -0.27, r2= 0.0729. Met andere woorden, 7% van de variatie van een variabele wordt verklaard door de andere variabele.
Spearman’s rho (ρ) is in opzichten hetzelfde als Pearson’s r omdat Spearman’s rho ook een correlatiecoëfficiënt is, ook positief of negatief kan zijn en ook varieert tussen de 0 en 1. Spearman’s rho wordt echter gebruikt bij een paar ordinale variabelen of bij een paar waarvan de een variabele ordinaal is en de andere interval/ratio.
Het phi (ϕ) coëfficiënt en Cramérs V zijn twee sterk gerelateerde statistieken. De eerste statistiek wordt gebruikt om de kracht van een relatie tussen twee dichotome variabelen te achterhalen. Net als Pearson’s r resulteert dit in een positieve of negatieve waarde tussen de 0 en 1. De tweede statistiek wordt toegepast bij nominale variabelen en kan alleen een positieve waarde geven (dus het geeft alleen een maat voor de kracht van de correlatie en niet de richting). Ook dit is dus een methode voor het beoordelen van de kracht van een relatie tussen twee variabelen, maar dan moet minstens één van variabele meer dan twee categorieën hebben. Deze waarde wordt bijna nooit op zichzelf gerapporteerd: het komt vaak samen met een ‘contingency’ tabel en een ‘chi-square test’ (zie verderop).
Het vergelijken van de gemiddelden van de inerval/ratio variabele voor elke subgroep van de nominale variabele kan nuttig zijn wanneer de correlatie tussen een dergelijk variabelenpaar bepaalt moet worden en de nominale variabele relatief duidelijk geïdentificeerd moeten worden als de onafhankelijke variabele. Deze procedure gaat vaak samen met een associatietest bekend als eta. Eta is een test om de kracht van een relatie tussen twee variabelen aan te geven. De onafhankelijke variabele moet een nominale variabele zijn en de afhankelijke variabele moet een interval/ratio variabele zijn. Het resulterende correlatieniveau is altijd positief.
Deze analyse beslaat het simultaan analyseren van drie of meer variabelen. Om een relatie tussen twee variabelen vast te stellen moet ook aangetoond kunnen worden dat inderdaad sprak is van een correlatie. Wanneer een relatie ‘onecht’ is wordt deze veroorzaakt doordat elke variabele op zichzelf gerelateerd is aan een derde variabele. Bijvoorbeeld: als gekeken wordt naar de relatie tussen inkomsten en stemgedrag moet de onderzoeker zich afvragen of de relatie hiertussen niet een product is van de leeftijd (een ouder iemand verdient vaak meer en leeftijd beïnvloedt ook het stemgedrag). In dit voorbeeld is leeftijd dus een zogenoemde ‘confounding’ variabele.
Als vastgesteld is dat de relatie uitsluitend veroorzaakt wordt door de twee bedoelde variabelen kunnen we ons afvragen waarom er een relatie is tussen de twee variabelen. In dit geval is er niet een derde, onafhankelijke variabele die invloed heeft op de twee variabelen zoals net, maar is er een variabele die tussen de twee variabelen instaat: een ‘intervening’ variabele. Deze variabele suggereert dat de relatie niet een directe relatie is. Is de aangetoonde relatie tussen twee variabelen anders voor vrouwen dan voor mannen? Als dit het geval is wordt de relatie gemodereerd door geslacht.
Statistische gevolgtrekking is een proces waarbij de onderzoeksresultaten van een ‘probability’ steekproef gegeneraliseerd kunnen worden naar de populatie waaruit de steekproef is genomen. Een test van statistische significantie stelt de onderzoeker in staat om een schatting te maken van de zekerheid waarmee de resultaten te generaliseren zijn. ‘Significantie’ refereert dus niet naar belangrijkheid, maar naar het vertrouwen wat de onderzoekers kan en mag hebben in de resultaten.
Allereerst moet de onderzoeker een nulhypothese opstellen waarin wordt verondersteld dat de twee variabelen binnen de populatie niet gecorreleerd zijn. Daarna moet een acceptabel niveau van statistische significantie bepaald worden. Deze maat representeert het risico dat je foutief de nulhypothese zou kunnen verwerpen, dus dat je zegt dat er wel een relatie is terwijl deze er werkelijk niet is. Het niveau van statistische significantie wordt gerapporteerd als een waarschijnlijkheidsniveau. De meeste onderzoekers gebruiken een maximum niveau van p < 0.05 waarbij de kans kleiner is dan 5 op de 100 steekproeven dat er een relatie tussen de variabelen aantoont wordt terwijl dit niet zo is. De onderzoeker moet vervolgens de statistische significantie van de gegevens bepalen (gebruik bijvoorbeeld de ‘chi-square test’ zoals hieronder wordt beschreven). Als de gegevens significant zijn op een .05 significantieniveau wordt de nulhypothese verworpen. Een Type I fout is wanneer de nulhypothese onterecht wordt verworpen; een Type II fout is wanneer de nulhypothese onterecht wordt aangenomen. Het risico op een Type I fout is groter wanneer gebruikt wordt gemaakt van een significantieniveau van 0.05, terwijl de kans op een Type II fout groter is bij een significantieniveau van 0.01.
De ‘chi-square test’ (χ²) is een test van statistische significantie die gebruikt wordt om vast te stellen hoe zeker we kunnen zijn dat de onderzoeksbevindingen uit een ‘contingency’ tabel gegeneraliseerd kunnen worden van onze ‘probability’ steekproef naar de populatie waaruit deze steekproef is gehaald. Deze test berekent eerst voor elke cel in de tabel een verwachte frequentie (waarde) op basis van toeval. De ‘chi-square’ waarde wordt verkregen door het verschil tussen deze verwachte waarde en de werkelijke waarde te berekenen en al deze verschillen bij elkaar op te tellen (dit is een wat gesimplificeerde formulering, maar wel correct en dieper hoeven we er op dit moment niet op in te gaan). De ‘chi-square’ waarde heeft op zichzelf geen betekenis en kan alleen geïnterpreteerd worden door het significantieniveau. De kans dat de ‘chi-square’ waarde statistisch significant is hangt niet alleen af van de grootte van deze waarde, maar ook van het aantal categorieën binnen de twee gebruikte variabelen. Dit wordt ook wel de ‘degrees of freedom’ (df) genoemd die geassocieerd is met de tabel. De df = (aantal kolommen – 1) (aantal rijen – 1).
Als we een correlatiecoëfficiënt van r = -0.82 hebben bij een significantieniveau van p < .001, kunnen we de nulhypothese verwerpen en stellen dat slechts in 1 van de 1000 gevallen dit resultaat het gevolg is van toeval. Of een correlatiecoëfficiënt statistisch significant is hangt af van twee factoren: de grootte van het berekende coëfficiënt en de steekproefgrootte.
In Chapter 2 (Wat zijn sociale onderzoeksstrategieën?) werden er meerdere verschillen tussen kwantitatief en kwalitatief onderzoek aangekaart. Bij kwalitatief onderzoek gaat het (1) meer om de woorden (2) is er een inductieve aanpak (3) is ‘interpretivisme’ de epistemologische positie, en (4) is constructivisme de ontologische positie. Dit staat lijnrecht tegenover kwantitatief onderzoek waarbij de aantallen belangrijker zijn, er sprake is van een deductieve aanpak is, de epistemologische positie een natuurwetenschappelijk model (vooral positivisme) is en de ontologische positie objectivisme. Let op dat het hier niet om duidelijke verschillen gaat, maar meer om de neiging om één van de twee onderzoeksstrategieën te hanteren. Er is overigens nog steeds geen complete consensus over wat kwalitatief onderzoek precies is.
Sommige onderzoekers, zoals Silverman (1993), kijken kritisch naar auteurs die een poging doen om kwalitatief onderzoek te specificeren tot een algemene benadering. Een van de redenen hiervoor is dat kwalitatief onderzoek diverse onderzoeksmethoden hanteert die duidelijk van elkaar verschillen. De voornaamste onderzoeksmethoden zijn:
Etnografie/participantobservatie: etnografische observatie en participantobservatie lijken in veel opzichten op elkaar. Bij beide observatietechnieken moet de onderzoeker een ruime tijd in een bepaalde sociale setting verkeren om goede observaties te maken en de cultuur of sociale groep te kunnen waarden en te begrijpen.
Kwalitatief interviewen: dit is een brede term voor veel interviewstijlen (zie: gestructureerd interview - Chapter 9).
Focusgroepen (zie: gestructureerd interview - Chapter 9).
Taalgebaseerde aanpakken met betrekking tot de dataverzameling, zoals een (kritische) redevoerende analyse en verhalende analyse.
De verzameling en kwalitatieve analyse van teksten en documenten.
Een tweede reden waarom sommige onderzoekers kwalitatief onderzoek niet willen afdoen als algemene benadering is vanwege de ambigue relatie tussen theorie en onderzoek. Bij kwantitatief onderzoek is dit in mindere mate aanwezig.
De belangrijkste stappen in een kwalitatief onderzoek kunnen samengevat worden in de volgende zeven stappen:
Het opstellen van de algemene onderzoeksvraag of vragen
Het selecteren van de steekproef (‘sampling’)
Het verzamelen van de data
Het interpreteren van de data
Het conceptuele en theoretische werk (dit vormt samen met de interpretatie van de data de onderzoeksbevindingen)
Het eventueel specificeren van de onderzoeksvragen en het verzamelen van meer aanvullende data
Het opschrijven van de bevindingen.
De twee grootste verschillen tussen het kwalitatieve stappenplan en het kwantitatieve stappenplan is 1) het verschil tussen de theorie en het onderzoek 2) de concepten.
Kwalitatieve onderzoekers hechten veel waarde aan het gegeven dat theorieën kunnen voortkomen uit de data. Een zogenoemde geaarde theorie is een theorie die voortgekomen is uit systematisch verzamelde en geanalyseerde data. Het lijkt er echter op dat meer en meer kwalitatieve onderzoekers ook geïnteresseerd raken in het testen van theorieën. Dit is dan ook opgenomen in het stappenplan (stap 6). Hier wordt geïmpliceerd dat er tijdens het onderzoek een theoretische positie ingenomen kan worden waarvoor meer data verzameld moet worden. In feite is de kwalitatieve onderzoeker dan bezig met het testen van een theorie in plaats van het genereren van een theorie. De gebruikelijke volgorde van het stappenplan doelt nog altijd op het produceren van theorieën en niet het testen van theorieën.
Hoewel het ontwikkelen van metingen van concepten (Wat houdt kwantitatief onderzoek in? - Chapter 7) niet zo belangrijk is voor kwalitatieve onderzoekers, wordt er wel mee gewerkt. Concepten worden volgens Blumer (1954) gezien als definitief of gevoelige concepten. Volgens Blumer (1954) moeten er geen definitieve concepten gebruikt worden die al vaststaan door de uitgebreide exclusieve indicators die (standaard) gebruikt worden om dat concept te meten. Een gevoelig concept is een algemene formulering van een concept wat een nuttig houvast is voor een empirisch onderzoek. Het is vaak onduidelijk wanneer een dergelijk concept nuttig is, omdat het niet te breed en niet te nauwkeurig mag zijn.
Sommige onderzoekers, zoals Mason (1996), gebruiken bij het beoordelen van de betrouwbaarheid en validiteit van kwalitatief onderzoek termen die vrijwel gelijk zijn aan het beoordelen van de betrouwbaarheid en validiteit in kwantitatief onderzoek (betrouwbaarheid, validiteit en generaliseerbaarheid - het belangrijkste component van externe validiteit). LeCompte en Goetz (1982) stelden al eerder dat kwantitatief en kwalitatief onderzoek met dezelfde criteria beoordeeld kunnen worden. Zij hanteerden net iets andere termen dan Mason (1996), namelijk:
Interne betrouwbaarheid: deze is gelijk aan de inter-observant consistentie en refereert naar de mate waarin de observanten of leden van een onderzoeksteam het met elkaar eens zijn over wat ze zien en horen.
Externe betrouwbaarheid: de mate waarin een studie kan worden gerepliceerd. Dit is een moeilijk punt in kwalitatief onderzoek, omdat het onmogelijk is om een sociale setting te bevriezen. Met andere woorden, een sociale setting is dynamisch en veranderd continu; dezelfde onderzoeksomstandigheden creëren is lastig.
Interne validiteit: de mate waarin er een goede match is tussen de observaties en de ontwikkelde theoretische ideeën. Dit zou een sterk punt zijn van kwalitatief onderzoek, vooral etnografisch onderzoek, omdat de observant vaak langdurig aanwezig is in de sociale setting en dus betrouwbare links kan leggen.
Externe validiteit: de mate waarin de bevindingen kunnen worden gegeneraliseerd. Ook dit is een probleem voor kwalitatieve onderzoekers, omdat zij vaak geneigd zijn om ‘case’ studies te doen en kleine steekproeven te gebruiken.
Andere onderzoekers, zoals Guba (1985) en Lincoln (1994), suggereren dat kwalitatieve studies anders beoordeeld moeten worden dan kwantitatieve onderzoeken. Zij introduceerden alternatieve criteria voor het evalueren van de betrouwbaarheid en validiteit. Deze twee primaire criteria betreffen betrouwbaarheid (maar dan ‘trustworthiness’ en niet ‘reliability’ zoals in kwantitatief onderzoek) en authenticiteit.
Betrouwbaarheid (‘trustworthiness’) bestaat uit vier criteria die elk een equivalent kent in het beoordelen van kwantitatief onderzoek:
Geloofwaardigheid: gelijk aan interne validiteit. Bij het vaststellen van de geloofwaardigheid van het onderzoek zijn er twee veelgebruikte technieken: respondent validatie (sleutelconcept P3) en triangulatie (sleutelconcept P4).
Overdraagbaarheid: gelijk aan externe validiteit. Zoals al eerder vermeld zijn kwalitatieve bevindingen vaak contextspecifiek. Kwalitatieve onderzoekers hebben de overdraagbaarheid dan ook niet als doel: zij willen een zogenoemde ‘dikke beschrijving’ (Geertz, 1973) bieden, oftewel, een rijke beschrijving vol details over een bepaalde cultuur.
Afhankelijkheid: gelijk aan de betrouwbaarheid
‘Conformality’: gelijk aan objectiviteit
Ook authenticiteit bestaat volgens Lincoln en Guba uit meerdere criteria:
Eerlijkheid: representeert het onderzoek alle verschillende perspectieven van de leden van een bepaalde cultuur?
Ontologische authenticiteit: krijgen leden van de cultuur een beter begrip van hun sociale omgeving door dit onderzoek?
Educatieve authenticiteit: helpt het onderzoek om de leden van de cultuur de perspectieven van hun andere leden te waarderen?
Catalytische authenticiteit: heeft het onderzoek de leden van de cultuur aangespoord om aanpassingen te maken in hun omgeving?
Tactische authenticiteit: heeft het onderzoek de leden van de cultuur de volmacht gegeven om de benodigde stappen die tot verandering leiden te zetten?
Ten slotte suggereert Yardley (2000) ook nog vier criteria waarmee kwalitatief onderzoek beoordeeld zou kunnen worden:
De gevoeligheid voor de context
De toewijding en benodigde vaardigheden van de onderzoeker
De transparantie (waaronder reflexiviteit) en coherentie
De impact van het onderzoek
Het feit dat veel onderzoekers nieuwe criteria proberen te formuleren voor het beoordelen van kwalitatief onderzoek heeft vooralsnog geen invloed gehad op hun werk: onderzoekers gaan er vanuit dat hun werk beoordeeld wordt aan de hand van dezelfde criteria die behandeld zijn in (onderzoekdesigns - chapter 3), hoewel die geschikter zijn voor kwantitatief onderzoek.
Hammersley (1992) kiest een middenweg: hij past niet de kwantitatieve criteria toe, maar formuleert ook geen alternatieve kwalitatieve criteria. Hij stelt dat validiteit erg belangrijk is. Zijn definitie is geformuleerd vanuit een subtiele realistische positie: het onderzoek moet vooral een hoge waarschijnlijkheid hebben en betrouwbaar zijn. Hammersley’s subtiele realistische positie houdt in dat hij een externe sociale realiteit los van de sociale ‘actors’ aanneemt, maar dat deze niet direct geobserveerd en dus bestudeerd kan worden. Aansluitend stelt hij dat we nooit 100% zeker kunnen zijn van (een aspect uit) de wereld om ons heen. Naast validiteit stelt hij ook dat relevantie een belangrijk criterium is.
Er zijn nu in totaal drie posities behandeld: (1) het gebruiken van kwantitatieve onderzoekscriteria (2) het formuleren of gebruiken van alternatieve criteria, en (3) Hammersley’s subtiel realistische positie. Geen van allen dekt de lading aan meningen over dit onderwerp. De drie posities verschillen in de mate waarin een realistische positie geaccepteerd of juist verworpen wordt. Onderzoekers die (vrijwel onaangepast) de kwantitatieve onderzoekscriteria gebruiken voor het beoordelen van kwalitatief onderzoek zetten zichzelf neer als realist – ze stellen immers dat de sociale realiteit gevangen kan worden door hun concepten en theorieën. Lincoln en Guba, twee van de vele onderzoekers die alternatieve criteria formuleren, verwerpen deze visie door te stellen dat de concepten en theorieën slechts representaties zijn en dat er daarom andere, even betrouwbare representaties kunnen zijn van hetzelfde fenomeen. Hiermee nemen zij een anti-realistische positie in. Hammersley zit in het midden van dit continuüm.
Op epistemologisch niveau zijn kwalitatieve onderzoekers ervan overtuigd dat het sociale onderwerp van de studie (mensen en hun sociale wereld) fundamenteel verschilt van het onderwerp van natuurwetenschappelijke studies, opdat mensen betekenissen kunnen geven aan gebeurtenissen en hun omgeving. Om deze reden kiezen kwalitatieve onderzoekers niet het natuurwetenschappelijke model als epistemologische positie, maar kiezen zij voor interpretivisme: de wereld moet volgens hen bestudeerd worden door de ogen van de mensen die zij bestuderen. Door vanuit hun perspectief te kijken naar de wereld om hen heen wordt er meer geleerd over de achtergrond en onderliggende motieven. De onderzoekers kijken dus verder dan de oppervlakte. Zo kwam Taylor (1993) er tijdens zijn studie achter dat de vrouwelijke drugsgebruikers geen ‘zielige, inadequate’ individuen zijn, maar juist rationele, actieve individuen die wel degelijk een afweging maken tussen hun drugscarrière en hun rol en status in de maatschappij. De manier waarop kwalitatieve onderzoekers redeneren wordt dan ook beter beschreven als abductief redeneren (en niet inductief redeneren). Bij abductief redeneren krijgt de onderzoeker een theoretisch begrip van de sociale context rekening houdend met hun taal, betekenissen en perspectieven die hun zienswijze vormen.
De nadruk bij de rapportage ligt vooral op het geven van een gedetailleerde beschrijving van de sociale setting. Geertz (1973) introduceerde dan ook de term ‘dikke beschrijving’ om te refereren naar een beschrijving die rijk is aan details over sociale settings, gebeurtenissen en individuen. Kwalitatieve onderzoekers hechten heel veel waarde aan het bieden van deze gedetailleerde informatie, omdat ze het erg belangrijk vinden dat hun lezers de context waarin het gedrag bestudeerd is, goed begrijpen.
Kwalitatieve onderzoekers zien het sociale leven in termen van processen. Volgens Pettigrew (1997) is een proces ‘een reeks individuele en collectieve gebeurtenissen, acties en activiteiten die zich ontwikkelen over tijd’. Onderzoekers willen laten zien hoe gebeurtenissen en patronen zich presenteren naarmate de tijd verstrijkt. Vooral kwalitatieve onderzoeken die gebruik maken van etnografische methoden leggen hier de nadruk op. Een proces kan bestudeerd worden op de momenten dat het in uitvoering is door participant observatie, of achteraf bestudeerd worden door bijvoorbeeld retrospectief interviewen.
Er wordt geen sterk gestructureerde methode voor de dataverzameling gebruikt, omdat een dergelijke methode gebonden is aan onder andere het doel van de studie, de verwachtingen van de onderzoeker, etc. Om echt als onderzoeker door te dringen in de sociale wereld die je bestudeerd is het onmogelijk om een dergelijke gesloten methode aan te houden. Daarom worden er ongestructureerde methoden gebruikt waarvoor sterk gespecificeerde onderzoeksvragen op voorhand niet nodig zijn. Geleidelijk aan zal het onderzoek haar wending krijgen en de onderzoeksvragen worden pas echt gespecificeerd als de data verzameld is. Het grootste voordeel van een ongestructureerd onderzoek is de hoeveelheid flexibiliteit die het onderzoek hierdoor krijgt.
Zoals al vaker benoemd komen concepten en theorieën vaak tot stand na de data-analyse, oftewel, er is sprake van een inductieve benadering.
Er worden verschillende kritiekpunten genoemd die als volgt op te sommen zijn:
Kwalitatief onderzoek is te subjectief;
Het onderzoek is moeilijk om te repliceren;
Er is geen sprake van generaliseerbaarheid;
Er is vrijwel geen transparantie (daar wordt tegenwoordig hard aan gewerkt).
Gaandeweg hebben we de meeste verschillen tussen kwantitatief en kwalitatief onderzoek behandeld (zoals voorbeelden met betrekking tot de epistemologische positie etc.). Hier volgt een opsomming van de belangrijkste verschillen waarbij het eerste woord gerelateerd is aan kwantitatief onderzoek en het tweede woord aan kwalitatief onderzoek:
Aantal versus woorden;
Perspectief van de onderzoeker versus perspectief van de deelnemer;
Onderzoeker is afstandelijk versus onderzoeker is dichtbij;
Theorie en concepten getest in onderzoek (deductieve benadering) versus theorie en concepten die voortvloeien uit de verzamelde data (inductieve benadering);
Statisch versus proces;
Gestructureerd versus ongestructureerd;
Generalisatie versus contextueel begrip;
Harde betrouwbare data versus rijke, diepe data;
Macro versus micro;
Gedrag versus betekenis;
Kunstmatige setting versus natuurlijke setting.
Er zijn ook enkele globale overeenkomsten tussen de twee, namelijk:
Beiden houden zich bezig met data vermindering nadat (te) veel data is verzameld;
Beiden houden zich bezig met het beantwoorden van onderzoeksvragen;
Beiden relateren de data analyse aan de onderzoeksliteratuur;
Beiden houden zich bezig met variatie;
Beiden proberen vertekening te voorkomen;
Beiden pleiten voor het belang van transparantie;
Beiden gaan in op de mogelijke fouten van het onderzoek;
Beiden maken gebruik van onderzoeksmethoden die bij de onderzoeksvragen passen.
Een laatste punt wat opgenomen had kunnen worden in bovenstaand rijtje met de verschillen is het feit dat kwalitatief onderzoek samenhangt met feminisme, terwijl dit bij kwantitatief onderzoek niet vaak voorkomt. Enkele redenen voor het niet voorkomen bij kwantitatief onderzoek zijn:
De stem van vrouwen wordt genegeerd of op één hoop gegooid met een stapel feiten en statistieken (Mies, 1993);
Vrouwen worden (als onderwerp van de studie) gezien als objecten en op die manier wordt er gebruik gemaakt van hen: kennis en ervaring wordt van hen gebruikt zonder daar iets voor terug te geven (Mies, 1993);
Het controleren van variabelen draagt bij aan dit tweede punt, sowieso het hele idee van controleren zou mannelijk van aard zijn;
Het gebruik van vastgestelde categorieën leidt ertoe dat de nadruk wordt gelegd op dat wat al bekend is wat weer bijdraagt aan het negeren van de stemmen van de vrouwen zelf (punt 1);
Vrouwen worden onderzocht op een zo neutraal / objectief mogelijke manier, terwijl het onderzoek juist rekening zou moeten houden met hun normen en waarden.
Kwalitatief onderzoek daarentegen (1) luistert wel naar de stem van de vrouwen (2) geeft hen iets terug als dank voor het gebruik van hun kennis en ervaring waardoor uitbuiting wordt geminimaliseerd (3) behandelt vrouwen niet als objecten, en (4) houdt rekening met de geëmancipeerde doelen van feminisme.
Zoals in kwantitatief onderzoek een steekproef een waarschijnlijkheidssteekproef moet zijn, moet de steekproef binnen kwalitatief onderzoek doelgericht zijn. Dit soort doelgerichte steekproeven is een selectie van ‘units’ (mensen, organisaties, documenten, etc.) die indirect verband staan met de onderzoeksvraag.
Het gebruik van waarschijnlijkheidssteekproeven is zeldzaam binnen kwalitatief onderzoek, vooral omdat het erg moeilijk of gewoon onmogelijk is om een representatieve steekproef te trekken: binnen kwalitatief onderzoek is het ontzettend lastig om een ‘sampling frame’ te creëren. Als dit type steekproef toch wordt gebruikt, wordt het eerder gebruikt in interviewstudies dan in etnografische studies. De kwalitatieve onderzoeker kiest voor een waarschijnlijkheidssteekproef, wanneer…
… hij/zij het erg belangrijk vindt dat de onderzoeksgegevens gegeneraliseerd kunnen worden naar een bredere populatie, of;
… de onderzoeksvragen geen specifiek te onderzoeken categorieën ‘units’ (mensen, organisaties, enzovoorts) beschrijft.
De meest gebruikte strategie voor het kiezen van een kwalitatieve steekproef luidt als volgt: aanvankelijk wordt een steekproef geselecteerd op basis van de context en daarna op basis van de deelnemers.
Er zijn meerdere soorten doelgerichte steekproeven. Alle doelgerichte steekproeven zijn per definitie niet-waarschijnlijkheidssteekproeven, waardoor de onderzoeksbevindingen niet gegeneraliseerd kunnen worden. De steekproef wordt strategisch gekozen zodat deze relevant is voor de onderzoeksvraag, oftewel, de ‘units’ van de steekproef worden gekozen om de onderzoeksvraag te kunnen beantwoorden. Twee veelgebruikte soorten doelgerichte steekproeven binnen kwalitatief onderzoek zijn de theoretische steekproef en de sneeuwbal steekproef. De theoretische steekproef wordt vaak onterecht gezien als analoog van een doelgerichte steekproef (terwijl dit slechts een soort doelgerichte steekproef is). Een soort doelgerichte steekproef binnen kwantitatief onderzoek is een quota steekproef.
Er zijn meerdere manieren om aan een doelgerichte steekproef te komen. Teddie en Yu (2007) maken de volgende tweedeling in het verwerven van een dergelijke steekproef: via ‘sequential sampling’ of via ‘non-sequential sampling’ (een ‘fixed sampling’ strategie). Bij de eerste term wordt er een aanvankelijke steekproef geselecteerd en worden er geleidelijk meer ‘units’ toegevoegd. Bij ‘non-sequential sampling’, ook wel een ‘fixed sampling’ strategie genoemd, wordt er duidelijk vroeg in het onderzoeksproces één steekproef geselecteerd en wordt daar niks meer aan veranderd. Hood (2007) stelt twee andere manieren voor om aan een steekproef te komen: a priori of ‘contingent’. Een doelgerichte steekproef is (in tegenstelling tot een a priori steekproef) ‘contingent’ wanneer de criteria voor het kiezen van ‘units’ veranderen over tijd (bijvoorbeeld door het plotseling veranderen van de onderzoeksvragen).
Volgens Glaser en Strauss (1967) is een waarschijnlijkheidssteekproef niet geschikt voor kwalitatief onderzoek, omdat deze manier van steekproef trekken gekozen wordt op basis van statistische en a-theoretische overwegingen. Bij een theoretische steekproef ligt de focus op het kiezen van ‘units’ waarvan de onderzoeker weet dat deze zullen bijdragen aan het beantwoorden van de onderzoeksvraag en dus het creëren van theoretisch inzicht. Allereerst begint de onderzoeker met een algemene onderzoeksvraag waarna er een theoretische steekproef wordt gekozen. Vervolgens wordt data verzameld en geanalyseerd. In overeenstemming met de geaarde theorie blijft de onderzoeker data verzamelen totdat er theoretische verzadiging plaatsvindt: dit houdt in dat de opeenvolgende interviews en observaties een categorie als het ware hebben volgestopt met data. Nieuwe data is niet meer nuttig omdat het theoretisch begrip van die categorie niet meer verhoogd kan worden en de relaties met andere categorieën ook al duidelijk zijn vastgesteld en gevalideerd. Vervolgens worden er nieuwe hypotheses gegenereerd en wordt er een nieuwe theoretische steekproef gekozen.
Het is belangrijk om onderscheid te maken tussen een theoretische steekproef en een generieke doelgerichte steekproef, soms worden deze twee namelijk onterecht als synoniemen gebruikt. Bij het selecteren van een theoretische steekproef is er sprake van een sequentieel proces waarbij het de bedoeling is om theoretische categorieën te ontwikkelen, terwijl het kiezen van een generieke doelgerichte steekproef niet perse gericht is op het genereren van theoretische categorieën. De generieke doelgerichte steekproef kan a priori of ‘contingent’ gekozen worden, of een samenhang van beiden.
Een sneeuwbal steekproef werkt als volgt: de onderzoeker begint met het selecteren van een kleine groep mensen die relevant zijn om de onderzoeksvragen te kunnen beantwoorden. Vervolgens stellen deze deelnemers andere deelnemers (familie, vrienden, kennissen)voor die wellicht kennis of eigenschappen hebben die relevant zijn voor het onderzoek. Deze deelnemers worden geworven en stellen weer andere deelnemers voor, enzovoorts. Deze steekproefmethode wordt soms (maar bijna nooit) gebruikt in ‘survey’ onderzoek wanneer waarschijnlijkheidssteekproeven niet haalbaar zijn. Het wordt ook wel gebruikt wanneer het onderwerp van de studie ‘het netwerk van individuen’ is.. Zoals Noy (2008) al stelde wordt er meestal gebruik gemaakt van deze manier van steekproef trekken als een waarschijnlijkheidssteekproef niet haalbaar is, bijvoorbeeld in de afwezigheid van een ‘sampling frame’.
Het is erg moeilijk om vooraf in te schatten hoeveel ‘units’ nodig zijn (de steekproefgrootte) voordat er theoretische verzadiging kan plaatsvinden. Ook claimen veel artikelen dat ze volledige theoretische verzadiging hebben bereikt, maar wordt dit vervolgens vrijwel nooit gespecificeerd. Over het algemeen geldt: des te breder de studie en des te meer groepsvergelijkingen gemaakt worden (bijvoorbeeld mannen versus vrouwen), des te groter de steekproef moet zijn. Volgens Warren (2002) moet een kwalitatieve interviewstudie minstens uit 20 á 30 interviews bestaan voordat het een kans heeft om gepubliceerd te worden. Lang niet alle onderzoekers zijn het eens met Warren. Zo stellen Gerson en Horowitz (2002) dat er minstens 60 interviews gebruikt moeten worden voordat er duidelijke conclusies getrokken mogen worden en dat meer dan 150 interviews simpelweg teveel informatie bevat om nog effectief te kunnen analyseren. Vanwege de enorme verdeeldheid aan meningen is er in de kwalitatieve literatuur veel variatie in steekproefgroottes.
Uit een kwalitatieve studie kunnen volgens Onwuegbuzie en Leech (2010) twee soorten generalisaties vloeien: een analytische generalisatie (gelijk aan een theoretische generalisatie) en een ‘case-to-case transfer’.
Vóór de jaren ’70 werd etnografie primair geassocieerd met sociaal antropologisch onderzoek: de onderzoeker ging voor een lange periode naar het buitenland, mengde zichzelf daar in een sociale groep (zoals een stam), observeerde alles wat er gebeurde terwijl hij/zij veldnotities maakte en ging dan terug naar huis om alle bevindingen op te schrijven. Tegenwoordig is de etnografie niet meer zo uitgesproken.
Eén van de moeilijkste stappen binnen de etnografie is om toegang te krijgen tot de sociale groep waarin jij als onderzoeker geïnteresseerd in bent. Hier wordt onderscheid gemaakt tussen relatieve open en gesloten settings (Bell, 1969). Hammersley en Atkinson (1995) noemen dit publiekelijke en niet-publiekelijke settings. Één manier om zich te kunnen mengen in een bepaalde sociale groep is door de rol van onderzoeker geheim te houden: de onderzoeker neemt een ‘covert’ rol aan. Dit voorkomt problemen aangezien de onderzoeker nu niet hoeft te onderhandelen of uit te leggen waarom hij/zij de levens van anderen wilt ‘binnendringen’ en hen onderwerp wilt maken van een studie. Dit is wel van toepassing als de onderzoeker een ‘overt’ rol aanneemt en dus open en eerlijk is over zijn of haar onderzoekers identiteit. Deze twee dimensies (open versus gesloten settings en de ‘covert’ versus de ‘overt’ rol van de onderzoeker) creëren vier typen etnografisch onderzoek:
Open/publieke setting | Gesloten setting | |
'Overt' rol | Type 1 | Type 2 |
'Covert' rol | Type 3 | Type 4 |
Deze typen onderzoek kennen drie kanttekeningen. Allereerst is de scheiding tussen een open en een gesloten setting niet altijd duidelijk. Daarnaast is ook het onderscheid tussen de open en verborgen rol niet zo duidelijk (bijvoorbeeld, wanneer de onderzoeker toegang krijgt via de ‘overt’ route, maar binnen de sociale setting alsnog zijn of haar rol zoveel mogelijk probeert te verbergen). Ten slotte wordt een onderzoeker eerder toegelaten bij Type 1 en Type 2 onderzoek: de meeste etnografische onderzoekers nemen dan ook een open rol aan. De voornaamste drijfveren hiervoor zijn praktische en ethische overwegingen (vooral de ethische overwegingen zorgen voor de keuze om een open rol aan te nemen).
Volgens Van Maanen en Kolb (1985) is het toegelaten worden tot een gesloten setting een moeilijke taak waarbij succes afhankelijk is van strategisch plannen, hard werken en geluk. Doorzettingsvermogen werpt vaak haar vruchten af. Enkele nuttige tips van onderzoekers die dit wel gelukt is:
Gebruik contacten zoals collega’s, academici of vrienden.
Krijg steun van iemand binnenin de organisatie (een zogenoemde ‘sponsor’) die pleit voor jou en jouw onderzoek.
Richt je op de ‘gatekeepers’: de hoogste baas zal uiteindelijk beslissen over jouw lot, ook wanneer je steun van een treetje lager in de hiërarchie hebt gewonnen.
Biedt hen iets aan als ruil voor jouw toegang, zoals een rapport. Hiermee win je vertrouwen, maar het neemt ook risico’s met zich mee: jij kan gezien worden als een goedkope consulant bij wie beperkingen worden opgelegd als het gaat om bepaalde activiteiten.
Leg duidelijk je doelen en methoden uit en wees voorbereid op kritiek.
Wees bereid om te onderhandelen: je wilt natuurlijk volledige toegang, maar verwacht geen ‘carte blanche’.
Wees eerlijk over de hoeveelheid tijd die je gaat innemen van de participanten. Dit wordt ongetwijfeld gevraagd indien de onderzoeker toegang probeert te krijgen tot commerciële organisaties.
Soms wordt de toegang tot open settings vergemakkelijkt door mensen die zowel ‘sponsor’ zijn als ‘gatekeeper’. Een andere veelgebruikte strategie is simpelweg rondhangen totdat je opgemerkt wordt of geleidelijk wordt opgenomen in een groep.
Als de onderzoeker toegang heeft totde sociale setting loopt hij tegen verschillende problemen aan. Mensen zullen wantrouwend zijn en de de kans bestaat dat de onderzoeker gezien wordt als instrument van het management. Hierdoor letten mensen bewust op wat zij zeggen of doen waardoor het hele onderzoek gesaboteerd wordt. In zulke gevallen komt onderzoekservaring van pas: gebruik opgedane ervaring (kennis en begrijp voor sociale groepen) van voorgaand onderzoek om het verbijf in een sociale setting aangenamer te maken. Ook kan men beter informele informatie voor zichzelf houden en hier geen oordeel over vellen. Tot slot is het aan te raden om een bepaalde, consistente rol aan te nemen als onderzoeker.
Een voordeel van het hebben van ‘sponsors’ of ‘gatekeepers’ is dat zij kunnen dienen als sleutelinformanten. Zij kunnen de onderzoeker wijzen op situaties, gebeurtenissen of mensen die kunnen bijdragen aan het onderzoek. Ook kunnen zij steun bieden. Echter, de onderzoeker moet oppassen dat hij/zij niet afhankelijk wordt van deze zogeheten sleutelinformaten. Gedurende het onderzoek kunnen mensen zich vrijwillig presenteren als informanten. Deze informanten worden vanwege hun spontaniteit vaak alswaardevoller gezien.
Een etnograaf kan verschillende soorten functies vervullen:. Van hoge participatie en betrokkenheid tot lage participatie en betrokkenheid zijn dit de mogelijke functies/rollen:
‘Covert’ volwaardig lid: volwaardig lid van de groep, maar de status als onderzoeker is onbekend. In gesloten settings (zoals organisaties) werkt de onderzoeker als betaalde werknemer. In open settings (zoals gemeenschappen) verhuist de onderzoeker naar een gebied voor een aanzienlijke periode en wordt volledig lid van de gemeenschap, vaak onder een valse identiteit.
‘Overt’ volwaardig lid: volwaardig lid van de groep, maar de status als onderzoeker is bekend. Verder is dit gelijk aan een volwaardig ‘covert’ lid.
Participerende observant: participeert in groepsactiviteiten, maar is geen volwaardig lid van de groep. In een gesloten setting werkt de onderzoeker voor een bedrijf of organisatie, in een open setting is de onderzoeker een frequente klant in die buurt. Observaties zijn de belangrijkste bron van gegevens.
Gedeeltelijke participerende observant: hetzelfde als een participerende observant, maar het observeren is niet per se de voornaamste bron van data. Interviews en documenten kunnen net zo belangrijk zijn en soms zelfs belangrijker. Ook doet de onderzoeker aan minder groepsactiviteiten mee.
Miniem participerende observant: hetzelfde als een gedeeltelijke participerende observant, behalve dat de onderzoeker aan nog minder groepsactiviteiten meedoet.
Niet participerende observant met interactie: observeert (soms minimaal) en doet niet mee aan de groepsactiviteiten. Er vindt wel interactie plaats met de groepsleden, vaak in de vorm van interviews. Interviews zijn dan ook, samen met documenten, de voornaamste databron.
De uitdrukking ‘going native’ houdt in dat de onderzoeker zijn of haar identiteit als onderzoeker vergeet en zichzelf verliest in de wereldvisie van de mensen die ze bestuderen: de onderzoeker wordt één van hen.
De onderzoeker moet altijd een afweging maken of hij/zij actief of passief te werk gaat. De etnograaf kan zich verplicht voelen om actief betrokken te raken (bijvoorbeeld wanneer hij/zij undercover is, ofwel ‘covert’, in een drugsbende), omdat hij/zij weet dat een weigering aan een bepaalde activiteit een directe, negatieve invloed heeft op de relatie met de rest van de groep.
Vanwege het imperfecte menselijke geheugen moeten er af en toe veldnotities gemaakt worden. Deze moeten de vorm aannemen van korte maar gedetailleerde samenvattingen. De algemene principes die hier van toepassing zijn: maak zo snel mogelijk na het geobserveerde gedrag een heldere, specifieke notitie inclusief locatie, datum en andere specificerende gegevens. Tegenwoordig gaat de voorkeur uit naar het gebruik van een ‘voice-recorder’ in plaats van het nemen van aantekeningen over spraak, maar het nadeel is dat er daarna thuis heel veel ‘transcribed’ moet worden (de band moet afgeluisterd worden en woord voor woord op papier gezet worden). Dit probleem zou opgelost kunnen worden als de onderzoeker beschikt over goede stemherkenningsoftware (de onderzoeker laat het bandje afspelen en de computer ‘typt’ de woorden die het hoort). Het kan heel handig zijn om ook de eigen inzichten, suggesties of gevoelens op te schrijven bij de notities, zodat de interpretatie van data later makkelijker is en de onderzoeker enkele theoretische handvatten heeft.
Sanjek (1990) en Lofland en Lofland (1995) maken onderscheid tussen drie soorten veldnotities, namelijk:
Mentale notities: deze notities zijn vooral nuttig wanneer het ongepast is om op dat moment werkelijk notities te maken.
Krabbels: erg korte, snelle notities (zoals sleutelwoorden) zodat de onderzoeker later nog weet waarover hij later nog extra noties moet maken.
Volledige veldnotities: gedetailleerde notities die zo snel mogelijk gemaakt worden. Dit is dan ook gelijk de voornaamste databron. Deze notities moeten uiterlijk aan het einde van de dag gemaakt worden, maar liever eerder. Deze notities moeten zo accuraat en volledig mogelijk zijn.
Er is niet een (vooraf) gespecificeerd eindpunt van het onderzoek vanwege de ongestructureerde opzet en het gebrek aan concrete onderzoekshypotheses. Het is dus vaak lastig voor een etnograaf om te bepalen wanneer het onderzoek afgelopen is. Heel soms is er een natuurlijk eind van het onderzoek. Andere keren wordt de onderzoeker gedwongen om vanwege priveredenen of werkgerelateerde redenen zich terug te trekken.. De stress die een grote rol speelt in etnografisch onderzoek kan vaak ook een reden zijn om te stoppen. De stress kan worden veroorzaakt door het onderwerp van het onderzoek (onderzoek naar misdaden) of omdat de onderzoeker continu aan het werk is en nauwelijks tijd heeft voor een eigen privéleven. Het beëindigen van een etnografisch onderzoek moet altijd goed gemanaged zijn.
Het gebruik van visuele materialen in sociaal onderzoek is niet nieuw: antropologen maken al decennia lang foto’s van de stam en omgeving waarin ze onderzoek doen. Wat wel nieuw is, is de groeiende interesse voor het gebruik van visuele hulpmiddelen in kwalitatief onderzoek, zoals het geval is bij visuele etnografie. Er wordt onderscheid gemaakt tussen al bestaande visuele materialen (dit wordt behandeld in hoofdstuk 24) en visuele materialen die min of meer exclusief dienen voor onderzoeksdoeleinden, ook wel onderzoeksgedreven materiaal genoemd. Deze paragraaf focust zich op deze laatste groep en specifieker op fotografisch materiaal. De foto’s kunnen gemaakt zijn door de onderzoeker zelf of door de onderzoeksdeelnemers. In beide gevallen kunnen de foto’s dienen als basis van zogenoemde foto-verdieping (‘photo-elicitation’): een onderzoeksmethode waarbij de onderzoeker één of meer foto’s gebruikt om een discussie op gang te brengen met de respondenten over de betekenis en het belang van dat beeld. Naast het uitlokken van een discussie kunnen kwalitatieve onderzoekers de foto’s ook voor andere doeleinden gebruiken, bijvoorbeeld:
Als een aide-mémoire tijdens het veldwerk, waarbij de veldnotities dus aangevuld worden met foto’s van de setting.
Als pure databron (en niet alleen als extraatje naast de veldnotities zoals bij punt 1).
Pink (2001) suggereert dat er twee manieren zijn waarop visuele beelden behandeld worden in sociaal onderzoek: de realistische benadering en de reflexieve benadering. Bij de traditionele realistische benadering wordt de vastgelegde gebeurtenis of setting op de foto of video-opname een feit en wordt deze dan ook als zodanig verwerkt met de rest van de data. Bij de reflexieve benadering ligt de nadruk meer op het bewust worden van de gevoeligheid waarmee de onderzoeker als persoon een impact heeft gehad op het uiteindelijke beeldmateriaal.e De focus ligt op wat dit beeld nou werkelijk representeert. Factoren zoals de leeftijd, het geslacht, de achtergrond en voorkeuren van de onderzoeker hebben onder andere invloed op wat gefotografeerd wordt.
Volgens Pink (2004) zijn visuele onderzoeksmethoden nooit puur visueel vanwege de volgende twee aspecten: (1) de visuele onderzoeksmethoden gaan vaak samen met andere (traditionele) onderzoeksmethoden zoals interviewen en observatie, en (2) het visuele gaat vrijwel altijd samen met het niet-visuele, specifieker worden hiermee de woorden bedoeld die het medium van uiting zijn voor zowel de deelnemers als de onderzoeker(s).
In een ethisch opzicht is het altijd belangrijk om toestemming te krijgen van degene die herkenbaar op de foto’s of video-opnames zijn en dat zij zich volledig bewust zijn van de implicaties van hun toestemming.
Zoals al eerder is genoemd verwijst de term ‘etnografie’ zowel naar een sociale onderzoeksmethode als naar het eindproduct van dit onderzoek. Etnografische teksten worden zo geschreven dat de lezers overtuigd raken van de realiteit van de gebeurtenissen en van de plausibiliteit van de door de onderzoeker gesuggereerde verklaringen voor die gebeurtenissen. De onderzoeker schrijft vanuit een realistische benadering: hij/zij tracht een externe, objectieve realiteit te beschrijven. Aanvankelijk stelde van Maanen (1988) dat er drie manieren zijn om de etnografische bevindingen op te schrijven, namelijk als:
Realistisch verhaal: onherroepelijke, duidelijke, “koelbloedige” (objectieve) beschrijvingen van een cultuur en het gedrag van de leden van die cultuur door de ogen van een derde persoon. Dit is de meest gebruikte vorm van een etnografie.
Bekentenis: een gepersonaliseerde beschrijving waaruit blijkt dat de etnograaf volledig betrokken is geweest bij de dataverzameling en het schrijfproces. Dit type is populairder geworden na de jaren ’70 en reflecteert de groeiende interesse voor reflexiviteit in kwalitatief onderzoek. Deze manier van rapporteren legt echter wel meer nadruk op de manier van onderzoekvoeren en niet op het representeren van bevindingen. Om deze reden worden de onderzoeksbevindingen alsnog beschreven in de vorm van een ‘realistisch verhaal’ en krijgt de ‘bekentenis’ een apart hoofdstuk of wordt deze toegevoegd als bijlage.
Impressionistisch verhaal: een etnografie waar er een grote nadruk ligt op woorden, metaforen, uitdrukkingen en verhalen van dramatische gebeurtenissen die de cultuur als het ware openbreken en toegankelijk maakt voor analyse.
Van Maanen (2011) stelde later dat de bekentenissen meer en meer verwerkt worden in het realistische verhaal en niet langer een bijlage of apart hoofdstuk zijn van de objectieve beschrijving. Aanvullend maakte hij ook onderscheid tussen:
Structurele verhalen: beschrijvingen waarbij de observatie van kleine, alledaagse gebeurtenissen gerelateerd wordt aan de ‘macro’ samenleving.
Poststructurele verhalen: beschrijvingen die suggereren dat de realiteit een fragiele sociale constructie is die door iedereen anders geïnterpreteerd kan worden. Er wordt een kijkje genomen ‘achter de schermen’: de dingen zijn niet wat ze lijken.
‘Advocacy’ verhalen: beschrijvingen die gemotiveerd worden door het gevoel dat er iets niet klopt en de etnograaf wil dit door zijn/haar beschrijving aan iedereen duidelijk maken.
Adler en Adler (2008) komen met een vierdelige classificatie die gedeeltelijk voortborduurt op Van Maanen’s aanvankelijke indeling. De vier genres die zij onderscheiden zijn:
Klassieke etnografie: een toegankelijk, realistisch verhaal met als doel de lezer (de kwalitatieve onderzoeker) te overtuigen van een bepaalde setting. De discussie van de onderzoeksmethoden neemt vaak de vorm aan van een bekentenis.
‘Mainstream’ etnografie: ook een realistisch verhaal, maar gericht op een breder publiek dan alleen op andere kwalitatieve onderzoekers. Het is vaak deductief van aard en de onderzoekers zijn geneigd om expliciet te zijn over de onderzoeksvraag die de drijfveer was voor het onderzoek. De onderzoeksmethoden worden formeel en structureel besproken.
Postmoderne etnografie: de etnograaf wordt openlijk geïnsinueerd in de beschrijving en de onderzoeksbevindingen. De tekst is sterk gepersonaliseerd en erg reflexief.
Publiekelijke etnografie: deze etnografie wordt geschreven voor een heel breed publiek: het is sterk toegankelijk en redelijk ‘licht’ in de bespreking van eerder onderzoek. Daarnaast is de beschrijving van gebruikte onderzoeksmethoden kort.
Interviewafname is vanwege de flexibiliteit de meest gebruikte onderzoeksmethode in kwalitatief onderzoek (zo wordt er heel veel geïnterviewd tijdens etnografisch onderzoek).. De twee voornaamste typen kwalitatieve interviews zijn het ongestructureerde interview en het semigestructureerde interview (focusgroepen en groepsinterviews komen aan bod in het volgende hoofdstuk). De term ‘kwalitatief interview’ omvat in principe beide typen kwalitatieve interviews.
Bij het kwalitatieve interview:
… is de aanpak veel minder gestructureerd. In het kwantitatieve interview is alles veel meer gestructureerd om de betrouwbaarheid en validiteit te verhogen en om de concrete, vooraf vastgestelde onderzoeksvragen goed beantwoord te krijgen.
… is er veel meer ruimte, aandacht en interesse voor het perspectief van de geïnterviewde (als direct gevolg van punt 1). In het gestructureerde interview is het interview puur een reflectie van de onderzoeker en wat hij/zij te weten wilt komen.
… wordt het doorratelen over een onderwerp en het van de hak op de tak springen juist aangemoedigd, omdat het nieuwe inzichten biedt in wat de geïnterviewde ervaart als belangrijk en relevant. In het gestructureerde kwantitatieve interview wordt dit juist afgekapt.
… kan de interviewer heel veel afwijken van het oorspronkelijke lijstje met vragen. Hij/zij kan de formulering en volgorde van de vragen aanpassen, maar ook nieuwe vragen verzinnen die dieper ingaan op dat wat de geïnterviewde net heeft verteld. Hierdoor is het interview heel flexibel. In het gestructureerde interview is hier geen ruimte voor omdat het de standaardisatie en dus de betrouwbaarheid aantast.
… wil de interviewer rijke, gedetailleerde antwoorden. In het gestructureerde interview moeten de antwoorden snel te coderen en verwerken zijn.
… kan de geïnterviewde meerdere keren geïnterviewd worden. Een gestructureerd interview vindt maar één keer plaats (tenzij het een longitudinaal onderzoek is).
Het kwalitatieve interview kan de vorm aannemen van een totaal ongestructureerd interview of een semigestructureerd interview. Bij een ongestructureerd interview gebruikt de onderzoeker hoogstens een aide-mémoire om zichzelf te herinneren aan bepaalde onderwerpen. Soms vraagt de onderzoeker maar één vraag en gaat hij/zij vervolgens enkel in op wat de geïnterviewde vertelt. Dit lijkt heel veel op een normaal gesprek. Bij een semigestructureerd interview heeft de onderzoeker een ‘interview guide’ waarin meerdere vragen of te behandelen onderwerpen staan. Uiteraard kan de onderzoeker wel aanvullende vragen verzinnen om dieper in te gaan op de antwoorden van de geïnterviewde. Beide processen zijn dus flexibel en bij beiden ligt de nadruk op de interpretatie van de geïnterviewde van gebeurtenissen en onderwerpen. Er is een toenemende neiging om de termen ‘kwalitatief interview’ of ‘in-depth’ interview te gebruiken voor elk van deze twee soorten interviews. Toch zijn er duidelijke verschillen tussen beiden en kiest de onderzoeker duidelijk voor het één of het ander, afhankelijk van bepaalde factoren. Bijvoorbeeld, als de onderzoeker een duidelijke focus heeft of als meerdere mensen de interviews zullen gaan afnemen zal de onderzoeker hoogstwaarschijnlijk kiezen voor een semigestructureerd interview.
Hier volgen enkele tips voor het opstellen van een ‘interview guide’. (1) Zorg voor een bepaalde volgorde van de te behandelen onderwerpen, zodat de vragen goed op elkaar aansluiten. Wees wel bereid om deze volgorde aan te passen als dit beter uitkomt tijdens het interviewen. (2) Zorg dat je de vragen zo formuleert dat ze je wel helpen om de onderzoeksvragen te beantwoorden, maar formuleer ze niet te specifiek. (3) Gebruik gepaste, relevante vocabulaire en geen ingewikkelde zinsbouw. (4) Stel geen suggestieve vragen. (5) Zorg dat je bekend met de setting waarin de geïnterviewde leeft en werkt zodat je de antwoorden beter kunt begrijpen en conceptualiseren. (6) Maak gebruik van kwalitatief goede opname apparatuur en weet hoe dit werkt! (7) Creëer een stille en privé ruimte zodat er geen ruis staat op de opnameapparatuur en de geïnterviewde niet bang hoeft te zijn om gehoord te worden door iemand anders. (8) Doe eerst wat ervaring op met interviewen!! Deze methode wordt namelijk sterk onderschat door nieuwelingen.
Na het interview is het handig om notities maken over hoe het interview ging (wat had de geïnterviewde aan, was hij/zij praatgraat, etc.?), waar het interview plaats heeft gevonden en hoe de setting eruit zag.
Volgens Kvale (1996) zijn er negen verschillende soorten vragen. De meeste kwalitatieve interviews zullen deze allemaal bevatten.
Introducerende vragen. Voorbeeld: Hoe begon je interesse in…? Heb je ooit…?
‘Follow-up’ vragen (vragen om uitleg). Voorbeeld: Hoe bedoel jij dat? Kun jij daar iets meer over vertellen?
‘Probing’ vragen (directe vragen die vissen naar uitleg). Voorbeeld: Jij zei eerder dat jij liever niet X. Kun jij vertellen waarom jij liever niet Xt?
Specificerende vragen. Voorbeeld: Wat zei/deed jij toen? Hoe voelde je je daarbij?
Directe vragen. Deze kun je het best bewaren tot het einde om sturing te voorkomen. Voorbeeld: Vind je het moeilijk om continu te lachen naar de klanten?
Indirecte vragen (vragen die niet direct gaan over de geïnterviewde zelf). Voorbeeld: Hoe denken de meeste werknemers over het management?
Gestructureerde vragen (geven sturing aan het interview). Voorbeeld: Ik zou nu graag verder gaan met een ander onderwerp.
Stiltes: introduceer pauzes zodat de geïnterviewde de kans heeft om zijn/haar antwoorden te overdenken.
Interpreterende vragen (verduidelijk de interpretatie om misverstanden te voorkomen). Voorbeeld: Bedoel je dat jouw managementrol invloed heeft gehad op Y?
Het type vraag kan ook afhangen van de fase van het kwalitatieve interview. Charmaz (2002) maakt onderscheid tussen drie soorten vragen:
Aanvankelijke open vragen, zoals “welke gebeurtenissen hebben geleid tot…?”, “hoe zag jouw leven eruit voordat…?”.
Tussenliggende vragen, zoals “hoe voelde je je bij…?”, “wat vind jij het meest interessantst aan werken in…?”
Afsluitende vragen, zoals “is jouw visie op … veranderd?”, “welk advies zou je geven aan…?” en “als je alles opnieuw mocht doen…”.
Onthoud ook dat jij als interviewer vraagt naar verschillende dingen, zoals waarden, geloofsovertuigingen, gedragingen, relaties, plaatsen, emoties en verhalen. Varieer niet alleen de soorten vragen, maar varieer ook in het fenomeen waar naar jij vraagt.
Algemene vragen kunnen gebruikt worden in kwalitatief interviewen en gestructureerd interviewen en zijn een type specifieke vragen. Hoewel je als interviewer wel eens geneigd bent om algemene vragen te stellen kan het soms beter vermeden worden. Volgens Mason (2002) zal de geïnterviewde namelijk vaak vragen of jij de vraag specificeert of in zijn/haar context kunt plaatsen.
Het gebruik van foto’s (voor ‘foto verdieping’) of andere visuele media tijdens een interview kan volgens Harper (2002) nuttig zijn voor de volgende redenen. Ten eerste kunnen foto’s helpen om een betekenisvolle context toe te voegen aan een discussie, omdat het soms moeilijk is voor de geïnterviewde om zich te relateren aan de onderzoeksvraag. Ten tweede kunnen foto’s van bekende settings en objecten de geïnterviewde visueel stimuleren om na te denken over dingen die hij/zij normaal vanzelfsprekend vindt. Ten derde kan de visuele stimulatie ervoor zorgen dat de geïnterviewde gebeurtenissen of mensen herinnert die hij/zij zich anders niet zou hebben herinnerd. Het gebruik van foto’s hoeft echter lang niet altijd tot een superieur interview te leiden.
Kwalitatieve onderzoekers zijn vaak niet alleen geïnteresseerd in wat de mensen zeggen, maar ook hoe de mensen het zeggen. De interviewer moet tijdens het interview heel goed opletten, praten wanneer nodig is, intensief luisteren, opletten voor mogelijke inconsistenties in de antwoorden, waardoor het nemen van notities vaak onhandig is. Het interview opnemen is dan de perfecte uitkomst. De meeste geïnterviewden zullen hun toestemming geven voor de opname van het interview. In het geval van een weigering (of kapotte opname apparatuur) moet het interview natuurlijk gewoon doorgaan. Degene die hun toestemming geven zullen niet per se ook op hun gemak zijn omdat zij weten dat er opnameapparatuur aanstaat. Meestal zal deze angst verdwijnen naarmate het interview vordert. Het probleem met het ‘transcriben’ is dat het heel tijdrovend is: het duurt ongeveer 5 á 6 uur om 1 uur spraak te ‘transcriben’. Daarnaast resulteert dit proces in hoge stapels papieren die allemaal opnieuw doorgespit moeten worden wanneer het data-analyse moment is aangebroken. Het is dan ook zeker wenselijk om in het geval van meerdere interviews na elk interview te ‘transcriben’, om zo op het eind niet met een enorme berg werk te zitten. Ook kan het tussentijds ‘transcriben’ helpen om de vragen voortaan wat gerichter te stellen: het is een leerproces voor de interviewer. ‘Transcribers’ zullen goed getraind moeten zijn, omdat een fout (door bijvoorbeeld vermoeidheid) snel gemaakt is en grote gevolgen kan hebben.
Een telefoon interview (zie: gestructureerd interview - chapter 9) wordt regelmatig gebruikt in een ‘survey’ onderzoek, maar wordt weinig gebruikt in kwalitatief onderzoek ondanks de voordelen: het is veel goedkoper en gevoelige vragen worden beter beantwoord vanwege de afwezigheid van de interviewer. Echter, niet alle groepen zijn benaderbaar (zoals de personen zonder telefoon). Daarnaast kan een interview niet te lang duren. Ook kan de lichaamstaal van de persoon niet geobserveerd worden waardoor het onduidelijk is hoe de geïnterviewde reageert op een vraag. Ten slotte kunnen er altijd technische mankementen plaatsvinden (zoals een slechte verbinding).
Twee speciale soorten interviews binnen kwalitatief onderzoek zijn de levensgeschiedenis interview en het mondelinge geschiedenis interview.
Het levensgeschiedenis interview wordt geassocieerd met de levensgeschiedenismethode, ook wel de biografische methode genoemd, waarbij de geïnterviewde uitgenodigd wordt om heel gedetailleerd terug te blikken op zijn of haar leven. Vaak wordt dit gecombineerd met het bestuderen van persoonlijke documenten zoals dagboeken, foto’s en brieven. Uit dit interview zal blijken hoe de geïnterviewde de wereld om zich heen heeft geïnterpreteerd, begrepen en gedefinieerd (Faraday en Plummer, 1979). Het interview is ongestructureerd en probeert het hele leven te bevatten. Deze methode werd pas populair vanaf de jaren ’90. Miller (2000) maakt onderscheid tussen verschillende aspecten van levensgeschiedenisinterviews, zoals verouderingseffecten en cohort effecten. Volgens Plummer (2001) zijn er drie soorten levensverhalen:
Naturalistische levensverhalen: verhalen die opkomen wanneer mensen terugblikken op hun leven door bijvoorbeeld een autobiografie of sollicitatiebrief te schrijven.
Onderzochte levensverhalen: verhalen die het resultaat zijn van onderzoekers met een sociaal wetenschappelijk onderzoeksdoel in gedachten. De meeste onderzoeken zijn gebaseerd op de levensgeschiedenis ervan..
Reflexieve en recursieve levensverhalen: levensverhalen die herkennen dat een verhaal altijd een constructie is waarin de interviewer geïmpliceerd is.
Volgens Atkinson (2004) wordt een levensverhaal meestal verteld binnen twee of drie sessies van elk één á anderhalf uur. Hij heeft een cataloog opgesteld met eventuele vragen die gesteld kunnen worden om zo het hele levensverhaal in kaart te kunnen brengen. Zo begint hij met vragen over de geboorte, de ouders en de jeugd en eindigt hij met de visie op de toekomst en afsluitende vragen. Een levensgeschiedenis interview kan een belangrijk hulpmiddel zijn in een verhalende analyse waarbij de nadruk ligt op een opeenvolging van gebeurtenissen.
Een mondeling toegelicht geschiedenis interview is iets specifieker van aard omdat de geïnterviewde gevraagd wordt om te reflecteren op specifieke gebeurtenissen of periodes uit het verleden. De nadruk ligt iets minder op het individu of het persoonlijke leven en meer op de specifieke gebeurtenissen. Ook deze methode wordt vaak gecombineerd met andere bronnen zoals documenten. Het grootste probleem bij beide soorten interviews is de ‘bias’ door geheugenproblemen.
Zoals al eerder is behandeld gaan feminisme en (ongestructureerd interviewen in) kwalitatief onderzoek beter samen dan feminisme en (gestructureerd interviewen in) kwantitatief onderzoek. Deze paragraaf i behandelt nog een keer waarom dit zo is. Volgens Oakley is een gestandaardiseerd (survey) interview onder andere (1) vooral eenrichtingsverkeer omdat alleen de onderzoeker informatie krijgt en vragen mag stellen (2) oneerlijk omdat de interviewer niks teruggeeft voor de verkregen informatie, en (3) hiërarchisch van structuur waarbij de interviewer boven de geïnterviewde staat. Feministische onderzoekers pleiten daarentegen onder andere voor een gelijkwaardigere relatie, een principe van wederkerigheid en ruimte voor het woord van de vrouw.
Door continue observatie zal de onderzoeker beter in staat zijn om de wereld te zien door de ogen van degene die hij/zij observeert;
Door het continue observeren wordt de oorspronkelijke formele en informele taal geleerd opdat de onderzoeker precies begrijpt hoe en wat bedoeld wordt;
Er komt veel aan het licht over afwijkende en verborgen activiteiten die niet aan de oppervlakte zouden komen door er expliciet naar te vragen;
De onderzoeker houdt veel rekening met de context;
Vanwege de ongestructureerde aard en flexibiliteit van de participant observatie is het waarschijnlijker dat onverwachte gebeurtenissen of problemen meegemaakt worden;
De dataverzameling vindt plaats in de natuurlijke omgeving, oftewel, er is een naturalistische setting waaraan een interview (hoe informeel dan ook) niet aan kan tippen.
Veel onderwerpen zijn simpelweg niet observeerbaar. Soms kom je alleen iets te weten als je daarnaar vraagt;
Gebeurtenissen kunnen gereconstrueerd worden door de geïnterviewde te laten terugblikken op bepaalde situaties. Dit kan met alleen observeren niet;
Een kwalitatief interview zal niet snel leiden tot ethische problemen. Sommige onderwerpen kunnen wel geobserveerd worden door bijvoorbeeld gebruik te maken van een verborgen microfoon of camera, maar dit is vaak ethisch onverantwoord;
Net als bij gestructureerde observatie kan de aanwezigheid van een participant observant resulteren in reactieve effecten. Mensen raken echter geleidelijk aan gewend aan hun aanwezigheid (van de editor: er zijn natuurlijk ook effecten van de aanwezigheid van de interviewer op de geïnterviewde, zoals het geven van sociaal wenselijke antwoorden);
Kwalitatief interviewen is minder ‘intrusive’ dan participant observatie;
Eén van de voordelen van participant observatie is dat het vaak longitudinaal van aard is. Echter, het onderzoek duurt bijna nooit langer dan twee á drie jaar. Interviews passen makkelijker in een longitudinaal onderzoeksdesign, omdat interviews makkelijker te managen zijn dan herhaaldelijke bezoekjes aan de respondenten.
De te behandelen onderwerpen zijn breder dan bij participant observatie;
Er is een specifiekere focus dan bij participant observatie.
De focusgroep techniek is een interviewmethode waarbij meer dan één, vaak minstens vier, individuen tegelijk worden geïnterviewd. Het is dus eigenlijk een groepsinterview. Sommigen stellen dat er wel degelijk een onderscheid is tussen focusgroepen en groepsinterviews:
Focusgroepen leggen de nadruk op een specifiek thema of onderwerp waar erg diep op ingegaan wordt, terwijl groepinterviews veel breder zijn;
Groepsinterviews worden soms uitgevoerd zodat de onderzoeker tijd en geld bespaart. Dit is niet een drijfveer voor het gebruik van focusgroepen.
De interviewer van een focusgroep is - in tegenstelling tot de interviewer van een groepsinterview - geïnteresseerd in de manier waarop de individuen over een bepaald onderwerp met elkaar discussiëren en gezamenlijk een antwoord construeren.
Toch worden de twee termen vaak door elkaar gebruikt en het bovengenoemde onderscheid is niet altijd even duidelijk.
De meeste focusgroep onderzoekers voldoen hun onderzoek binnen de kwalitatieve benadering. De persoon die de focusgroep sessie leidt (vaak de onderzoeker zelf) wordt ook wel de ‘moderator’ of de ‘facilitator’ genoemd: hij of zij zal elke focusgroep sessie in goede banen leiden, maar zich er niet teveel mee bemoeien. De focusgroep methode is populairder geworden sinds de jaren ’80.
Focusgroepen worden meer en meer gebruikt binnen media onderzoeken en culturele onderzoeken. De nadruk in dergelijke onderzoeken ligt namelijk op de ‘publiekelijke ontvangst’ (‘audience reception’), oftewel, de manier waarop het publiek reageert op TV- en radio programma’s, films, krantenartikelen, enzovoorts.
Het gebruik van focusgroepen geeft de interviewer een heel duidelijk beeld van de onderliggende redenen van gedragingen of gevoelens: de geïnterviewden stimuleren elkaar tijdens een discussie om echt naar buiten te brengen waarom ze een bepaald standpunt innemen. Aansluitend worden de geïnterviewden door elkaar uitgedaagd om dieper na te denken over een onderwerp: meer dan wanneer er één op één interview plaats zou vinden.
Net als met interviews werkt de focusgroep sessie het beste wanneer de sessie opgenomen en achteraf ‘transcribed’ wordt. Het is namelijk onhandig en erg moeilijk om precies op te schrijven wie wat precies op welke manier zegt terwijl de onderzoeker ook erg moet opletten, luisteren en proben tijdens het interview zelf.
Het is onwaarschijnlijk dat de onderzoeker alle benodigde informatie krijgt uit slechts één focusgroep. Daarnaast is het ook goed mogelijk dat de reacties specifiek zijn voor die ene groep. De onderzoeker kan het aantal groepen mede late afhangen van de mate waarin gedacht wordt dat de meningen afhankelijk zijn van sociodemografische factoren zoals leeftijd, geslacht, status, enzovoorts. Uiteraard zijn tijd en bronnen ook belangrijke factoren. Teveel groepen zijn een verspilling van beiden. Naarmate er meer groepen zijn wordt de analyse ook complexer.
Calder (1977) stelt dat er voldoende groepen zijn zodra een ‘moderator’ in staat is om redelijk accuraat te voorspellen wat de volgende groep gaat zeggen (en de opmerkingen en patronen zich dus gaan herhalen). Deze strategie lijkt er op de theoretische verzadiging: zodra de grootste categorieën zijn gedefinieerd en gespecificeerd is het onnodig om nog verder te gaan, aangezien het nieuwe materiaal geen toegevoegde waarde meer heeft.
Volgens Morgan (1998) bestaat de typische focusgroep uit zes tot tien leden. Een groot probleem is vaak dat de leden van de focusgroep instemmen om mee te doen, maar vervolgens niet komen opdagen. Het is bijna onmogelijk om anders om te gaan met deze ‘no-shows’ dan om bewust teveel mensen uit te nodigen. Morgan raadt aan om de groep kleiner te houden als de leden waarschijnlijk veel te zeggen zullen hebben over het onderwerp of wanneer de onderwerpen controversieel of complex zijn. Grotere groepen worden aangeraden wanneer de betrokkenheid bij het onderwerp waarschijnlijk laag is of wanneer de onderzoeker meerdere, korte invalshoeken wil horen. De auteur van het boek is het hier niet mee eens: volgens hem maken grote groepen het juist lastig voor de mensen om iets te zeggen over een onderwerp wanneer zij er weinig ervaring mee hebben of er niet veel vanaf weten.
Volgens Barbour (2007) moet een focusgroep bestaan uit maximaal acht deelnemers. Grotere groepen zouden volgens haar simpelweg onhandig zijn: de onderzoeker heeft dan meer moeite met het accuraat interpreteren van alle meningen, met het ingaan op elke mening en met het herkennen van de verschillende stemmen bij het afluisteren van de opgenomen sessies. Fothergill (2009) bevestig dat kleinere groepen - bestaande uit drie tot vijf mensen - meestal de voorkeur krijgen. De discussie in deze focusgroepen loopt vaak ook beter dan bij grotere groepen. In kleinere groepen voelen de leden zich vrijer om hun (controversiële of kritische) mening uit te spreken, mede omdat er (in tegenstelling tot grotere focusgroepen) niet zozeer één persoon is die de discussie als het ware opeist.
Het doel van de focusgroep is om de perspectieven van de geïnterviewden te analyseren evenals het proces waardoor een mening collectief wordt samengesteld. De aanpak van de ‘moderator’ mag dus niet gestructureerd en niet ‘te streng’ zijn. Allereerst stelt de ‘moderator’ alleen algemene vragen. Ook krijgen de deelnemers veel ruimte tijdens de discussie: het is niet erg als zij redelijk veel uitwijken van het onderwerp. Deze uitwijkingen kunnen namelijk weer nieuwe meningen of perspectieven opbrengen van de andere deelnemers en kan helpen om naar boven te brengen wat zij echt belangrijk vinden aan het onderwerp. Er is een dunne lijn tussen een rijke, brede discussie en een onrelevante en dus onproductieve discussie. Het is de moeilijke taak van de ‘moderator’ om te bepalen waar de grens ligt. Gaandeweg kan de ‘moderator’ een aantal punten opbrengen voor verdere discussies (die van belang zijn voor de onderzoeksvraag) die niet opgepikt worden door groepsleden.
Iedereen voor wie het onderwerp relevant is kan een gepaste deelnemer zijn. Het werven van deelnemers kan bijvoorbeeld goed door een sneeuwbalmethode (zie sleutelconcept T4 voor enkele andere methodes). Zoals we hebben gelezen is het belangrijk om een redelijk breed publiek te trekken wat betreft sociodemografische kenmerken. De deelnemers kunnen vervolgens willekeurig toegewezen worden aan een groep. De onderzoeker kan er ook voor kiezen om mensen die elkaar kennen samen te zetten (collega’s, vrienden, familie) of juist om onbekende mensen in één groep te zetten. Sommige onderzoekers zorgen er juist voor dat mensen die elkaar kennen niet in één groep komen, omdat hun voorgaande interacties de sessie kunnen bevuilen. Niet alle onderzoekers hanteren deze vuistregel en geven juist de voorkeur aan het selecteren van natuurlijke groepen om zo de discussie ook zo ‘natuurlijk mogelijk’ te houden.
Bij focusgroep onderzoek worden er vaak algemene vragen gesteld. Op deze manier zorgt de onderzoeker ervoor dat de onderzoeksvragen behandeld worden en dat er een zekere mate van overeenkomst is tussen de discussies binnen alle focusgroepen terwijl er ook zeker genoeg ruimte voor deelnemers om zelf onderwerpen aan te snijden die zij zelf belangrijk(er) vinden. De onderzoeker kan er echter ook voor kiezen om een iets gestructureerde aanpak te hanteren. Zo creëerden Schlesinger en collega’s (1992) vijf categorieën die elk leidende vragen bevatten. De eerste drie onderwerpen bevatten redelijk algemene vragen en de twee laatste categorieën hanteerden wat specifiekere vragen. De meer gestructureerde aanpak kan heel goed het resultaat zijn van de eis dat de sessies in verschillende landen beter met elkaar te vergelijken moeten zijn. De ene manier is waarschijnlijk niet beter of slechter dan de andere manier. De stijl van vragen stellen en de invloed van de ‘moderator’ hangt af van meerdere factoren, zoals het onderwerp zelf en de kennis en interesse die de deelnemers hebben (als de onderzoeker zelf al veel van het onderwerp weet of wanneer de deelnemers weinig interesse en kennis hebben krijgt de gestructureerde aanpak de voorkeur). Een gestructureerde benadering kan de spontaniteit binnen een discussie verminderen, maar zal het nooit compleet elimineren.
Het wordt aangeraden om de focusgroep sessie te beginnen met een introductie waarbij de ‘moderator’ (1) de leden bedankt voor hun komst (2) zichzelf introduceert (3) het doel van het onderzoek uitlegt (4) de redenen voor het opnemen van de sessie toelicht, en (5) het verloop van de sessie vertelt. Ook zal de onderzoeker (6) wat regels uitleggen, zoals “één persoon aan het woord”, (7) garanderen dat de data anoniem en vertrouwelijk behandeld zal worden, en (8) duidelijk maken dat de mening van iedereen even belangrijk is. Op het einde zullen de leden nogmaals bedankt worden en zal kort toegelicht worden wat er nu verder met de data zal gaan gebeuren.
Volgens Kitzinger (1994) en Wilkinson (zij analyseerde meer dan 200 studies gepubliceerd tussen 1946 en 1996) wordt de interactie binnen de focusgroep opmerkelijk genoeg bijna nooit opgenomen in de rapportage! Volgens Kitzinger (1994) zijn er twee voornaamste soorten interacties binnen focusgroepen: complementaire interacties en argumentatieve interacties. Deze overeenstemmingen en onenigheden (respectievelijk) zijn van grote toegevoegde waarde als het gaat om de kwalitatieve data (en is niet aanwezig in een individueel interview). De data-analyse wordt er natuurlijk helaas niet makkelijker op. Lijnrecht tegenover Kitzinger (1994) staat Morgan (2010) die juist stelt dat focusgroep data die de groepsinteractie benadrukt niet perse superieur is aan data die de interactie achterwege laat.
De onderzoeker heeft minder controle over het proces dan bij een individueel interview. Veel mensen ervaren dit echter niet als nadeel en feministische onderzoekers zien het juist als een voordeel.
De data is moeilijk te analyseren. Er wordt al snel een hele hoop data geproduceerd en het ontwikkelen van een analyse strategie waarbij zowel de individuele meningen als de interacties naar boven komen is niet makkelijk.
Focusgroepen zijn moeilijk te organiseren. De onderzoeker moet niet alleen ervoor zorgen dat mensen willen deelnemen aan de focusgroep; de onderzoeker moet er ook voor zorgen dat diegene werkelijk komt opdagen. Om deze reden wordt er vaak een kleine monetaire beloning gezet tegenover deelname.
Het duurt langer om de opnames te ‘transcriben’ dan bij een individueel onderzoek vanwege de verschillende toonhoogtes en het feit dat je de stemmen moet onderscheiden om te kunnen vaststellen wie wat hoe zegt.
Vaak spreken de leden van de focusgroep toch door elkaar tijdens een discussie. Dit is niet te voorkomen, ook al geeft de onderzoeker van tevoren en tijdens de discussie waarschuwingen. De analyse van die delen van de opname wordt hierdoor extra lastig of soms zelfs onmogelijk.
Het kan zijn dat er groepseffecten plaatsvinden: er zullen altijd wel terughoudende sprekers zijn en sprekers die continu aan het woord willen zijn. Hieraan gerelateerd is het feit dat de deelnemers vaker geneigd zijn om cultureel verwachte meningen te uiten dan in een individueel interview.
Volgens Madriz (2000) zijn focusgroepen niet altijd gepast, bijvoorbeeld wanneer intieme details over het privéleven gevraagd worden. In dat geval zou een individueel interview gepaster zijn.
In dit hoofdstuk worden er twee belangrijke analyses behandeld: conversatieanalyse (CA) en redevoerende analyse (‘discourse analysis’, DA). In tegenstelling tot de traditionele zienswijze op de rol van taal in sociaal onderzoek behandelen deze twee benaderingen taal als een onderwerp en niet als bron van de studie. Taal is dus meer dan een medium die gebruikt wordt om sociaal onderzoek uit te voeren, het is de focus van het onderzoek.
Een conversatieanalyse (CA) is een fijne (gedetailleerde) analyse van spraak zoals deze tot uiting komt in natuurlijk voorkomende gesprekken. De spraak wordt opgenomen en ‘transcribed’. Vervolgens kan de onderliggende taalstructuur blootgelegd worden. De wortels van CA liggen in de zogenoemde etnomethodologie. De etnomethodologie is een sociologische positie waarin de nadruk ligt op praktisch redeneren (boerenverstand) in het alledaagse leven. De sociale orde is hiermee een product van onze taal en interacties. Etnomethodologie is zelf geen onderzoeksmethode. Zij kent twee centrale ideeën: ‘indexicaliteit’ en reflexiviteit. ‘Indexicaliteit’ houdt in dat de betekenis van iets (in CA refereert dit naar gesproken woorden, uitingen, pauzes, geluiden, etc.) afhangt van de context waarin het wordt gebruikt. Het principe van reflexiviteit is de mogelijkheid om in een taal over een taal te spreken. De etnomethodologie splitte zich op in twee kampen: één kamp hield zich bezig met traditionele sociale onderzoeksmethoden en etnografie en één kamp - vooral geassocieerd met Sacks en collega’s (1974) - hield zich bezig met gedetailleerde analyses van natuurlijk plaatsvindende spraak. De CA stelt dat de gesprekken leiden tot de sociale orde en CA beoefenaars zijn ook aanhangers van de ‘indexicaliteit’. Echter, de context zien zij als het hier en nu terwijl de meeste kwalitatieve onderzoekers de context veel breder zien (waarbij de context ook de normen en waarden, geloofsovertuigingen en ideeën een grote rol spelen). Om deze reden is het soms moeilijk om CA toe te passen in een bredere context.
Allereerst merkt een analist iets op met betrekking tot de manier waarop iets gezegd wordt. Bijvoorbeeld: kleine kinderen beginnen vaak met “Weet je wat?” waarop de ouder automatisch zegt “Wat?”. Vervolgens kijkt de analist naar de functie van deze manier van spreken. Het antwoord bij het net genoemde voorbeeld is dat het kind op deze manier zichzelf voor zijn of haar gevoel neerzet als gelijkwaardige gesprekspartner. Nadat de focus van het onderzoek is vastgesteld volgen de conversatieanalisten bepaalde aannames. Heritage (1984, 1987) noemt drie aannames die ten grondslag liggen van de CA:
Taal is gestructureerd: mensen zijn impliciet bewust van de gebruikte, gestructureerde taalpatronen.
Taal is contextueel: acties worden geuit in spraak en spraak moet daarom geanalyseerd worden in termen van de context.
Analyse is gegrond in data: analisten vermijden a priori theoretische schema’s door te stellen stellen dat taalkenmerken afgeleid moeten zijn uit empirische data.
Punt 3 impliceert dat de analist gedetailleerde transcripten moet produceren van natuurlijke gesprekken. Hierbij moet heel erg gelet worden op de kleinste details: pauzes en nuances zijn absoluut niet per ongeluk of onbelangrijk.
Om de beurt (‘turn-taking’): de notie van conversatieanalyse die stelt dat alledaagse gesprekken kunnen plaatsvinden door het geordend, om de beurt spreken. Dit principe illustreert dat spraak afhankelijk is van gedeelde codes. Als deze codes niet zouden bestaan, zou er geen vloeiende spraak bestaan. Één persoon praat en deze beurt wordt gewisseld met een zo klein mogelijke pauze of overlap tussen de beurten (Hutchby & Wooffitt, 1998).
Nabijheid paren (‘adjacency pairs’): dit principe representeert de neiging van sommige soorten door taal geuite activiteiten om samen te gaan, zoals een vraag en een antwoord, een uitnodiging en een antwoord of een groet en een groet terug. De tweede fase van dit paar is van belang voor de conversatieanalist. Er wordt altijd geanticipeerd op de tweede fase, hoewel er altijd een voorkeursrespons is.
Voorkeursrespons: de voorkeursrespons wordt bestudeerd door de reactie van de persoon op de geuite tweede fase van het vorige punt. Sommige antwoorden krijgen immers de voorkeur, zo gaat het accepteren van een uitnodiging niet samen met rechtvaardiging terwijl de afwijzing ervan wel samengaat met een rechtvaardiging. De bewustwording van de voorkeursantwoorden geven implicaties voor de structuur van een gesprek.
De verklaring: een verklaring doet volgens Potter (1996) twee dingen. Allereerst biedt het een reden voor het afwijzen van de uitnodiging en daarnaast schildert deze reden af als gebonden aan omstandigheden.
Herstelmechanismes: soms gaan dingen fout in conversaties, zoals wanneer mensen door elkaar praten (een fout in ‘turn-taking’). Volgens Silverman (1993) zijn er een aantal herstelmechanismes, zoals:
Wanneer A begint voordat B klaar is, stopt B met praten;
Wanneer iemand zijn of haar beurt niet neemt, bijvoorbeeld, niet antwoord geeft op een vraag kan de vraag nog een keer gesteld worden.
Kwalitatieve onderzoekers proberen de onderliggende motieven van anderen te begrijpen door een poging te doen om door de ogen van hun deelnemers te kijken. CA analisten proberen ook een betekenis en motief te geven aan wat ze bestuderen, maar alleen binnen die specifieke context. Zoals al eerder is aangekaart zien zij de context enkel als het hier en nuvan het gesprek, waardoor het moeilijk is om alles accuraat te interpreteren.
In tegenstelling tot CA kan DA ook toegepast worden op andere communicatievormen, zoals teksten, en is daarom flexibeler van aard. In DA ligt er ook niet zoveel nadruk op de natuurlijke spraak, dus ook de spraak in interviews kan een focus zijn voor onderzoek. Ook is er niet zoals bij CA slechts sprake van één type: DA kent meerdere vormen. DA deelt wel sommige inzichten van CA. Een redevoerende analyse is een analyse van spraak en andere vormen van taal die de nadruk legt op de manier waarop het gebruik van taal verschillende versies van de realiteit kan creëren.
De onderzoeksvragen in DA zijn aanvankelijk vaak open en later specifieker van aard.
Volgens Gill (2000) zijn er vier voornaamste thema’s in DA:
Redevoering is een onderwerp: de redevoering zelf is het onderwerp van de studie.
Taal is constructief: redevoering is een manier om een bepaald beeld van sociale realiteit te bouwen.
Redevoering is een vorm van actie: taal is een manier om iets te bereiken.
Redevoering is retorisch georganiseerd: er is een erkenning dat we anderen willen overtuigen van de manier waarop wij gebeurtenissen e.d. zien. Het thema dat redevoering retorisch is houdt in dat DA beoefenaars één versie van de wereld presenteren tegenover de vele andere versies van de wereld gepresenteerd zijn.
Volgens Potter en Wetherell (1994) zijn er twee neigingen binnen DA onderzoek. Ten eerste is er de identificatie van de omstandigheden bij een redevoering met als doel een bepaalde actie in gang te zetten. Centraal binnen deze neiging ligt het identificeren van interpretatieve repertoires. Het boek gebruikt het volgende voorbeeld: een onderzoeker legt zijn of haar onderzoek heel anders uit in een informeel onderzoeksinterview dan in zijn of haar geschreven wetenschappelijke artikel. Dit ontstaat omdat het artikel binnen een empiristisch repertoire valt (het is in die stijl geschreven, de bevindingen volgen logisch uit de data, alles is formeel en wetenschappelijk gepresenteerd, etc.), terwijl er tijdens een interview sprake is van een zogenoemd ‘contingent’ repertoire (Gilbert & Mulkay, 1984). Hierin presenteert de wetenschapper het artikel als zijnde sterk afhankelijk van speculatieve inzichten, persoonlijke kenmerken, vaardigheden, etc. De onderzoeker presenteert de bevindingen dus niet zo zwart-wit als in het artikel en erkent dan ook meer de eigen rol in het produceren van deze bevindingen. Dit stukje over een interpretatief repertoire is interessant, omdat hierdoor duidelijk wordt dat bepaalde acties plaatsvinden binnen sjablonen die de spreker leiden en beïnvloeden.
Ten tweede is er de neiging om de gedetailleerde procedures te identificeren die versies feitelijk laten lijken. Hier ligt de nadruk op de middelen die gebruikt worden in het overbrengen van (naar verluidt) feitelijke kennis. Nog specifieker ligt de aandacht van de redevoerende analisten vooral op de manier waarop numerieke en non-numerieke verklaringen gecreëerd worden om bepaalde argumenten te weerleggen of te ondersteunen, dit heet ook wel de kwantificatie retoriek. Het boek gebruikt het volgende voorbeeld: vroeger was er een TV programma genaamd “Cancer: your money or your life”. In dit programma werd ‘aangetoond’ dat de enorme bedragen die gedoneerd worden door het publiek aan kankerinstituten niet zouden helpen met het genezen van de ziekte. Vervolgens werden er getallen genoemd zoals geldbedragen en het aantal soorten kanker en daartegenover werd het aantal inmiddels ‘te genezen’ kankersoorten gezet (slechts drie en dan ook nog eens de drie zeldzaamste soorten).
De vorm DA die hier besproken zal worden is de kritische redevoerende analyse (CDA). Deze analysevorm is toepasbaar op zowel natuurlijke als onnatuurlijke vormen van spraak, teksten, enzovoorts. Het is sterk beïnvloedt door het werk van Michel Foucault (1977) en probeert taal en haar middelen (spraak, schrift, etcetera) te linken aan het belang van macht, ideologie en sociaal-culturele verschillen. De kritische redevoerende analyse kent een anti-realistische epistemologische positie (er is geen externe realiteit) en een constructionistische ontologische positie (de realiteit en de sociale fenomenen daarbinnen worden continu uitgevoerd en dus ‘gebouwd’ door ‘actors’). Simpelweg gezegd is bijdeze vorm van DA de redevoering een vorm van actie. Mensen proberen iets te bereiken wanneer ze praten of schrijven: Deze versie van DA is dus gericht op actie ondernemen: hoe krijgen mensen iets gedaan? Met andere woorden (in de vorm van de drie basisvragen van de kritische redevoerende analist): wat is het doel van de redevoering, hoe is deze opgezet om dit te bereiken en wat voor middelen zijn beschikbaar om het werkelijk uit te voeren?
De CDA beoefenaars zijn ontvankelijker voor de mogelijkheid van een al bestaande materiële realiteit en - specifieker - voor de epistemologische positie genaamd kritisch realisme. Één van de dingen die CDA beoefenaars proberen te achterhalen is de manier waarop de redevoering opgebouwd en behouden is in relatie tot een bepaald fenomeen, zoals globalisatie. Analisten proberen te ontdekken hoe de redevoering van vandaag een bepaalde betekenis heeft terwijl 40 á 50 jaar geleden deze betekenis anders was of er helemaal geen sprake was van een betekenis. Ook kijken zij onder andere naar de relatie tussen die redevoering en invloeden van andere redevoeringen, de vormgeving van de redevoering in de teksten (zoals kranten en academische artikelen) en de invloed van de redevoering op het sociale leven (Phillips & Hardy, 2002). Zoals dit eerste punt suggereert kan de redevoering over globalisatie bijvoorbeeld invloed hebben op de redevoering over nieuwe technologie of corporatieve sociale verantwoordelijkheid. Dit is echter niet altijd een complementair proces: soms vechten de redevoeringen voor dominantie. Dit heet dan een dialogische strijd (Keenoy en collega’s, 1997). Kritische redevoerende analisten kijken in dat geval naar de vraag waarom de ene redevoering het wint of heeft gewonnen van een andere: hoe is er betekenis gecreëerd?
De analyse van een specifieke discursieve gebeurtenis (in het boek wordt hier geen verdere definitie aan toegekend, maar ik neem aan dat ze het hier hebben over elke redevoerende gebeurtenis aangezien ‘discursief’ afgeleid is van ‘discourse’) vindt plaats binnen een driedimensionaal kader:
De tekstdimensie: het nauwkeurig onderzoeken van de inhoud, structuur en betekenis van de tekst;
De redevoerende praktijkdimensie: het onderzoeken van de manier waarop betekenis en overtuiging gecommuniceerd wordt.
De sociale praktijkdimensie: het overwegen van de sociale context waarin de redevoerende gebeurtenis plaatsvindt.
Intertekstualiteit is een concept wat inhoudt dat de redevoering breder is dan de specifieke redevoering waarnaar gekeken wordt. Dit concept geeft ruimte om te kijken naar de sociale en historische context waarin de redevoering plaatsvindt.
Dit hoofdstuk houdt zich bezig met een heterogene databron, namelijk documenten zoals brieven, dagboeken, autobiografieën, kranten, tijdschriften en foto’s. De nadruk ligt op onderzoeksrelevante documenten die niet speciaal geproduceerd zijn voor het doel van het sociale onderzoek, maar op documenten die al bestonden.
Scott (1990) maakt onderscheid tussen persoonlijke documenten en officiële documenten waarbij het laatste kan bestaan uit staatsdocumenten of privé documenten. Volgens Scott (1990) kan de kwaliteit van documenten bepaald worden aan de hand van vier criteria:
Authenticiteit (is het echt?)
Betrouwbaarheid (is het foutloos?)
Representativiteit (is het typisch?)
Betekenisvolheid (is het duidelijk en dus begrijpelijk voor de onderzoeker?)
Het gebruik van brieven werd even populair na de officiële introductie van de post in de tweede helft van de 19de eeuw. De populariteit en dus het gebruik van brieven daalde echter snel weer met de komst van de telefoon en email en de populariteit is tot op heden nog steeds aan het verminderen. Er is wel een groeiende interesse in de analyse van e-mails.
Bij het beoordelen van persoonlijke documenten is het authenticiteit criterium heel belangrijk: is de afgeschilderde auteur wel werkelijk de auteur? Met betrekking tot de betrouwbaarheid moet er worden gekeken naar de feitelijke accuraatheid en naar de mate waarin het document de werkelijke gevoelens van de auteur representeert. Representativiteit is een groot probleem bij het evalueren van persoonlijke documenten. Geletterdheid kwam vroeger veel minder voor en alle meisjes zijn – net als mensen in de sociaal lagere klasse - sterk ondervertegenwoordigt. Een ander probleem met de representativiteit van persoonlijke documenten is de selectief kleine verzameling van documenten die het overleefd hebben: hoeveel documenten zijn beschadigd, verloren of weggegooid? Dat zullen we nooit weten. Het criterium van betekenisvolheid is ook problematisch, mede vanwege de schade aan brieven en dagboeken en het gebruik van afkortingen of codes door auteurs die moeilijk te ontcijferen zijn. Ook werd volgens Scott (1990) niet alles opgeschreven, omdat degene die de brief schreef bepaalde waardes en aannames deelde met de ontvanger die voor ons onduidelijk zijn, maar indertijd voor hen vanzelfsprekend waren.
In chapter 19 (etnografie en observatie) werd al aangetoond dat er een toenemende interesse is voor visuele objecten in sociaal onderzoek en dan in het bijzonder voor foto’s. Er wordt ook hier een algemeen onderscheid gemaakt tussen bestaande foto’s en onderzoekgegenereerde foto’s (foto’s speciaal gemaakt voor het onderzoek of door de onderzoeker zelf). Zoals al vermeld is ligt de focus van dit hoofdstuk ligt op de eerste categorie. Één van de meest voorkomende manieren waarop foto’s invloed hebben in sociaal onderzoek is door de informatie die ze onthullen over families. Foto’s worden immers vaak gemaakt tijdens ceremoniële gebeurtenissen (zoals een trouwerij) en terugkerende gebeurtenissen (zoals kerstmis). Scott (1990) maakt onderscheid tussen drie soorten thuisgemaakte foto’s:
Idealisatie: een foto van een formele houding zoals in een trouwfoto of familiefoto
Natuurlijke weergave: een foto van een spontane actie op het moment zelf
Demystificatie: een foto van een beeld van een persoon in een atypische en vaak beschamende situatie.
Scott (1990) ziet de representativiteit als het grootste probleem bij de beoordeling van foto’s. De foto’s die het hebben overleefd zijn hoogstwaarschijnlijk niet representatief. Gebrek aan representativiteit strekt verder dan enkel de overlevingsselectie van de foto’s. Een ander probleem voor de onderzoeker is het herkennen van de verschillende manieren waarop het beeld (en de zogenoemde subteksten) geïnterpreteerd kan worden: een probleem met betrekking tot de betekenisvolheid. Hieraan gerelateerd is het probleem dat foto’s ten onrechte automatisch een bepaalde, hoge betrouwbaarheid toegekend krijgen (“een foto spreekt duizend woorden”). Hierdoor wordt er vanuit gegaan dat de betekenis van de foto transparant is.
Foto’s worden in chapter 19 en dit hoofdstuk vooral besproken in relatie tot kwalitatief onderzoek, maar foto’s kunnen ook gebruikt worden bij kwantitatief onderzoek (bijvoorbeeld als hints bij gestructureerd interviewen). Foto’s worden vaak gebruikt als illustratief hulpmiddel (in tegenstelling tot een droge discussie kunnen er foto’s gebruikt worden om een punt te illustreren), als data (foto’s zijn een databron in hun eigen recht) of als hints (zodat mensen zich bepaalde gebeurtenissen herinneren).
Staatsdocumenten geven vaak veel statistische informatie (zie: secundaire analyse en statistieken - chapter 14). Naast het geven van dergelijke kwantitatieve data biedt de staat ook veel tekstdocumenten zoals officiële verslagen. In termen van Scott’s (1990) vier criteria zijn deze documenten authentiek en betekenisvol, maar zijn de betrouwbaarheid en representativiteit twijfelachtig. Misschien is de informatie bevooroordeeld? Aan de andere kant kan het erg interessant zijn voor de onderzoeker juist vanwege de vooroordelen die onthuld worden door deze documenten. In ieder geval moet er dus opgepast worden met het behandelen van deze documenten alsof ze een directe representatie zijn van de realiteit. Daarnaast wordt de representativiteit gecompliceerd door het feit dat deze documenten vaak uniek zijn, ook iets wat het aan de andere kant juist een heel interessant onderzoeksonderwerp maakt.
De meest gebruikte officiële privédocumenten zijn bedrijfsdocumenten. Sommige soorten documenten zijn publiekelijk toegankelijk (zoals jaarlijkse rapporten, reclames en artikelen op het internet) terwijl andere soorten niet toegankelijk zijn voor het publiek (zoals nieuwsbrieven, memo’s, correspondenties, handleidingen voor nieuwe medewerkers, enzovoorts). Dit materiaal wordt veel gebruikt door bedrijfsetnografen, maar omdat het moeilijk kan zijn om toegang krijgen tot een bedrijf moeten de etnografen het vaak alleen doen met de documenten die toegankelijk zijn voor iedereen. Net als bij staatsdocumenten worden deze documenten vaak als authentiek en betekenisvol beoordeeld, maar zijn de betrouwbaarheid en representativiteit niet zo duidelijk. Mensen die documenten opstellen willen vaak een bepaalde mening of een bepaald punt overbrengen waardoor de documenten niet bepaald representatief of zonder vooroordelen zijn.
In chapter 13 (inhoudsanalyse) is het gebruik van kranten, tijdschriften, televisieprogramma’s, films en andere massa media output al besproken als mogelijke bronnen voor wetenschappelijke analyse. Toen werd dit echter besproken als kwantitatieve vorm van data analyse, namelijk in relatie tot de inhoudsanalyse. Deze bronnen kunnen echter ook zo geanalyseerd worden dat hun kwalitatieve aard behouden blijft. In deze analyses wordt er vaak gezocht naar bepaalde thema’s. Een inhoudsanalyse kan ook bepaalde aspecten hiervan naar boven brengen, maar een fijnere kwalitatieve analyse is veel gevoeliger voor de aard en inhoud van het thema. Binnen het analyseren van deze thema’s wordt vooral gekeken naar fouten of vertekeningen.
De authenticiteit van massa media output kan moeilijk te bepalen zijn: de inhoud is vaak wel echt (feitelijk), maar het auteurschap is vaak vaag. Hierdoor is het lastig om te bepalen of de output het resultaat is van iemand die in de positie is geweest om een objectieve, accurate versie te geven. De betrouwbaarheid kan ook een struikelblok zijn, maar zoals hierboven al verteld is, zijn het aan de andere kant juist die fouten en vertekeningen binnen de thema’s die het onderwerp van de analyse zijn. De representativiteit (is het typisch?) is meestal geen enkel probleem en ook de betekenisvolheid (is het duidelijk en begrijpelijk voor de onderzoeker?) is meestal niet problematisch.
Door de uitgebreidheid en toenemende toegankelijkheid is het internet een belangrijke bron geworden voor documenten die gebruikt kunnen worden voor kwantitatieve en kwalitatieve studies. Twee specifieke soorten documenten zijn vaak de focus: websites en Internet berichten op bijvoorbeeld fora. Hoewel er veel potentie zit in het gebruiken van virtuele documenten moeten we Scott’s (1990) criteria niet vergeten: authenticiteit is vaak slecht (iedereen kan een website beginnen) en de betrouwbaarheid is karig (er zijn veel fouten of vertekeningen, bijvoorbeeld om een product beter te doen laten lijken). Ook kan de onderzoeker nooit zeker zijn van de representativiteit van websites over een bepaald onderwerp en is lang niet alles duidelijk en begrijpelijk voor de onderzoeker vanwege zogenoemde ‘Webspeak’ (een bepaalde manier van spreken op het internet - bijna jargon - wat onder andere ook afkortingen en nieuw verzonnen woorden bevat).
Er wordt vaak (impliciet) aangenomen dat documenten ons per definitie iets vertellen over de onderliggende realiteit. Schrijvers zoals Atkinson en Coffey (2011) zijn hier sceptisch over en beargumenteren dat documenten een aparte ontologische status hebben opdat ze refereren naar een andere soort realiteit: ‘documentaire realiteit’. Bij het analyseren van documenten moet er onder andere gelet worden op de context waarin ze geschreven zijn. Het doel van documenten is immers om een bepaalde gewenste impressie over te brengen en niet om simpelweg de realiteit te representeren. Aanvullend stellen Atkinson en Coffey (2011) dat elk document gezien moet worden als een link met een ander document, aangezien elk document refereert naar of een antwoord is op een ander document. Overige documenten zijn een deel van de bijbehorende context of achtergrond. Atkinson en Coffey (2011) noemen dit fenomeen ‘intertekstualiteit’.
Deze paragraaf is een voorloper op het volgende hoofdstuk en zal kort ingaan op de vraag hoe, als je geen inhoudsanalyse gebruikt, documenten kwalitatief geïnterpreteerd kunnen worden. Er zijn hier drie opties, namelijk met behulp van (1) kwalitatieve inhoudsanalyse (2) semiotiek, of (3) hermeneutiek.
De kwalitatieve inhoudsanalyse is de meest gebruikte methode van de drie bovengenoemde methodes. Bij deze analyse worden de onderliggende thema’s geanalyseerd door een proces wat vaak niet gedetailleerd gespecificeerd is. De uitgekozen thema’s worden vervolgens geïllustreerd. Een voorbeeld van zo’n thematische analyse komt van Seale (2002). Seale (2002) analyseerde krantenberichten over mensen met kanker en was vooral geïnteresseerd in de sekseverschillen: zijn er verschillen in de manier waarop mannelijke en vrouwelijke kankerpatiënten besproken worden? Hij concludeerde dat verhalen over mannelijke patiënten veel meer bepaalde thema’s bevatten (zoals hoe iemands karakter belangrijk is in het omgaan met de ziekte) dan verhalen over vrouwelijke patiënten.
Altheide (1996) introduceerde zijn etnografische inhoudsanalyse (ECA) als het tegenovergestelde van de in chapter 13 (inhoudsanalyse) behandelde kwantitatieve inhoudsanalyse. Altheide stelt dat zijn ECA anders is dan de kwantitatieve inhoudsanalyse, omdat de onderzoeker continu (recursief) de thema’s of categorieën die afgeleid zijn van de analyse van documenten blijft herzien. Bij de ECA wordt er dus veel meer geschipperd tussen conceptualisatie, dataverzameling, analyse en interpretatie. Bij een kwantitatieve inhoudsanalyse worden voorafgestelde categorieën gebruikt: bij een ECA is er wel een aanvankelijke categorisatie, maar is er meer ruimte voor het verfijnen van deze categorieën en het genereren van nieuwe categorieën. Het tweede punt waarop de inhoudsanalyses verschillen is dat de ECA ook de context waarin documenten zijn gegenereerd benadrukt.
Semiotiek betekent de studie van tekens. De voornaamste termen die gebruikt worden binnen de semiotiek, zijn:
Het teken: iets wat staat voor iets anders;
Een teken bestaat uit twee onderdelen, namelijk een ‘signifier’ (de manifestatie van een teken, ook wel ‘vehicle’ genoemd) en een ‘signified’ (het idee of de diepere betekenis waar de ‘signifier’ naar verwijst);
De aanduidende (‘denotative’) betekenis is de duidelijke, vrijwel letterlijke betekenis van een ‘signifier’;
Een ‘connotatieve’ betekenis is de betekenis van een ‘signifier’ die geassocieerd wordt met een bepaalde sociale context en aansluitend is op de letterlijke, aanduidende betekenis ervan;
Polysemie verwijst naar een tekenkenmerk, namelijk dat ze altijd geïnterpreteerd kan worden op meerdere manieren;
De code is de algemene betekenis en wordt ook wel een symboolsysteem genoemd.
De semiotiek probeert de verborgen betekenis in teksten te achterhalen. Een voorbeeld is het curriculum vitae (CV). Het CV is een systeem van verbonden ‘signifiers’ dat als wezenlijke betekenis heeft om een samenvatting te geven van iemands ervaring (de symboolfunctie). De ‘connotatieve’ betekenis is een indicatie van iemands waarde (met betrekking op de toekomstige functie). Elk CV kan op meerdere manieren geïnterpreteerd worden en is dus ‘polysemisch’.
De oorsprong van de hermeneutiek ligt in het begrijpen of interpreteren van theologische teksten. De hermeneutiek heeft een invloedrijke rol gespeeld in de formulering van de epistemologische positie genaamd ‘interpretivisme’ en is min of meer synoniem aan Weber’s term ‘verstehen’. Het centrale idee is dat de tekstanalist moet zoeken naar de betekenis van de tekst vanuit het perspectief van de auteur. Hier moet dus veel aandacht besteedt worden aan de sociale en historische context waarin de tekst tot stand is gekomen. Een tekstanalyse wordt al hermeneutisch genoemd als de analist gevoelig is voor deze context. Het belangrijkste om te onthouden is dat bij de hermeneutiek een link gemaakt wordt tussen het begrijpen van de tekst vanuit het perspectief van de auteur en de sociale en historische context. Vaak is het tweede deel van voorgaande zin (het begrijpen van de context) een voorwaarde van het eerste deel van de zin (het begrijpen van de zienswijze van de auteur).
Zowel Philips en Brown (1993) als Forster (1994) beschrijven de interpretatie van bedrijfsdocumenten als een kritische hermeneutische benadering. Philips en Brown (1993) gebruiken een wat formelere aanpak en bestuderen de advertenties in termen van drie ‘momenten’:
Het sociaalhistorische moment: hier wordt gekeken naar de maker van de tekst, de bedoelingen, de context, etc.
Het formele moment: hier wordt gekeken naar de structurele en conventionele aspecten van een tekst (hier worden technieken zoals de semiotiek of een redevoerende analyse toegepast).
Het interpretatie-herinterpretatie moment: hier wordt gekeken naar de interpretatie en herinterpretatie van de eerste twee momenten.
De kritische hermeneutische benadering doet dus ook beroep op praktijken die geassocieerd worden met de kwalitatieve inhoudsanalyse en kan dit combineren met formele benaderingswijzen van een tekst, zoals de semiotiek.
Eén van de grootste problemen met het uitvoeren van een kwalitatief onderzoek is dat het heel snel een hele grote onhandige kluit data oplevert. Miles (1979) beschrijft kwalitatief onderzoek als een ‘aantrekkelijke ergernis’ opdat het rijke maar moeilijk te analyseren data oplevert. De onderzoeker moet opletten dat hij of zij niet faalt in het uitvoeren van werkelijke analytische tests, een fenomeen dat Lofland (1971) ‘analytic interruptus’ noemde. Er zijn slechts enkele vastgestelde en algemeen geaccepteerde regels voor de kwalitatieve data-analyse. Dit hoofdstuk bestaat uit drie delen: allereerst worden er twee algemene strategieën besproken die gebruikt worden bij de kwalitatieve data-analyse (analytische inductie en de geaarde theorie = grounded theory). Vervolgens wordt het coderen besproken, daarna de thematische analyse en ten slotte wordt de verhalende analyse toegelicht.
Analytische inductie en de geaarde theorie zijn allebei twee algemene strategieën (‘frameworks’) die het meest besproken zijn in de literatuur. Één van de manieren waarop de kwantitatieve data-analyse verschilt van de kwalitatieve data-analyse is dat bij de eerste er geanalyseerd wordt zodra de data is verzameld, terwijl er bij de tweede vaak een continue samenspel is tussen de verzameling en analyse van de data (vooral bij de geaarde theorie: de theorie wordt om deze reden ook wel ‘iteratief’ genoemd). De tussentijdse analyse van de data geeft vorm aan de volgende stap in het proces van de dataverzameling.
Bij een analytische inductie wordt de data zo geanalyseerd dat de onderzoeker eindigt met een universele verklaring voor een fenomeen. De onderzoeker gaat dus door met de dataverzameling totdat hij/zij geen enkel geval meer tegenkomt die inconsistent zijn met zijn/haar hypothetische verklaring. Het stappenplan van deze aanpak gaat als volgt: er is een grove definitie van een onderzoeksvraag gevolgd door een hypothetische verklaring van dat probleem. Vervolgens begint de data verzameling: wanneer er geen inconsistente (negatieve) gevallen gevonden worden wordt de hypothese bevestigd en eindigt de dataverzameling. Indien er wel gevallen worden gevonden die inconsistent zijn met de verklaring wordt de verklaring (1) aangepast waarna de dataverzameling verder gaat totdat er geen afwijkende gevallen meer zijn, of (2) zo aangepast dat het specifieke afwijkende geval buiten de boot valt.
Er zijn drie beperkingen van de analytische inductie. Allereerst is het een hele strenge manier van data-analyse, aangezien geen enkel geval inconsistent mag zijn met de hypothese. Deze strenge aanpak is nou niet bepaald aantrekkelijk voor kwalitatieve onderzoekers. Ten tweede specificeert de uiteindelijke verklaring van de onderzoeker alleen de condities die voldoende zijn voor het fenomeen, maar specificeert deze niet de benodigde condities. Bijvoorbeeld: door een analytische inductie kan verklaard worden waarom mensen met bepaalde eigenschappen of in bepaalde omstandigheden drugsverslaafden worden, maar er kan niet verklaren worden waarom precies zij verslaafd zijn geworden en niet anderen met dezelfde eigenschappen in dezelfde situatie. Ten derde biedt de analytische inductie (in tegenstelling tot de geaarde theorie) geen richtlijnen met betrekking tot het aantal te analyseren gevallen voordat met voldoende zekerheid gesteld mag worden dat de hypothese klopt.
De geaarde theorie is het meest gebruikte kader voor het analyseren van kwalitatieve data. Er is geen duidelijke algemene definitie, omdat Glaser als Strauss de geaarde theorie op verschillende manieren ontwikkelden. Glaser (1992) vond dat de geaarde theorie die Strauss (1990) promootte te beschrijvend was en hij vond ook dat Strauss (1990) teveel nadruk legde op de ontwikkeling van concepten in plaats van op theorieën. Auteurs vermelden vaak of ze de ‘Glaserian’ of de ‘Straussian’ versie van de geaarde theorie gebruiken. Daarnaast wordt het geven van een eenduidige definitie ook lastig, omdat de ‘Straussian’ versie de laatste jaren veel veranderd is: er worden continu analytische hulpmiddelen toegevoegd.
De geaarde theorie bevat grofweg de volgende aspecten (ook al grotendeels behandeld in chapter 19 - etnografie en observatie bij sociaal onderzoek): theoretische ‘sampling’, coderen, theoretische verzadiging en constante vergelijkingen. Hoewel vroeger de constante vergelijkingen expliciet gerapporteerd werden is dit tegenwoordig een impliciet element.
Het stappenplan van de geaarde theorie is als volgt:
Formuleer een algemene onderzoeksvraag
Maak gebruik van theoretisch ‘sampling’ om een steekproef te krijgen
Verzamel de relevante data
Codeer de data op het niveau van open coderen (waaruit concepten voortvloeien)
Er wordt continue geschipperd binnen deze eerste vier stappen.
Vorming van categorieën door constante vergelijkingen van concepten
Verzadig deze categorieën tijdens het coderingsproces
Onderzoek de relaties tussen de categorieën waardoor er hypotheses ontstaan over de onderlinge verbanden.
Verzamel meer data na het theoretisch ‘samplen’
Test de hypotheses waarbij het theoretische verzadigingsprincipe de dataverzameling bepaalt. Formuleer vervolgens de wezenlijke theorie.
De wezenlijke theorie kan vervolgens nog worden getest in andere settings waarna er een formele theorie kan ontstaan. Dit is relatief zeldzaam in de geaarde theorie, omdat de onderzoekers zich meestal focussen op één bepaalde setting.
De uitkomsten van de geaarde theorie zijn als volgt:
Concepten: concepten zijn de labels die gegeven worden aan concrete fenomenen en worden geproduceerd in de fase van open codering.
Categorieën: een categorie bestaat uit één of meerdere uitgewerkte concepten. Categorieën zijn hiermee abstracter van aard en worden geproduceerd in de fase van selectieve codering.
Eigenschappen: dit zijn attributen of aspecten van een categorie.
Hypotheses: een idee over de relatie tussen concepten.
Theorie: volgens Strauss en Corbin (1998) is een theorie een set met doorontwikkelde, systematisch gerelateerde categorieën die een theoretisch framework vormen voor het verklaren van een bepaald fenomeen. Binnen de geaarde theorie wordt er onderscheid gemaakt tussen twee soorten/niveaus theorieën: de wezenlijke theorie en de formele theorie. De wezenlijke theorie wordt gerelateerd aan een bepaald empirisch wezenlijk gebied, zoals maatschappelijke socialisatie. De formele theorie is abstracter en is toe te passen op meerdere wezenlijke gebieden.
Een handig hulpmiddel tijdens het genereren van concepten en categorieën is het gebruiken van memo’s: notities die de onderzoeker schrijft voor zichzelf en onderzoekers met wie zij werken. Memo’s zijn bedoeld om de onderzoeker te herinneren aan de betekenis van de gebruikte termen en zijn erg handig bij het concretiseren van ideeën. Memo’s zorgen ervoor dat je niet snel de weg kwijt raakt en vormen tevens de bouwstenen van de reflectie.
Ondanks het feit dat de geaarde theorie veel gebruikt wordt, heeft ook deze methode van data-analyse haar beperkingen:
Een onderzoeker die gebruik maakt van de geaarde theorie dient de kennis over relevante theorieën en concepten achterwege te laten tot laat in het proces. Bulmer (1979) stelt dat het onmogelijk is dat onderzoekers zich niet bewust zijn van relevante theorieën of concepten. Veel onderzoekers zien dit juist niet als beperking, aangezien de bestaande concepten ervoor zorgen dat de onderzoeker gefocust is en voort kan bouwen op andermans werk.
Er zijn ook praktische beperkingen van de geaarde theorie: vanwege het continue samenspel tussen dataverzameling en conceptualisatie neemt het uitvoeren van een goede analyse heel veel tijd in beslag (onderzoekers werken vaak met deadlines).
Het is te betwijfelen of deze methode van data-analyse werkelijk resulteert in een theorie. De meeste onderzoeken eindigen helaas met alleen maar een wezenlijke theorie en niet een formele theorie waardoor er vaak geen bredere generaliseerbaarheid is.
De gegronde theorie kent ondanks menig onderzoek nog steeds enkele onduidelijke punten. Het verschil tussen het gebruiken van een concept en een categorie is hier een voorbeeld van. Deze twee sleutelwoorden worden vaak inconsistent gebruikt wat voor verwarring zorgt. Strauss en Corbin refereren naar theoretisch sampling als sampling on the basis of emerging concepts, waar Charmaz meent dat het gebruikt wordt to develop our emerging categories.
De gegronde theorie wordt vaak geassocieerd met de een data-analyse aanpak die onderzoekers uitnodigd om hun data te coderen in discrete ‘chunks’. Sommige menen dat hierdoor de context en flow volledig verdwijnt.
Er is veel discussie en verwarring over de werkelijke aard van de geaarde theorie, waardoor het ook moeilijk te zeggen is hoe deze gebruikt moet worden.
Coderen (ook wel indexen genoemd) is het beginpunt van de meeste kwalitatieve data-analyses, zo ook van de geaarde theorie. Alle transcripten en/of notities krijgen labels/codes bij onderdelen die de onderzoeker belangrijk acht. Charmaz (1983) stelt dat deze labels/codes de data scheidt, samenstelt en organiseert. Bij kwantitatief (‘survey’) onderzoek krijgt de data labels om de data te managen (zie woordenlijst onderaan dit hoofdstuk); bij kwalitatief onderzoek (zoals de geaarde theorie) is het coderen meer dan een organisatietool: het is de eerste stap voor het genereren van een theorie. Tijdens het ontwikkelen van codes moeten er een aantal dingen in het achterhoofd worden gehouden, zoals: wat representeert dit item? Waar gaat dit item over? Wat doen mensen hier of wat vindt er plaats?
Het is heel handig om (zoals de geaarde theorie al voorstelt) zo snel mogelijk te coderen. Door het tussentijds coderen zal de onderzoeker de data beter begrijpen. Ook biedt het handvatten voor het theoretisch ‘samplen’. Vroeg beginnen met coderen zorgt er ten slotte voor dat de onderzoeker niet een hele hoop werk heeft op het einde. Lees door de transcripten, veldnotities, documenten enzovoorts en maak zoveel mogelijk significante notities. Onthoud dat elk item in de data op meerdere manieren gecodeerd kan en eigenlijk moet worden. Maak je geen zorgen over het genereren van veel te veel codes: coderen is niet hetzelfde als analyseren, het is een hulpmiddel. Codes binnen de geaarde theorie worden continue aangepast en met elkaar vergeleken waarna ze behandeld worden als indicatoren van concepten.
Strauss en Corbin (1990) onderscheiden drie soorten coderingsprocessen:
Open codering: het sequentiële proces waarin data afgebroken, geanalyseerd, vergeleken, geconceptualiseerd en ten slotte gecategoriseerd wordt.
Axiale codering: een aantal procedures waardoor de data, na het open coderen, op een andere manier weer compleet gemaakt wordt door het maken van verbindingen tussen de categorieën.
Selectieve codering: de procedure waarbij de kerncategorie wordt geselecteerd, deze systematisch in verband wordt gebracht met de andere categorieën, deze relaties gevalideerd worden en de categorieën die wat fijner gedefinieerd moeten worden op worden gevuld met data.
Eigenlijk zijn deze drie soorten coderingsprocessen verschillende niveaus in het coderingsproces. Niet alle beoefenaars van de geaarde theorie passen deze processen toe, vooral het axiale coderen heeft veel kritiek gekregen. Dit proces zou namelijk de openheid en het verkennende karakter van de geaarde theorie ondermijnen door het proces als het ware af te sluiten.
Charmaz (2006) maakt onderscheid tussen slechts twee coderingsfases:
Aanvankelijke codering: in deze fase moet de onderzoeker heel erg open staan voor de data en ideeën om de data in te passen. Er wordt er heel gedetailleerd gecodeerd (soms zelfs een code per regel tekst).
Selectieve/gefocuste codering: in deze fase worden de meest voorkomende codes en de codes die het meest vertellen over de data uitgelicht. Sommige aanvankelijke codes zullen tijdens dit proces worden verwijderd zodat de codes die het beste de data categoriseren overblijven.
Het grootste kritiekpunt op het coderingsproces is de kans dat de onderzoeker de sociale context kwijtraakt van dat wat er is gezegd. Er worden immers stukken tekst uit hun context getrokken waardoor de sociale setting voor dood achterblijft. Een gerelateerd kritiekpunt is dat de geaarde theorie resulteert in een fragmentatie van de data waardoor de verhalende lijn van wat mensen zeggen verloren gaat. De aandacht voor dit probleem heeft geleid tot de verhalende analyse (zie verderop).
Een thematische analyse refereert naar het afleiden van sleutelthema’s in de data. Een thematische analyse heeft, in tegenstelling tot strategieën zoals de geaarde theorie en de redevoerende analyse, geen bijbehorend cluster van een toe te passen technieken. Er zijn slechts weinig algemeen geaccepteerde principes die gehanteerd worden bij het definiëren van de sleutelthema’s, waardoor de analyse vaak warrig is. Het is een analyse die vaak verwerkt wordt binnen de grotere kwalitatieve data-analyse methodes (geaarde theorie, redevoerende analyse, kwalitatieve inhoudsanalyse, verhalende analyse). Voor sommige onderzoekers is een thema min of meer hetzelfde als een code. Veel onderzoekers claimen gebruik te hebben gemaakt van een thematische analyse, maar dit is meestal niet te identificeren
Tijdens het zoeken naar thema’s adviseren Ryan en Bernard (2003) te letten op:
Herhalingen van onderwerpen
Autochtone typologieën of categorieën (lokale, abnormale of onbekende uitingen)
Metaforen en analogieën (de manier waarop deelnemers hun gedachten vormgeven)
Overgangen tussen onderwerpen
Overeenkomsten en verschillen in de manier waarop geïnterviewden antwoorden
Linguïstieke verbindingen (zoals ‘omdat’ of ‘daardoor’: geeft aan wat de geïnterviewde ervaart als causaal verband)
Missende data (reflecteer op dat wat niet in de data is)
Theorie-gerelateerd materiaal (gebruik sociaalwetenschappelijke concepten om vervolgens thema’s op te bouwen)
De nadruk op het ontdekken van thema’s ligt waarschijnlijk aan het opmerken van herhalingen ofwel patronen.
De verhalende analyse is een methode om data die gevoelig is voor temporale reeksen (chronologische volgorde), zoals verhalen die mensen vertellen over hun leven en gebeurtenissen hierin, te genereren en analyseren. Bij deze analyse ligt de focus niet op wat er is gebeurd, maar op de manier waarop mensen het waarnemen en voor welk effect het zorgt(een verhaal wordt immers altijd verteld met een bepaald doel). Onderzoekers die gebruik maken van de verhalende analyse bekritiseren andere data-analyse methodes ervan dat zij geen rekening houden met het perspectief van de mensen op hun leven en de gebeurtenissen hierin. Mensen zien hun leven immers als proces termen van continuïteit: een eigenschap die bij andere analyses niet wordt meegenomen. Een verhalende analyse wordt vaak toegepast bij levenhistorisch onderzoek, maar is veel breder dan dit. Sommige onderzoekers verwerken een verhalende analyse tijdens een interview. In zo’n geval kan er beter gevraagd worden ‘wat is er gebeurd?’ en ‘en wat gebeurde er toen?’ dan ‘vertel eens wanneer X gebeurde?’. Het doel van zo’n verhalend interview is om de persoonlijke gereconstrueerde beschrijving van connecties tussen gebeurtenissen en tussen gebeurtenissen en contexten los te krijgen. Zo’n verhaal komt meestal naar boven tijdens een semigestructureerd interview, ongestructureerd interview en participant observatie. De verhalende analyse wordt hier vervolgens op losgelaten. Een verhalende analyse kan echter ook losgelaten worden op andere onderzoeksmethoden, zoals documenten. Riesman (2008) stelt dat verhalen kunnen relateren aan lange periodes (zoals een levensverhaal )of aan een specifieke gebeurtenis. Er is tegenwoordig sprake van een groeiende interesse in ziekte verhalen (verhalen die mensen vertellen over hun meestal chronische ziekte).
Volgens Bury (2001) behandelen beoefenaars van de verhalende analyse de vertelde verhalen onterecht als feitelijk zonder hier kritisch naar te kijken. Een tweede kritiekpunt is de vraag wat dergelijke analyses nu echt onthullen: is het de waarheid? Dit maakt niet altijd wat uit, omdat het tijdens deze analyse toch draait om het perspectief en niet om de waarheid.
Phoenix, Smith en Sparkes (2010) maken een onderscheid tussen analyses die zich focussen op de inhoud en structuur van de verhalen en analyses die benadrukken hoe de verhalen worden geïnterpreteerd. Een verhalende analyse kan zich dus bezighouden met verschillende aspecten..
Het is belangrijk om te onthouden dat alle eerder genoemde analysemethoden er vanuit gaan dat de analist ook betrokken is geweest in de dataverzameling zelf. Tegenwoordig is secundaire analyse echter steeds populairder. Er is geen reden om aan te nemen dat secundaire analyses niet mogelijk zijn bij kwalitatieve data, hoewel deze analysemethode wel meer problemen met zich meebrengt dan wanneer het gaat om de secundaire analyse van kwantitatieve data. Hierbij kan gedacht worden aan ethische problemen in het hergebruik van de data, zoals beloftes van vertrouwelijkheid en de moeilijkheid om de mensen in de studie anoniem te houden. Daarnaast wordt het hergebruik bemoeilijkt doordat de secundaire analist geen idee heeft van de sociale setting waarin de data werd geproduceerd. Dit laatste probleem is ook van toepassing wanneer de primaire onderzoeker zijn of haar eigen data jaren later nog eens bekijkt. Desalniettemin biedt de secundaire analyse ten minste twee veelbelovende mogelijkheden. Allereerst kan de secundaire analist nieuwe inzichten genereren. Ten tweede, kwalitatief onderzoek levert zoveel data op dat lang niet alles wordt geanalyseerd zij het niet voor de secundaire analisten om een deel van die data op te pakken en alsnog te analyseren.
Dit hoofdstuk bestaat uit een visueel stappenplan voor NVivo. Dit stappenplan is daarom expres niet opgenomen in de samenvatting. De belangrijkste punten met betrekking tot een CAQDAS (computergeassisteerde kwalitatieve data-analyse) methode zoals NVivo (de focus van dit hoofdstuk) luiden als volgt:
CAQDAS kan uiteraard niet helpen met het maken van beslissingen over de beste coderingsmanier. Ook kan het niet helpen met het interpreteren van de bevindingen;
CAQDAS kan wel de meeste taken die geassocieerd zijn met het (normaliter handmatig) coderen en met het terughalen van data sneller en makkelijker uitvoeren;
Indien de onderzoeker een hele kleine dataset heeft, is het de tijd en moeite niet waard om bekend te raken met een heel nieuw softwareprogramma. In het geval van een grotere dataset, of wanneer de onderzoeker in de toekomst verwacht weer gebruik te maken van een CAQDAS programma, dan kan het programma van onschatbare waarde zijn.
Tot dusver heeft dit boek een redelijk strikte scheiding aangehouden tussen kwantitatief en kwalitatief onderzoek, omdat er (1) wel degelijk verschillen zijn, en (2) het een handige manier is om de bespreking van onderzoeksmethoden en data-analyse methoden te organiseren. Toch wil Bryman niet dat dit onderscheid uit proporties gehaald wordt. In het begin van het boek werd al aangegeven dat kwantitatief en kwalitatief onderzoek allebei principieel geassocieerd worden met bepaalde ontologische en epistemologische posities, maar in feite staan deze verbanden niet vast (zie: chapter 2 - sociale onderzoeksstrategieën). Ter opfrissing is hier nogmaals het gemaakte onderscheid met betrekking tot (1) de rol van theorie (2) de epistemologie en (3) de ontologie.
Kwantitatief onderzoek | Kwalitatief onderzoek | |
1 |
| Inductief (creëren van theorieën) |
2 | Natuurwetenschappelijk model (vooral positivisme) | ‘Interpretivism’ |
3 | Objectivisme | Constructivisme |
Nogmaals: de keuze voor het innemen van een bepaalde positie is niet meer dan een voorkeur van de onderzoeker. Ook het gebruik van bepaalde onderzoeksmethodes kunnen zo toegespitst worden dat het bruikbaar is binnen elk type onderzoek.
Vaak wordt het natuurwetenschappelijk model automatisch, maar onterecht geassocieerd met het positivisme. Hierbij moeten drie kanttekeningen worden gemaakt. Allereerst is er niet één epistemologische basis van het natuurwetenschappelijke model: het positivisme is er slechts één van (wel de meest voorkomende). Een andere epistemologische positie is bijvoorbeeld realisme. Daarnaast wordt er aangenomen dat het (positivistische) werk van natuurwetenschappers gereflecteerd wordt in hun geschreven werk, maar onderzoek suggereert dat de werkwijze en de rapportages vaak niet goed overeenkomen (zie ‘het identificeren van interpretatieve repertoires’, taalgebruik en sociaal onderzoek - chapter 22). Ten slotte stelt Platt (1981) dat er goed gelet moet worden op het gebruik van de term ‘positivist’: hoewel het refereert naar een kenmerk van wetenschappelijk onderzoek, wordt de term vaak gebruikt met een negatieve, spottende ondertoon om andere onderzoekers te karakteriseren.
Aanvullend wordt het natuurwetenschappelijke model vaak alleen maar geassocieerd met kwantitatief onderzoek. Kwalitatief onderzoek daarentegen bevat vaak ook aspecten van kwantitatief onderzoek die geassocieerd worden met dit model. Het gaat hier om de volgende aspecten:
Empirisme (het belang van directe ervaringen om de sociale wereld te begrijpen)
Een specifiek, strak gedefinieerd probleem als onderzoeksfocus
Het testen (en niet genereren) van hypotheses en theorieën
Kritisch realisme
Op dit vlak verschillen de kwantitatieve onderzoekers dus niet veel van de kwalitatieve onderzoekers en is het gat tussen beiden misschien niet zo groot als gedacht.
Kwalitatief onderzoek lijkt soms een monopolie te hebben op het bestuderen van betekenissen, omdat alleen zij zou kunnen kijken ‘door de ogen van de mensen die ze bestudeert’. Echter, in kwantitatief onderzoek wordt (met behulp van interviews en vragenlijsten in een ‘survey’) ook gekeken naar attitudes en betekenissen. Critici kunnen hierop reageren met de notie dat die vragen niet echt de betekenis van iets kunnen achterhalen, omdat de vragen gebaseerd zijn op vooraf bepaalde categorieën. Twee punten zijn hier relevant: (1) het is nooit wetenschappelijk gevalideerd dat kwalitatieve onderzoekers wel in staat zouden zijn om de betekenis te bestuderen, en (2) als de vragen zijn gebaseerd op eerdere ondervragingen waarbij geprobeerd werd om alle mogelijke attitudes in kaart te brengen, dan is deze methode misschien zelfs beter in het bestuderen van betekenissen. Ten slotte stelt Marsh (1982) dat respondenten van een ‘survey’ vaak ook gevraagd worden naar de drijfveren voor hun acties. Ook op dit vlak verschillen kwantitatieve en kwalitatieve onderzoekers dus niet zoveel.
Een belangrijk punt binnen het constructivisme is de representaties opdat zij een belangrijke rol spelen in de ‘constructie’ van de sociale wereld (chapter 2 - sociale onderzoeksstrategieën). Kwalitatieve inhoudsanalyse speelt een belangrijke rol in het begrijpen van deze sociale wereld, net als de redevoerende analyse een belangrijke rol speelt in de sociale constructie van gebeurtenissen en betekenissen in krantenartikelen en televisieprogramma’s. Echter, conventionele kwantitatieve inhoudsanalyse kan hier ook heel goed in zijn.
In chapter 17 (kwalitatief onderzoek) werd er een rijtje opgedreund met verschillen tussen kwantitatief en kwalitatief onderzoek. Door deze manier van presenteren kan het zijn dat de verschillen tussen de onderzoeksstrategieën uit proportie gehaald zijn. Een aantal van deze verschillen worden kort besproken om te demonstreren dat het verschil toch niet zo duidelijk is als eerst leek, waarbij het eerste woord van het woordpaar gerelateerd is aan kwantitatief onderzoek en het tweede woord gerelateerd is aan kwalitatief onderzoek:
Gedrag versus betekenis: zoals net al gezegd houdt ook kwantitatief onderzoek zich vaak bezig met het bestuderen van betekenissen met behulp van bijvoorbeeld attitudeschalen (zoals de Likert schaal). Hoewel de kritiek van critici luidt dat dergelijke kwantitatieve technieken niet werkelijk toegang hebben tot betekenissen vanwege het gebruik van vooraf bepaalde categorieën, is het belangrijk dat kwantitatieve onderzoekers in ieder geval regelmatig proberen om toegang te krijgen tot de achterliggende betekenis.
Theorie en concepten getest in onderzoek versus theorie en concepten die voortvloeien uit onderzoek: kwantitatief onderzoek is veel minder gedreven door een hypothesetestende strategie dan automatisch wordt aangenomen. Zo zijn ‘surveys’ ook meer verkennend van aard dan vaak wordt gedacht: concepten worden wel getest, maar de aard van de relaties tussen concepten wordt vaak vooraf niet gespecificeerd. Hierdoor eindigt het onderzoek vaak met mogelijkheden voor het genereren van nieuwe theorieën en concepten.
Aantal versus woorden: kwalitatieve onderzoekers kwantificeren soms ook (‘quasi-kwantificatie’ genoemd) door het gebruik van termen zoals ‘vaak’, ‘veel’, ‘soms’, ‘meestal’ ‘weinig’, enzovoorts. Sterker nog, steeds vaker specificeert de kwalitatieve onderzoeker zulke frequentietermen (zie het kopje ‘kwantificatie in kwalitatief onderzoek’ hieronder).
Kunstmatige setting versus natuurlijke setting. De kwantitatieve onderzoeksinstrumenten (vragenlijsten, gestructureerd interviewen en observeren, enzovoorts) zouden een kunstmatige reflectie geven van hoe de sociale wereld werkt; kwalitatief (vooral etnografisch) onderzoek zou een realistischere weergave geven van dezelfde sociale wereld. Echter, wanneer het kwalitatieve onderzoek gebaseerd is op interviews (semigestructureerd, ongestructureerd en focusgroepen) is het opeens allemaal niet meer zo ‘natuurlijk’ aangezien interviews georganiseerd moeten worden en de geïnterviewden op dat moment niet bezig zijn met hun eigen activiteiten. Ook bij participant observatie kan de onderzoeker een storingsbron zijn waardoor de natuurlijke omgeving haar spontaniteit verliest.
Het punt van deze paragraaf is niet om de verschillen tussen de twee onderzoeksstrategieën weg te wuiven, maar om aan te geven dat de verschillen die er zeker wel zijn niet zo zwart-wit zijn zoals eerdere hoofdstukken hebben doen laten lijken.
Het onderscheid tussen aantallen (kwantitatief) en woorden (kwalitatief) is waarschijnlijk het meest fundamentele verschil wanneer er gedacht wordt aan het onderscheid tussen kwantitatief en kwalitatief onderzoek. Zoals net al aan bod is geweest is kent dit onderscheid geen duidelijke grenzen, omdat kwalitatieve onderzoekers vaak gebruik maken van ‘quasi-kwantificatie’ door het gebruiken van woorden zoals ‘regelmatig’, ‘soms’, ‘vaak’, etc. Daarnaast komt een bepaalde vorm van impliciete kwantificatie ook voor bij de thematische analyse. Hoewel bij de thematische analyse geen sprake is van een bepaalde methode, moet er wel gelet worden op de frequentie van bepaalde incidenten, woorden, symbolen, analogieën etcetera om een thema te kunnen opmerken.
Dit hoofdstuk houdt zich vooral bezig met de volgende drie kernonderwerpen:
Argumenten tegen het integreren van kwantitatief en kwalitatief onderzoek;
De verschillende manieren waarop kwantitatief en kwalitatief onderzoek gecombineerd zijn of kunnen worden;
Een beoordeling van gecombineerd onderzoek waarbij het de vraag is of dergelijk onderzoek superieur is aan onderzoeken die één onderzoeksstrategie gebruiken.
Het ‘gemixte methoden onderzoek’ wordt simpelweg gebruikt voor elk onderzoek dat kwantitatieve en kwalitatief onderzoek integreert binnen één project. De enige voorwaarde waaraan voldaan moet worden is dus dat binnen één onderzoek onderzoeksmethoden van beide strategieën gecombineerd worden.
De meest voorkomende tegenargumenten zijn gebaseerd op (1) het idee dat onderzoeksmethoden bepaalde epistemologische en ontologische toewijding met zich meebrengen (het ingebedde methoden argument), en/of (2) het idee dat kwantitatief en kwalitatief onderzoek twee aparte paradigma’s zijn (het paradigma argument).
Dit argument houdt in dat elke onderzoeksmethode of elke procedure onlosmakelijk verbonden is met een standpunt over hoe de sociale wereld gezien en begrepen kan worden (oftewel, met epistemologische en ontologische posities). Om deze reden zouden de verschillende onderzoeksmethoden niet met elkaar gecombineerd kunnen of mogen worden: de onderzoeker zou dan zijn/haar standpunt verloochenen omdat de methodes niet complementair zijn (Smith, 1983).
Dit argument is sterk verbonden aan het vorige argument. Dit argument stelt dat kwantitatief en kwalitatief onderzoek onverenigbare paradigma’s zijn (Kuhn, 1970) waarin epistemologische aannames, waarden en methoden onlosmakelijk onderling verweven zijn.
Er zijn grofweg twee versies met betrekking tot het debat over het wel (of niet) combineren van kwantitatief en kwalitatief onderzoek:
Een epistemologische versie die, in overeenstemming met het ingebedde methoden argument en het paradigma argument, aanneemt dat beide strategieën onlosmakelijke, onverenigbare epistemologische (en ontologische) posities innemen. Volgens deze versie is het gemixte methoden onderzoek dan ook onmogelijk.
Een technische versie (het standpunt dat door de meeste onderzoekers wordt ingenomen) die stelt dat er sprake kan zijn van een meerwaarde bij het combineren van dataverzameling en data-analyse technieken. Deze versie (h)erkent de verschillende epistemologische (en ontologische) aannames, maar concludeert dat deze niet onoverkomelijk onverenigbaar zijn. In tegenstelling tot de epistemologische versie worden onderzoeksmethoden gezien als autonoom en complementair.
Om de validiteit van de bevindingen te verhogen middels triangulatie. Refereert naar het traditionele standpunt dat kwantitatief en kwalitatief onderzoek gecombineerd kunnen worden om bevindingen als het ware te onderwerpen aan een driehoeksmeting waardoor de bevindingen driedubbel worden bevestigd.
Om zwakke punten van bepaalde methodes te compenseren. Refereert naar het idee dat onderzoeksmethoden van beide strategieën hun eigen sterke en zwakke punten hebben en dat door het combineren het zwakke punt van de ene methode wordt gecompenseerd door het sterke punt van de andere methode.
Vanwege de compleetheid van het onderzoek. Refereert naar het idee dat de onderzoeker een completere beschrijving van het onderzoeksgebied kan geven wanneer zowel kwantitatief als kwalitatief onderzoek wordt gebruikt.
In termen van een proces. Kwantitatief onderzoek geeft een beschrijving van de structuren in het sociale leven, terwijl kwalitatief onderzoek inzicht biedt in het onderliggende proces: de strategieën vullen elkaar aan.
Om verschillende onderzoeksvragen te kunnen beantwoorden. Kwantitatief en kwalitatief onderzoek kunnen beiden andere onderzoeksvragen beantwoorden.
Om bepaalde bevindingen te verklaren. Één van de twee onderzoeksmethoden wordt gebruikt om de bevindingen die gegenereerd zijn met behulp van de andere onderzoeksmethode te verklaren.
In het geval van onverwachte resultaten. Refereert naar het idee dat kwantitatief en kwalitatief onderzoek productief kunnen worden gecombineerd wanneer de ene methode verrassende resultaten opbrengt die begrepen kunnen worden door het gebruiken van de andere methode.
Bij de ontwikkeling van kwantitatieve instrumenten. Refereert naar de context waarbij kwalitatief onderzoek gebruikt wordt om bijvoorbeeld vragenlijsten en schaal items (aspecten van kwantitatief onderzoek) te ontwikkelen zodat de bewoordingen of alomvattendheid van de gesloten antwoorden verbeterd wordt.
Om het nemen van streekproeven (‘sampling’) makkelijker te maken. Refereert naar de situatie waarin de ene methode wordt gebruikt om de ‘sampling’ van respondenten of gevallen voor de andere methode makkelijker te maken.
Om de betrouwbaarheid van de bevindingen te verhogen. Refereert naar het idee dat het gebruik van beide methoden de integriteit ofwel betrouwbaarheid van de bevindingen verhoogd.
Om context toe te voegen aan de kwantitatieve bevindingen. Refereert naar het idee dat kwalitatief onderzoek contextueel begrip oplevert die samengaat met de generaliseerbare, externe en valide bevindingen tussen variabelen die blootgesteld zijn door een kwantitatief (‘survey’) onderzoek.
Ter illustratie van de kwantitatieve bevindingen. Refereert naar het gebruik van kwalitatieve data om kwantitatieve bevindingen te illustreren. Dit wordt ook wel ‘vlees op de botten zetten’ genoemd of ‘droge’ kwantitatieve bevindingen.
Het verhogen van het nut van de bevindingen. Het combineren van de methoden levert meer nut op voor de beoefenaars/lezers.
Het genereren (kwalitatief) en testen (kwantitatief) van hypotheses. Het gebruik van kwalitatieve data om hypotheses te genereren en kwantitatief onderzoek om de hypotheses te testen.
Om de diversiteit van zienswijzen te representeren
Het perspectief van de onderzoeker (met behulp van kwantitatief onderzoek) wordt gecombineerd met het perspectief van de respondenten (met behulp van kwalitatief onderzoek), en:
De relatie tussen variabelen wordt blootgesteld door kwantitatief onderzoek terwijl er betekenis wordt gegeven door kwalitatief onderzoek
Verbeteren / bouwen op kwantitatieve of kwalitatieve bevindingen. Het meer produceren of verhogen van kwantitatieve of kwalitatieve bevindingen
Tegenwoordig wordt het gemixte methoden onderzoek veel meer gebruikt dan vroeger. Deze groei is veroorzaakt door twee factoren. Allereerst is er een toenemende bereidheid om alle onderzoeksmethoden te zien als op zichzelf staande technieken voor de dataverzameling of data-analyse die niet per definitie onlosmakelijk verbonden zijn met epistemologische en ontologische standpunten. Daarnaast zijn feministische onderzoekers minder hard geworden in hun attitude jegens kwantitatief onderzoek (vroeger waren zij streng tegen het gebruik van dit type onderzoek).
Een gemixt methoden onderzoek is niet intrinsiek superieur aan een zogenoemd ‘mono-methode’ of ‘mono-strategie’ onderzoek. Elk onderzoek moet immers vakkundig opgezet en uitgevoerd worden om bruikbare betrouwbare, valide resultaten op te leveren. Het krijgt de voorkeur als de onderzoeker expliciet in de rapportage uitlegt waarom er gekozen wordt voor een gemixt methoden onderzoek. Ook is een gedetailleerde beschrijving van de methodologische gegevens gewenst. Het is de kunst om als onderzoeker het onderzoek niet te zien als bestaande uit veel aparte onderdelen, maar als één geheel. Lang niet alle onderzoekers hebben de vaardigheden en de training om zowel kwantitatief als kwalitatief onderzoek te verrichten en dit kan zeker een barrière vormen bij de integratie van gegevens.
In dit hoofdstuk zullen twee onderdelen van e-onderzoek behandeld worden:
Het Internet als studieobject
Het Internet als middel om individuele data te verzamelen
Er is sinds de jaren ’90 een stijgende interesse voor het bestuderen van het Internet en dan met name voor het bestuderen van websites (websites worden gezien als online document). Dit gaat echter niet zonder beperkingen. In chapter 23 (onder ‘virtuele documenten’) zijn al enkele problemen besproken in termen van Scott’s (1990) vier beoordelingscriteria (authenticiteit, betrouwbaarheid, representativiteit en begrijpelijkheid). Daarnaast introduceert dit hoofdstuk nog enkele aanvullende problemen. Ten eerste moet de onderzoeker met behulp van een zoekmachine (zoals Google) zoeken naar websites die relevant zijn voor zijn/haar onderzoeksvraag. Dergelijke zoekmachines - en zelfs het combineren van meerdere zoekmachines - bieden echter toegang tot slechts een deel van het Internet (dit probleem is dus sterk gerelateerd aan de representativiteit). Hier komt nog bovenop dat dit deel ook nog eens ‘biased’ is. Ten tweede moet de onderzoeker er zich van bewust zijn dat websites continu worden aangepast, aangemaakt of verwijderd en hierdoor zijn/haar analyses gebaseerd kunnen zijn op websites die inmiddels niet meer bestaan of geupdate zijn. Ten derde is het analyseren van websites een nieuw onderzoeksgebied dat heel erg in beweging is, waarbij nieuwe analysemethoden in een rap tempo worden ontwikkeld.
Zoals al eerder is behandeld is er ook een groeiende interesse in het bestuderen van visueel materiaal: deze interesse trekt door tot het analyseren van visueel materiaal op websites. Het is belangrijk dat elke kwantitatieve en kwalitatieve onderzoeker zich bewust is van alle beperkingen en mogelijkheden van het gebruik van websites als onderzoeksfocus.
Naast het bestuderen van websites worden ook andere Internetgebieden gebruikt als studieobject, zoals (1) de berichten die gepost worden op discussiefora, ‘chatrooms’ en andere online gespreksomgevingen, en (2) weblogs. Berichten die gepost worden op discussiefora en ‘chatrooms’ worden vooral bestudeerd voor sociale wetenschappers die geïnteresseerd zijn in gezondheid en gezondheidsgerelateerde onderwerpen. Op deze manier hebben ze toegang tot ziekte-ervaringen en is de data niet beïnvloed door een interviewer. Er zijn uiteraard ook hier wat beperkingen: de toegang tot het Internet kan heel verschillend zijn, de mensen de berichten posten kunnen significant verschillend zijn van de mensen die geen berichten posten, de onderzoeker kan geen gebruik maken van ‘probing’ en er kan slechts een beperkt aantal onderzoeksvragen beantwoord worden met het materiaal uit geposte berichten.
Het Internet of online communicaties (zoals emails) kunnen ook gebruikt worden om individuele data te verzamelen. Binnen dit onderzoeksgebied worden er vier voornaamste soorten onderzoeksmethoden onderscheden:
Online etnografie
Kwalitatief onderzoek met behulp van online focusgroepen
Kwalitatief onderzoek met behulp van online persoonlijke interviews
Online sociale ‘surveys’ (vragenlijstonderzoeken)
Elk van deze methodes heeft vier voordelen ten opzichte van hun traditionele equivalent. Zo zijn al deze online onderzoeksmethoden economischer (tijd en geld wordt bespaart tijdens het uitvoeren van dit onderzoek). Ook kunnen zij makkelijk toegang krijgen tot veel potentiële respondenten. Daarnaast is afstand geen probleem (de respondent kan evengoed komen uit Verweggistan) en ten slotte kan de data heel snel verzameld en geschikt worden. Elke methode heeft maar liefst vijf nadelen. Ten eerste is internettoegang niet universeel dus bepaalde groepen of landen zijn ondervertegenwoordigd. Ten tweede is niet iedereen even handig met het internet dus zal niet iedereen bereid zijn om mee te doen aan een onderzoek. Ten derde kunnen online uitnodigingen om deel te nemen aan een onderzoek snel gezien worden als spam. Ten vierde is er niet langer sprake van een persoonlijk tintje en kunnen er dus geen visuele of auditorische hints tijdens het onderzoek worden opgepikt. Ten vijfde maken online onderzoeksrespondenten zich sneller zorgen met betrekking tot de vertrouwelijkheid van hun data, mede door hun angst voor fraude en hackers.
Met betrekking tot Internetgebaseerde onderzoeksmethoden moeten er twee contrasten gemaakt worden:
Webgebaseerde versus communicatiegebaseerde methodes. Bij een webgebaseerde methode wordt de data verzameld via het Internet zelf, zoals een online vragenlijst op een website. Bij een communicatiegebaseerde methode wordt het instrument online gecommuniceerd, zoals een vragenlijst die via de mail opgestuurd wordt.
Synchrone en asynchrone dataverzameling methodes. Een synchrone dataverzameling vindt plaats op één moment in de tijd, bijvoorbeeld: een online interviewer vraagt een vraag en de respondent die ook op dat moment online is antwoord direct. Bij een asynchrone dataverzameling is er niet sprake van een directe respons van de respondent.
Een online etnografie klinkt bizar, omdat een etnografie wordt geassocieerd met het persoonlijk bezoeken van een gemeenschap of organisatie en er op het eerste gezicht geen sprake lijkt te zijn van zo’n plek op het Internet. Daarnaast wordt een etnografie onder andere geassocieerd met participant observatie, maar hoe werkt dat in een online etnografie? Kendall (19990) gebruikte gedurende drie jaar participant observatie in een MUD (een multiplayer virtuele wereld) en maakte gebruik van werkelijke (‘face-to-face’) interviews en woonde ook werkelijke (‘face-to-face’) bijeenkomsten bij (Type 4, zie hieronder). In de laatste jaren zijn Internetgebaseerde etnografieën vooral gefocust op het bestuderen van online gemeenschappen (zoals een ‘pro-ana’ gemeenschap). De onderzoeker moet dus afstand doen van het idee dat een etnografie alleen plaats kan vinden in de traditionele zin van het woord. De onderzoeker kan tijdens de participant observatie online ook kiezen voor een ‘covert’ of ‘overt’ rol. Daarnaast worden ook Internet documenten bestudeerd, zoals berichten die geplaatst worden op fora of weblogs. Het is vaak de aanwezigheid of afwezigheid van de betrokkenheid van de onderzoeker dit het verschil maakt tussen een pure documentaire kwalitatieve analyse (zoals een thematische analyse van de berichten zonder dat de onderzoeker meedoet) van een virtuele of online etnografische studie (zoals een thematische analyse van berichten waar de onderzoeker zich ook in mengt).
Net als binnen de traditionele etnografie wordt er ook bij de online etnografie onderscheid gemaakt tussen verschillende soorten, hier online interactiestudies genoemd. Onder het bestuderen van de online interactie valt het bestuderen van weblogs, discussiegroepen, fora en andere soortgelijke online interacties van online gemeenschappen.
Type 1: de online interactie bestuderen zonder zelf deel te nemen: de vijandigheid naar ‘outsiders’ en vooral onderzoekers dwingt de onderzoeker soms om onopvallend aanwezig te zijn waarbij hij/zij alleen leest wat gezegd, maar zelf niet participeert (‘lurking’ genoemd). ‘Lurking’ wordt niet gewaardeerd door de meeste leden van een online gemeenschap en kan resulteren en censuur zij die dit vaak doorhebben.
Type 2: de online interactie bestuderen en zelf een beetje deel te nemen: de online interactie wordt bestudeerd terwijl de onderzoeker zich er een beetje in mengt. De onderzoeker is dus niet passief en kan (‘overt’ of ‘covert’) zich bemoeien met en invloed hebben op de geplaatste berichten.
Type 3: de online interactie bestuderen + online of offline interviews: net als type 2, behalve dat de onderzoeker ook online of offline interviews afneemt.
Type 4: de online interactie bestuderen + online of offline interviews + offline onderzoeksmethoden: net als type 3, maar de onderzoeker gebruikt ook actief offline onderzoeksmethodes, zoals het bijwonen van bijeenkomsten. De online gemeenschap moet dus ook offline bestaan.
Het belangrijkste onderscheid is tussen synchrone en asynchrone online focusgroepen. In een asynchrone online focusgroep wordt er veel minder waarde gehecht aan het ‘om de beurt spreken’ dan bij een traditionele focusgroep, aangezien meerdere mensen tegelijkertijd online een reactie kunnen typen op een bericht. Een asynchrone focusgroep wordt gebruikt om het mogelijke probleem van tijdzones te omzeilen en werkt dan vaak via de email. Ook is de asynchrone focusgroep makkelijker voor mensen die niet zo snel kunnen typen.
Het eerste voordeel van beide soorten online focusgroepen is dat de onderzoeker gebruik kan maken van de ‘gesloten populatie’ mensen die al met elkaar communiceren. Een traditionele focusgroep brengt mensen namelijk alleen bij elkaar voor de focusgroep zelf. Hettweede voordeel is dat geografische afstanden niet meer belangrijk zijn. Hierdoor kan er in principe een relatief makkelijk en goedkoop cross-culturele discussie opgezet worden met een internationale focusgroep (hoewel het vanwege de tijdzones moeilijk zal zijn om deze discussie synchroon te maken).
Een nadeel van beide soorten online focusgroepen is de conferentiesoftware die vaak gebruikt wordt. Toegang tot deze software kan lastig worden als de software gedownload moet worden. Deelnemers zijn er vaak niet weg van om iets te downloaden en daarnaast zijn er ook vaak de technische problemen (het programma is misschien niet ‘compatible’ met het besturingssysteem of andere software). Een ander nadeel is dat het kiezen van deelnemers voor de online focusgroepen moeilijk kan zijn. Een beperking van de asynchrone focusgroep is de kans op ‘drop-outs’ of ‘no-responses’ omdat de discussie dagen of zelfs weken kan duren. Het is zoals het er nu naar uit ziet onwaarschijnlijk dat online focusgroepen hun ‘face-to-face’ equivalent zal gaan vervangen.
Het aantal benodigde deelnemers voor de focusgroep wordt beïnvloed door de aard van de focusgroep: zal het synchroon of asynchroon zijn? Volgens Mann en Stewart (2000) moet de synchrone focusgroep niet te groot zijn, omdat het anders moeilijk is voor sommigen om actief deel te nemen en omdat het controleren van de sessie door de ‘moderator’ moeilijker is. In een asynchrone focusgroep zijn deze problemen er niet, hoewel Adriaenssens en Cadman (1999) stellen dat te grote asynchrone focusgroepen problemen kunnen opleveren voor het managen van het onderzoek.
Net als bij het gebruik van focusgroepen zal de onderzoeker hier een afweging moeten maken tussen een synchroon of asynchroon persoonlijk interview. Een aanvullend vraagstuk voor de onderzoeker is of hij/zij in het geval van een asynchroon interview alle vragen in één keer moet sturen of dit pas moet doen als er sprake is van respons. Wanneer alle vragen in één keer worden gestuurd lezen de respondenten ze vaak in één keer door en antwoorden ze alleen op de vragen die zij interessant vinden of waarvan ze denken dat die belangrijk zijn, dus het sturen van één vraag tegelijk is waarschijnlijk betrouwbaarder. Curasi (2001) stelt dat de potentiële respondenten eerder geneigd zijn om deel te nemen wanneer er eerst om hun toestemming wordt gevraagd en daarna de vragen worden opgestuurd. Ook is de kans op deelname groter als de interviewer wat informatie geeft over zichzelf. Curasi (2001) concludeerde ook het volgende:
Er is meer ‘kameraadschap’ tussen de interviewer en geïnterviewde tijdens een ‘face-to-face’ interview;
Een online interview vereist meer toewijding en motivatie van de respondent, maar de antwoorden zijn hierdoor vaak wel gedetailleerder en meer weloverwogen;
De online interviewer heeft vanwege de afstandelijkheid minder impact op het uiteindelijke succes van het interview;
‘Follow-up probes’ kunnen handig zijn in zowel een ‘face-to-face’ als online interview.
Aan de andere kant vond Curasi (2001) ook dat de slechtste interviews (de interviews met de minst gedetailleerde antwoorden) online interviews waren.
Deze discussie tussen online versus ‘face-to-face’ interviews gaat er vanuit dat het interview alleen plaatsvindt in een zogenoemde tekstuele context, De webcam en Skype kunnen echter ook veel mogelijkheden bieden voor synchrone online persoonlijke interviews. Hierdoor wordt een telefoon interview gecombineerd met een ‘face-to-face’ interview, maar hierdoor gaat er één belangrijk voordeel van het online interview verloren: de antwoorden van de respondent zullen ‘transcribed’ moeten worden.
Het is nog maar de vraag of een online vragenlijst gezien moet worden als een gestructureerd interview (zie hoofdstuk 9) of als vragenlijst (zie hoofdstuk 10). In feite is het online vragenlijst een combinatie van beiden. Het belangrijkste onderscheid wat gemaakt wordt is tussen email vragenlijsten (opgestuurd via email) en ‘Web vragenlijsten’ (aangeboden via het internet, zoals op een website). Volgens Sheehan en Hoy (1999) worden de email vragenlijsten meestal gebruikt bij kleinere, heterogene groepen.
(Email vragenlijsten) Binnen de email vragenlijsten wordt er een onderscheid gemaakt tussen de zogenoemde ingebouwde vragenlijst en de bijgevoegde vragenlijst. Bij de ingebouwde vragenlijst worden de vragen in de email zelf gezet. Respondenten geven hun antwoorden op gesloten vragen vaak door een simpele notatie zoals een ‘x’ of ze worden gevraagd om de alternatieven die voor hen niet van toepassing zijn te verwijderen. Bij open vragen wordt er gevraagd om hun antwoord te typen. De vragenlijst wordt weer even makkelijk teruggestuurd door op ‘beantwoorden’ te klikken. Bij een bijgevoegde vragenlijst bevindt de vragenlijst zich in de bijlage. Dezelfde manier van antwoorden wordt gebruikt. Vervolgens moet de vragenlijst weer als bijlage toegevoegd worden in de beantwoordingmail of wordt vriendelijk gevraagd om de vragenlijst uit te printen en per post terug te sturen.
Het grootste voordeel van de ingebouwde vragenlijst is dat het makkelijk is voor de respondent om de vragenlijst terug te sturen en weinig computerkennis vereist. Een nadeel is dat de beperkingen in opmaak van een email het interview saai en karakterloos maken en het typen van antwoorden in een email heel vervelend kan zijn (plus de opmaak die aanwezig is gaat waarschijnlijk ook verloren). Het opslaan, invullen en terugsturen van een bijgevoegde vragenlijst kan voor sommigen een ingewikkelde handeling zijn. Ook kan de software moeilijk doen als de respondent het bestand probeert te openen en soms wil de respondent de bijlage niet openen uit angst voor een virus. Het invullen van de antwoorden in een bijlage (met nette, gepaste opmaak) is echter wel weer makkelijker dan bij een email vragenlijst.
Volgens Dommeyer en Moriarty (2000) vinden respondenten een bijgevoegde vragenlijst mooier, makkelijker in te vullen, duidelijker en beter georganiseerd. Daarnaast concludeerden zij ook dat een email vragenlijst een veel hogere responsratio had (37% versus 8%). Er was vrijwel geen verschil in de tijd die voorbij ging voordat een interview ingevuld werd teruggestuurd of in het aantal overgeslagen (oningevulde) vragen. Er moeten een aantal kanttekeningen gemaakt worden bij dit onderzoek. Allereerst is het onderzoek verricht in een tijd dat online vragenlijsten nog redelijk ongewoon waren. Tegenwoordig zijn de internetgebruikers waarschijnlijk handiger met het internet en minder bang voor een virus (door nieuwere virusscanners) waardoor de responsratio van de bijgevoegde vragenlijst nu hoger ligt. Ook stuurden de onderzoekers direct de vragenlijst als bijlage mee zonder eerst contact te leggen met hun potentiële respondenten: dit wordt meestal niet gewaardeerd en kan ook een nadelig effect hebben gehad op de responsratio van de bijgevoegde vragenlijst.
(Web vragenlijsten) Bij een Web vragenlijst worden potentiële respondenten uitgenodigd om een website te bezoeken waar de vragenlijst online ingevuld kan worden. Een belangrijk voordeel ten opzichte van de email vragenlijst is dat een Web vragenlijst veel meer opmaak mogelijkheden heeft. Ook kan de vragenlijst zo geprogrammeerd worden dat in het geval van een filtervraag (bijvoorbeeld: ‘als u ja heeft ingevuld op vraag 14, ga dan door naar vraag 19’) automatisch de onrelevante vragen worden overgeslagen. De vragenlijst kan zo geprogrammeerd worden dat de respondent slechts één vraag tegelijk ziet of juist alle vragen tegelijk kan zien. Ten slotte kunnen ook de antwoorden van de respondent automatisch in een database gedownload worden waardoor er geen sprake meer is van een tijdrovende handmatige coderingsfase. Één van de grootste nadelen van een Web vragenlijst is dat de onderzoeker heel handig moet zijn met HTML of andere softwareprogramma’s om zo’n aantrekkelijke en geautomatiseerde vragenlijst te programmeren.
Aan de ene kant suggereren meerdere studies (bijvoorbeeld McCabe, 2004) dat de administratiemethode van een vragenlijst (online versus ‘echte’ vragenlijsten waarbij een ‘echte’ vragenlijst refereert naar één die opgestuurd wordt via de post) weinig invloed heeft op de gegeven antwoorden. De gevonden verschillen zouden klein en verwaarloosbaar zijn. Aan de andere kant zijn er ook onderzoeken (zoals Heerwegh & Loosveldt, 2008 en Wolfe en collega’s, 2008) die stellen dat Web respondenten (1) eerder geneigd om te antwoorden met ‘ik weet niet’ (2) minder differentiëren op de antwoordschalen, en (3) er vaker niet in slagen om individuele vragen of items in beoordelingsschalen te beantwoorden. Dit suggereert juist dat de twee versies niet alleen een andere respons teweeg kunnen brengen, maar dat ook de kwaliteit van een Web vragenlijst slechter kan zijn. Hoewel het vaak aangeraden wordt om de respondent de mogelijkheid te bieden om de vragenlijst online in te vullen, moet de onderzoeker zich wel bewust zijn van de mogelijke beperkingen (waaronder een slechtere kwaliteit bij Web vragenlijsten). Deze beperkingen zijn echter nog lang niet goed genoeg onderzocht en er moet dus niet te zwaar aan worden getild.
Bij het selecteren van een online steekproef is het een groot probleem dat niet iedereen in elk land online is en dat niet iedereen technisch handig genoeg is om te kunnen omgaan met (email of Web) vragenlijsten. Internetgebruikers zijn een ‘biased’ steekproef van de populatie opdat de beter opgeleiden, rijkere, jongere en bepaalde etnische groepen meer toegang hebben tot het Internet. Daarnaast hebben mensen vaak meer dan één email adres en heeft een huishouden soms maar één computer maar meerdere gebruikers. Om al deze redenen is het moeilijk om gebruik te maken van een waarschijnlijkheidssteekproef. Hier moet wel bij gezegd worden dat dit afhankelijk is van de gewenste steekproef: voor onderzoekers die bijvoorbeeld een vragenlijstonderzoek willen uitvoeren binnen organisaties is er wel de mogelijkheid om gebruik te maken van een waarschijnlijkheidssteekproef (vrijwel alle organisaties zijn online en iedereen daarbinnen is hoogstwaarschijnlijk genoeg vaardig met betrekking tot het Internet). Bij het gebrek aan een ‘sampling frame’ (wat vaak het geval is) wordt een uitnodiging voor deelname aan het vragenlijstonderzoek geplaatst op relevante online plekken, zoals discussiegroepen, maillijsten of websites. De representativiteit van de steekproef die hierdoor tot stand komt zal nooit te achterhalen zijn.
Een ander belangrijk aspect bij het selecteren van een online steekproef is de non-respons. Het bewijs stapelt zich op dat een online vragenlijst een 11% lagere responsratio heeft dan een ‘echte’ vragenlijst (deze numerieke waarde komt uit een grote meta-analyse van Manfreda en collega’s uit 2008). De responsratio kan verhoogd worden door twee simpele strategieën op te volgen:
Neem contact op met de potentiële respondenten voordat je de vragenlijst opstuurt (dit is een kwestie van zogenoemde ‘netiquette’);
Maak (net als bij ‘echte’ vragenlijsten) gebruik van minstens één ‘follow-up’. Geef dus niet op wanneer je aanvankelijk niks terughoort van de respondent, maar ga er achterna. 9 van de 10 keer beloont dit zichzelf.
De voordelen en nadelen van een online vragenlijst ten opzichte van een ‘echte’ per post opgestuurde vragenlijst zijn als volgt:
Voordelen:
ze zijn goedkoper
er is een snellere respons
de lay-out is aantrekkelijker
de respondent kan zelf de administratiemethode kiezen (online of per post)
er zijn vrijwel geen geografische grenzen
er zijn minder onbeantwoorde vragen / missende data
er is een betere (gedetailleerdere) antwoorden op open vragen
de accuraatheid van de data is beter, vooral bij Web vragenlijsten, omdat de onderzoeker de antwoorden niet hoeft te coderen.
Nadelen:
er is een lagere responsratio
de onderzoeker moet zich beperken tot online populaties
het kan zijn dat de respondent meer motivatie nodig heeft om de online vragenlijst in te vullen als er sprake is van een bezette telefoonlijn of betaalde connecties
de respondent maakt zich meer zorgen over de vertrouwelijkheid en anonimiteit waarmee de gegevens worden behandeld
Er zijn enkele specifieke ethische problemen als de onderzoeker gebruik maakt van E-onderzoek. Allereerst is het gebruik van het Internet in het sociale onderzoek ‘booming business’ en wordt er dus ontzettend veel onderzoek verricht op deze manier. Dit kan resulteren in ‘fatique’ van de internetgebruikers. Daarnaast zijn de internetgebruikers wantrouwend tegenover dit type onderzoek, omdat zij bang zijn voor virussen of omdat ze bang zijn dat hun gegevens gehackt zullen worden en ze voortaan veel spam moeten gaan verwijderen (de respondenten kunnen hier niet tegen beschermd worden).
Bij het opschrijven van het onderzoek is het belangrijk om op tijd (vroeg!) te beginnen, overtuigend te schrijven, gebruik te maken van feedback op eerdere versies, seksistische racistische of anderszins denigrerende taal te ontwijken, de rapportage duidelijk te structureren en de onderzoeksvragen helder te formuleren. Het goed kunnen opschrijven van het onderzoek is waarschijnlijk net zo belangrijk als het goed uitvoeren van het onderzoek. De rapportage van onderzoek is meer dan simpelweg het rapporteren van de bevindingen: rapportages zijn bedoeld om de lezers te overtuigen. Zorg er ook voor dat je getraind ben in het academisch schrijven, dus verdiep je eerst goed in de manier waarop andere artikelen zijn geschreven voordat je zelf begint met schrijven. Het is een veelgemaakte fout dat beginnelingen alles van hun onderzoek willen opschrijven, door verdieping en ervaring zullen zij een juiste balans moeten leren tussen relevante en onrelevante gegevens.
De meest gebruikte manier van het opstellen van een rapportage is om te beginnen met een titelpagina, de dankbetuigingen, een inhoudsopgave en een abstract (korte samenvatting van de rapportage). Vervolgens volgt (1) de introductie waarin goed naar voren moet komen waarover het verslag zal gaan en waarom dit belangrijk is. Ook wordt de relevante theorie / literatuur besproken. Verklap ook vast in algemene termen het perspectief wat jij zal gebruiken (en waarom) en specificeer op het eind de onderzoeksvragen. De inleiding heeft een trechtermodel: begin breed met algemene theorieën of een algemene probleemstelling (maar wel iets wat de aandacht pakt van de lezer) en eindig smal met het specificeren van jouw onderzoeksvragen. Daarna volgt (2) de methoden sectie waarin de onderzoeksmethoden worden toegelicht en wordt aangegeven wie de respondenten waren (hoeveel, hoe zijn ze geworven, wat zijn de demografische eigenschappen, enzovoorts). De methoden sectie worden opgevolgd door (3) de resultatensectie waarin de resultaten kort maar duidelijk (met behulp van visuele hulpmiddelen) worden gepresenteerd, en (4) de discussie waarin de resultaten pas worden geïnterpreteerd! In de discussie worden de specifieke resultaten weer teruggezet in een groter verband. Met andere woorden, hier is sprake van een omgekeerd trechtermodel, omdat de specifieke bevindingen teruggekoppeld worden naar de brede theorie / literatuur. Na de discussie volgt er vaak nog (5) een conclusie. Let op: een conclusie is hier niet hetzelfde als een samenvatting. Het is belangrijk dat in de conclusie duidelijk wordt wat de onderzoeker de lezer wilt meegeven. De implicaties van de eigen bevindingen kunnen hier aangekaart worden net als de sterke en zwakke punten van het onderzoek (pas op dat je het eigen onderzoek niet afkraakt: kritisch is goed, maar overdrijf niet). Ook zijn suggesties voor toekomstig onderzoek hier op zijn plek.
Bij het opschrijven van kwantitatief onderzoek wordt de volgende structuur aangehouden:
Introductie
Theorie
Data
Metingen
Methoden en modellen (technisch!)
Resultaten
Conclusie
Bij het opschrijven van kwalitatief onderzoek is de structuur net wat anders:
Introductie
Achtergrond
Methoden
Bevindingen
Discussie
Conclusie
Wanneer gebruik wordt gemaakt van een gemixte methoden onderzoek moet dit expliciet aangegeven worden in het artikel en onderbouwd worden waarom juist gekozen is voor deze aanpak.
Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>
There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.
Do you want to share your summaries with JoHo WorldSupporter and its visitors?
Main summaries home pages:
Main study fields:
Business organization and economics, Communication & Marketing, Education & Pedagogic Sciences, International Relations and Politics, IT and Technology, Law & Administration, Medicine & Health Care, Nature & Environmental Sciences, Psychology and behavioral sciences, Science and academic Research, Society & Culture, Tourisme & Sports
Main study fields NL:
JoHo can really use your help! Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world
4131 | 2 |
Add new contribution