Join with a free account for more service, or become a member for full access to exclusives and extra support of WorldSupporter >>
Deze samenvatting is gebaseerd op het studiejaar 2013-2014.
College 1: Sublexicale processen
‘Taal’ klinkt best wel simpel, iedereen maakt er vrij moeiteloos gebruik van. Er zitten echter heel veel complexe stappen tussen het ‘consumeren’ van taal en het daadwerkelijk begrijpen van wat er bedoeld wordt. Er worden bij gesproken taal heel veel woorden in korte tijd aangeboden, die je allemaal moet ophalen uit je geheugen. De snelheid van klanken die geproduceerd worden bij gesproken taal en die je moet identificeren is al helemaal lastig. Ons taalsysteem is echter in eerste instantie begonnen als een gesproken taalsysteem, dus het lijkt voor de hand liggend dat we hier op aangepast zijn. Je kunt spraak bijvoorbeeld niet terugspoelen, dus de verwerking moet in een hoog tempo gebeuren.
Er zijn diverse processen die je moet uitvoeren bij het begrijpen van een zin. Je moet individuele woorden kunnen onderscheiden. Je moet de trillingen die via je oren binnenkomen omzetten in woorden. Je moet uit het lexicon, waar bij de gemiddelde mens zo’n 50.000 woorden in zitten (en bij wetenschappelijk opgeleiden wellicht nog een stuk meer, tot wel 250.000 woorden), het juiste woord selecteren. Je moet die woorden van elkaar kunnen onderscheiden, die niet zoals bij geschreven taal simpelweg met een spatie van elkaar worden onderscheiden. Dan moet je eventuele toevoegingen (zoals verkleinwoorden of meervoud) van woorden onderscheiden. Ook moet de plaats van het woord in een zin in beschouwing worden genomen, de grammatica doet er veel toe. Dan moet je een zin nog kunnen toepassen in jouw achtergrondkennis, die je meteen paraat moet hebben. Zinnen worden meestal gepresenteerd in een bepaalde context waaraan gerefereerd moet worden.
Fonologische kennis
Een foneem is het allerkleinste betekenisvolle onderdeel van taal. Tussen bom of boom zit een verschil, namelijk de klank ‘o’ of ‘oo’. Als je een foneem in een woord verandert, verandert de betekenis van een woord (het wordt niet altijd een ander woord, soms wordt het een betekenisloze sequentie van klanken). Deze fonetische verschillen gelden niet voor iedere taal. Andere talen hebben soms weer andere verschillen, die voor ons niet betekenisvol lijken. Als een foneem in jouw moedertaal niet voorkomt, is het soms moeilijk om verschillen te ontdekken. Zo is er bijvoorbeeld in het Japans geen onderscheid tussen de ‘l’ en de ‘r’, waar voor ons toch een zeer duidelijk verschil is. In het Nederlands wordt onderscheid tussen fonemen gemaakt op de plaats en manier van articulatie, de positie van de tong en het wel of geen stem hebben van een bepaalde klank.
De daadwerkelijke spraakrealisatie heeft een enorme variatie, afhankelijk van onder andere het geslacht, de leeftijd en het accent van de spreker. Mensen zijn in staat om die verschillen op de een of andere manier op te heffen, zodat woorden onderscheiden en herkend kunnen worden ondanks dat ze op heel verschillende manieren worden uitgesproken. Ook binnen een spreker kan er nog weer variantie onstaan. Verschillende combinaties van fonemen leiden tot verschillende klanken. Het gewoon achter elkaar plakken van fonemen werkt niet. De klanken hebben invloed op elkaar, omdat je mond zich moet vormen naar de voorafgaande en daaropvolgende fonemen. Zo is er een verschil in de eerste ‘k’-klank tussen ‘kiek’ en ‘koek’. Mensen horen alleen absolute verschillen en horen dat niet op een continuüm. Dat wordt ook wel categorische perceptie genoemd. Dit is een essentieel onderdeel van hoe wij klanken kunnen waarnemen. Als we dat niet zouden hebben, zouden we veel meer moeite hebben met verschillende sprekers en hoe zij dingen uitspreken. Dit is dus de oplossing voor het ‘lack of invariance’-probleem. In verschillende talen zijn er verschillende phoneme boundaries.
Er zijn veel klanken die erg op elkaar lijken, en waar veel mensen moeite mee hebben om die van elkaar te onderscheiden. Dit worden allofonen genoemd. Een voorbeeld is het verschil tussen het Engelse ‘bad’ en ‘bed’. Je kunt onderzoeken of een baby het verschil kan horen tussen twee klanken door hem een aantal keer een bepaalde klank te laten horen en hem vervolgens een nieuwe, andere klank aan te bieden. Baby’s die een stimulus interessant vinden gaan harder zuigen (wat je kan meten met een speciaal apparaatje, met de high amplitude sucking method). Als een baby gewend raakt aan een stimulus, zal de zuigfrequentie omlaag gaan. Als een baby het verschil kan horen tussen twee klanken, zal hij hernieuwde interesse hebben en zal de zuigfrequentie omhoog gaan. Uit dergelijk onderzoek is gebleken dat baby’s tot 3 maanden verschillen kunnen horen tussen klanken waartussen in de moedertaal geen verschil wordt gemaakt. Bij baby’s vanaf 4 maanden zie je deze verschillen niet meer. Baby’s leren dus al op heel jonge leeftijd waar de foneemgrenzen liggen. Dit kun je op latere leeftijd nog wel een beetje aanleren, maar dat is wel een stuk lastiger (probeer een Japanner maar eens het verschil tussen een ‘r’ en een ’l’ te leren).
In taalonderzoek wordt vaak gebruikgemaakt van de lexicale decisietaak: beslis zo snel mogelijk of een stimulus wel of geen woord is. Mensen zijn sowieso sneller in beslissingen die wel een bestaand woord bevatten. Dit heeft waarschijnlijk te maken met de manier waarop je door je lexicon gaat (omdat nonwoorden niet in het lexicon zitten duurt dat dus langer). Wanneer de target semantisch gerelateerd is aan de prime, zijn mensen ook sneller in hun beslissing.
Hoe activeren wij fonemen? Als er eigenschappen van het ene foneem overeenkomen met een ander foneem, kun je ze dan beide activeren? Prevoicing-onderzoek van Alphen & McQueen (2006) stelt dat ‘boot’ wel een prevoice heeft, maar ‘poot’ niet. De duur van een prevoice blijkt niet relevant te zijn, maar de aan- of afwezigheid daarvan wel. Als je echter de voice-onset reduceert tot nul, hoor je bewust nog gewoon ‘beer’ maar ben je wél sneller in de activatie van ‘peer’. Er zit dus nog een extra laag van complexiteit in het systeem. Er ontstaat dan competitie: beide stimuli zijn geactiveerd, dus je weet niet precies wat je nou eigenlijk hoort. Hieruit kan geconcludeerd worden dat fonemen gradueel geactiveerd worden.
In gesproken taal zitten nauwelijks stiltes tussen woorden. Daarom is het voor mensen die de taal niet spreken moeilijk om af te leiden wanneer een woord begint en eindigt. Als je de woordgrenzen niet kunt waarnemen, kun je de woorden niet goed opzoeken in het lexicon. Toch kunnen wij gesproken taal goed begrijpen. We gebruiken natuurlijk de betekenis van woorden, maar ook klemtonen, toonhoogten, intonaties, fonetische cues (bepaalde klanken kunnen elkaar niet opvolgen) en transitional probabilities: wij zijn heel goed in het extraheren van regelmatigheden in onze omgeving en daarom in het bepalen welke klanken vaak samen voorkomen en welke niet. Daarnaast zijn er nog taalspecifieke eigenschappen zoals het ritme van een taal.
College 2: Woordherkenning
We geven betekenis aan een ‘random’ sequentie van letters of klanken die we waarnemen. Die betekenis halen we op uit ons brein en/of de betekenis bestaat in de wereld. De betekenis zit bijna nooit in het woord zelf, deze is arbitrair. Er zijn wel enkele onomatopeeën, woorden die direct afgeleid zijn uit hoe ze klinken, zoals bijvoorbeeld een koekoek.
We moeten visuele en/of akoestische informatie matchen aan een betekenis die opgeslagen ligt in het lexicon. Het autonomous search model van Forster gaat ervan uit dat ieder woord is gerepresenteerd in een bepaalde ‘acces file’ (orthografisch, fonologisch en syntactisch/sematisch) die mensen serieel moeten doorzoeken, als in een soort woordenboek. Dit zou echter veel te lang duren, gezien de enorme hoeveelheid woorden die wij kennen en die snelheid waarmee we woorden kunnen herkennen. Het idee van parallelle activatie van woorden (spreading activation) vormt een betere verklaring. Voor dit idee zijn verschillende modellen opgezet, die allemaal behoorlijk op elkaar lijken maar op enkele details verschillen. Deze modellen gaan ervan uit dat er parallelle, incrementele activatie optreedt. Spraak komt serieel binnen, dus kan er serieel gezocht worden. De eerste letter ‘b’ activeert een hele hoop woorden die beginnen met een ‘b’ (bang, biefstuk, brood, brief). Wanneer de tweede klank binnenkomt, bijvoorbeeld een ‘r’, vallen er een aantal woorden af en blijven er een aantal over (brood, brief). Dit gaat zo voort totdat het betreffende woord gevonden is (alle woorden zijn tenslotte uniek).
Er zijn een aantal effecten die een belangrijke rol spelen in woordherkenning:
- Het frequentie-effect geeft weer dat woorden die vaker voorkomen in een taal sneller herkend en benoemd worden. Dit komt wellicht doordat er een bepaalde basisactivatie is voor hoogfrequente woorden, omdat er een grotere kans is dat die woorden voorkomen.
- Het repetitie-effect stelt dat wanneer er een bepaald woord een tweede keer in korte tijd wordt aangeboden, het dan sneller herkend wordt. Dit komt waarschijnlijk doordat de activatie van een woord niet meteen weer terugvalt naar de basis, maar langzaam uitdooft. De threshold tot activatie is daarom sneller bereikt.
- Het neighborhood-effect stelt dat de herkenninstijd van een woord afhankelijk is van het aantal woorden dat lijkt op het stimuluswoord. Wanneer er veel woorden zijn die op het stimuluswoord lijken, duurt het langer voordat dat woord herkend wordt.
- Het semantisch-priming-effect stelt dat wanneer een woord vooraf wordt gegaan door een woord dat daar semantisch aan gerelateerd is, dat woord sneller herkend wordt. Het woord ‘wind’ zal bijvoorbeeld sneller herkend worden wanneer dat wordt voorafgegaan door het woord ‘storm’ dan wanneer dat wordt voorafgegaan door het woord ‘brood’.
De uiteindelijke selectie van de beste kandidaat uit het lexicon vormt het basisprincipe van woordherkenningsmodellen. Er wordt van uitgegaan dat woorden gelinkt zijn aan heel veel andere woorden, waardoor woordclusters ontstaan die onderling met elkaar zijn verbonden en waardoor de spreading activation heel snel kan gaan.
De selectie van de beste kandidaat kan nog wel eens leiden tot competitie. McQueen, Norris en Cutler (1994) hebben een experiment opgezet waarbij proefpersonen woorden moesten ‘spotten’. Zij kregen een reeks klanken te horen en moesten op een knop drukken als zij dachten een woord te horen. Proefpersonen waren langzamer met reageren wanneer de klank die volgde op een eerdere klank kon bijdragen aan het vormen van een langer woord. Er ontstaat dan inhibitie van minder succesvolle kandidaten. Wanneer de klank ‘sak’ werd gevolgd door de klank ‘rif’, zou dat kunnen leiden tot het woord ‘sacrifice’. Wanneer ‘sak’ gevolgd werd door de klank ‘rof’, waren proefpersonen sneller in het herkennen van het woord ‘sack’ dan in het eerste geval.
Het cohortmodel gaat uit van drie niveaus:
- Access is de activatie van woordkandidaten in het lexicon op grond van een fonetische match met het eerste deel van de akoestische input en de context. Dit proces is mogelijk top-down.
- Selection houdt in dat er één woord overblijft op grond van de akoestische input en de context.
- Integration houdt in dat de betekenis van het geselecteerde woord geactiveerd wordt en geïntegreerd wordt in de betekenis van de voorafgaande context.
Top-down effecten zijn altijd laat, bottom-up effecten zijn altijd vroeg.
Modulaire modellen stellen dat de context minder van invloed is op woordherkenning, interactieve modellen stellen dat de context wel van invloed is op woordherkenning. Als dit laatste het geval is, rijst de vraag wanneer deze interactie dan plaatsvind: voordat het kritieke woord begint (voorspellen), tijdens de verwerking van sensorische input, of nadat je het woord al hebt herkend? Warren en Warren (1970) hebben een onderzoek gedaan waarbij zij gebruikmaakten van phoneme restauration: één foneem in een woord wordt vervangen door betekenisloze ruis. Mensen blijken dat foneem te ‘horen’ wanneer de context voldoende restrictief is. Als je bijvoorbeeld het foneem ‘i‘ weghaalt uit ‘onmiddellijk’, horen mensen gewoon ‘onmiddellijk’. In het onderzoek werden zinnen aangeboden die identiek waren aan elkaar, met uitzondering van het laatste woord van de zin. Afhankelijk van dat laatste woord hoorden deelnemers ofwel ‘peel’, ofwel ‘wheel’, ofwel ‘heel’. Het woord aan het einde van de zin kan geen daadwerkelijke invloed hebben gehad op wat mensen hoorden bij ‘*eel’. Dit is geen evidentie voor een interactief model, maar suggereert wel dat mensen heel goed zijn in het doen van voorspellingen en aanvullingen achteraf zonder dat we dat doorhebben. Het onderzoek van Warren en Warren vormt dus steun voor het idee dat de context van invloed is nadat je het woord hebt herkend.
Mensen zijn goed in het voorspellen van woorden in een zin. Zinnen kunnen soms echter ook anders gaan dan je had verwacht. Ook dan heb je geen problemen met het verstaan en begrijpen van de zin.
College 3: Zinsbegrip
Om taal te begrijpen moet je niet alleen de losse woorden herkennen, je moet die woorden ook met elkaar kunnen samenvoegen en in verband kunnen brengen om tot een coherente boodschap te komen. We hebben eigenlijk vrij weinig expliciete kennis over grammatica in een zin, maar we zijn prima in staat om een zin als ‘De olifant vermorzelde de man’ te ontleden en te begrijpen dat de olifant de man vermorzelde en niet andersom. Wij zijn dus goed in de syntactische analyse (parsing) van de zin.
Het immedeacy principle stelt dat er meteen bij de eerste input gestart wordt met het ontleden van de zin. Als een zin begint met ‘de’, interfereer je dat erna een zelfstandig naamwoord-zinsdeel komt. Intuinzinnen (garden path sentences) zijn zinnen die op een bepaalde manier lijken te gaan verlopen, maar toch anders zijn dan je in eerste instantie verwachtte, zoals bijvoorbeeld ze zin ‘Ik sloeg meermaals de man met de wandelstok’. Je wacht meestal niet tot het einde van een zin om een syntactische interpretatie te maken, wat soms kan leiden tot onverwachte einden. De syntactische inpassing gebeurt per woord.
Over hoe wij de syntactische analyse van zinnen aanpakken zijn verschillende ideeën. De late closure strategy stelt dat je binnenkomende elementen zo snel mogelijk moet hechten aan wat er vlak daarvoor binnenkwam. Je sluit een element pas af als dat per se noodzakelijk is, waarschijnlijk heet het daarom ‘late closure’. Wanneer er ambiguïteit is sluit je het nog niet af. De minimal attachment strategy stelt dat we het liefst zo min mogelijk complexiteit willen. Je wil zo min mogelijk syntactische knopen hebben, daarom pas je nieuw binnenkomende info zo snel mogelijk in in bestaande knopen.
Syntax en semantiek staan als regels los van elkaar. Je kunt grammaticaal correcte zinnen hebben die volledig betekenisloos zijn (‘Het groene idee loopt zich woedend het slijm uit de sloffen’), en grammaticaal incorrecte zinnen die een hele duidelijke betekenis hebben (‘Ik jou haten’). Zijn syntax en grammatica dan in het dagelijks taalgebrip aparte systemen of interacteren die met elkaar? Als je uitgaat van een modulaire benadering, zou er een speciale ontleed-module moeten zijn die onafhankelijk is van andere taalbegripsprocessen. Bij een interactieve benadering ga je ervan uit dat alle kennis zo snel mogelijk wordt geactiveerd en gebruikt. Constraint-based modellen gaan uit van het idee dat mensen bepaalde constraints hebben in hun taalbegrip. Er zijn lexicale constraints, die uitgaan van kennis over de wereld. Zo laat zalm over het algemeen niets los. Daarnaast zijn er constraints uit bredere discourse, en pragmatische kennis. Als er twee paarden zijn wil je weten over welk van de twee paarden je het hebt. Betekenis wordt dus meteen meegenomen, aldus de constraint-based modellen.
Crain en Cooker toonden in 1970 aan dat mensen zich dingen herinneren op basis van wat er normaal gesproken zou gebeuren. Als je hen de zin geeft ‘De bloemist kreeg de bloemen’ of de zin ‘De directeur kreeg de bloemen’, herinneren zij zich vaker dat de de directeur de bloemen opgestuurd kreeg dan de bloemist, waarschijnlijk omdat bloemisten in het dagelijks leven niet vaak bloemen krijgen. Dit onderzoek infereert dit echter wel op basis van geheugen en niet op basis van wat er op het moment van taalverwerking gebeurt. Friederici en Mecklinger (1996) hebben onderzocht of constraints invloed hebben op hoe wij verwachten hoe een zin zal lopen. Wanneer de betekenis van de zin meespeelt, vind je bepaalde zinseinden meer of minder verrassend. De P600-piek in EEG-metingen is specifiek gevoelig voor syntactische fouten. Op het moment dat je een grammaticale fout waarneemt, krijg je na 600 ms een positieve piek in de EEG-metingen. Mensen hebben voorkeur voor de minimal attachment strategy. Dit wijst erop dat het een modulair systeem is. Mensen kiezen automatisch voor de gemakkelijke syntactische analyse. Conclusie: semantiek heeft geen effect op syntactische analyse.
Een kritiekpunt hierop is dat de zinnen die in het onderzoek gebruikt zijn, eigenlijk zo opgebouwd zijn dat het voor de ontvanger onmogelijk is om van strategie te wisselen, omdat de ambigue informatie pas heel laat in de zin komt. Wellicht zijn er toch zinnen te bedenken waarbij de lexicale infomatie wel eerder te gebruiken is. Mak, Vonk en Schriefers (2002) boden informatie aan die duidelijk wijst op een object clause al vroeg in een zin. Levende dingen die activiteiten ontplooien zijn vaak logisch (animacy), maar niet-levende dingen kunnen dat niet. Daar hebben de onderzoekers gebruik van gemaakt, zodat de zinnen niet ‘minder waarschijnlijk’ waren maar gewoonweg onmogelijk. Er zijn dus hele sterke lexicale constraints. De onderzoekers maten de oogbewegingen die de mensen maakten terwijl ze zinnen lazen. Mensen kijken vaak even terug naar een stuk van de zin om te kijken of hun syntactische analyse wel helemaal juist is. De eerste bevinding komt overeen met wat Friederici en collega’s gevonden hebben. Wat je weet over een situatie heeft geen invloed, je kiest voor de minimal attachment strategy. Bij een sterke lexical constraint passen mensen niet het immediacy principle toe, maar kiezen zij op basis van de informatie die zij hebben voor een minder makkelijke syntactische structuur. Werkwoorden worden even makkelijk verwerkt. Het gebruik van animacy geeft een eerdere en sterkere bias. Niet alle subtiele hints worden meegenomen, maar semantiek wordt wel meegenomen in grammaticale verwerking.
Semantiek beïnvloedt dus de syntactische analyse. Beïnvloedt de syntactische analyse dan ook hoe wij de semantiek van een zin waarnemen? Hagoort en collega’s lieten mensen in een fMRI-scanner zinnen zien waarin tegelijkertijd een syntactische en semantische fout stonden. Er is een grotere N400 voor semantische fouten, en een grotere P600 voor de syntactische analyse van de zin. Heeft het feit dat er een syntactische fout voorafgaat aan een semantische fout invloed op de semantische verwerking? Er is een grotere N400 voor zinnen met een semantische fout dan voor zinnen met een syntactische fout en voor een correcte zin. In de gecombineerde situatie was nog grotere N400! Semantische informatie kan dus worden beïnvloed door syntactische fouten. Voor de P600 maakt dit niet zo veel uit: syntactische fouten worden wellicht zonder semantische informatie verwerkt.
‘Ik ben niet ziek’ is de letterlijke, syntactische structuur en betekenis van de zin: surface form. De deep structure is de representatie van de betekenis van de zin alleen. Wanner (1974) stelde dat wanneer de betekenis van een zin niet beïnvloed wordt door de volgorde van een paar woorden in een zin, je de precieze zin minder goed onthoudt dan wanneer de volgorde daarop wel van invloed is. Betekenis is dus niet verbatim (letterlijk), maar gaat om de deep structure. Proposities zijn de kortste taaleenheden die beoordeeld kunnen worden op ‘waar’ of ‘niet waar’. Zijn proposities de basis van geheugen? Zo ja, dan zouden zinnen met meer proposities moeilijker te begrijpen en te onthouden zijn. Kintsch (1974) presenteerde zinnen die op twee dimensies verschillen: op het aantal inhoudswoorden en het aantal proposities, proefpersonen moesten de zinnen onthouden. Uit de resultaten bleek dat het aantal woorden er niet toe doet, maar dat zinnen met meer proposities moeilijker te onthouden zijn. Als zinnen per propositie worden opgeslagen, zouden delen van een propositie samen moeten worden opgeslagen. Om dit te onderzoeken ontwikkelden Ratcliff & McKoon (1978) een lexicale decisie taak met verschillende prime-target relaties tussen de condities. Wanneer de prime uit de ene propositie komt en de target uit een ander, verwacht je dat de reactietijd langer is dan wanneer de prime en target uit eenzelfde propositie komen. Dit bleek het geval te zijn. Het lijkt er dus inderdaad op dat twee woorden uit dezelfde propositie nauwer met elkaar verbonden zijn.
College 4: Discourse-begrip
Om taal te begrijpen moet je woorden kunnen begrijpen en begrijpen hoe woorden zich tot elkaar verhouden in een zin. Zinnen komen bijna nooit alleen voor, ze zijn vrijwel altijd onderdeel van een geheel: discourse. Hoe refereren woorden in een zin terug aan wat je eerder hebt gehoord? Is de service-boodschap van een zin in een keer coherent? We streven als luisteraars naar zo veel mogelijk cohesie in een verhaal, waar we een aantal hulpmiddelen bij gebruiken.
Referentiele ambiguïteit
Een anaphor is een woord dat terugverwijst naar iets of iemand die eerder in de discourse is benoemd. Taalonderzoek richt zich regelmatig op wat er gebeurt als een verwijzend woord ambiguïteit oproept, als het niet helemaal duidelijk is waar dat woord naar terugverwijst. In de zin ‘Ronald vertelde Emily dat hij een positieve instelling heeft’ is het duidelijk dat het woord ‘hij’ op Ronald slaat. In de zin ‘Ronald vertelde Frank dat hij een positieve instelling heeft’ is het niet duidelijk of het woord ‘hij’ op Ronald of op Frank slaat. Nieuwland et al. (2007) ontdekten dat wanneer mensen referentieel ambigue zinnen lezen er frontale activiteit optreedt. Dit is een patroon van hersengebieden dat actief wordt bij probleemoplossen. Het lijkt erop dat proefpersonen erachter proberen te komen wat het meest logisch is: Ronald of Frank. Eberhard et al. (1995) maten oogbewegingen van mensen die zinnen hoorden terwijl ze naar afbeeldingen kijken. Mensen lijken automatisch te kijken naar waar zij denken dat de zin over gaat. Als er sprake is van ambiguïteit in de referentie, gaan mensen zo snel mogelijk op zoek naar disambiguerende informatie. Hieruit kan geconcludeerd worden dat mensen zo snel mogelijk, dus al tijdens het luisteren of lezen op zoek gaan naar disambiguerende informatie, en niet pas nadat de zin volledig is uitgesproken of gelezen.
Syntactische ambiguïteit
Hetzelfde kan gesteld worden voor zinnen die syntactisch ambigu zijn. Wanneer een zin anders loop dan je zou verwachten, is er een groter P600-effect. Mensen prefereren blijkbaar ‘simpelere’ zinnen, zoals ‘Sneeuwwitje zei het dwergje dat er harder gewerkt moest worden’ boven syntactisch complexere zinnen als ‘Sneeuwwitje zei het dwergje dat had zitten niksen dat er harder gewerkt moest worden’.
De invloed van referentiële context
Wij gebruiken onze kennis over de wereld en context onmiddellijk bij de interpretatie van zinnen die iemand uitkraamt. De wereld is eigenlijk één grote discourse. Hagoort et al. (2004) lieten dit zien met een klassiek N400-experiment. Zowel de zin “Nederlandse treinen zijn zoet” (duidelijk semantisch niet kloppend) als de zin “Nederlandse treinen zijn wit” (niet kloppend aan de hand van kennis van de wereld, maar in principe niet onmogelijk) roepen een groot N400-effect op. Een mismatch met kennis van de wereld is dus vergelijkbaar met een mismatch met semantische kennis. Het N400-effect is wel ietsje kleiner voor de witte treinen, het lijkt alsof mensen dat iets minder erg vinden. De onset van de respons is hetzelfde, dus de informatie is wel gelijktijdig beschikbaar.
Woorden die niet passen in een bepaalde context roepen een groter N40-effect op. Ook zinnen die semantisch onwaarschijnlijk zijn als je rekening houdt met informatie over de spreker roepen ook N400-effecten op. Ook die informatie wordt dus onmiddellijk gebruikt. Denk hierbij aan de leeftijd, sekse en sociale achtergrond van de spreker: zo zul je bijvoorbeeld vreemd opkijken van een man met een bekakt accent die vertelt over zijn tattoo’s, of van een kind dat zegt van bier te houden. Een mismatch met kennis over de wereld wordt dus op dezelfde manier verwerkt als een semantische schending.
Inferenties
Mensen gaan ervan uit dat informatie die zij horen coherent en logisch is. Graesser, Singer en Trabasso (1994) stelden dat mensen een aantal assumpties hebben: teksten hebben doorgaans een doel, zijn coherent en er worden zaken en de samenhang daartussen uitgelegd. Bridging inferences, links tussen de huidige en voorafgaande tekst, zijn noodzakelijk om een coherent geheel van een verhaal te maken. Elaborative inferences zijn niet noodzakelijk, maar als je genoeg tijd hebt kun je dit doen om details toe te voegen aan een verhaal.
College 5: Taalproductie
In de vorige colleges is besproken hoe complex taal eigenlijk is. Hoe simpel het ook is dat je wil zeggen, je moet de juiste klanken vinden om bepaalde woorden en woordvormen te vormen. Die woorden moeten dan ook nog eens in de juiste volgorde staan om tot een begrijpelijk geheel te komen. Daarnaast moet je uitgaan van de lezer of luisteraar: wat weten diegene al, wat wil diegene weten, en wat is gepast in een bepaalde situatie (moet je beleefd zijn of informeel, hoe lang kan je praten).
Fromkin heeft een model voor spraakproductie opgesteld:
1. Genereer het doel van de spraak: welke boodschap wil je overbrengen?
2. Genereer de syntactische structuur die je nodig hebt.
3. Genereer de intonaties die je nodig hebt.
4. Plaats inhoudswoorden op de juiste plaats in de zin.
5. Voeg waar nodig functiewoorden, prefixes en affixes toe.
6. Specificeer de fonemen die je gaat uitspreken.
Om te bepalen of dit model klopt, kun je kijken naar fouten die gemaakt worden tijdens spraak. Waarschijnlijk wordt de syntactische structuur eerst opgesteld. Woorden die met elkaar verwisseld worden zijn doorgaans namelijk woorden die in hetzelfde syntactische stuk van een zin staan (bagged packs). Ook gebeurt het vaak dat er prefixes of suffixes verwisseld worden (singing sewer machine). Dit vormt evidentie voor het bestaan van een dergelijk sequentieel modulair systeem.
Levelt heeft een iets ander model voor spraakproductie opgesteld, wat ook uitgaat van een serieel modulair systeem. Er zijn twee stadia: het lemma-stadium (semantiek) en het lexeme-stadium (fonologie). Evidentie hiervoor is als volgt: als je een plaatje van een schroef ziet en er staat het woord ‘moer’ bij, is het moeilijker om ‘schroef’ te zeggen dan wanneer er ‘schroot’ bij staat. Bij moer treedt er semantische interferentie op, bij schroot wordt schroef juist gefaciliteerd omdat het woordt er fonetisch op lijkt. Deze semantische interferentie treedt alleen in een vroeg stadium op, de fonologische facilitatie alleen in een laat stadium. Dit suggereert dus dat er inderdaad een twee-stadia proces gaande is.
Een probleem voor seriële modellen wordt gevormd door lexicale bias: het verwisselen van letters van twee woorden waardoor er andere woorden gevormd worden (barn door in plaats van darn bore). Dergelijke spraakfouten worden veel meer gemaakt als de verwisseling leidt tot echte woorden dan wanneer dit leidt tot non-woorden. Volgens de seriële modellen worden echter woorden eerder geselecteerd dan de bijbehorende klanken, dus is het vreemd dat er meer klankverwisselingen optreden in woorden dan in non-woorden.
Dell heeft een interactief model bedacht, waarbij lagere niveaus hogeren niveaus kunnen beïnvloeden. De activaties worden doorgegeven door het netwerk en per iteratie (tijdstap) berekend voor alle knopen. De meest actieve knoop van een syntactische categorie wordt in een syntactisch frame geplaatst. De klanken die daarbij horen krijgen extra activatie, die weer door het netwerk verspreidt wordt. Fouten ontstaan door willekeurige ruis in de hoeveelheid activatie van knopen, dankzij bijvoorbeeld andere gedachten en andere stimuli, en doordat betekenis-buren ook geactiveerd worden (bij de activatie van ‘kat’ worden ook ‘hond’ en ‘rat’ geactiveerd). Taalbegrip en taalproductie staan dus niet los van elkaar.
College 6: Taalontwikkeling
Kinderen moeten heel veel leren om te leren spreken. Ze moeten fonemen leren herkennen, de betekenis van woorden leren en syntactische regels leren begrijpen en toepassen. In het begin van hun leven hebben baby’s de phoneme boundaries nog niet aangeleerd (het is onwaarschijnlijk dat baby’s worden geboren met een specifieke set phoneme boundaries).
Wanneer begint een kind nou gevoelig te worden voor verschillende geluiden? Kinderen van ouders uit verschillende landen gebruiken verschillenden klanken in hun huilen. Het leren van klankpatronen begint wellicht al in de baarmoeder. Om te kunnen leren moeten baby’s de taalbrei uit hun omgeving leren segmenteren voordat ze kunnen beginnen met het leren van betekenis. Volwassenen kunnen gebruikmaken van top-down informatie, maar baby’s moeten puur afgaan op het signaal dat geproduceerd wordt.
Saffrain en collega’s keken naar kinderen van acht maanden oud. Als kinderen geinteresseerd zijn in wat ze horen zijn ze geneigd te blijven kijken naar een lampje, en als ze afgeleid zijn of niet meer geinteresseerd zijn kijken ze andere richtingen op. Zij kregen vier non-woorden in random volgorde te horen, op zo’n manier dat er geen woordgrenzen hoorbaar waren. In de testfase kregen ze de al eerder gehoorde ‘woorden’ te horen, alsook nieuwe non-woorden, bestaande uit dezelfde klanken als de eerste woorden. Wanneer de baby’s geinteresseerder zijn bij de nieuwe woorden, kan je concluderen dat zij op basis van een soort statistische analyse woorden onderscheiden. De nieuwe nonwoorden werden beschouwd als interessanter dan de gefamiliariseerde woorden, daar luisterden ze ongeveer een seconde langer naar.
Als je woorden van elkaar kunt onderscheiden, weet je nog niet wat die nou betekenen. Zelfs als iiemand zegt ‘kijk, een helikopter’, is er waarschijnlijk nog steeds zo veel te zien dat het soms moeilijk af te leiden is wat nou precies die helikopter is. Er zijn verschillende theorieën over wat voor regels kinderen gebruiken bij het leren van woorden. Markman & Wachtel: gebruiken kinderen de informatie die zij al weten bij het leren van namen van objecten? Een object heeft één naam, dus als het ene object een beker is zal het andere, onbekende object wel de ‘dax’ zijn. Misschien kan je dan one-to-one mapping wel uitbreiden naar feitjes.
Waarom zijn de menselijke hersenen zo goed in het leren van taal? Er zijn twee ‘kampen’. Een groep stelt dat mensen gewoon heel goed kunnen leren, en dat er niet een specifiek taalcentrum is. Een andere groep stelt dat er wel een aangeboren taalinstict is, en dat we daarin een heleboel implicitete kennis hebben over taal (Pinker) met het vermogen tot recursie (Chomsky). De aangeboren kennis van het kind is abstract. Het kind kent de boomstructuur waar het de regels de syntactische regels van hun eigen taal aan kunnen ophangen. Natuurlijk moeten zij nog wel hun hele lexicon opbouwen. Elke menselijke beschaving, hoe primitief ook, heeft taal. Al die talen delen bepaalde eigenschappen (“universal grammar”). Kinderen leren taal allemaal op dezelfde manier: met weinig input uit hun omgeving en met karakteristieke grammaticale fouten: het “poverty of the stimulus-argument”. Kinderen uit speciale populaties gaan zelf talen genereren: bijvoorbeeld dove kinderen in omgevingen waar de universele gebarentaal verboden is. Ook wanneer je groepen mensen die niet dezelfde taal spreken bij elkaar spreken, ontstaan nieuwe talen (Pidgins) die verschillende elementen van de talen met elkaar mengt. Dit is vaak een extreem simpele versie van taal met weinig grammaticale structuur en een kleine vocabulaire, doorgaans puur bedoeld om boodschappen over te brengen en minder om diepgaande discussies te voeren. Pidgin is nooit iemands eerste taal, iemand heeft altijd een moedertaal. Als pidginsprekers kinderen krijgen die genoodzaakt zijn om te communiceren binnen die gemeenschap, ontstaat er een creoolse taal met een rijke syntactische structuur en rijke betekenis. Het lijkt er dus op dat kinderen iets kunnen doen met die taal wat volwassenen niet kunnen. Dit is een extreem voorbeeld van poverty of the stimulus, aangezien niemand nog de taal spreekt die de kinderen ontwikkelen.
College 4: Discourse-begrip
Om taal te begrijpen moet je woorden kunnen begrijpen en begrijpen hoe woorden zich tot elkaar verhouden in een zin. Zinnen komen bijna nooit alleen voor, ze zijn vrijwel altijd onderdeel van een geheel: discourse. Hoe refereren woorden in een zin terug aan wat je eerder hebt gehoord? Is de service-boodschap van een zin in een keer coherent? We streven als luisteraars naar zo veel mogelijk cohesie in een verhaal, waar we een aantal hulpmiddelen bij gebruiken.
Referentiele ambiguïteit
Een anaphor is een woord dat terugverwijst naar iets of iemand die eerder in de discourse is benoemd. Taalonderzoek richt zich regelmatig op wat er gebeurt als een verwijzend woord ambiguïteit oproept, als het niet helemaal duidelijk is waar dat woord naar terugverwijst. In de zin ‘Ronald vertelde Emily dat hij een positieve instelling heeft’ is het duidelijk dat het woord ‘hij’ op Ronald slaat. In de zin ‘Ronald vertelde Frank dat hij een positieve instelling heeft’ is het niet duidelijk of het woord ‘hij’ op Ronald of op Frank slaat. Nieuwland et al. (2007) ontdekten dat wanneer mensen referentieel ambigue zinnen lezen er frontale activiteit optreedt. Dit is een patroon van hersengebieden dat actief wordt bij probleemoplossen. Het lijkt erop dat proefpersonen erachter proberen te komen wat het meest logisch is: Ronald of Frank. Eberhard et al. (1995) maten oogbewegingen van mensen die zinnen hoorden terwijl ze naar afbeeldingen kijken. Mensen lijken automatisch te kijken naar waar zij denken dat de zin over gaat. Als er sprake is van ambiguïteit in de referentie, gaan mensen zo snel mogelijk op zoek naar disambiguerende informatie. Hieruit kan geconcludeerd worden dat mensen zo snel mogelijk, dus al tijdens het luisteren of lezen op zoek gaan naar disambiguerende informatie, en niet pas nadat de zin volledig is uitgesproken of gelezen.
Syntactische ambiguïteit
Hetzelfde kan gesteld worden voor zinnen die syntactisch ambigu zijn. Wanneer een zin anders loop dan je zou verwachten, is er een groter P600-effect. Mensen prefereren blijkbaar ‘simpelere’ zinnen, zoals ‘Sneeuwwitje zei het dwergje dat er harder gewerkt moest worden’ boven syntactisch complexere zinnen als ‘Sneeuwwitje zei het dwergje dat had zitten niksen dat er harder gewerkt moest worden’.
De invloed van referentiële context
Wij gebruiken onze kennis over de wereld en context onmiddellijk bij de interpretatie van zinnen die iemand uitkraamt. De wereld is eigenlijk één grote discourse. Hagoort et al. (2004) lieten dit zien met een klassiek N400-experiment. Zowel de zin “Nederlandse treinen zijn zoet” (duidelijk semantisch niet kloppend) als de zin “Nederlandse treinen zijn wit” (niet kloppend aan de hand van kennis van de wereld, maar in principe niet onmogelijk) roepen een groot N400-effect op. Een mismatch met kennis van de wereld is dus vergelijkbaar met een mismatch met semantische kennis. Het N400-effect is wel ietsje kleiner voor de witte treinen, het lijkt alsof mensen dat iets minder erg vinden. De onset van de respons is hetzelfde, dus de informatie is wel gelijktijdig beschikbaar.
Woorden die niet passen in een bepaalde context roepen een groter N40-effect op. Ook zinnen die semantisch onwaarschijnlijk zijn als je rekening houdt met informatie over de spreker roepen ook N400-effecten op. Ook die informatie wordt dus onmiddellijk gebruikt. Denk hierbij aan de leeftijd, sekse en sociale achtergrond van de spreker: zo zul je bijvoorbeeld vreemd opkijken van een man met een bekakt accent die vertelt over zijn tattoo’s, of van een kind dat zegt van bier te houden. Een mismatch met kennis over de wereld wordt dus op dezelfde manier verwerkt als een semantische schending.
Inferenties
Mensen gaan ervan uit dat informatie die zij horen coherent en logisch is. Graesser, Singer en Trabasso (1994) stelden dat mensen een aantal assumpties hebben: teksten hebben doorgaans een doel, zijn coherent en er worden zaken en de samenhang daartussen uitgelegd. Bridging inferences, links tussen de huidige en voorafgaande tekst, zijn noodzakelijk om een coherent geheel van een verhaal te maken. Elaborative inferences zijn niet noodzakelijk, maar als je genoeg tijd hebt kun je dit doen om details toe te voegen aan een verhaal.
College 5: Taalproductie
In de vorige colleges is besproken hoe complex taal eigenlijk is. Hoe simpel het ook is dat je wil zeggen, je moet de juiste klanken vinden om bepaalde woorden en woordvormen te vormen. Die woorden moeten dan ook nog eens in de juiste volgorde staan om tot een begrijpelijk geheel te komen. Daarnaast moet je uitgaan van de lezer of luisteraar: wat weten diegene al, wat wil diegene weten, en wat is gepast in een bepaalde situatie (moet je beleefd zijn of informeel, hoe lang kan je praten).
Fromkin heeft een model voor spraakproductie opgesteld:
1. Genereer het doel van de spraak: welke boodschap wil je overbrengen?
2. Genereer de syntactische structuur die je nodig hebt.
3. Genereer de intonaties die je nodig hebt.
4. Plaats inhoudswoorden op de juiste plaats in de zin.
5. Voeg waar nodig functiewoorden, prefixes en affixes toe.
6. Specificeer de fonemen die je gaat uitspreken.
Om te bepalen of dit model klopt, kun je kijken naar fouten die gemaakt worden tijdens spraak. Waarschijnlijk wordt de syntactische structuur eerst opgesteld. Woorden die met elkaar verwisseld worden zijn doorgaans namelijk woorden die in hetzelfde syntactische stuk van een zin staan (bagged packs). Ook gebeurt het vaak dat er prefixes of suffixes verwisseld worden (singing sewer machine). Dit vormt evidentie voor het bestaan van een dergelijk sequentieel modulair systeem.
Levelt heeft een iets ander model voor spraakproductie opgesteld, wat ook uitgaat van een serieel modulair systeem. Er zijn twee stadia: het lemma-stadium (semantiek) en het lexeme-stadium (fonologie). Evidentie hiervoor is als volgt: als je een plaatje van een schroef ziet en er staat het woord ‘moer’ bij, is het moeilijker om ‘schroef’ te zeggen dan wanneer er ‘schroot’ bij staat. Bij moer treedt er semantische interferentie op, bij schroot wordt schroef juist gefaciliteerd omdat het woordt er fonetisch op lijkt. Deze semantische interferentie treedt alleen in een vroeg stadium op, de fonologische facilitatie alleen in een laat stadium. Dit suggereert dus dat er inderdaad een twee-stadia proces gaande is.
Een probleem voor seriële modellen wordt gevormd door lexicale bias: het verwisselen van letters van twee woorden waardoor er andere woorden gevormd worden (barn door in plaats van darn bore). Dergelijke spraakfouten worden veel meer gemaakt als de verwisseling leidt tot echte woorden dan wanneer dit leidt tot non-woorden. Volgens de seriële modellen worden echter woorden eerder geselecteerd dan de bijbehorende klanken, dus is het vreemd dat er meer klankverwisselingen optreden in woorden dan in non-woorden.
Dell heeft een interactief model bedacht, waarbij lagere niveaus hogeren niveaus kunnen beïnvloeden. De activaties worden doorgegeven door het netwerk en per iteratie (tijdstap) berekend voor alle knopen. De meest actieve knoop van een syntactische categorie wordt in een syntactisch frame geplaatst. De klanken die daarbij horen krijgen extra activatie, die weer door het netwerk verspreidt wordt. Fouten ontstaan door willekeurige ruis in de hoeveelheid activatie van knopen, dankzij bijvoorbeeld andere gedachten en andere stimuli, en doordat betekenis-buren ook geactiveerd worden (bij de activatie van ‘kat’ worden ook ‘hond’ en ‘rat’ geactiveerd). Taalbegrip en taalproductie staan dus niet los van elkaar.
College 6: Taalontwikkeling
Kinderen moeten heel veel leren om te leren spreken. Ze moeten fonemen leren herkennen, de betekenis van woorden leren en syntactische regels leren begrijpen en toepassen. In het begin van hun leven hebben baby’s de phoneme boundaries nog niet aangeleerd (het is onwaarschijnlijk dat baby’s worden geboren met een specifieke set phoneme boundaries).
Wanneer begint een kind nou gevoelig te worden voor verschillende geluiden? Kinderen van ouders uit verschillende landen gebruiken verschillenden klanken in hun huilen. Het leren van klankpatronen begint wellicht al in de baarmoeder. Om te kunnen leren moeten baby’s de taalbrei uit hun omgeving leren segmenteren voordat ze kunnen beginnen met het leren van betekenis. Volwassenen kunnen gebruikmaken van top-down informatie, maar baby’s moeten puur afgaan op het signaal dat geproduceerd wordt.
Saffrain en collega’s keken naar kinderen van acht maanden oud. Als kinderen geinteresseerd zijn in wat ze horen zijn ze geneigd te blijven kijken naar een lampje, en als ze afgeleid zijn of niet meer geinteresseerd zijn kijken ze andere richtingen op. Zij kregen vier non-woorden in random volgorde te horen, op zo’n manier dat er geen woordgrenzen hoorbaar waren. In de testfase kregen ze de al eerder gehoorde ‘woorden’ te horen, alsook nieuwe non-woorden, bestaande uit dezelfde klanken als de eerste woorden. Wanneer de baby’s geinteresseerder zijn bij de nieuwe woorden, kan je concluderen dat zij op basis van een soort statistische analyse woorden onderscheiden. De nieuwe nonwoorden werden beschouwd als interessanter dan de gefamiliariseerde woorden, daar luisterden ze ongeveer een seconde langer naar.
Als je woorden van elkaar kunt onderscheiden, weet je nog niet wat die nou betekenen. Zelfs als iiemand zegt ‘kijk, een helikopter’, is er waarschijnlijk nog steeds zo veel te zien dat het soms moeilijk af te leiden is wat nou precies die helikopter is. Er zijn verschillende theorieën over wat voor regels kinderen gebruiken bij het leren van woorden. Markman & Wachtel: gebruiken kinderen de informatie die zij al weten bij het leren van namen van objecten? Een object heeft één naam, dus als het ene object een beker is zal het andere, onbekende object wel de ‘dax’ zijn. Misschien kan je dan one-to-one mapping wel uitbreiden naar feitjes.
Waarom zijn de menselijke hersenen zo goed in het leren van taal? Er zijn twee ‘kampen’. Een groep stelt dat mensen gewoon heel goed kunnen leren, en dat er niet een specifiek taalcentrum is. Een andere groep stelt dat er wel een aangeboren taalinstict is, en dat we daarin een heleboel implicitete kennis hebben over taal (Pinker) met het vermogen tot recursie (Chomsky). De aangeboren kennis van het kind is abstract. Het kind kent de boomstructuur waar het de regels de syntactische regels van hun eigen taal aan kunnen ophangen. Natuurlijk moeten zij nog wel hun hele lexicon opbouwen. Elke menselijke beschaving, hoe primitief ook, heeft taal. Al die talen delen bepaalde eigenschappen (“universal grammar”). Kinderen leren taal allemaal op dezelfde manier: met weinig input uit hun omgeving en met karakteristieke grammaticale fouten: het “poverty of the stimulus-argument”. Kinderen uit speciale populaties gaan zelf talen genereren: bijvoorbeeld dove kinderen in omgevingen waar de universele gebarentaal verboden is. Ook wanneer je groepen mensen die niet dezelfde taal spreken bij elkaar spreken, ontstaan nieuwe talen (Pidgins) die verschillende elementen van de talen met elkaar mengt. Dit is vaak een extreem simpele versie van taal met weinig grammaticale structuur en een kleine vocabulaire, doorgaans puur bedoeld om boodschappen over te brengen en minder om diepgaande discussies te voeren. Pidgin is nooit iemands eerste taal, iemand heeft altijd een moedertaal. Als pidginsprekers kinderen krijgen die genoodzaakt zijn om te communiceren binnen die gemeenschap, ontstaat er een creoolse taal met een rijke syntactische structuur en rijke betekenis. Het lijkt er dus op dat kinderen iets kunnen doen met die taal wat volwassenen niet kunnen. Dit is een extreem voorbeeld van poverty of the stimulus, aangezien niemand nog de taal spreekt die de kinderen ontwikkelen.
College 7: Tweetaligheid
Als je het woord ‘room’ leest, denk je dan aan slagroom of aan een kamer? Welk woord wordt geactiveerd? Eén van de twee, of beide? Kan een tweetalige een van zijn talen ‘uitzetten’, of worden automatisch alle passende woorden uit alle talen geactiveerd?
Lexical access
Mägiste (1979) onderzocht één-, twee- en drietaligen, en vond dat de reactietijden voor reacties op woorden toenemen naarmate men meerdere talen spreekt. Dit vormt steun voor het idee dat er competitie is tussen de verschillende lexicons van de verschillende talen die iemand spreekt. Van Heuven et al. (1998) deden een studie met Nederlandse Nederlands-Engelse bilanguals om te onderzoeken of interlexical neighbours, ‘buren’ in een andere taal (zoals land, band, hand), het woordherkenningsproces van Nederlandse, visueel aangeboden woorden beïnvloeden. Er waren vier condities, 1) een grote Nederlandse neighbourhood en een grote Engelse neighbourhood, 2) een grote Nederlandse neighbourhood en een kleine Engelse neighbourhood, 3) een kleine Nederlandse neighbourhood en een grote Engelse neighbourhood en 4) een kleine Nederlandse neighbourhood en een kleine Engelse neighbourhood. Verwacht werd dat woordherkenning zou worden beïnvloed door de grootte van de Nederlandse en de Engelse neighbourhood. Uit de resultaten bleek dat de snelheid van woordherkenning inderdaad werd beïnvloed door de grootte van zowel de Nederlandse als de Engelse neighbourhood. De invloed van de grootte van de Nederlandse neighbourhood is afhankelijk van of de Engelse neighbourhood groot of klein is. Er is een relatief kleinere invloed van de Engelse neighbourhood, anders zou er sprake zijn van pure additiviteit.
Bij auditieve woordherkenning zijn er meer cues voor welke taal er wordt gesproken. Marian & Spivey (1999) onderzochten bij Russisch-Engelse tweetaligen of woorden in beide talen worden geactiveerd als die met dezelfde klanken beginnen (het Engelse marker begint met dezelfde klanken als het Russische marka (postzegel). Bij de auditieve cues werden plaatjes aangeboden daarbij werden de oogbewegingen van de proefpersonen gemeten. Als alleen de Engelse woorden geactiveerd zouden worden bij het horen van een Engelse zin, zouden ze alleen naar het plaatje moeten kijken dat bij het Engelse woord hoort. Uit de resultaten blijkt dat mensen vaker naar de Russische distractor kijken dan naar andere distractoren. Dit bleek ook andersom het geval te zijn. Woorden uit verschillende talen worden dus geactiveerd.
Onafhankelijke lexicons?
Uit de beschreven onderzoeken is gebleken dat woorden uit verschillende talen gelijkertijd geactiveerd worden. Kun je dan nog wel zeggen dat er verschillende lexicons bestaan voor twee verschillende talen, of zou je kunnen stellen dat er één groot lexicon is waar alle woorden in zitten van elke taal die je spreekt? Martin et al. (2009) onderzochten semantische priming tussen woorden uit verschillende talen. Als er verschillende lexicons zouden bestaan voor verschillende talen en die lexicons niet met elkaar verbonden zijn, zouden er geen semantische priming-effecten moeten optreden. Semantisch ongerelateerde woorden moeten een grotere N400 laten zien dan semantisch gerelateerde woorden (zoals spoon en mes). Uit de resultaten bleek dat er een kleiner N400-effect is voor semantisch gerelateerde targets, wat er op wijst dat er lexicale representaties geactiveerd worden in beide talen en de lexicons dus niet onafhankelijk zijn van elkaar.
Taalproductie
Taalherkenning activeert woorden uit beide talen. Hoe zit dat dan bij taalproductie? Als je de niet-dominante taal aan het spreken bent, ben je in staat om de Engelse woorden te activeren en niet de Nederlandse. In college 5 over taalproductie is aangetoond dat in een eentalige picture-word interference-taak interferentie optreedt bij een semantische distractor en facilitatie optreedt bij een fonologische distractor. In de tweetalige versie van de taak moeten deelnemers een woord benoemen in het Nederlands en zijn de distractoren in het Engels. Uit de resultaten blijkt dat er interferentie optreedt van een semantische distractor, en facilitatie door zowel een Engelse distractor met een identieke betekenis als een Engelse fonologische distractor. Dit suggereert dat er tweetalige activatie plaatsvindt op lemma-niveau en op fonologisch niveau.
Hoe zorgen tweetaligen er nou voor dat het juiste woord geactiveerd wordt en twee talen niet de hele tijd door elkaar gehaald worden? Uit fMRI-onderzoek van Hernandez et al. (2002) blijkt dat dezelfde hersengebieden actief worden wanneer je tussen talen switcht als wanneer je tussen andere taken switcht: de dorsolaterale prefrontale cortex, de anterieure cingulate cortex en de linker caudate nucleus. Tweetaligen van alle leeftijden doen het beter op de Simon-task (waarbij responsen onderdrukt moeten worden). Bij veroudering neemt de prestatie af, maar minder snel bij tweetaligen dan eentaligen. Hieruit wordt geconcludeerd dat tweetaligen wellicht experts zijn geworden in cognitieve controle in het algemeen. Zijn tweetaligen dan ook beter in alle executieve functies? Uit onderzoek is gebleken dat tweetaligen niet beter zijn in de stop-taak dan eentaligen, dus zij zijn geen experts geworden in algemene cognitieve controle. Tweetaligheid vereist dus specifieke vaardigheden in cognitieve controle.
Kritieke periode
Het idee heerst dat er een bepaalde kritieke periode is waarin je een eerste en een tweede taal zo goed kunt leren dat je daar near-native in wordt. Voor onderzoek ben je afhankelijk van populaties waarbij taal niet is aangeboden in deze kritieke perioden, bijvoorbeeld bij dove kinderen met horende ouders. Evidentie hiervoor wordt gevormd door een meisje dat tien jaar opgesloten heeft gezeten en nooit taal heeft geleerd. Zij kon goed woorden leren en haar vocabulaire groeide snel, maar het bleek dat zij nauwelijks syntax kon leren. Een ander meisje leerde op 6,5-jarige leeftijd pas taal, en kon wel nog syntax leren. De casussen zijn gelukkig zeldzaam maar verschillen wel veel van elkaar. Je kan dus niet uitsluiten dat er geen effecten zijn van gebeurtenissen in de jeugd.
Er lijkt wel een kritieke periode te zijn voor het aanleren van taal, zo blijkt uit onderzoek van Boudreault en Mayberry (2003). Zij onderzochten of er verschillen waren in de grammaticale ontwikkeling van volwassen proefpersonen in drie condities: 1) native controls, die American Sign Language (ASL) leerden vanaf de geboorte, 2) early learners, die ASL leerden tussen hun derde en zevende levensjaar, en 3) delayed learners, die ASL leerden tussen hun achtste en dertiende levensjaar. Als er een echte kritieke periode is zou niemand die na die kritieke periode nog een taal probeert te leren nog vloeiend moeten kunnen worden in die taal. In de taak moesten de deelnemers grammaticale en ongrammaticale zinnen beoordelen. Uit de resultaten bleek dat hoe later iemand in aanraking is gekomen met ASL, hoe slechter de prestatie op de taak was. Uit onderzoek van bijvoorbeeld Johnson en Newport (1989) blijkt wel dat er een enorme spreiding is in hoe goed mensen op latere leeftijd nog een taal kunnen leren, en dat een kritieke periode dus niet dermate strikt is dat het vrijwel onmogelijk is om een taal te leren op latere leeftijd. De leeftijdseffecten die gevonden worden zijn wellicht te wijten aan dat jongere kinderen minder cognitieve vermogens hebben en daardoor gedwongen zijn om taal in kleine brokjes te verwerken (Newport, 1988), aan het met de jaren slechter worden van het declaratieve geheugen en de atrofiering van de hippocampus (Birdsong & Flege, 2001), en de afname van de plasticiteit van het brein (Rohde & Plaut, 2002).
College 8: Taal en het brein
Afasie
Afasieën, taalstoornissen, ontstaat doorgaans door hersenschade. Dit kan externe oorzaken hebben, zoals een ongeluk, of interne oorzaken, zoals een hersenbloeding, een tumor, of een degeneratieve aandoening. Afasieën kunnen de relatie tussen taal en de hersenen laten zien. De individuele variatie hiertussen is echter enorm. Op basis daarvan kunnen wel gemiddelden bepaald worden. Bij de meeste mensen is de linkerhersenhelft verantwoordelijk voor taalbegrip en –productie. De rechterhersenhelft is slechts dominant bij 4% van de rechtshandigen, 15% van de ambidextrous (mensen die zowel met hun linker- als rechterhand veel kunnen), en 27% van de linkshandigen.
Er zijn verschillende soorten afasieën. De belangrijkste zijn:
- Broca’s afasie. Paul Broca onderzocht een van de nu beroemdste patiënten, Leborgne, die een beschadiging had in het achterste gedeelte van de linker frontale kwab. Mensen die lijden aan Broca’s afasie hebben voornamelijk moeite met taalproductie. Ze spreken voornamelijk in telegramstijl en gebruiken weinig tot geen functiewoorden of morfemen. Ze hebben vaak moeite met grammatica en met het vinden van de juiste woorden.
- Wernicke’s afasie. Mensen die lijden aan Wernicke’s afasie hebben een beschadiging in het achterste gedeelte van de superior temporal gyrus. Mensen die aan deze stoornis lijden hebben voornamelijk problemen met het begrijpen van taal. De spraak is vloeiend maar vaak betekenisloos, wat onder andere komt door veel foneemsubstituties.
- Conductieafasie. Mensen die lijden aan conductieafasie hebben een beschadiging aan de witte stofbanen tussen de gebieden van Broca en Wernicke. Zij hebben vooral problemen met het produceren van spontane spraak en het goed begrijpen van taal. Ze maken veel fouten bij de spraakproductie, die ze wel zelf kunnen ontdekken maar niet goed kunnen corrigeren.
- Anomische afasie. Dit ontstaat door kleine beschadigingen rond de Sylvian fissure, waar de taalgebieden liggen. Mensen die lijden aan een anomische afasie hebben vaak moeite met een produceren van zelfstandige naamwoorden of namen, maar hebben verder een redelijk normale spraak. Ze kunnen de ontbrekende woorden wel omschrijven.
- Globale afasie. Mensen die hieraan lijden hebben bijna geen productie en bij geen perceptie van (zinnige) taal. Ze kunnen wel ‘automatische’ spraak produceren, zoals bijvoorbeeld tellen.
Het Wernicke-Lichtheim-Geschwindmodel stelt dat het gebied van Broca vooral te maken heeft met motorische output. Hier vindt spraakplanning plaats. Het gebied van Wernicke krijgt auditieve input, hier ligt een fonologisch lexicon met de klanken van woorden. Overkoepelend ligt een conceptueel gebied, waar de betekenissen van woorden liggen opgeslagen. Hierbij moet echter een genuanceerder beeld geschetst worden. Er zijn gevallen bekend van mensen met Broca’s afasie die problemen hebben met perceptie of het begrip van taal, en mensen met Wernicke’s afasie die problemen hebben met de productie van taal, en gevallen waar mensen beschadigingen hebben in een van die gebieden maar geen afasie hebben. Er zijn ook andere gebieden betrokken bij taalverwerking. De rechterhemiseer is bijvoorbeeld belangrijk voor intonatie, en bij Broca’s afasie zijn de insula betrokken.
College 9: Evolutie en cultuur
Evolutie
De evolutie van taal is een moeilijk bestudeerbaar proces. Hebben dieren ook taalvermogens, net als mensen? Papegaai Alex leek te kunnen tellen en denken, maar dit heeft jaren van intensieve training gekost.
Vocal mimicry is het vermogen om geluidsuitingen van anderen na te kunnen doen, volgens velen een essentiële vaardigheid om taal te kunnen leren. Het herkennen van en anticiperen op ritmische geluiden is hierbij cruciaal. Ons vermogen om ritmisch te dansen is hiervan een bijproduct, aldus Schachner et al. (2009). Zij stelden dat alleen dieren die in staat zijn om te ‘dansen’ de mogelijkheid hebben om taal te produceren. Zij zochten heel veel filmpjes van ‘dansende dieren’ op YouTube en stelden vast of er daadwerkelijk sprake was van ritmische beweging op muziek. Uit de resultaten die zij vonden bleek dat alleen dieren die in staat zijn tot vocal mimicry in staat zijn om ritmisch te bewegen. Mensen bezitten die module tot ritmisch bewegen (hoewel, niet allemaal), maar ook nog een heleboel andere. Wij hebben grammaticale taal, papegaaien en olifanten niet.
Je kunt apen niet leren spreken, want zij hebben geen vocal tracts zoals wij. Je kunt ze wel gebarentaal leren. Mensenkinderen hebben veel meer aanleg om taal te leren dan apen, daar zijn geen snoepjes voor nodig. Apen maken maar hele korte zinnen die voornamelijk gaan over eten, spelen en knuffelen, en nauwelijks over andere voor hen interessante voorwerpen. Zij kunnen wel onderling communiceren met uitroepen en gezichtsuitdruk-kingen, maar ook dit heeft slechts een beperkte range. Het kan zijn dat de talige vermogens voor apen niet toereikend is, maar het zou ook kunnen dat hun cognitieve vermogens gewoonweg niet veel verder gaan dan over eten en spelen. Nim Chimpsky gebruikt weinig tot geen syntax, en ‘spreekt’ alleen over het heden. De conclusie van dit soort data is dat taal bij dieren in essentie niet vergelijkbaar is met communicatie bij mensen.
Als wij uitgaan van een evolutionair idee, kan je je afvragen wat precies het evolutionair voordeel is van taal. Geschreven bronnen zijn natuurlijk pas ontstaan na de ontwikkeling van taal, en fossielen geven daarom maar erg weinig informatie over de evolutie van taal. Zelfs als het fysiek mogelijk was om taal te produceren (daar is een strottenhoofd voor nodig), weet je nog niet zeker of taal daadwerkelijk gebruikt werd, en hoe die eventuele taal er dan uitzag. Taal zoals wij dat nu spreken is wellicht een bijproduct van allerlei andere complexe cognitieve functies die wij ontwikkeld hebben. Steven Pinker stelt dat de hunter-gatherer maatschappij een specifieke cognitieve niche gecreëerd heeft, die verder gaat dan een diermaatschappij. De verfijndheid van gereedschappen, de strategieën die zij ontwikkelden, de huizen die zij bouwden en de manier van voedselverwerking zouden hier allemaal aan hebben bijgedragen. Taal zelf zou als basale cognitieve eigenschap zijn voortgekomen uit evolutionaire druk, en dat wij nu over de zin van het leven praten is een bijproduct van onze andere cognitieve vermogens.
Cultuur
De Sapir-Whorf hypothese stelt dat de eigenschappen van taal de inhoud van ons denken bepalen. Dit heeft geleid tot twee stromingen. Het linguistisch determinisme (ook wel de sterke Sapir-Whorf hypothese) gaat ervan uit dat de taal die je spreekt de wereld om je heen volledig bepaal. Het linguïstisch relativisme (ook wel de zwakke versie van de Sapir-Whorf hypothese) stelt dat taal ons denken beïnvloedt, maar niet volledig bepaalt. Om de sterke versie van de hypothese te testen, kan je kijken naar talen die voor sommige concepten geen woorden hebben. Kun je een concept wel begrijpen en er iets mee doen als je er geen woorden voor hebt? Kun je verschillen dan waarnemen? Om de zwakke versie te testen kun je onderzoeken of het cognitieve systeem beïnvloed wordt door taal.
Er zijn twee belangrijke aspecten van taal die verschillen over culturen en talen: het aantal woorden voor kleur en voor getallen. Voor kleuren lijkt er een onderliggende hiërarchie te zijn. Talen met twee kleurwoorden gebruiken alleen zwart en wit (donker en licht). Talen met drie kleurwoorden voegen rood toe aan het assortiment. Talen met meerdere kleurwoorden voegen eerst geel, groen en blauw toe, later bruin en nog later paars, roze, oranje en grijs. Dit suggereert dat er een bepaalde universele psychofysische basis voor kleurwaarneming is, die de kleurtermen bepaalt. Dit gaat in tegen de (sterke) Sapir-Whorf hypothese. Hieder (1972) bestudeerde het Dani volk in Nieuw Guinea. Zij gebruiken twee kleurtermen. Zij hebben geen moeite met het onderscheiden van kleuren waar ze geen woorden voor hebben. Ook zijn ze net als westerse mensen beter in het identificeren van groen in een ‘puurdere’ vorm, en een meer gemengde vorm (gemengd met geel of blauw) is lastiger. Dit gaat wederom in tegen de sterke versie van de Sapir-Whorf hypothese. Een recent experiment van Thierry et al. (2009) werd gedaan bij Griekse proefpersonen, die verschillende woorden hebben voor donkerblauw en lichtblauw. Zij moesten een Oddball taak doen, waarbij een mismatch leidt tot een mismatch negativity in het ERP signaal. Deze mismatch negativity is automatisch en pre-attentief. Voor Griekssprekende personen was de ERP groter dan voor Engelssprekende personen. Een controle werd gedaan met lichtgroen en donkergroen, die fysiek even sterk verschillen als lichtblauw en donkerblauw. Hierbij werd geen verschil gevonden in ERP tussen de Grieks- en Engelssprekenden. Het aanwezig zijn van een bepaald woord in een taal heeft dus daadwerkelijk invloed op perceptie. Dit kan gezien worden als sterke evidentie voor in ieder geval de zwakke versie van de Sapir-Whorf hypothese, vooral ook omdat het ERP automatisch en pre-attentief is.
Het Piraha-volk in de Amazone heeft vier termen voor getallen: een, twee, veel en weinig. Gordon (2004) onderzocht of zij konden rekenen met getallen waar zij geen woorden voor hadden. Bij getallen vanaf 3 nam de prestatie dramatisch af. Butterworth et al. (2008) vonden twee andere volken in Australië. Het eerste volk spreekt Warlpiri en heeft woorden voor een, twee en veel, en het tweede volk spreekt Anindilyakwa en heeft woorden voor een, twee, drie en veel. Kinderen van beide volken moesten een teltaak doen. Als controle deden Australische Engelssprekende kinderen dezelfde teltaak. Er werden geen significante verschillen gevonden tussen kinderen die een beperkte hoeveelheid telwoorden in hun taal hebben en kinderen die een uitgebreide collectie aan telwoorden in hun taal hebben. Wellicht spelen cultuur en het belang dat wordt gehecht aan rekenen een belangrijkere rol dan het daadwerkelijke vermogen om aantallen te manipuleren. Dit onderzoek vormt evidentie tegen de Sapir-Whorf hypothese.
Boroditsky (2001) deed een onderzoek over tijdswoorden. In het Engels wordt tijd als een soort horizontaal vlak beschreven, tijd kan voor je (toekomst) en achter je (verleden) liggen. In het Mandarijn worden ook boven- en ondermetaforen gebruikt, naast de voor- en achtermetaforen. Hij primede mensen met informatie over spatiële relaties tussen objecten, waarbij ze ofwel in een horizontaal ofwel in een verticaal vlak moesten denken. Vervolgens moesten ze antwoord geven op vroeger/later-vragen. Voor Engelssprekende proefpersonen wordt het concept tijd geactiveerd door een horizontale prime, terwijl voor de Mandarijnsprekers het concept tijd wordt geactiveerd door een verticale prime. Zij waren sneller in het beanwoorden van vragen over tijd na een verticale prime. De kracht van de eerste taal van een proefpersoon bepaalt hoe hij denkt over tijd als concept in de ruimte. Dit vormt evidentie voor een zwakke Sapir-Whorf hypothese.
De evidentie is niet overweldigend voor een sterke Sapir-Whorf hypothese, maar het experiment van Thierry is wel heel elegant en het enige dat pre-attentieve hersenactiviteit meeneemt. Dat is wel het enige onderzoek dat hiernaar is uitgevoerd, replicatie is dus nog vereist.
Contributions: posts
Spotlight: topics
Online access to all summaries, study notes en practice exams
- Check out: Register with JoHo WorldSupporter: starting page (EN)
- Check out: Aanmelden bij JoHo WorldSupporter - startpagina (NL)
How and why would you use WorldSupporter.org for your summaries and study assistance?
- For free use of many of the summaries and study aids provided or collected by your fellow students.
- For free use of many of the lecture and study group notes, exam questions and practice questions.
- For use of all exclusive summaries and study assistance for those who are member with JoHo WorldSupporter with online access
- For compiling your own materials and contributions with relevant study help
- For sharing and finding relevant and interesting summaries, documents, notes, blogs, tips, videos, discussions, activities, recipes, side jobs and more.
Using and finding summaries, study notes and practice exams on JoHo WorldSupporter
There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.
- Use the menu above every page to go to one of the main starting pages
- Starting pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
- Use the topics and taxonomy terms
- The topics and taxonomy of the study and working fields gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
- Check or follow your (study) organizations:
- by checking or using your study organizations you are likely to discover all relevant study materials.
- this option is only available trough partner organizations
- Check or follow authors or other WorldSupporters
- by following individual users, authors you are likely to discover more relevant study materials.
- Use the Search tools
- 'Quick & Easy'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject.
- The search tool is also available at the bottom of most pages
Do you want to share your summaries with JoHo WorldSupporter and its visitors?
- Check out: Why and how to add a WorldSupporter contributions
- JoHo members: JoHo WorldSupporter members can share content directly and have access to all content: Join JoHo and become a JoHo member
- Non-members: When you are not a member you do not have full access, but if you want to share your own content with others you can fill out the contact form
Quicklinks to fields of study for summaries and study assistance
Field of study
- All studies for summaries, study assistance and working fields
- Communication & Media sciences
- Corporate & Organizational Sciences
- Cultural Studies & Humanities
- Economy & Economical sciences
- Education & Pedagogic Sciences
- Health & Medical Sciences
- IT & Exact sciences
- Law & Justice
- Nature & Environmental Sciences
- Psychology & Behavioral Sciences
- Public Administration & Social Sciences
- Science & Research
- Technical Sciences
JoHo can really use your help! Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world
2618 |
Add new contribution