College-aantekeningen bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden - 2012/2013


College 1

 

Neurocognitie is voortgekomen uit de mens die iets wil weten over cognities. De 2 hoofdvragen hierbij zijn: Hoe produceert het brein cognities en hoe kun je cognities toepassen. Neurowetenschappers laten zich dan ook inspireren door het brein.

Al 20 jaar is er veel belangstelling voor de relatie tussen cognitie en breinprocessen. Deze stroming is begonnen met Gazzangia, die de een van de grondleggers is van de cognitieve neurowetenschap. Cognitieve neurowetenschappen gaan over het begrijpen van algoritmes en hoe deze in het brein werken. Deze breinprocessen (mechanismen) willen ze omschrijven. Het doel is dus een mechanische verklaring opbouwen zodat men kan laten zien hoe het brein letterlijk werkt. Zodra ze weten hoe iets werkt, zetten ze dit om computerprogramma’s.

Een voorbeeld van zo’n computerprogramma is de Blue Gene supercomputer. Deze computers worden gebruikt om kolommen uit te cortex na te bootsen. De menselijke cortex bestaat uit een structuur van 6 lagen. De complete structuur is 2mm dik. 80% van de neuronen in de cortex zijn piramideneuronen. Deze neuronen kunnen in verschillende lagen werkzaam zijn. Het zijn de langste neuronen.

Door echter simpelweg breinonderdelen in een computer over te schrijven weet je nog niet precies hoe dit werkt. Daarnaast is een supercomputer ook niet praktisch. Hij neemt veel ruimte in beslag en kost veel energie. Het doel is deze uiteindelijk zo klein mogelijk te maken.

Deze cursus kijkt vooral naar patroonherkenning, classificatie, geheugen en leren. En maakt daarbij gebruik van de analyse van basisnetwerken en zaken gerelateerd aan hogere intelligentie (Zoals taal).

Basis
De basis van waaruit men begon te werken waren neuronverbindingen. Een neuron zorgt met haar axon en dendrieten voor de communicatie. De axon kan actiepotentialen (of spikes) genereren. Dit wordt ook wel een artificieel netwerk genoemd.
Schematisch gezien gaat de Activiteit via een Gewicht naar de volgende Neuron die weer in een Activiteit kan veranderen. Door het Gewicht. Het gewicht is gelijk aan de synaps: daar wordt de activiteit versterkt of verzwakt.

Er zijn 2 uiterst basale netwerk typen. Vandaag wordt de 1e behandeld, volgende week de 2e.

 

  • Feed forward netwerk
    hierbij gaan de signalen maar 1 richting op, want er is geen tijd op terug te gaan. Het systeem werkt dus bottom-up en niet top-down. Een voorbeeld hiervan is het visuele systeem. Informatie gaat langs de lagen steeds verder het systeem in totdat er herkenning optreedt. Alle neuronen zijn met elkaar verbonden per laag. Het signaal kan steeds verder naar beneden gaan en komt niet meer terug omhoog. Alle neuronen hebben specifieke eigenschappen.

Er bestaan ook gemixte types waarbij sommige regio’s, veel met elkaar in contact staan. In dat geval kan er wel feedback inhibitie terug gegenereerd worden.

Het visuele systeem
Het visuele systeem is heel groot en omvat 40% van de cortex. Er zit een bepaalde onderverdeling in dit systeem. Alle informatie komt binnen via de ogen en gaat dan via de thalamus naar het V1 gebied. Vanaf het V1 gebied zijn er meerdere visuele routes. Zoals het dorsale en ventrale pad.

Iedere stap in het proces na de thalamus wordt een laag genoemd. Ondanks dat objecten langs veel lagen moeten, worden ze snel herkend. Dit komt omdat de overdracht steeds verder doorloopt door het feed forward netwerk. Dit komt omdat er scheidingen in het systeem zijn die bepaalde onderdelen herkennen.

Vormen herkennen en classificeren
Vormen herkennen gaat via de ventrale route: ofwel het Wat-pad. Schematisch gezegd ziet dit pad er als volgt uit: van het oog naar de thalamus naar V1, hiervandaan naar V4 en van V4 naar de infero temporal IT.
In de IT zitten neuronen die reageren op complexe vormen.

Waarom een neuron op bepaalde stimuli reageert, heeft te maken met het receptieve veld. Iedere neuron heeft een eigen receptief veld. Op het moment dat daar bepaalde vormen in komen reageert het. Hoe eerder je in het systeem zit, hoe kleiner de receptieve velden van neuronen zijn. Daarom reageren er dan vaak veel neuronen naast elkaar. Neuronen zijn retinoop (geografisch) geordend. Dit houdt in dat ze in de cortex naast elkaar liggen op waar ze naast elkaar reageren qua stimulus.

Neuronen reageren vaak op basale kenmerken zoals vorm kleur of lijn. De 6 cortexlagen vormen ook wel kolommen. Zo zie je steeds kolommen die ergens op reageren. Dat is de basis voor herkenning.
De AIT is het voorste stukje van de IT en het laatste stuk in het ventrale pad. Hier reageren neuronen alleen op hele complexe stimuli. Deze neuronen hebben grote receptieve velden. Ze zijn niet meer retinoop geordend. Zodoende kan een neuron daar reageren op een gezicht.

Uit onderzoek is gebleken dat een paar neuronen specifiek reageert op een bepaald persoon. Dit is ongeacht waar deze persoon in een ruimte staat.

 

Patroon classificatie
Een voorbeeld van een model wat patronen kan classificeren is: Perceptron. Dit model kan beantwoorden of ergens een x staat. Dit doet het door er kenmerken aan toe te voegen. Alle input units hebben een bepaalde vorm op het receptieve veld. Zodra daar iets overeenkomt, sturen zij hun informatie door. Als al deze informatie boven een bepaalde waarde komt, wordt het object herkend en geclassificeerd. De drempelwaarde wordt in dat geval bereikt.

De drempelwaarde wordt bereikt door aan alle neuronactiviteit te meten en daar een gewicht aan toe te kennen. Zo kan het model dus aangeven of iets er wel of niet is. Op de sheets kun je precies zien hoe dit werkt. Algemeen kan nu worden gezegd dat het classificatieprobleem zich vertaalt in het vinden van een drempelwaarde.

Perceptron is een theorie die kan classificeren en leren. Echter is dit model beperkt en kan het niet alle patronen classificeren. In het bovenstaande stuk moest perceptron bepalen of iets er was of niet. Dat gaat goed, maar zodra de perceptron een keuze moet gaan maken wordt het x of y, gaat het mis. De perceptron werkt op basis van een waarheidstabel. En kan dus aangeven of iets er is (wanneer de waarden 1-1 zijn) of er niet is als het onder (1,1) bevindt. Als bij een keuze de uitkomst (0,1) of (1,0) is, dan kan het perceptronmodel geen drempelwaarde meer creëren. De drempelwaarde is namelijk een lineaire lijn in een grafiek en in bovenstaand geval is deze niet te tekenen.

 

Als iets boven de lijn valt is het er, valt het eronder dan is het er niet. Bij een keuze wordt zo’n lijn erg lastig op te stellen. Een keuzeprobleem wordt ook wel een EXOR genoemd. Om dit op te lossen heb je een meerlagenmodel nodig. Anders gaat het niet. Door het creëren van een onzichtbare tussenlaag lukt dit wel. Dit kun je doen door de waarheidstabel uit te breiden. Zie de sheets hoe dit wiskundig wordt gedaan. Er worden uiteindelijk dus 3 lagen gebruikt.

 

Het overstappen naar een meerlagensysteem heeft echter 2 problemen
1) hier is geen algemene oplossing voor, want dit systeem kun je geen theorieën aanleren.
2) er is dus eigenlijk sprake van een verborgen tussenlaag. Deze laag heeft geen directe input of output van de buitenwereld.

Om deze problemen op te lossen kun je gebruik maken van een squashing functie waarbij alle uitkomsten binnen en bepaalde range vallen (bijv 0-1). Manier 1 is een extra gewicht in de functie stoppen, wat leidt tot een lineaire lijn. En je gebruikt het product van beide gewichten (de gewone en de tussenlaag). Zodoende maak je nog wel gebruik van de perceptron. Waarbij je dus eigenlijk op een foutieve classificatie uitkomt. Dus wanneer je op deze manier uitkomt op 1 lineaire lijn zit je fout.

Bij manier 2 moet bij de verborgen laag op sectie A alle individuele gewichten + de som hoger zijn dan de drempel en bij sectie B alle individuele gewichten kleiner zijn en de som groter dan de drempel. Je krijgt dan een s-curve. Dan spreek je van een continue (niet lineaire) squashing functie. Deze functie zorgt er dus ook voor dat alle antwoorden tussen 0-1 of -1 en 1 zijn
Dus om in een meerlagen systeem te classificeren moet je informatie weggooien. Dit komt uit het feedforward netwerk.

 

Problemen
Een probleem bij de squashingfunctie is echter nog de negatieve output. Wanneer je een grafiek van -1 tot 1 gebruikt, lijkt het alsof de negatieve informatie hoort bij inhibitie. Dit is echter niet het geval! Dit probleem kun je omzeilen door de waarden van de grafieken zo aan te passen dat je enkel nog uitkomsten tussen 0-1 hebt. Echter, wanneer je 0 input inbrengt, dan is de score al halverwege de grafiek en lijkt het alsof er veel activiteit aanwezig is. Dit klopt ook niet. Biologisch gezien is dit een zeer lastig uitlegbaar probleem. Zie de sheets voor bijbehorende afbeeldingen.

 

College 2

 

Classificatie

Bij een meerlagennetwerk is er sprake van een niet-lineaire scheiding in de input ruimte. Er wordt gebruik gemaakt van tussenlagen, maar deze moeten wel een doel hebben en iets doen. Als ze enkel vertalen krijg je een slecht 2lagig model. Als ze de functie veranderen door er andere gewichten aan toe te voegen gaat het goed. Eigenlijk moet je om het goed te doen dus ook concrete informatie weggooien. Dit is juist wat er gebeurd in een meerlagen netwerk. Als de input en de verdeling goed verloopt zijn er nog problemen in de output te vinden.

 

In het brein is de AIT (anterior inferior temporale cortex) een classificatielaag. De AIT heeft dan ook een groot receptief veld en is locatie invariant. Kom je in de lager gelegen gebieden, dan gaat de locatie invariantie weg. Bij een squashing functie kun je kiezen of de output wordt gegenereerd van -1 tot 1 of van 0 tot 1. In dit voorbeeld gaat het om gebied V4. Als je van -1 tot 1 kiest, is er bij 0 input ook 0 ouput. Als je dan verder wel output hebt, kun je in het beeld spreken van locatie aanduiding. Maak je echter gebruik van de verdeling van 0 tot 1 (ook wel alternatieve squashing functie genoemd), dan is er bij 0 input 0.5 aan output. Er is dan altijd activiteit. Zodoende kun je niet goed bepalen waar echte activiteit is en waar niet. Dan blijft de V4 locatie invariant.

 

Zo blijft er een probleem bestaan. Er is een oplossing voor bedacht als men gedetailleerder kijkt. Het enige wat de squashing functie doet is een classificatie maken. Of iets positief of negatief is maakt niet uit. De splitsing moet echter wel aanwezig blijven en deze moet antisymmetrisch zijn. De oplossing kan gemaakt worden via een vertaling van een populatie circuit voor artificiële netwerken. Zo wordt ook gelijk het probleem van de negatieve waarden opgelost. Zie het figuur op sheet 33. Met dit circuit kies je voor de sterkste tak en zo krijg je een scheiding in keuzes. Bewijs dat dit zo werkt is gevonden in katten.

 

Object invariantie
invariantie is iets zien op verschillende posities, schalen of zelfs met andere lichtinval. Invariantie is een probleem, omdat als je iets leert als standaard aan de rechterzijde, je het ook moet herkennen als het een keer links optreedt. Het menselijk brein is hier erg accuraat in, de vraag is alleen hoe dit gebeurd.

 

Een bepaalde verdeling van actieve neuronen is van belang om iets te herkennen. Ieder object heeft een vast patroon aan neuronen. Ieder object kun je echter vanaf veel verschillende posities zien. Maar alle beelden van een object hebben een limiet aan aantal mogelijke opties om het object te zien. Al deze opties hebben ook weer veel met elkaar te maken. Er is dus eigenlijk een classificatielijn nodig om de objecten te kunnen herkennen. Dit is omgezet in een perceptron classificatielijn. Er is gekozen voor een perceptron omdat het bijvoorbeeld wel of niet Piet is.

 

Zo simpel ligt het alleen niet. Alle objecten hebben vele representaties en al die representaties zitten in het brein verweven. We zouden willen dat dit heel netjes gebeurd, maar eigenlijk is het een soort papierprop in elkaar (metafoor). Ieder papiertje heeft wel zijn eigen betekenis en het ene papiertje gaat niet gemengd met het andere papiertje (een rood en blauw papier gaat niet met elkaar samen in groen, maar blijven rood en blauw) dus met de juiste functie zou je ze uit elkaar moeten kunnen halen. Met behulp van een meerlagenmodel wordt dan een classificatiemodel gemaakt. In dit model is de V4 erg belangrijk. Stap voor stap wordt de hele papierprop uit elkaar gehaald. De classificatie moet ook kunnen worden aangepast bij het aanleren van nieuwe objecten. Het is een langzaam leerproces. Uiteindelijk komt ieder model uit op een classificatieperceptron.

 

Gabor filters
een Gabor filter is een goede representatie van receptieve velden in de visuele cortex, voornamelijk bij de retina en V1. Belangrijke kenmerken van een Gabor filter zijn: center en surround. Deze kunnen beide aan en uit staan. Als een receptief veld niet vorm gevoelig is, wordt het weergegeven als een ronde cel bij de retina. Bij de V1 is er wel sprake van vorm gevoeligheid. Hierbij zie je figuren in de cel waaraan voldoen moet worden. Ons visuele systeem is erg contrast gevoelig, we zien voornamelijk de randen. De Gabor filter is een grote formule. Van belang is dat er kennis is van de parameters. Zie sheet 10 voor de complete formule met aanduidingen.
Het eerste gedeelte van de formule vormt de Gauss filter. De Gaborfilter in 1 dimensie wordt ook wel Gauss filter genoemd. De uitwerking ervan is een normaalverdeling. Doordat alles vermenigvuldigd wordt met –x^2 komen er altijd positieve functies uit en blijft er een symmetrie. Hoe dichter je bij de 0 zit, hoe groter de piek is. Zodra je alle input vermenigvuldigd met de Gauss functie blijft er een kleinere parabol over. Dat is selectiviteit. De Gauss filter zorgt dan ook voor selectiviteit en reduceert de input. Je kunt het filter verbreden door een grote sigma. Hoe kleiner je sigma is, hoe makkelijker er een scheiding te maken is.

 

De Gabor filter is groter dan de Gauss filter, omdat je alle input waarden ook nog met een cosinus vermenigvuldigt. Er ontstaat dan ook een soort golfpatroon. De cosinus kan zowel positieve als negatieve waarde generen (de Gauss filter kon alleen positieve waarden genereren). De daadwerkelijke output lijkt dan op een soort van Mexicaanse hoed. Als je naar de output kijkt staat positieve output voor exhitatie en negatieve output voor inhibitie. In de cosinus zit ook een phi waarde. Bij een grote phi waarde krijg je veel golffuncties en bij een kleine phi waarde krijg je weinig golffuncties. Zorg ervoor dat de phi zo staat dat je de Mexicaanse hoed in de output ziet. Dan kloppen de Gauss, cosinus en phi.

 

Als de drempelwaarde (O met een verticale streep erdoor) 0 is, dan blijft de piek op 0 staan. Als je de 0 wijzigt, verschuift de locatie van de piek ook. Dan kan er verschil worden gemaakt of de center of surround aan of uit staan. De Gabor filter zorgt dus voor het juiste contrast waarin iets wordt waargenomen. De totale activiteit is de som van alle positieve output. Je hebt dus een Gabor filter nodig om geprikkeld te raken.

 

Bovenstaande theorie komt vanaf een 1dimensioneel model. Het kan ook met een 2 dimensioneel model. Er komt dan een waarde bij. Het eerste gedeelte van de formule (de Gauss filter) wordt aangepast met een extra parameter (de gamma). Er ontstaat dan een piloom (zie sheet 29). De formule moet echter wel altijd positief blijven dit gebeurd door de y te kwadrateren die ook in de formule wordt toegevoegd. Dit zorgt er tegelijkertijd voor dat de y minder invloed heeft op x. x blijft dominant en deze bepaalt de richting. Ook nu ga je verder in de output weer op zoek naar de Mexicaanse hoed vorm. Zorg ervoor dat de phi goed staat. In dit geval kun je de hoek van de retinotopische weergaven ook draaien, zodat het overeenkomt met wat je moet hebben. Zie sheet 33.

 

De mate van scrambling ( het door elkaar gooien van informatie) bepaalt in hoeverre je kunt classificeren. Door scrambling kan men fouten maken in de identificatie.

Echter, het systeem is zo gebouwd dat er enorm veel overlap is tussen S1 neuronen in het identificeren van receptieve velden. Hierdoor worden fouten weinig gemaakt, omdat er veel van dezelfde informatie wordt doorgegeven. Dit is evolutionair gezien erg functioneel, omdat er zo bij een eerste blik al veel accurate informatie wordt vergaard.   

 

College 3

De grote vraag blijft hoe vind visuele perceptie plaats. Vooral voor het classificeren en herkennen van objecten blijft onduidelijk hoe dit verloopt. Er zijn een aantal gebieden uit de visuele cortex die invloed uitoefenen op deze processen. Dit weten we door onderzoek. Zo heeft objectherkenning een vast pad in het brein om plaats te vinden. Het complete proces haal je dan laag voor laag uit elkaar om te begrijpen wat er gebeurd.

Het proces van objectherkenning gaat vanaf V1 via allemaal gebieden naar de IT. In iedere laag zijn simpele en complexe cellen te onderscheiden. De simpele cellen geven meerdere brokjes informatie door naar de complexe cellen, die integreren deze. Vervolgens geven de complexe cellen weer informatie door aan de simpele cellen van de volgende laag. Hoe verder je in dit proces komt hoe groter de receptieve velden van de cellen worden en des te meer informatie zij kunnen verwerken. Let wel op dat hoe groter het receptieve veld is hoe minder er gezegd kan worden over de positie van een object.

Door steeds nieuwe objecten aan te bieden zal het model leren welke gewichten bij welke kenmerken horen en wordt het object steeds beter. Dit wordt ook wel ongesuperviseerd leren genoemd. Als de gewichten van te voren worden vastgesteld spreek je van gesuperviseerd leren. Alle lagen met uitzondering van de laatste laag werken via de Gabor filters. De laatste laag is die van de AIT naar de PIT deze werkt met een perceptron. Hier hoeft enkel nog een onderscheiding gemaakt te worden of iets het wel is of niet is. Vanuit het hele proces wordt dus stapsgewijs herkenning aangeleerd en ruis uitgefilterd.

Omdat er gebruik wordt gemaakt van feedforwardnetwerken kunnen er gemakkelijk fouten worden gemaakt omdat de details later worden ingevoerd en iets verkeerd kan worden herkend. Echter door de brede receptieve velden die later ontstaan wordt dit bijna altijd opgelost zodat er geen fouten plaatsvinden.

Het visuele systeem moet visuele scenes herkennen. Als informatie alleen maar verder gaat tot herkenning via een feedforwardnetwerk blijft er verder geen informatie over bijvoorbeeld de locatie over. Om deze reden zijn er ook feedbacknetwerken.

Als eerste is het belangrijk om te weten dat er veel netwerken zijn voor verschillende kenmerken. Bijvoorbeeld kleur, vorm en locatie. Doordat deze netwerken gescheiden zijn kunnen ze snel zijn, leren en productief informatie doorspelen. Zo een netwerk is geschikt als leermechanisme. Deze netwerken zijn vaak feedforward opgebouwd. Het simpelste feedforward netwerk kan leren. Hij weet welke output het moet generen bij welke input, dit kun je in een functie uitschrijven. Als je de functie uitschrijft krijg je een polynoom. De coëfficiënten in de formule staan gelijk aan de gewichten in het feedforward netwerk. (het feedforward netwerk en deze functie kunnen hetzelfde). Als je deze polynomen gaat samenvoegen krijg je bepaalde golfpatronen in de output. Zie hiervoor de sheets. De cosinus kan zodoende ook worden uitgeschreven als polynoom zodra je de juiste coëfficiënten hebt. Om ervoor te zorgen dat je functie de juiste output genereert voeg je steeds een coëfficiënt toe. Als het een golfpatroon moet worden gebruik je de even kwadraten. Deze zorgen ervoor dat de golven op het juiste punt zullen omslaan. Wel wordt in de juiste functie gebruik gemaakt van + en -. Als je de functie omhoog wil alten gaan gebruik je plus voor een omslagpunt gebruik je min. Als de functie eenmaal goed is en je zou de plus en mintekens verwisselen blijft er niets meer van de functie over. Dit komt overeen met het zomaar veranderen van je coëfficiënten in een leerstadia. Als je iets nieuws erin toevoegt is al het oude weg. Op dat moment spreek je van je een catastrofe interferentie. Je hebt stabiliteit nodig in je netwerk.

 

In feite kun je alle output nabouwen met een functie, je moet alleen wel oppassen dat je geen informatie kwijtraakt. Houd er wel rekening mee dat als je bepaalde punten opbouwt in een figuur er nog steeds een verschillende output kan ontstaan. Zie sheet 19. Een netwerk kan niet zomaar alles leren. Echter, hoe dichter de gegevens bij elkaar liggen, hoe minder er gevarieerd kan worden. Als er dan een nieuw gedeelte geleerd wordt, verdwijnt de oude kennis. Een oplossing voor dit probleem is 2 netwerken. Je zorgt ervoor dat de 1 kan leren en dit langzaam kan toevoegen in het andere netwerk zodat die kan herleren. Zo vermijdt je een catastrofe interferentie. Daarom heb je dus te maken met meerdere feedforwardnetwerken.

 

Meerdere netwerken zijn efficiënt. De netwerken lopen niet in elkaar over dus er is sprake van invariante herkenning. Uiteindelijk werk je zo toe naar het binding probleem. Het bindingprobleem is als het ware de prijs die je betaald voor invariante herkenning via feedforwardnetwerken. Daarom is er ook productieve herkenning. Invariante herkenning is dus nodig omdat je als je iets engs leert aan je rechterkant (bijv. rechts wordt je gebeten door een spin) en dat wanneer je die spin later aan je linkerkant ziet er wel gelijk een reactie is van ‘oei pas op’. Je weet dat het beest gevaarlijk is. Dat komt door invariantie herkenning. Het geeft aan wat er gebeurde door wat, maar niet waar. Dit fenomeen wordt door taal versterkt zodat er nog meer informatie vrijkomt. Invariante perceptie is dan ook de schakel tussen de bronnen van informatie. Om alles uiteindelijk juist te integreren moet je ook weten waar iets zich bevindt. Dan komt het feedbacknetwerk in actie. Dit wordt volgend college verder besproken.

Invariante herkenning is soms hard nodig en heeft zo ook zijn voordelen. Invariantie betekent: ‘Hangt niet af van’. Zo kun je locatie invariantie, grootte invariantie, schaal invariantie etc. hebben. Taal invariantie is voor de mens erg belangrijk. Dit is een eigenschap waarmee wij boven dieren uitstijgen. Dieren moeten altijd zien wat er gebeurd om te begrijpen waarom hun soortgenoten zich zo gedragen. Mensen kunnen dit door middel van taal overdragen.

 

In de visuele cortex zijn 2 paden voor verwerking. De ene verwerkt herkenning de ander locatie. Echter, zodra je weet wat iets is zit je zover in het pad van herkenningsverwerking dat je locatie invariant bent. Om juist te kunnen reageren in een situatie moet je wel weten waar iets bevindt. Op dit punt is invariantie niet handig, dit probleem kan gelukkig worden opgelost. De structuur van de visuele cortex is zo opgebouwd dat het integreren van kenmerken mogelijk maakt. Deze integratie is een samenwerking van feedforward en feedback. De feedback maakt gebruikt van default opties en zorgt er zo voor dat je uiteindelijk weet waar iets is. Om aan te tonen hoe dit geheel werkt zijn een aantal experimenten gedaan.

 

Er is een experiment met apen gedaan waarin de apen eerst een cue kregen aangeboden. Vervolgens kregen zij 4 objecten in hun visuele veld aangeboden. Vanaf het fixatiepunt moesten zij toen in 1 oogbeweging naar het juiste object. Dit was het object wat hetzelfde was als de cue. Bij deze taak werd de hersenactiviteit gemeten. Een van de belangrijke bevindingen was dat om het juiste object te selecteren zowel gebruikt werd gemaakt van objectkenmerken als locatiekenmerken. De activaties in beide visuele stromen moeten dan aan elkaar worden gekoppeld.

 

In de AIT blijft uiteindelijk alleen activiteit over voor de herkenning van een cue, daarna wordt er feedback gegenereerd, deze wordt teruggestuurd via het ventrale pad en geeft zo informatie door over de locatie. Op het moment dat er feedback komt worden de neuronen die al vuurden voor objectherkenning nog sterker geactiveerd. Dit gehele proces gebeurd in stadia. Op sheet 38 is te zien dat als de juiste keuze gemaakt is in het proces de oogbeweging pas kan worden gemaakt.

 

Het doorgeven van de informatie neemt een bepaalde tijd in beslag. De onset latency is het tijdsverloop naar een bepaald gebied vanaf het moment dat de cue is getoond. Zo zie je een vertraging ontstaan van de 1e naar de laatste activiteit. Dit geeft bewijs dat via feedback locatie informatie vanaf de ventrale stroom wordt doorgegeven naar de dorsale stroom. Deze stroom is ook aangetoond met een ander experiment.

 

In het 2e experiment (te zien vanaf sheet 44) werd alleen activiteit in de LIP gemeten. Er werd onderzocht welke neuronen vuren in vergelijking met hun receptieve veld. Bij een bepaald neuron zie je dan ook dat de 1e activiteit aanwezig is bij 60ms en de piek bij 180ms. Wat overeenkomt met de gegevens die hiervoor zijn besproken. Na een tijdje verminderde de activiteit weer. (Op de sheets staat de blauwe cirkel voor het receptieve veld en de rode cirkel voor de oogbeweging na 180ms, dus na herkenning vindt de oogbeweging pas plaats). De neuronen uit de LIP zijn herkenningsinvariant voordat de juiste locatie geselecteerd kan worden en oogbewegingen kunnen worden aangezet hebben zij informatie van de AIT nodig. In het complete proces wordt ergens informatie geïntegreerd en doorgestuurd.

 

Vanaf sheet 47 zijn er afbeeldingen die tonen hier dit dan gebeurd. Hiervoor moet je iets dieper naar de verbindingen in de cortex kijken. Ieder gedeelte is opgebouwd uit kolommen. Binnen deze kolommen vormt laag 4 altijd de input laag. Deze wordt alleen gebruikt door feedforwardnetwerken. Feedbacknetwerken gebruiken meestal de onderste laag om informatie door te sturen. Opmerkelijk is dat zij dus wel gelijktijdig op dezelfde kolommen informatie kunnen doorgeven. Ze werken alleen in tegenovergestelde richtingen. Dit is wel nuttig bij de interactie van de netwerken.

Beide netwerken kun je ook dingen aanleren.

Voor feedbacknetwerken wordt gebruik gemaakt van de Hebbiaanse leerregel. Deze stelt dat neuronen die samen vuren bij elkaar horen. Zo kun je feedback herkende objecten laten selecteren met behulp van selectieve connectie gewichten. Alle mogelijke neuronen op het pad terug zullen buren bij feedback omdat er sprake is van locatie invariantie. Door de juiste gewichten wordt alsnog de juiste informatie doorgestuurd.

 

Hoe het versturen van feedbackinformatie werkt is vanaf sheet 50 te zien. De connecties van feedbacknetwerken zijn aangeleerd bij objecten. Met behulp van een model vindt er interactie plaats. Deze interactie gaat via een circuit dat de netwerken met elkaar verbindt. In de output is dit een disinhibitie circuit. Dit komt omdat de interactie bij de output bestaat uit exhiberende en inhiberende neuronen. Met behulp van disinhibitie verkrijg je het beste resultaat. Disinhibitie kan er namelijk voor zorgen dat bepaalde informatie toch wordt doorgestuurd in lokale kolommen.

 

Op het moment dat een bepaalde kleur de cue is en de bijbehorende neuronen zijn geactiveerd zie je dat de andere neuronen worden onderdrukt. Op het moment dat dan de kleur van de cue wordt gewijzigd, gebeurd er eerst niets. Dan worden met behulp van disinhibitie de geinhibeerde neuronen losgemaakt. Op het moment dat zij dan getriggerd worden via een ander netwerk geven zij ineens veel meer activiteit door. Dan zie je een omschakelingspunt waarbij de eerst geinhibeerde lijn meer activiteit gaat krijgen dan de eerst exhiberende lijn. Kijk hiervoor ook naar sheet 63. Dit ontstaat door een verbinding tussen positie en kleur, evenals met behulp van feedforward en feedback informatie. Alle netwerken en verbindingen zijn nodig om een goed beeld te krijgen.

Zodra er iets is aangetast kun je problemen krijgen met het herkennen van objecten of terugvinden van objecten zoals bij mensen met visuele agnosia. Dit heeft te maken met de ventrale en dorsale stromen in de hersenen.

College 4

 

Formules: gradient descent en de deltra regel

Vanaf hier wordt in het college de wiskunde verwerking achter backpropagation omschreven. Van dit proces hoef je enkel te begrijpen hoe het werkt en wat er gebeurd. Zelf hoef je geen formules op te gaan stellen. Bakpropagation vindt plaats in feedforwardnetwerken. Het maakt gebruik van de gradient descent en een delta regel. Bij kunstmatige intelligentie is leren het belangrijkste wat er is. Zonder leermechanisme kunnen de modellen nooit verder komen.

 

Om te begrijpen wat de deltaregel en bijbehorende gradient descent is, wordt een illustratie met formules aangeboden. Deze maakt gebruik van een tweelaags feedforward netwerk. Dit netwerk is opgebouwd uit een input (n) en output (a) laag met gewichten die deze aan elkaar verbinden. Dit tweelaags feedforwardnetwerk is een perceptron. Om een perceptron nieuwe dingen aan te leren, wordt gebruik gemaakt van een leeralgoritme. Dit leeralgoritme moet zodanig kunnen worden bijgesteld dat het de juiste gewichten toekent tussen de input en outputlaag. Dit college gaat over hoe dit leeralgoritme werkt. Het leeralgoritme kent een grote formule: de delta regel. Deze maakt gebruik van de gewichten van het netwerk, de errorfunctie en de input en output. Nu zal eerst worden uitgelegd hoe deze regel/ formule in elkaar zit.

 

Voor het zien van de figuren en bijbehorende formules wordt doorverwezen naar het collegedictaat van de heer v.d. Velde.

In het leeralgoritme van de delta regel is een errorfuntie opgenomen. Deze functie bepaalt de error van de gewichten, zodat de gewichten, als dit nodig is, kunnen worden bijgesteld. Om nieuwe onderwerpen te leren is een leeralgoritme inclusief errorfunctie nodig in de formule. Deze errorfunctie kan zeer kort worden opgeschreven. Echter om hem goed te begrijpen wordt deze eerst uitgebreid toegelicht. Zie nu de sheets om te zien waaruit de errorfunctie bestaat, mocht dit niet duidelijk zijn, pak dan het collegedictaat erbij daar staat exact in beschreven hoe aan sommige waarden/ getallen of functies gekomen is. Als dit duidelijk is, is de volgende stap het veranderen van de error nodig. Hoe beter de gewichten corresponderen in het netwerk, hoe kleiner de error zal zijn. Op het moment dat er gesproken wordt over een veranderde error staat er een driehoekje (delta) voor de error. De error kan alleen worden aangepast als de gewichten die leiden van de input tot output worden aangepast. Ook geldt dat als de error waarde in de formule negatief is, de echte error steeds kleiner wordt. Je kunt deze waarde negatief maken door w11 gelijk te stellen aan (d1-a1)*n1. Op die manier zal de vermenigvuldigde uitkomst altijd een positief getal bevatten, wat samen met het minteken altijd leidt tot een negatieve uitkomst. 

 

De aangepaste error wordt ook wel de descent error genoemd, dit betekent de afgeleide. De afgeleide is eigenlijk niets anders dan een lijn die de componenten van de verandering bevat. In onze formules staat er nog een extra symbool voor de descent, dit houdt in dat het een partiële (gedeeltelijke) descent is. Dit komt omdat er 2 variabele zijn (je hebt 2 gewichten). Op het moment dat er maar 1 variabele is, vervalt de gedeeltelijke afgeleide en gebruik je de gewone afgeleide. De gedeeltelijke descent houdt in dat je de verandering van de error baseert op 1 gewicht (of variabele), terwijl je de andere gewichten (of variabelen) niet aanpast en dus constant houdt. Dit kan omdat hierbij de vermenigvuldigingsregel (of kettingregel) kan worden toegepast. Zie hiervoor het collegedictaat pagina 3.

 

De kettingregel wordt gebruikt zodat het kwadraat uit de formule kan worden weggewerkt. De afgeleide van een constante is overigens altijd 0. Door gebruik van de descent gaat de error dan omlaag. Zodoende heb je dan een leerregel (de deltaregel) die de gewichten in een perceptron zo kan aanpassen dat het feedforwardnetwerk kan leren.

Uit de descent kan de gradient worden berekend. De gradient geeft aan naar welke kant de verandering van de error plaatsvindt en hoe groot de verandering maximaal kan zijn. Met behulp van de gradient kunnen we gewichten zodanig worden aangepast dat de error daalt. Zo zullen de gewichten altijd in tegenovergestelde richting van de error veranderen. Zo laat de gradient dus zien wat de maximale toename is en het tegenovergestelde van de gradient laat de maximale afname zien. Door deze tegenstelling wordt deze leermethode de gradient descent genoemd. De leermethode maakt gebruik van de delta regel. Als dit allen samen wordt toegepast kan gesproken worden over de totale error.

Delta regel: de delta regel toont wat de verandering van een gewicht moet zijn om de error van het netwerk te verminderen.

Complicatie: niet lineaire output.
Zodra er bij de gradient descent sprake is van een niet lineaire output (a) ontstaat er een complicatie. Deze kan worden opgelost met een squashing functie. Bij zo een functie worden uitkomsten beperkt tot waarden die in bepaalde intervallen vallen, zoals 0 en 1. Dit proces zie je terugkomen bij meerlaagse netwerken en niet bij perceptrons. Een voorbeeld van zo een functie wordt getoond op pagina 5 van het dictaat, dit is een logistische functie. Om nu de gewichten te berekenen moeten opnieuw de afgeleiden (descent) worden vastgesteld. In de berekening hiervoor is 1 uitbreiding vergeleken bij de perceptron. Er moet een extra factor worden berekend. De formules voor deze berekening vind je op pagina 6.

Backpropagation formules
Backpropagation is de leermethode van feedforwardnetwerken. Deze leermethode werkt via de bovenstaand uitgelegde gradient descent en de delta regel. Het juist toe kunnen passen van backprogation is een van de belangrijkste elementen van kunstmatige intelligentie. De modellen hebben leermechanismen nodig, anders kunnen ze nooit verder komen in hun ontwikkeling.

 

Zojuist is een perceptron uitgelegd. Echter bestaan er ook feedforwardnetwerken met meerdere lagen, waarbij een perceptron ons niet kan helpen. Nu wordt een voorbeeld besproken van een feedforwardnetwerk met een inputlaag (n), verborgen laag(h) en outputlaag(a). De letters tussen de haakjes staan voor hun weergave in de formule. In een meerlagennetwerk wordt de squashingfunctie f(x) zoals hierboven besproken toegepast. Ook is de errorfunctie aanwezig, dit is dezelfde formule als bij de perceptron. Ook hier moet de error verminderd worden. Om dit te doen wordt de gradient descent toegepast voor de connecties tussen de verborgen en outputlagen en voor de connecties tussen de verborgen lagen en inputlagen. Er zijn dus 2 gewichten die kunnen worden aangepast. De verandering van het gewicht tussen de verborgen en inputlagen is lastiger te berekenen, omdat normaal gesproken de error op output niveau wordt berekend. De verandering van dit gewicht wordt daarom bepaald door zowel de error als de input plus een toegevoegde factor. Deze toegevoegde factor is afkomstig door het gebruik van de squashing functie. Dit is de transformatie van de verborgen lagen en outputlagen.

Als je deze toegevoegde factor even zou negeren en je kijkt naar de formules dan is de error tussen de verborgen en input laag als het ware back-proapgated door de gewichten van de verborgen en outputlaag. Dit komt doordat de error die daar geobserveerd is mede verantwoordelijk is voor het gewicht tussen de verborgen en inputlaag. De error daar kan alleen worden verminderd met errorgegevens van hoger gelegen functies. Daarom is sprake van back-propagation. Vanaf nu wordt in de sheets getoond hoe dit eruit ziet in output.

 

Backpropagation output
Perceptrons kunnen leren om patronen te classificeren met behulp van backpropagation. De gewichtsruimte is in de output de waarde waar de gradient descent naar toe moet. Dit is de zo laagst mogelijk haalbare waarde, afhankelijk van het startpunt van de golvende lijn waarin begonnen wordt. Op het moment dat er 2 golven zijn en de training start in de golf die niet de minimale error bevat spreek je van een local minima probleem. Hierbij is het eindpunt dus wel in een dal, maar niet in het meest dalende dal. Het is niet mogelijk om hieruit de komen zonder extra fouten te maken. De error hierdoor niet minimaal worden, toch is er soms een oplossing voor dit probleem.

Er wordt vooral gelet op het begin en einde van een training om te bepalen hoe klein de error kan worden. Deze punten staan aangegeven in de grafiek. Er kan met grote of kleine sprongen worden toegewerkt naar de minimale weight space. Als er steeds een kleine errorverandering is, wordt er met kleine stappen toegewerkt naar de minimale gewichtenruimte, als de errorverandering groot is gaan deze stappen wat harder. Dit is mede afhankelijk van de gewichtsaanpassing. Als de stappen erg groot zijn kan dit tot een oplossing leiden van het local minima probleem. De grootste daling wordt dan overgeslagen waardoor er via een dubbele stap naar het laagste punt kan worden toegewerkt. Zie sheet nr. 34. Dit kan ook fout gaan waardoor de minimale error wordt overgeslagen. Zie sheet nr. 35.

 

Backpropagation: Rumelhart model
Backpropagation wordt ook toegepast bij semantisch leren. Het kan worden toegepast om te zien hoe leerstructuren werken. Er zijn verschillende niveaus aanwezig waarin wij onze woorden classificeren. Door deze te analyseren kan een model opgebouwd worden zoals op sheet nr. 36. Hoe dit precies werkt kan worden uitgelegd aan de hand van het Rumelhart model te zien op sheet nr. 37.

 

Het Rumelhart model is opgebouwd uit meerdere lagen. Een epoch representeert alle input. Iedere input vormt een item-relatie paar. Deze zijn random verwerkt. Alle verbindingen in het netwerk hebben random kleine gewichten gekregen. Door trainingen met dit netwerk worden deze gewichten langzaam maar op een juiste manier aangepast door middel van backpropagation. Per onderwerp verschil wordt de Euclidean Distance (ED) berekent. Als eerste is er onderscheidt in het model tussen 3 niveaus: superordinate, subordinate en intermediar. De eerste aanpassing in gewichten die gemaakt wordt is per niveau. Alle items per niveau krijgen ongeveer hetzelfde gewicht. Als eerste zijn er dan gewichtsveranderingen voor individuele kenmerken die tegenover elkaar staan. Hoe sterker de gewichten zijn ingesteld, hoe meer error aanwezig zal zijn als er een fout is. Het netwerk leert snel door coherente eigenschappen. Het heeft wel moeite met het aanleren van schijncorrelaties. Dit zijn specifieke kenmerken bij 1 onderwerp die niet overeenkomen met andere onderwerpen uit een categorie, zoals een dennenboom die geen bladeren heeft, terwijl alle andere bomen wel bladeren hebben. Aan het model kan worden aangeleerd welke kenmerken belangrijke zijn voor een categorie, zodat het binnen een categorie deze kenmerken sterker onderscheidt (differentiëren). Dit kunnen verschillende kenmerken zijn onder verschillende categorieën. Nieuwe onderwerpen worden dan ook sterk nagekeken op zulke kenmerken. Ook weer met behulp van backpropagation.

 

College 5

 

Attractor neuraal netwerk
Een attractor neuraal netwerk (ANN, ofwel Hopfield netwerk) bestaat uit een groep interneuronen. Deze neuronen zijn sterk verbonden met elkaar en hebben een netwerk wat zelfs na de verdwijning van een stimulus nog actief kan blijven. Daardoor zijn dit soort netwerken uitermate geschikt voor het korte termijn geheugen. Ook dit netwerk kan gewichten toekennen aan de onderlinge verbindingen door middel van Hebbian Leerregels. Dit kan zelfs gebeuren als er maar een deel van de informatie aanwezig is, of in combinatie met ruis. Dit soort netwerken is ook terug gevonden in de hippocampus.

 

Basismodel ANN
Het basismodel van een ANN netwerk is deterministisch. Alle neuronen zijn met elkaar verbonden en hebben gewichten. De verbindingen in deze netwerken zijn wederkerig. Let daarom goed op de schrijfwijze van de formules. De neuronen in dit werk kunnen of actief (1) of niet- actief (-1) zijn. Verder zijn er geen mogelijkheden. De activatie van de neuronen wijzigt afhankelijk van de dynamica van het netwerk. Waarschijnlijk veranderen de waardes door updates bij de neuronen. Iedere neuron verandert op een bepaald tijdstip (t). Als 1 neuron verandert, ontstaat er een leerproces. Ook is het bij deterministische modellen zo dat verandering in energie altijd gelijk is of kleiner dan 0. Er zal nooit extra energie worden vrijgegeven.Voor de formule van het updaten van een neuron zie pagina 3 van het collegedictaat.

De neuronen bevatten een drempelwaarde waarna ze kunnen gaan veranderen. Door het veranderen van de neuronen kunnen er bepaalde patronen ontstaan. Deze patronen zijn medeafhankelijk van het lokale veld waar de neuronen op reageren. Om patronen te noteren wordt ook gebruik gemaakt van vectoren. De mogelijke patronen staan vast, maar zijn voor iedereen verschillend. Van belang is ook om het juiste locale veld erbij te zoeken. Patronen kunnen veranderen als de input in het lokale veld wijzigt. Dit wordt ook wel de dynamica genoemd. Veranderingen worden aangeduid met tijdstippen (n(t+1)). Dit zie je terug in de collegesheets. De patronen worden opgeslagen met gebruik van Hebb’s leerregel (zie pag 4 collegedictaat).

De bovengenoemde Hebbiaamse leerregel is te combineren met de dynamica. Zo kunnen afwisselende patronen worden bekeken. Van belang is om te weten hoe dit via de formule in zijn werk gaat. Zie voor de formules het collegedictaat en de sheets.

 

Stabiliteit
Zodra een patroon is opgeslagen in het ANN wordt het stabiel genoemd. Dit houdt in dat de dynamica van het netwerk ervoor zorgen dat het ANN actief blijft volgens het patroon. Deze activiteit staat cell assembly toe zelfs als de stimulus niet meer aanwezig is. Cell assembly is dat een bepaalde groep van neuronen vaak tegelijkertijd actief zijn. Als voorbeeld kun je hierbij denken aan het lezen van het werkwoord lopen. Hierbij worden zowel neuronen actief die het woord kunnen lezen, als neuronen in de motorische cortex die te maken hebben met je benen (om te kunnen lopen). Dit kun je nakijken door de activiteit van een bepaald neuron te bekijken in een patroon van een ANN.

 

Stochastische netwerken:

Een stochastisch netwerk is een netwerk waarbij de energie niet altijd kleiner of gelijk hoeft te zijn aan 0. Dit is in deterministische ANN wel het geval. Bij een stochastisch netwerk bestaat dus de kans dat de energie verhoogt en dat een ander lokaal minimum wordt bereikt en daarmee een andere representatie. Met een deterministisch netwerk is het onmogelijk om uit een spurieus patroon te komen (een patroon wat lijkt op het echte patroon, maar het niet is. Maar met een stochastisch netwerk is dit wel mogelijk.

 

Phase sequence:

Phase sequence heeft te maken met interne cognitieve processen, ofwel: je eigen denkvermogen. Het gaat er hierbij om dat een cell assembly, zoals hierboven uitgelegd, actief is bij een bepaalde stimulus. Wanneer de stimulus niet meer wordt laten zien, wordt een cell assembly minder actief, en sterft de activatie uit. Hierna wordt weer een andere cell assembly actief, wat phase sequence wordt genoemd. De cell assemblies volgen elkaar dus als het ware op.

 

Geheugen en onderscheid maken tussen stimuli:

Geheugen is gebaseerd op long term potentiation. Dit is ook wel hebbiaans leren: wanneer een postsynaptisch neuron actief wordt na activatie van een presynaptisch neuron, worden ze sterker met elkaar verbonden.

 

Volgens een artikel van Norman en O’ Reilly zijn er 2 vormen van geheugen, namelijk recall en recognition. Bij recall gaat het om specifieke informatie, terwijl recognition zich beroept op globale informatie. Bij het zoeken naar je eigen fiets moet je je dus beroepen op recall, terwijl bij het inbeelden van een fiets je je beroept op recognition. Ook blijkt dat de hippocampus vooral van belang is bij recall en de cortex bij recognition.

 

De hippocampus is daarnaast erg goed in het onderscheiden van bepaalde stimuli. Dit kan doordat in het gebied CA3 zogenaamde sparse representations aanwezig zijn. Dit betekend dat bij bepaalde inputpatronen maar een gedeelte van de neuronen actief is. Zo vindt er dus weinig overlap plaats. De cortex blijkt hier minder goed in te zijn.

De rest van het college zal tijdens college 6 aan de orde komen.

 

College 6

 

Aanvulling college 5:

 

Er zijn 3 functies die elkaar in cognitie beïnvloeden, dat zijn: grounding, productiviteit en dynamische verwerking.

 

In het brein is productiviteit een belangrijk kenmerk. We kunnen met beperkte middelen veel bereiken.

 

Een voorbeeld van grounding is terug te vinden in fantoomsensaties. Ramachandran onderzocht dit fenomeen. Hij kwam tot de conclusie dat mensen met bijvoorbeeld een geamputeerde hand hiervan nog wel sensaties op andere plaatsen in het lichaam kunnen hebben, zoals de wang of de bovenarm. Dit komt omdat de representatie van de geamputeerde hand nog wel in de hersenen in een kaart terug te vinden zijn. De neuronen die zich op deze kaart bevinden gaan dan input in nabijgelegen gebieden zoeken en daardoor kan het zijn dat je je hand voelt wanneer je je wang aanraakt. Dit houdt dus in dat de kaart in het brein grounded is en zich blijft representeren.

 

Productiviteit is ook terug te vinden in onze grammaticale kennis. We kennen namelijk vele woorden en basale zinstructuren en via deze 2 gegevens kunnen we door middel van associaties alle zinnen die we te horen krijgen ontleden en begrijpen. We hoeven ze hiervoor dus niet eerst te leren. Dit zou ook erg veel tijd kosten, die er niet is. Dit is ook terug te vinden in bijvoorbeeld het schaken. We kunnen een schaakstelling compositioneel verwerken zonder per schaakstuk te kijken waar het staat. We zien dus een patroon van pionnen bijvoorbeeld, in plaats van iedere pion apart. Tot slot is dit ook in kunst terug te vinden. Als we kijken naar het werk van Mondriaan, zien we dat er met de basiskleuren (blauw, geel, rood) en basis vormen (horizontale en verticale lijnen in dit geval) vele combinaties mogelijk zijn. Iedere relatie kan worden aangegaan.

 

College 6:

 

In de rest van het college zijn de vragen die op blackboard staan behandeld. Het is hierbij van belang dat er bij vragen over bijvoorbeeld Gabor filters en Backpropagation niet te diep wordt ingegaan op de achtergrond hiervan, maar dat het wel begrepen wordt.

 

Vragen die van belang zijn, zijn:

  • Wat is een receptief veld van een neuron?

Dit is het gedeelte op de retina om een neuron aan te vuren.

  • De formule van de gabor filter en welke receptieve velden deze formule beschrijft?

De Gabor Filter gaat over een receptief veld van het center-surround type.

  • Welke leerregel kom je ook tegen in een twee lagig netwerk? Wat is het verschil tussen leerregel 1 en leerregel 2?

De regel die je ook in een twee lagig netwerk tegenkomt is de 2e leerregel op de sheet met de vraag over backpropagation. Er zijn 2 belangrijke verschillen tussen leerregel 1 en 2, namelijk: leerregel 1 bevat een extra gewicht in de formule, namelijk de Wik. Dit omdat deze formule ook meerdere lagen omvat. Het tweede verschil is dat leerregel 1 ook een somteken in de formule heeft staan. Dit is van belang omdat deze leerregel betrekking heeft op meerdere outputneuronen.

 

De vragen die op blackboard zijn, geven de rode draad aan van de vragen die op het tentamen kunnen verschijnen. Ook kunnen er variaties van deze vragen optreden op het tentamen.

Bron

Deze samenvatting is gebaseerd op collegejaar 2012-2013.

Check page access:
Public
Check more or recent content:

Artificial Intelligence & Neurocognition: Summaries, Study Notes and Practice Exams - UL

Study guide with articlesummaries for Artificial Intelligence at Leiden University - 2022/2023

Study guide with articlesummaries for Artificial Intelligence at Leiden University - 2022/2023

Articlesummaries with Artificial Intelligence at Leiden University

Table of content

  • Modeling visual recognition from neurobiological constraints
  • Achieving machine realization of truly human-like intelligence
  • Untangling invariant object recognition
  • Computing machinery and intelligence
  • Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project
  • Robots with instincts
  • Male and female robots
  • Speed ​​of processing in the human visual system
  • Sparse but not ""Grandmother-cell"" coding in the medial temporal lobe
  • Perceptrons
  • Learning and neural plasticity in visual object recognition
  • Breaking position-invariant object recognition
  • A feedforward architecture accounts for rapid categorization
  • Hierarchical models of object recognition in cortex
  • Articlesummaries with prescribed articles for AI - 2020/2021
Access: 
Public
College-aantekeningen bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden - 2014/2015

College-aantekeningen bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden - 2014/2015


4.1 Parallelle distributieproces benadering

 

Alles wat we om ons heen zien lijkt bekend. We hebben verwachtingen over de objecten die we zien. Deze objecten kunnen we ook omschrijven en benoemen. Het begrijpen hiervan is een basiselement voor het waarnemen van de wereld. Hoe dit kan is de hoofdvraag in het onderzoek bij semantische cognitie.

 

Het onderzoek van semantische processen was een centraal punt voor de experimentele en computer onderzoeken aan het begin van de cognitieve revolutie. Tussen 1960-1970 was men overtuigd van een vaste set proposities in de hersenen voor semantische kennis. In de jaren ‘70 besloot men dat dit bij sommige categorieën niet klopte. Toen ontstond de ‘op gelijkheid gebaseerde benadering’. Deze benadering stelde dat semantische informatie wordt gecodeerd op basis van kenmerk gebaseerde representaties. Er kwamen specifieke hypotheses over hoe dit mechanisme zou werken.

 

Tegenover de ‘op gelijkheid gebaseerde bandering’ stond de ‘theory theory benadering’. Deze benadering suggereert dat semantische kennis is ingebouwd in een systeem van impliciete geloven over causale krachten die zorgen voor de observeerbare kenmerken van een object. Impliciete en informele causale theorieën bepalen welke set van items hoort bij een generalisatie. Hierbij rijzen de vragen: welke kenmerken zijn nodig voor het bepalen van een categorie? Welke eigenschappen zijn makkelijk aan te leren welke niet? De ‘theory theory benadering’ heeft echter nooit een model uitgebracht, maar enkel theorieën omschreven en generalisaties aangeboden.

 

Dit artikel kijkt verder naar een theorie over de cognitieve mechanismen die gebruikt wordt bij spreidingsactivatie en op gelijkheid gebaseerde theorieën. Er wordt vooral gekeken naar de fenomenen die centraal zijn bij de kritieke reacties op de op gelijkheid gebaseerde theorieën.

 

Het PDP kader

Het model dat gebruikt wordt is dat van Rumelhart uit figuur 1. Hierbij wordt gekeken naar hoe propositionele informatie werd opgeslagen in een propositioneel hiërarchisch model zoals je in figuur 2 ziet. De input en output lagen komen overeen met de bestanddelen van de proposities. Ieder bolletje is weer gekoppeld aan andere bolletjes in het model.

 

De items hebben meerdere relaties door het model en moeten uiteindelijk uitkomen bij de juiste attributie. De taak van het model is de juiste attributen in de output aan te geven als die overeenkomt met de input. Het model is een netwerk dat bestaat uit een serie van niet-lineaire units. De units zijn georganiseerd in lagen. Door units te activeren komt er een attributie tot stand. Hiervoor worden bij iedere pijl waarden berekend zodat de juiste unit gaat.....read more

Access: 
Public
College-aantekeningen bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden - 2012/2013

College-aantekeningen bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden - 2012/2013


College 1

 

Neurocognitie is voortgekomen uit de mens die iets wil weten over cognities. De 2 hoofdvragen hierbij zijn: Hoe produceert het brein cognities en hoe kun je cognities toepassen. Neurowetenschappers laten zich dan ook inspireren door het brein.

Al 20 jaar is er veel belangstelling voor de relatie tussen cognitie en breinprocessen. Deze stroming is begonnen met Gazzangia, die de een van de grondleggers is van de cognitieve neurowetenschap. Cognitieve neurowetenschappen gaan over het begrijpen van algoritmes en hoe deze in het brein werken. Deze breinprocessen (mechanismen) willen ze omschrijven. Het doel is dus een mechanische verklaring opbouwen zodat men kan laten zien hoe het brein letterlijk werkt. Zodra ze weten hoe iets werkt, zetten ze dit om computerprogramma’s.

Een voorbeeld van zo’n computerprogramma is de Blue Gene supercomputer. Deze computers worden gebruikt om kolommen uit te cortex na te bootsen. De menselijke cortex bestaat uit een structuur van 6 lagen. De complete structuur is 2mm dik. 80% van de neuronen in de cortex zijn piramideneuronen. Deze neuronen kunnen in verschillende lagen werkzaam zijn. Het zijn de langste neuronen.

Door echter simpelweg breinonderdelen in een computer over te schrijven weet je nog niet precies hoe dit werkt. Daarnaast is een supercomputer ook niet praktisch. Hij neemt veel ruimte in beslag en kost veel energie. Het doel is deze uiteindelijk zo klein mogelijk te maken.

Deze cursus kijkt vooral naar patroonherkenning, classificatie, geheugen en leren. En maakt daarbij gebruik van de analyse van basisnetwerken en zaken gerelateerd aan hogere intelligentie (Zoals taal).

Basis
De basis van waaruit men begon te werken waren neuronverbindingen. Een neuron zorgt met haar axon en dendrieten voor de communicatie. De axon kan actiepotentialen (of spikes) genereren. Dit wordt ook wel een artificieel netwerk genoemd.
Schematisch gezien gaat de Activiteit via een Gewicht naar de volgende Neuron die weer in een Activiteit kan veranderen. Door het Gewicht. Het gewicht is gelijk aan de synaps: daar wordt de activiteit versterkt of verzwakt.

Er zijn 2 uiterst basale netwerk typen. Vandaag wordt de 1e behandeld, volgende week de 2e.

 

  • Feed forward netwerk
    hierbij gaan de signalen maar 1 richting op, want er is geen tijd op terug te gaan. Het systeem werkt dus bottom-up en niet top-down. Een voorbeeld hiervan is het visuele systeem. Informatie gaat langs de lagen steeds verder het systeem in totdat er herkenning optreedt. Alle neuronen zijn met elkaar verbonden per laag. Het signaal kan steeds verder naar beneden gaan en komt niet meer terug omhoog. Alle neuronen hebben specifieke eigenschappen.

Er bestaan ook gemixte types waarbij sommige regio’s, veel met elkaar in contact staan. In dat geval kan er.....read more

Access: 
Public
TentamenTests bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden

TentamenTests bij Artificial Intelligence and Neurocognition aan de Universiteit Leiden


Vragen

Lecture 1

Vraag 1

Wat is het verschil tussen zwakke AI en sterke AI? Wat zijn de aannames en wat betekent dit voor AI?

Vraag 2

Wat is het verschil tussen symbolische AI en connectionistische AI?

Vraag 3

Wat is de Turing imitation game? Hoe relateert dit zich aan intelligente systemen?

Vraag 4

Hoe relateert Searle's Chinese kamer argument zich aan de Turing imitation game? Wat voor conclusie zou Searle trekken over een computer die de test verslaat?

Vraag 5

Verklaar de kritiek op symbolische AI. Geef argumenten voor en tegen.

Vraag 6

Wat zijn de gelijkenissen tussen connectionistische AI architecturen en het menselijke brein?

Vraag 7

Wat betekent content-addressable zijn voor het menselijke geheugen?

Lecture 2

Zie bijlage.

Lecture 3

Vraag 21

Waarom hebben robots sensoren en effectoren nodig? Geef ook definities.

Vraag 22

Wat zijn vrijheidsgraden binnen robotica? Geef ook een voorbeeld.

Vraag 23

Wat zijn de verschillen tussen gedrag van twee Braintenberg voertuigen, waarvan er één recht en de ander gekruiste excitatorische connecties heeft. Beschrijf dit gedrag ook.

Vraag 24

Wat gebeurt er met de twee voertuigen uit vraag 23, als de connecties inhibitorisch zijn in plaats van exciterend?

Vraag 25

Wat gebeurt er als er een threshold functie wordt geïmplementeerd.

Vraag 26

Hoe kan een voertuig met thresholds reageren op bepaalde sequenties van input waardes?

Vraag 27

Hoe kan geheugen in een voertuig worden geïmplementeerd?

Vraag 28

Welke twee technieken kan een robot gebruiken om te leren? Leg deze uit.

Vraag 29

Verklaar het verschil tussen feedforward en feedback motorische controle systemen. Welke wordt wanneer gebruikt? Wat is een nadeel aan feedforward motorische controle systemen?

Lecture 4

Vraag 30

Welke drie typen netwerken zijn er? Beschrijf deze.

Vraag 31

Wat zijn argumenten voor de suggestie dat object herkenning en classificatie in de hersenen plaatsvindt door middel van feedforward netwerken?

Vraag 32

Wat is het receptieve veld van een neuron?

Vraag 33

Welke variatie in een receptief veld is er te zien, als het gaat om een receptief veld in een feedforward netwerk in de hersenen, dat visuele informatie verwerkt voor object herkenning en classificatie?

Vraag 34

Wat is een topografische of retinotopische representatie?

Vraag 35.....read more

Access: 
JoHo members
Summaries and study services for Psychology Bachelor 2/3 at Leiden University - Specialisation courses & Electives - Year 2022/2023

Summaries and study services for Psychology Bachelor 2/3 at Leiden University - Specialisation courses & Electives - Year 2022/2023

FSW building

This bundle contains relevent study materials with the second and third year of the Psychology Bachelor programme, in Dutch and English for Leiden University. Do you have your own lecture notes or summaries to share? Make your fellow students happy and upload them to your own WorldSupporter profile.

Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

Check more of this topic?
How to use more summaries?


Online access to all summaries, study notes en practice exams

Using and finding summaries, study notes en practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Starting Pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
  2. Use the menu above every page to go to one of the main starting pages
  3. Tags & Taxonomy: gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up
  4. Follow authors or (study) organizations: by following individual users, authors and your study organizations you are likely to discover more relevant study materials.
  5. Search tool : 'quick & dirty'- not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject. The search tool is also available at the bottom of most pages

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study (main tags and taxonomy terms)

Field of study

Access level of this page
  • Public
  • WorldSupporters only
  • JoHo members
  • Private
Statistics
2077
Comments, Compliments & Kudos:

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.