Uittreksel “Kunstmatige Intelligentie”: Machines met geheugen

De onderzoekers, onder leiding van computerwetenschapper en neurowetenschapper Demis Hassabis van het Britse bedrijf Google’s DeepMind, maakten gebruik van deze kennis. Het kunstmatige neurale netwerk leerde in 2015 de klassieke Atari-spellen onder de knie te krijgen. De enige input die het kreeg waren de kleurpixels van het scherm en de score. Als uitgang gaf het netwerk opdrachten voor de bewegingen van de joystick. De training was gebaseerd op het principe van versterkend leren. Positieve beslissingen worden later beloond, in dit geval door punten te winnen. Het algoritme leerde geleidelijk door vallen en opstaan.

Een belangrijk onderdeel van het netwerk was een soort herhaalknop. Ze bewaarde een deel van de trainingsgegevens en herhaalde deze “offline” om opnieuw te leren van haar successen en mislukkingen. Het bleek dat My Arithmetic Network superieur was aan andere algoritmen in directe vergelijking. Ik begreep niet alleen beter, maar vooral sneller.

Volgens Helge Ritter zijn er momenteel verschillende manieren om kunstmatige neurale netwerken een soort episodisch geheugen te geven. Het doel is voor allemaal hetzelfde: de leertijd verkorten en het aantal voorbeelden dat nodig is voor training verminderen. In 2016 demonstreerden computerwetenschapper Oriol Vinyals en zijn team van DeepMind een manier om precies dat te doen. Ze rustten een netwerk uit met een “geheugencomponent” die informatie opslaat die nuttig is voor de taak.

Voor de training moeten ze nog een grote dataset van 60.000 afbeeldingen gebruiken. Het omvatte objecten en wezens uit 100 klassen, zoals auto’s en katten, elk met 600 modelafbeeldingen. Maar het algoritme “begreep” het principe in ieder geval na 80 lessen. Daarna ging het heel snel: leer met de overige 20 nieuwe dingen, zoals een hond, van een voorbeeldfoto. Het is vergelijkbaar met mensen. We leren ook sneller wanneer we bestaande kennis kunnen toepassen op nieuwe inhoud.

READ  Het ultrageluid zorgt ervoor dat de knaagdieren in rust stijf worden

Fatale filmpauze

Maar wat gebeurt er met de opgedane kennis? Kan het zomaar oneindig uitgebreid worden? AI-onderzoek heeft lange tijd geworsteld met een probleem dat experts “catastrofale vergeetachtigheid” hebben genoemd – een echte gruwel voor computerwetenschappers: nauwelijks een algoritme dat een taak met grote moeite heeft geleerd van de “gewogen links” van een neuraal netwerk dat is nu geschikt voor het wordt toegewezen aan iemand die is geoptimaliseerd voor de taak. De tweede en het wordt uiteindelijk overschreven. Dit is de reden waarom het DeepMind Network bijvoorbeeld maar één Atari-game tegelijk kon oefenen.

Ook in dit geval kunnen AI-onderzoekers het menselijk brein als leidraad gebruiken. Wanneer een muis bijvoorbeeld iets nieuws leert, versterkt het de synapsen tussen neuronen. De doornen, kleine uitsteeksels, groeien op de vertakte dendrieten die het ontvangende deel van de synapsen bevatten. Nu komt het cruciale punt: de stekels blijven behouden, zelfs bij nieuwe leerprocessen, en de synaptische transmissie wordt permanent verhoogd. Op deze manier wordt de bijbehorende ervaring geconsolideerd, d.w.z. geconsolideerd.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *