Sander Bohté: 'Neurale netwerken zijn hot in kunstmatige intelligentie onderzoek.'

Kunstmatige intelligentie biedt allerlei mogelijkheden die tot voor kort onvoorstelbaar waren. Kunnen doven straks horen en blinden zien?

Publication date: 16-12-2019

Het zijn enkele van de grote vraagstukken van onze tijd: hoe kunnen we gezond oud worden en hoe verminderen we ons energieverbruik?

Om deze kwesties op te lossen, hebben we nieuwe technologieën nodig die meer denkvermogen hebben dan mensen of de huidige computers. De tijd is daarom rijp voor kunstmatige intelligentie; computersystemen die het brein van mensen imiteren en zelfstandig problemen kunnen oplossen. Dat gaat niet van de ene op de andere dag, maar stap voor stap. En achter elke schrede zit gigantisch veel peins- en puzzelwerk.

Netwerken zijn hot

‘Binnen het onderzoek naar kunstmatige intelligentie zijn biologisch geïnspireerde neurale netwerken hot’, aldus Sander Bohté, onderzoeker bij het Centrum Wiskunde & Informatica (CWI). Dit zijn computerprogramma’s die de functies van echte neuronen in je hersenen nabootsen, door elektrische signalen uit te wisselen. Met deze techniek zijn al veelbelovende resultaten geboekt. Doven kunnen hiermee wat horen, je kunt er arm- en beenprotheses mee aansturen en op termijn wellicht zelfs blinden laten zien. ‘Onderzoek bij apen heeft al aangetoond dat dit werkt’, weet Bohté. Daarnaast zorgen neurale netwerken ervoor dat chips energiezuiniger werken. En die chips zitten in steeds meer apparaten: van smartphones tot auto’s en koelkasten. Geen wonder dus dat er momenteel miljarden euro’s in dit vakgebied worden gepompt. Grote techbedrijven hebben onderzoeksprogramma’s op dit gebied en de VS, China en Europa benoemen het tot hun wetenschappelijke sleutelgebieden.

Doven laten horen

Al sinds het begin van de vorige eeuw werken neurowetenschappers én computerwetenschappers aan een zogeheten cochleair implantaat, waarmee doven, na enkele weken training, (weer) enigszins kunnen horen. Het is een klein apparaatje dat in de schedel wordt ingebracht en via een dun draadje in het slakkenhuis geluidssignalen omzet in elektronische pulsen, en deze doorstuurt naar de zenuwcellen, of neuronen, in je hersenen. Helaas geven de huidige implantaten het geluid vaak te hard of te zacht door; ze zijn niet in staat zich even goed aan te passen aan het geluidsniveau als menselijke neuronen. Als je bijvoorbeeld vanuit een stille avond een luidruchtig café binnenstapt, dan passen, bij iemand die goed kan horen, de neuronen zich razendsnel aan zodat je het cafégeluid niet als een explosie ervaart. En andersom reageren je neuronen heel snel zodra je vanuit het luide café weer de stille nacht ingaat. Bij mensen met een gehoorimplantaat werkt dat helaas niet zo goed. Bohté heeft samen met het Leids Universitair Medisch Centrum een computersimulatiemodel ontwikkeld dat, in tegenstelling tot de huidige modellen, wel rekening houdt met aanpassingen van de neuronen aan het geluidsvolume. Uiteindelijk moet dat leiden tot een betere computerchip in het implantaat.

Pulstechniek

Neurale netwerken worden steeds beter, aldus Bohté, maar ze zijn nog lang niet zo goed als menselijke hersenen. ‘Onze hersenen zijn flexibeler – ze kunnen bijvoorbeeld makkelijk nieuwe taken leren door nieuwe verbindingen aan te leggen. Ook hebben ze minder voorbeelden nodig om te leren en werken ze energiezuiniger. Neuronen versturen gemiddeld één puls per seconde, maar ze kunnen dat op sommige plekken wel een paar honderd keer per seconde doen. Computers doen daar veel langer over, en verbruiken daardoor meer energie.’

Bohté heeft een methode bedacht om kunstmatige neurale netwerken energiezuiniger te maken. ‘De chips in onze producten maken weliswaar gebruik van kunstmatige neuronen, maar ze versturen geen pulsen zoals onze hersenen dat doen.

Deze neuronen hebben geen concept van tijd – het zijn op elkaar gelegde plaatjes die achter elkaar worden afgespeeld, net als een video. Dat proces kost veel energie.’ Bohté ontwikkelde daarom spiking neurale netwerken die wél pulsen versturen.

‘We willen dat ze met zo weinig mogelijk pulsen met elkaar kunnen communiceren.’ Want minder pulsen betekent minder energieverbruik; een chip met deze speciale pulstechniek verbruikt maar enkele milliwatts. Ter vergelijking: een huidige beeldherkenningschip in een smartphone verbruikt 1 à 2 watt, oftewel ongeveer duizend keer zoveel. Bohté verwacht dat zijn techniek op termijn ook in onze smartphones te vinden zal zijn.

Zonder cloud

Doordat ze zo energiezuinig zijn, hebben zulke chips ook geen cloud nodig; een centrale computerserver in een datacentrum, waar data via een internetverbinding naartoe worden gestuurd. Als je bijvoorbeeld gebruik maakt van een spraakassistent, zoals Apple’s Siri of Google Assistant, dan maak je voortdurend verbinding met de cloud. Daar kan de assistent de gevraagde informatie opzoeken. Je moet daarvoor wel altijd een internetverbinding hebben en het kost aardig wat stroom, omdat de assistent altijd ‘meeluistert’, om je commando te kunnen horen. Als een chip meer berekeningen zelf kan doen, hoeft hij minder aan de cloud over te laten. Dat kan ook helpen op locaties met slecht bereik. Bohté: ‘Je kunt bijvoorbeeld sensoren in een bos plaatsen om te kijken welke dieren er wonen, of je kunt diergeluiden in zee opvangen. Een chip met duizend neuronen kun je maandenlang op zo’n locatie laten hangen. Ook voor chips in autonoom rijdende auto’s is het onwenselijk om altijd afhankelijk te moeten zijn van een internetverbinding.’

Science fiction

Op termijn zal deze techniek ook in chips voor biomedische toepassingen belanden, verwacht Bohté, zoals de gehoor- en beeldimplantaten en protheses. De chips kunnen nu echter al ingezet worden voor betere tekst- en spraakherkenning, maar ook voor augmented reality; het projecteren van beelden bovenop de werkelijkheid, met behulp van een speciale bril. Een computer moet daarvoor razendsnel bewegend beeld kunnen herkennen en produceren, en dat kost veel stroom. Het ultieme science fiction-beeld is echter geen bril, maar een onzichtbaar implantaat waarmee zelfs gezonde mensen extra functies krijgen. Zoals een spraakimplantaat waarmee je spontaan Chinees zou kunnen spreken. Maar dat blijft science fiction, aldus Bohté. ‘Je kunt niet zomaar een andere taal “inladen”. We zouden niet weten waar te beginnen. Dan moet je tientallen miljarden synapsen op verschillende plekken in het brein veranderen. Dat is wel heel verre toekomstmuziek.’

Herken de Ferrari

Computers zijn inmiddels vaak beter in beeldherkenning dan mensen, maar bij foto’s die korrelig, slecht belicht of vervormd zijn, gaat zelfs de beste beeldherkenningssoftware nog geregeld de mist in. Auto’s bijvoorbeeld. Een veel gebruikte methode om beelden te classificeren ziet een Volvo aan voor een Ferrari. Je hoeft als mens weinig autokennis te hebben om dat beter te doen. Sander Bohté bedacht een methode die, met behulp van neurale netwerken, beelden wél goed weet te onderscheiden. ‘We hebben het algoritme getraind om vooral op contrasten te letten. Daardoor werd hij efficiënter in slechte omstandigheden.’

De programmeercode is openbaar gepubliceerd en nu door elk techbedrijf te gebruiken die zijn beeldherkenningssoftware zou willen verbeteren. Met behulp van die code kan de software niet alleen auto’s, maar ook andere objecten beter onderscheiden, en dat kan van pas komen bij bijvoorbeeld zelfrijdende auto’s, anti-inbraakcamera’s of natuurobservatie.*

Chatwedstrijd

In de jaren dertig van de vorige eeuw bedacht de Britse wiskundige Alan Turing een experiment waarbij mens en machine met elkaar chatten: de Turingtest. De machine wint de test wanneer een mens niet doorheeft dat hij met een machine aan het chatten is. Maar dat is nog geen enkele computer gelukt.

Computers kunnen al wel allerlei spellen van mensen winnen. Vooral bij denksporten en spelletjes die een beroep doen op parate kennis en logisch redeneervermogen. IBM’s schaakcomputer Deep Blue won in 1997 van Garry Kasparov, de beste schaker ter wereld. Maar een leuk gesprek met Deep Blue zat er niet in.

Supercomputer Watson, ook door IBM ontwikkeld, is weer een specialist in het begrijpen van gesproken taal. Hij won in 2011 de televisiespelshow Jeopardy!, waarbij vragen als antwoord worden gesteld, en de kandidaat de bijbehorende vraag moet raden. Watson moet daarvoor ook ironie en raadsels begrijpen, iets waar computers over het algemeen niet zo goed in zijn. En in 2015 was AlphaGo, een supercomputer ontwikkeld door Alphabet (het moederbedrijf van Google) de eerste die het razend ingewikkelde Chinese bordspel Go van een professionele menselijke speler wist te winnen. Maar ook met AlphaGo kun je geen normaal gesprek voeren.

Tekst: Amanda Verdonk

Dit artikel is verschenen in het NWO-magazine Resultaat.

Sander Bohté is senior onderzoeker bij CWI's Machine Learning onderzoeksgroep.

*Project met promovendus Bojian Yin, onderdeel van het NWO perspectief programma Efficient Deep Learning.