Ki zou niet zoveel gegevens hoeven verstouwen om iets te kunnen

Nick Bronner

Mick Bronner (afb: Johns Hokinsuniv.)

Een van de oorzaken van de grote energiehonger (heb ik=as altijd begrepen) van kunstmatige intelligentie is dat het systeem past ‘geleerd’ wordt na het doorploegen van idioot veel gegevens. Volgens nieuw onderzoek zou dat helemaal niet nodig zijn. De onderzoekers ontwierpen ki-systemen die meer op biologische hersenen (zouden) lijken (of althans hoe wij mensen ons voorstellen dat onze hersens werken) en sommige modellen zouden een hersenachtige activiteit vertonen zonder enige ‘opleiding’. Dat zou een oplossing kunnen zijn voor de idiote energieverspilling die kleeft aan ki-systemen.
“De huidige trend in de ki-wereld is om modellen te overladen met gegevens en computerbronnen te bouwen ter grootte van kleine steden. Dat kost honderden miljarden dollars. Ondertussen leren mensen zien met heel weinig gegevens”,  stelt hoofdauteur Mick Bonner van de Johns Hopkinsuniversiteit “De evolutie heeft mogelijk niet voor niets voor dit ontwerp gekozen. Ons werk suggereert dat architectonische ontwerpen die meer op de hersenen lijken, ki-systemen een zeer voordelige uitgangspositie geven.”
Bonner en zijn collega’s wilden zien of architectuur op zich ki-systemen een menselijker ‘gezicht’ kan geven, zonder dat een uitgebreide leerfase nodig is. Ze concentreerden zich op drie belangrijke typen neurale netwerkideeën die veelvuldig worden gebruikt in moderne ki-systemen: transformernetwerken, volledig verbonden netwerken en convolutionele neurale netwerken.

Ze pasten deze ontwerpen herhaaldelijk aan om tientallen verschillende kunstmatige neurale netwerken te creëren. Geen van de modellen was vooraf ‘geïnstrueerd’. De onderzoekers lieten de ongeoefende systemen vervolgens afbeeldingen zien van objecten, mensen en dieren en vergeleken hun interne activiteit met hersenractiviteit van mensen en niet-menselijke primaten die dezelfde afbeeldingen bekeken.
Het verhogen van het aantal kunstmatige neuronen (hersencellen) in transformernetwerken en volledig verbonden netwerken leverde weinig verbetering op. Soortgelijke aanpassingen aan convolutionele neurale netwerken leidden wel tot activiteitspatronen die meer overeenkwamen met die in het menselijk brein.

Ongeoefend

Volgens de onderzoekers presteerden deze ongeïnstrueerde convolutionele modellen even goed als traditionele ki-systemen die doorgaans miljoenen of zelfs miljarden afbeeldingen moeten verwerken alvorens aan de slag te kunnen gaan. De resultaten suggereren dat architectuur een grotere rol speelt bij het nabootsen van hersenachtig gedrag dan eerder werd aangenomen.
“Als trainen met enorme hoeveelheden gegevens echt de cruciale factor is, dan zou het onmogelijk moeten zijn om hersenachtige ki-systemen te ontwikkelen door alleen architectonische aanpassingen,” aldus Bonner. “Dit betekent dat we, door te beginnen met het juiste ontwerp en wellicht andere inzichten uit de biologie te integreren, het leerproces in ki-systemen aanzienlijk kunnen versnellen.”

De onderzoekers bekijken nu eenvoudige leermethoden, geïnspireerd door de biologie, die kunnen leiden tot een nieuwe generatie ki-systemen. Dit zou ze wellicht sneller, efficiënter en minder afhankelijk van enorme gegevensverzamelingen kunnen maken, verwachten de onderzoekers.
Mijn vraag is dan of de onderzoekers dat ook op andere terreinen dan afbeeldingen hebben onderzocht (ik kan het artikel niet lezen; as). We kunnen dik doen doen over biologische hersens (en terecht, zeker waar het om energieverbruik gaat), maar ook die kunnen niet zonder een (levenslange) leerfase. Dus?

Bron: Science Daily

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.