Kunstmatige intelligentie maken met ki

Petar Veličković

Petar Veličković

Kunstmatige intelligentie is aan een nieuw leven begonnen. Al in de jaren 80 werd daar veel over gesproken, maar toen waren we daar nog ver van verwijderd. De zaken zijn inmiddels veranderd. Ki kan nu wel wat, maar het grote probleem is dat je zo’n ki-systeem eerst een hoop leermateriaal moet verschaffen voordat dat er wat van bakt. Nu lijkt het er op dat onderzoekers een ki-systeem hebben gemaakt dat ki-systemen een stuk bijdehanter kan maken. Ki-systemen die ki-systemen ontwikkelen. Of althans die onderzoekers hebben een systeem gemaakt om ki-systemen beter af te stellen zodat ze niet zo’n waanzinnige hoop leermateriaal nodig hebben en dat kost een hoop energie. Het eind van het liedje is natuurlijk dat ki-systemen mensen helemaal niet meer nodig hebben.
Ki is een kwestie van grote getallen. De zogeheten diep neurale netwerken (zelflerende systemen), waarmee patronen in gegevens kunnen worden gevonden, begonnen de traditionele algoritmes zo’n jaar of tien geleden in te halen. Destijds kregen computers genoeg rekenkracht om iets op te leveren dat in de buurt kwam van ‘intelligentie’. Vandaag de dag verorberen die neurale netwerken alleen maar meer gegevens en rekenkracht. Het doel van die datahonger is een optimum te vinden, maar neurale netwerken ‘opleiden’ is niet eenvoudig. “Dat kan dagen, weken of zelfs maanden duren”, zegt Petar Veličković van het Londense bedrijf Deepmind.
Dat zou kunnen veranderen. Boris Knyazev van de universiteit van Guelph (Can) en medewerkers hebben een wat ze noemen hypernetwerk ontworpen en ‘opgeleid’ die dat leerproces kan versnellen. Gegeven een ‘leeg’ neuraal netwerk dat een bepaalde ‘intelligente’ taak moet verrichten bepaalt dat hypernetwerk in een fractie van een seconde de parameters voor die taak. In theorie zou dan het leerproces ook niet meer nodig zijn. Aangezien dat hypernetwerk zich de uiterst ingewikkelde patronen in het ontwerpen van diepe neurale netwerken heeft aangeleerd zou deze aanpak nog meer gevolgen kunnen hebben dan het bekorten of overbodig maken van het leerproces van ki-systemen.

Het schijnt dat het hypernetwerk goed presteert bij bepaalde instellingen, maar er is nog ruimte voor verbetering. “Als dat lukt dan heeft dat grote gevolgen voor ki”, zegt Veličković.

500 netwerken

Knyazev en de zijnen noemen hun hypernetwerk GHN-2 (graafhypernetwerk-2; er was al een voorganger). Met dat volledig opgeleide systeem bepaalden de onderzoekers de parameters voor vijfhonderd neurale netwerken. Die uitslagen werden vergeleken met de resultaten van op de ouderwetse manier ‘voeren’ van een netwerk met miljoenen, miljarden en meer gegevens.
In die strijd bleef GHN-2 goed overeind of presteerde soms zelfs beter. Niet alles bleek echter goud te zijn. Er was, zoals gezegd, ruimte voor verbetering. Veličković vindt de resultaten tot nu toe al ‘erg indrukwekkend’. “Ze hebben de energiekosten (van ki-systemen; as) aanzienlijk omlaag gebracht.”

Het gebruik van ki ter verbetering van ki zou dit soort systemen ook ‘democratischer’ maken (niet alleen bereikbaar voor de heel grote bedrijven). Veličković ziet echter nog wel wat hobbels. De ondoorzichtigheid van ki-systemen is een groot probleem. Met de meeste systemen is onduidelijk hoe dat systeem tot zijn resultaten is gekomen. Met het ‘voorschakelen’ van een ki-systeem zoals GHN-2 maak je ki ondoorzichtig in het kwadraat. “Als er dan is mis gaat dat weet je niet hoe dat komt”, zegt de DeepMinder. Het doorzichtig maken van ki lijkt me de eerste opdracht voor Boris en de zijnen…

Bron: Quanta Magazine

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.