Googles ki-systeem leert zichzelf schaken, go-en e.d.

Schaken (tekening)

Al in de jaren 80 werd wild gespeculeerd over kunstmatige intelligentie, maar veel werd daar vervolgens niet meer van vernomen. Sedert schaakwereldkampioen Garri Kasparov in mei 1997 verloor van de IBM-computer Deep Blue leek er een kentering zijn gekomen, maar Deep Blue was allesbehalve ‘intelligent’. Het rekentuig won slechts door domme, brute rekenkracht. Inmiddels heeft Google zijn zinnen gezet op ki en presenteren DeepMind-onderzoekers nu AlphaZero. Dat systeem leert zichzelf in een paar uur schaken, shogi of go spelen en doet dat dan beter dan menselijke spelers. Dat begint er een beetje op te lijken. Go en shogi schijnen lastiger te zijn voor een rekentuig dan schaken, maar ook de wereldkampioen go heeft het moeten afleggen tegen een diditaal systeem. Het klinkt erg indrukwekkend, maar ook de jongste heldendaden van de ki-systemen hadden nog maar een beperkte reikwijdte. Ze konden maar één trucje (maar dat dan wel heel goed). AlphaZero schijnt, dus, wat minder eenkennig te zijn. David Silver en zijn medewerkers van DeepMind (onderdeel van Google) maakten een algoritme dat minder spelgebonden is. Als het de spelregels kende, dan leerde het zichzelf schaken, shogi-en of go-en. Dat duurde maar een paar uur. Volgens ki-deskundige Murray Campbell van IBM toont deze ontwikkeling aan dat voor ki ingewikkelde spellen tot makkelijke oplosbare problemen zijn geworden. Op naar de volgende uitdaging, jongens (en meiden natuurlijk inbegrepen). Bron: EurekAlert

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.