Hoe komt ki tot zijn uitkomsten? Maak ki begrijpbaar

Begrijpbare ki

Dit plaatje zou het idee van de begrijpbare ki moeten uitleggen (afb: Dahee Kwon et al./KAIST)

Het heeft er alle schijn van dat wij mensen ons steeds meer verlaten op kunstmatige intelligentie. Hoe ki-systemen tot hun conclusie komen is in vrijwel al die systemen volkomen duister: een zwarte doos dus. Als wij mensen nog enige ratio bezitten dan zou dat toch duidelijk moeten zijn. Welke waarde kun je hechten aan de ‘uitspraken’ van een zwarte doos. In Zuid-Korea  bij KAIST onderzoekersters een idee uitgewerkt voor beeldherkenning (GCC), maar wordt het niet eens tijd dat die beslislijnen in algoritmes ‘openbaar’ worden? Daarbij is een groot obstakel dat ki nu nog steeds het ‘slagveld’ is van grote techbedrijven. Lees verder