
Dit plaatje zou het idee van de begrijpbare ki moeten uitleggen (afb: Dahee Kwon et al./KAIST)
Het heeft er alle schijn van dat wij mensen ons steeds meer verlaten op kunstmatige intelligentie. Hoe ki-systemen tot hun conclusie komen is in vrijwel al die systemen volkomen duister: een zwarte doos dus. Als wij mensen nog enige ratio bezitten dan zou dat toch duidelijk moeten zijn. Welke waarde kun je hechten aan de ‘uitspraken’ van een zwarte doos. In Zuid-Korea bij KAIST onderzoekersters een idee uitgewerkt voor beeldherkenning (GCC), maar wordt het niet eens tijd dat die beslislijnen in algoritmes ‘openbaar’ worden? Daarbij is een groot obstakel dat ki nu nog steeds het ‘slagveld’ is van grote techbedrijven. Lees verder

Dat hele gedoe rond kunstmatige intelligentie is veel geblaat en gebakken lucht. De Amerikanen dachten zich tegen de concurrentie te kunnen indekken door geavanceerde apparatuur en chips niet naar China te exporteren en bedrijven elders, zoals in Nederland, dat ook te verbieden op straffe van handelsbelemmering. Nu blijken de Chinezen toch in staat te zijn geweest een ki-model te ontwikkelen (