
Dit plaatje zou het idee van de begrijpbare ki moeten uitleggen (afb: Dahee Kwon et al./KAIST)
Het heeft er alle schijn van dat wij mensen ons steeds meer verlaten op kunstmatige intelligentie. Hoe ki-systemen tot hun conclusie komen is in vrijwel al die systemen volkomen duister: een zwarte doos dus. Als wij mensen nog enige ratio bezitten dan zou dat toch duidelijk moeten zijn. Welke waarde kun je hechten aan de ‘uitspraken’ van een zwarte doos. In Zuid-Korea bij KAIST onderzoekersters een idee uitgewerkt voor beeldherkenning (GCC), maar wordt het niet eens tijd dat die beslislijnen in algoritmes ‘openbaar’ worden? Daarbij is een groot obstakel dat ki nu nog steeds het ‘slagveld’ is van grote techbedrijven. Lees verder
De ki-gekte is alom. Een van de vele problemen met kunstmatige intelligentie is het enorme energieverbruik. Google heeft al aangekondigd om daarvoor duurzame of 






