Kunstmatige intelligentie laat zich erg makkelijk foppen

Ki makkelijk te foppen

Plak wat dingetjes op een stopbord en het ki-systeem leest ’45’ (afb: Nature)

Kunstmatige intelligentie wordt tegenwoordig overal bijgehaald, maar die techniek blijkt ontzettend makkelijk te flessen te zijn. Koester de menselijke intelligentie zo lang ki nog verregaand onbetrouwbaar is. Dan hebben we het nog niet eens over de energierekening gehad die ki ons presenteert. Net als bij allerlei veelbelovende medicijnen wordt bij dit soort ‘veelbelovende’ technologieĆ«n nooit het prijskaartje getoond… In Nature staat daar een mooi verhaal over. Lees dat, zou ik zeggen.
Zelfbewegers maken gebruik van ki om de omgeving te interpreteren zoals, onder veel meer, verkeersborden. Mensen hebben daar geen problemen mee, maar het blijkt dat ki-systemen daar moeite mee hebben als er op dat verkeersbord dingen zitten die daar niet thuishoren. Dan leest ons matig intelligente systeem niet, bijvoorbeeld, ‘Stop’ maar ’45’.
Dat schijnt in de dagelijkse praktijk nog niet voorgekomen te zijn, maar onderzoekers hebben al laten zien hoe makkelijk een ki-systeem is te foppen door wat te veranderen aan een verkeersbord. Ook gezichtsherkenningssystemen zijn simpel voor de gek te houden door bepaalde patronen op hoeden en brillen te printen of spraakherkenningssystemen door wat witte ruis toe te voegen.

Gammel

Dat zijn maar een paar voorbeeldjes om te laten zien hoe makkelijk het is om (kunst)matig intelligente systemen voor de gek te houden. Ki wordt steeds belangrijker (gemaakt). Dictaturen als China maken er graag gebruik van bij het onderdrukken van hun onderdanen, maar ze moesten eens weten hoe gammel die ‘intelligentie’ is. Je hoeft maar kleine dingetjes te veranderen aan een beeld of geluid en ki is helemaal in de war en leest ’45’ in plaats van ‘stop’. Zelfs de domste mens zal daar geen probleem mee hebben (vooropgesteld dat die kan lezen).

Dat is meer dan kinderziektes van een nog niet geheel volmaakte technologie, zegt Dan Hendrycks, promovendus aan de universiteit van Californiƫ in Berkeley. Lerende neurale netwerken (ki) zijn fundamenteel gammel; geweldig in wat ze kunnen totdat ze op onbekend terrein komen. Dan gaan ze op een onvoorspelbare manier de fout in.

Bron: Nature

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.