“Kunstmatige intelligentie moet transparant worden”

Kunstmatige intelligentieNadat al zo’n veertig jaar geleden allerlei verhalen over kunstmatige intelligentie de ronde deden, lijkt het er op dat die ’tak van sport’ voet aan de grond krijgt, zo zelfs dat allerlei hotemetoten tegen die ontwikkeling in het geweer komen. In het Duitse blad bdw staat een vraaggesprek met Marco Huber van het Fraunhoferinstituut voor productietechniek en automatisering. Hij vindt dat ki transparant moet worden. Het zou navolgbaar moeten zijn hoe zo’n systeem tot een slotsom komt. Nu zijn de meeste ‘intelligente’ en zelflerende systemen nog ‘zwarte dozen’.
Volgens Huber kunnen zelfs mensen die een ki-algoritme hebben ontwikkeld die systemen niet meer volgen. “Die weten niet hoe die resultaten tot stand zijn gekomen. Dat geldt bij zelflerende systemen vooral bij kunstmatige neurale netwerken. Die bestaan voor een deel uit honderden lagen met miljarden parameters. Dat is zelfs voor deskundigen niet meer te volgen.”
Voor sommige toepassingen zoals systemen die je muziek aanbevelen die je ook leuk zou kunnen vinden of voor vertalen is dat niet zo’n probleem. Het wordt wat anders als ki gebruikt wordt om mensen te beoordelen of bij ‘besluitondersteunende’ ki-systemen. Volgens Huber is de wereld in dit opzicht ook veranderd door de Algemene Verordening Gegevensbescherming (AVG) van de EU. “Artikel 12 en 13 verlangen dat bij het gebruik van persoonsgegevens dat de desbetreffenden in begrijpbare taal wordt uitgelegd hoe de resultaten waarbij hun gegevens gebruikt zijn tot stand zijn gekomen.” Hij geeft het voorbeeld van een kredietwaardigheidsbeoordelaar die daartoe een simpel algoritme gebruikt dat aan klanten goed is uit te leggen, terwijl het bedrijf ook een ander algoritme had liggen dat beter scoorde maar niet transparant was.

Verklaarbare ki

Er is een onderzoeksgebied dat zich met die transparantie bezighoudt: verklaarbare ki. Het zou volgens Huber een van de actiefste onderzoeksgebieden binnen het ki-onderzoek zijn. Daarbij zullen de systemen functioneel moeten zijn maar daarnaast moet ook kunnen worden uitgelegd hoe de resultaten tot stand zijn gekomen.
Er zijn al dergelijke systemen, maar die zijn volgens de Fraunhoferonderzoeker nog relatief simpel. Het systeem waar hij bij Fraunhofer aan werkt is nog in het onderzoeksstadium. Zo’n neuraal netwerk doet zijn kunstmatige intelligente werk maar daarnaast loopt een wat Huber noemt een white-box-model die zorgt voor de verklaarbaarheid van de resultaten. Dan zou een beslisboom kunnen zijn die duidelijk maakt hoe een beslissing tot stand is gekomen.

Hij verwacht dat het hooguit nog een jaar of twee drie zal duren voor de eerste ’transparante’ ki-systemen op de markt komen. Ondertussen zijn allerlei nieuwkomers daar al mee aan de gang gegaan, vooral in de VS. Ook zijn instituut Fraunhofer IPA denkt zo’n soort bedrijf op te richten. Er worden al gesprekken gevoerd met grote ziekenhuizen. Het gaat om een systeem om computertomografieopnames van coronapatiënten te beoordelen, of een longontsteking het gevolg is van een coronavirusbesmetting of door andere oorzaken. Een deskundige arts bekend met de coronaziekte kan dat zien, maar niet ieder ziekenhuis heeft zo’n expert, stelt Huber. Ook wordt er gedacht algoritmes te ontwikkelen om de arts te helpen bij het stellen van een diagnose.

Huber denkt dat transparante ki-systemen het wantrouwen van mensen zal kunnen wegnemen. “Veel mensen zijn daar skeptisch over in Duitsland. Dan helpt een algoritme dat uitlegt hoe het tot zijn besluit is gekomen enorm. Zo’n systeem moet ’te volgen’ zijn. Dat maak je vaak mee: een te volgen beargumentering wordt meestal geaccepteerd ook als men het niet met de beslissing eens is.”

Bron: bdw

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.