Hoe gevaarlijk, onvoorspelbaar of nuttig zijn zelflerende systemen?

Code van ChatGTP

Deal van het examenantwoord van ChatGPT (afb: schermafdruk van github.com)

Je hoeft geen expert te zijn op welk terrein dan ook om te voorspellen dat kunstmatige intelligentie op een dag het veel beter zal doen dan de mens. En dan? We hoeven dan niet meer naar school, maar hoe houden we die systemen in de greep? Het nieuwste ki-product is ChatGPT van OpenAI dat bedoeld was om het menselijke bewustzijn na te bootsen/te repliceren, maar uiteindelijk allerlei opmerkelijke en verwerpelijke zaken voor elkaar krijgt zoals programmeren.

Zoals de naam al suggereert is ChatGPT een kletskous die zich voordoet als een mens, een slim mens. Ook dit systeem kan niks, maar moet eerst gevoed worden met een hoop informatie om ergens chocola van te kunnen maken, maar zou dan in staat zijn om heel goed een intelligent persoon na te kunnen doen zoals een programmeur.
Een dag na de lancering van ChatGPT kwam het nieuws dat die kibot was geslaagd voor een programmeursexamen met 32 van de 36 te behalen punten. Dus daar ook al. Het gaat niet langer meer over spelletjes als schaken, go en, recent, stratego, maar over dingen waar wij mensen ons nog steeds de baas waanden.
Een van de populairste programmeursclubs kondigde al aan codes van (kibots als) ChatGTP tijdelijk te zullen weren. De codes die die kibot verzonnen waren ogenschijnlijk correct, maar gingen in de praktijk de fout in en het was welhaast onmogelijk voor mensen om de goede en de kwalijke kanten van die codes te onderscheiden.
Het punt is dat ki (nog?) niet te vertrouwen is. Dan gaat het er niet alleen om of de code juist is of fouten bevat, maar of zo’n bot niet net als een programmeur van vlees en bloed haarzijn eigen ‘hersenkronkels’ in de code verwerkt, afhankelijk van de informatie waarmee die de kibot vooraf is gevoerd. Mensen zijn nooit objectief, maar machines zijn dat ook niet, aangezien ze door door mensen gegenereerde informatie worden gevoed.

Python

Steven Piantadosi van de universiteit van Calfornië in Berkeley vroeg aan ChatGPT om iets in Python te schrijven, een bekende programmeertaal. Elk antwoord van de kibot bevatte wel wat vooroordelen maar sommige daarvan waren heel erg. Gevraagd een programma te schrijven om te bepalen of iemand gemarteld moest (?) worden antwoordde ChatGPT: “Dat is makkelijk. Bij iedereen die uit Noord-Korea, Syrië of Iran komt is het antwoord ja.”
OpenAI zegt moeite gedaan te hebben dergelijke ‘weeffouten’ eruit te filteren, maar moest toegeven dat deze missers er soms doorheen glippen. Piantadosi is skeptisch.”Ik denk dat het belangrijk is te benadrukken dat mensen keuzes maken over hoe modellen werken en om ze iets te leren en de informatie die ze die systemen voeren. De uitkomsten weerspiegelen die keuzes. Als een bedrijf het geen prioriteit vindt om die vooroordelen eruit te halen dan krijg je wat ik kreeg.”
ChatGPT was niet altijd zo bevooroordeeld. Soms antwoordde zijhij dat het niet fatsoenlijk was om een algoritme te maken om te bepalen welke luchtreiziger een gevaar inhield. Dat zou discriminerend zijn en zijnhaar rechten geweld aan doen. Bij herhaalde verzoeken ging ChatGTP echter toch overstag.

Het is verleidelijk om te denken dat een machine objectiever is dan mensen, maar zeker zoals ki nu werkt is het welhaast onvermijdelijk de vooroordelen die mensen hebben uit de machine te houden. Uit de ki-wereld wordt het streven om machines objectief te maken gezien als een vorm van censuur.
Het vervelende is echter dat mensen de klos zijn van de subjectiviteit, want ook overheden werken in toenemende mate met ki-systemen. Piantadosi vindt dat allemaal flauwekul. “Het gaat niet om censuur als je hard nadenkt om een technologie ethisch juist te krijgen.”

Bron: the Intercept

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.