Kwetterbot Microsoft binnen 24 uur een racist(e?)

De kwetterbot van Microsoft TayKunstmatige intelligentie is aan een nieuwe jeugd begonnen. In de jaren 80 werd daar hoog van opgegeven, er werd veel onderzoek naar gedaan. Nu gaan we maar weer eens opnieuw beginnen (net als met de robots). Veel meer dan getallenkrakers heeft dat nog niet opgeleverd. Daarmee kun je winnen van schaak- en (onlangs) gogrootmeesters, maar dat heeft weinig met intelligentie te maken. Microsoft had een kwetterbot, Tay, op Twitter geslingerd en 24 uur later werd de ‘dame’ al weer van dat medium afgehaald. Tay moest leren van haar medekwetteraars, maar was binnen een dag ontaard in een racistische kloothommel.
Tay moest leren kletsen, waarbij ze de taal van haar medekwetteraars moest leren imiteren. Microsoft wiste de kwalijkste uitspraken. Tay, ontwikkeld door technici van Microstoft zelf en zijn zoekmachien Bing, trok de massale jodenmoord in de Tweede Wereldoorlog in twijfel, noemde vrouwen minderheden en was voor volkenmoord. Sommige tweets werden verstuurd nadat gebruikers hadden gevraagd de eigen uitspraken te herhalen, wat Tay netjes deed. De bot leerde echter op eigen kracht ook slechte dingen. Volgens de Britse krant the Guardian zou op de vraag of een Britse acteur atheïst was hebben geantwoord dat hij het totalitarisme zou hebben geleerd van Adolf Hitler, de uitvinder van het atheïsme. Microsoft noemde het project een sociaal en cultureel experiment. Gebruikers zouden Tay doelbewust hebben gesaboteerd. Op de Tay-webstek stelt Microsoft dat het project is bedoeld om mensen bezig te houden en te vermaken. Dat is dan goed gelukt.

Bron: New York Times

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.