ChatGPT haalt wetenschappers links (en rechts) in

ChatGPT

ChatGPT schijnt het druk te hebben (afb: blog ChatGPT)

Er is veel te doen om de ki-bot ChatGPT (en ik=as doe vrolijk mee), maar het persbericht bij Science Daily van het MIT deed me beide wenkbrauwen ernstig fronsen. Onderzoek zou hebben uitgewezen dat ’taalmodellen’ als ChatGPT een nieuwe taak leren op basis van maar een paar voorbeelden, meldt dat persbericht. Huh? Hebben de programmeurs bij OpenAI dat niet vooraf bedacht toen ze dat algoritme ‘bekokstoofden’ en is dit (toevallige) bijvangst (of meerwaarde)? Of weten de onderzoekers niet wat de makers van OpenAI voor ogen stond toen ze dat algoritme schreven?
Hoe dan ook: ze (dat zijn de MIT-onderzoekers) ontdekten dat deze ’taalmodellen’ zelf kleinere lineaire modellen schrijven in hun ‘verborgen lagen’, waardoor de ki-bot makkelijk nieuwe taken aan kan.
Lees verder

Pratend programmeren

Het was een kwestie van tijd. Computers kunnen praten en begrijpen gesproken opdrachten, dus moet het mogelijk zijn dat ze programma’s maken op basis van gesproken taal. Onderzoekers rond Regina Barzilay van het MIT in Boston hebben een programma gemaakt, waarmee je pratend de computer kunt laten programmeren. Dat betekent dat iemand die weinig kaas heeft gegeten van het maken van coderegels voor computerprogramma’s nu zelf kan ‘programmeren’. Dat betekent niet dat programmeurs niet verder overbodig zijn. Op de eerste plaats is het programma nog (?) lang niet foutloos (het programma scoorde 70% goed bij 106 testopgaven in gesproken tekst. Bovendien snapt een computer lang niet altijd wat de tekst betekent en het is de vraag of dat ooit zal gebeuren.
Voor programmeurs kan zo’n programma ook handig zijn , want dan kunnen zij zich concentreren op de stukken die creativiteit vereisen. Je kunt veel van de computer zeggen, maar creatief is dat ding niet: het blaft zoals zijn baasje hem heeft leren blaffen.

Bron: New Scientist