Kort om mattebetygen och Hinnerich med flera.

Ett par korta grejer om dagens debattartikel i SvD och preliminäruppsatsen bakom.

Till att börja med är det ett förbannat otyg att rubriker och ingresser skrivs av debattredaktioner istället för av författare. Jag förstår behovet ur tidningens perspektiv, men det kan inte annat än skada vår kollektiva förmåga att begripa och agera i världen att vett alltid ska sättas i en vettlös kontext.

I just det här fallet gör ingressen det till sanning och huvudbudskap att elever i svagpresterande grupper missgynnas betygsmässigt av att betygsättas av någon som undervisat eleverna länge. Det är högst diskutabelt om det i allmänhet är så. Speciellt om man tar hänsyn till sådana effekter som att det är (kunskapsmässigt) lättare att få bra betyg i en dåligt presterande klass/skola. Men men.

I övrigt kan man ju hålla med om att det är synd om pojkar skulle missgynnas på ett sätt där var tredje pojke borde ha ett högre betyg för att de i snitt skulle ha samma betygsutfall per uppvisad mattekunskap på Stockholmsprovet. Jag är dock rätt tveksam till om det är i närheten av rimligt att se på hela den effekten som orättvis. Det finns framförallt två saker jag skulle vilja se utredas närmare innan preliminäruppsatsen accepteras och debatten om vad som eventuellt borde göras kan starta.

Har den genomsnittliga skillnaden i läsförståelse mellan pojkar och flickor betydelse för resultaten?

Som nämns i preliminäruppsatsen så presterar svenska pojkar bättre än flickor på TIMSS och likvärdigt med flickor på PISA i matematik. Jag vet inte om de sakkunniga förklarar saken så men TIMSS och PISA har rätt olika provformat. PISA-uppgifterna har mycket kontext medan TIMSS har en hel del raka räkneuppgifter. Det är i min värld rätt rimligt att i väntan på annat anta att de båda proven mäter delvis olika saker och att flickor som i genomsnitt presterar bättre på läsförståelse kan förväntas prestera bättre på PISA än TIMSS. I samma anda vore det rimligt att undersöka om samma sak gäller NP-ma i nian och Stockholmsprovet. NP-ma innehåller en del (del B) med korta kontextlösa räkneuppgifter och en del (del C) med längre uppgifter med kontext. Om jag förstått saken rätt är Stockholmsprovet ett prov som är rätt snabbt att göra och rätt snabbt att rätta. Jag har för mig att jag har sett något annat som också indikerar att det är kontextlösa räkneuppgifter, men jag minns inte vad (någon sammanställning av vad eleverna klarar bra och dåligt kanske?).

Om det är så att det är olika provformat på Stockholmsprovet och Np-Ma och vi har gruppskillnader i prestation på proven så får vi vara rätt försiktiga med att säga vad som är orättvist i sammanhanget. Det är problematiskt i att Np-Ma rättas lokalt men det är inte tillräckligt för att slänga ut de resultaten ur diskussionen.

Kan genomsnittlig skillnad i motivation och ansträngning mellan pojkar och flickor kan driva resultaten?

Detta nämns snabbt i preliminäruppsatsen men diskuteras inte närmare. Det jag då vill påpeka är att det finns forskning på svenska förhållanden som pekar på att bättre betyg än np-provresultat i större utsträckning går till elever som anser sig vara motiverade i skolan.

Jag tror att det är viktigt här att inte främst tänka på hur mycket eleven i fråga anstränger sig på själva provet utan snarare utanför provet. Låt mig förklara. Som mattelärare på högstadiet låter det för mig rätt märkligt att vi skulle sätta för lågt betyg på i snitt var tredje pojke i förhållande till flickorna. Men framställer man det på ett annat sätt så blir det rätt rimligt. Vi sätter högre betyg på elever som anstränger sig under lektionerna och pluggar inför proven. Eftersom plugga och jobba är något flickorna i genomsnitt gör mer än pojkarna så leder det till att i genomsnitt var sjätte flicka får ett för högt betyg och i genomsnitt var sjätte pojke får ett för lågt betyg i förhållande till ett diagnostiskt prov tre månader efter slutbetyget.

Pluggar man en del inför varje matteprov lär man skriva provresultat som kontinuerligt överskattar hur väl man kommer att prestera på ett senare sammanfattande prov i förhållande till elever som inte pluggar till proven. Tyvärr tappar man ju en del av de kortsiktiga resultaten av provplugg på längre sikt.

Det här är en möjlig förklaring som jag tycker behöver redas ut ordentligt. Det beror på att jag som lärare tycker att den både sannolik och betydelsefull. Det är också möjligt att en del av skälet till att betyg är bättre för att förutsäga kommande studieprestationer än enskilda testresultat kommer härifrån. Det skulle i så fall vända policyrekommendationerna på ända, givet min rättvisesyn.

Uppsats eller forskningsprojekt?

Jag tycker det här ämnet är rätt angeläget. Vi använder betygen till antagning i mycket stor utsträckning i Sverige. Det finns stora fördelar med det, men det ställer också stora krav på betygen. Därför är det viktigt att vi har stabil kunskap om hur betygen och betygsättningen fungerar. Det är inte rimligt att särskilt mycket av den kunskapen ska komma ur upphottade mastersuppsatser, så det är kul för författarna att de faktiskt fixar att lämna ett bidrag här. Men frågan förtjänar djupare belysning än vad som kan ske med en termins arbete.

Så till författarna: Lägg lite större kraft på att diskutera och i begränsad mån hantera de här invändningarna till den kommande riktiga uppsatsversionen.

Till oss andra: Är det inte dags att vi finansierar ett projekt där vi på allvar reder i frågan om elevers ansträngning och lärarsatta betyg? Matematik är ett lämpligt exempel för det är så lättbedömt. Stockholmsprovet är en väldigt tacksam utgångspunkt. Samla in mer data, framförallt resultat på lärarnas egna matteprov och kanske också enkätdata över lärare och elevers uppfattning om elevernas ansträngning under lektioner och inför prov. Se vad som ramlar ut. Vore det inte värt att betala för?

Lämna en kommentar