Använd hypoteser vid bedömning av nyckeltal

Hur reagerar vi när vi får siffror på personalomsättning eller sjukfrånvaro? Vilka tal tolkar vi som höga eller låga? Och på vilka grunder? Jag har ett enkelt förslag, som förvandlar diffusa tal till praktisk vägledning. Skaffa er – i förväg – en uppfattning om vad som är rimligt, som ni kan jämföra utfallet med. Det är endast genom att veta vad man förväntar sig, som man kan veta när man har rätt att bli överraskad.

Hur många gånger har inte en hel ledningsgrupp i ett företag, och ibland även ägare och analytiker varit upptagna med att i efterhand söka förklaringar till en hög sjukfrånvaro eller låga försäljningssiffror. ”Det går mycket förkylningar nu, det är inte så konstigt att frånvaron är hög”. ”Skolorna har precis börjat då sprids sjukdomar”, eller när det gäller försäljning: ”budgetarna börjar ta slut hos kunderna”, det är fler som säljer därute”. Det behöver inte vara något fel på de här förklaringarna, tvärtom kanske de utgör fullgoda analyser. Haken är bara att vi inte kan bedöma hur bra de är när de görs i efterhand.  Det går inte att skilja kvalitativa bedömingar från spekulationer och lösa gissningar. Enda sättet att sätta sin analysförmåga på prov, är att göra analysen först, och låta utfallet av nyckeltalen man uttalar sig om, utgöra ett empiriskt test. Det är vad hypoteser och hypotesprövning handlar om.

Det här är grundläggande vetenskapsteori, som har bäring långt utanför forskarvärlden. Att leta efter förklaringar i efterhand kallas i vetenskapliga sammahang för att man skapar ad hoc-hypoteser. Dessa hypoteser är ointressanta, eftersom de inte är empiriskt prövade. De är teoretiska konstruktioner som är framtagna för att passa den verklighet – de nyckeltal – vi känner till. Vi letar efter förklaringar som stämmer med de fakta vi samlat in. En riktigt stor nackdel med detta arbetssätt är att det alltid går att konstruera en oändlig mängd tänkbara förklaringar till vilken samling fakta som helst. En del verkar rimliga och en del orimliga. Men, eftersom de är framtagna för att passa fakta, kommer de att ha stöd i fakta oavsett om de är rimliga eller ej. Rimligheten prövas därför av hur bra förklaringen verkar vara, jämfört med andra förklaringar vi har hört eller sett. Det blir subjektiva bedömningar som är helt beroende av de bedömandes erfarenhet.

Men vad är problemet då? Ja, framför allt att vi riskerar att fatta beslut på felaktiga grunder. Eller att vi tar fram nyckeltal vi inte behöver. Om vi kan skapa vilka förklaringsmodeller som helst och dessa inte prövas mot fakta utan mot vår egen uppfattning om modellen eller förklaringen i sig, borde vi väl kunna hoppa över fakta och bara ägna oss åt förklaringarna?

Faktum är att det skulle kunna vara mer konstruktivt och snabbare leda framåt. Istället för att förklara en låg siffra med en så bra förklaring som möjligt, skulle vi kunna gå direkt på uppgiften vad som skulle kunna göra siffran högre.

En annan väg är att istället låta nyckeltalen spela en central roll för bedömningen av våra förklaringar och teorier – våra hypoteser. Varje ledningsgrupp borde ha i uppgift att gissa hur stor personalomsättningen eller sjukfrånvaron är inför varje nyckeltalsgenomgång. Förklaringar till varför det blir höga eller låga siffror diskuteras innan talen presenteras. ”Ja, det borde vara högre siffror nu, eftersom det pågår en del influensor” ”Hm, vi har historiskt pendlat mellan 1,5 och 3,8%. Vi borde vara närmare den högre siffran den här månaden” ”Ja, men när vi hade den högsta siffran hade vi fler långtidssjuka än nu, så den borde absolut inte bli så hög” ”OK, om vi räknar bort långtidsfrånvaron, borde vi ligga nära våra tidigare toppar, är det det vi säger?”

Det här skulle göra att resultatet, när det presenteras, blir oerhört mycket mer intressant och betydelsebärande. Låt mig ta det här ett steg vidare genom att presentera ett fiktivt resultat efter diskussionen ovan.

Säg att sjukfrånvaron under den period som diskuterades ovan visade sig vara 4,1%. Ett nytt rekord. Men långtidsfrånvaron var dubbelt så hög som vanligt, samtidigt som korttidsfrånvaron bara hamnade strax över snittet. Utan den tidigare diskussionen hade man kanske inte ens noterat att korttidsfrånvaron var överraskande låg. Och man hade definitivt inte påbörjat en diskussion om hur mycket långtidsfrånvaron slår I siffrorna och hur dålig uppföljning man har haft på det.

I värsta fall hade man förklarat rekordet med att det är influensatider och varit nöjd med det, därför att det låter rimligt.

Notera att det spelar roll att gissningen om långtidsfrånvaron gjordes i förväg. Om det hade upptäckts i efterhand, när rekordsiffran dissekerades, att korttidsfrånvaron faktiskt inte var så farlig, och att rekordet beror på ett par långtidssjuka, hade analysen varit sämre. Det är inte otänkbart att man hade sökt förklaringar på dessa sjukskrivningar, kanske i stil med: ”ja, vi har ju anställt rätt många äldre sista året”, ”det är fler och fler som råkar ut för det här med stressrelaterade sjukdomar” och liknande. Även detta är gissningar som mycket väl kan vara fullt adekvata, men de har inte prövats. Risken är att man kommer med så mycket bra förklaringar, att långtidssjukfrånvaron inte alls framstår som överraskande utan tvärtom förutsägbar.

Ska man vara riktigt petig, bör man naturligtvis ta fram de nyckeltal som bäst prövar de hypoteser man lagt fram och inte bara hålla sig till dem som man alltid tar fram och av slentrian tror är viktigast vid varje tidpunkt. Men det får jag återkomma om.

Min uppmaning här och nu, till alla som analyserar nyckeltal i efterhand, är: sluta med det. Välj antingen bort nyckeltalen och ägna all tid åt förklaringsmodeller och förbättringsförslag, eller låt nyckeltalen spela roll genom att spekulera och diskutera I förväg. Men låt inte nyckeltalen oförtjänst backa upp lösa spekulationer.

More
articles