ADDQ Consulting

Mätsystemanalys – kan du lita på dina mätningar?

Blogginlägg   •   Dec 05, 2013 09:38 CET

Hur ofta har det inte hänt att ditt mätsystem fått skulden när en mätning inte gått som det var tänkt? Ett av de vanligaste sätten att hantera detta är att helt enkelt mäta en gång till och hoppas att det fungerar nästa gång. Detta brukar fungera ganska bra i praktiken, men kan vi verkligen lita på mätsystemet? Hur bedömer vi kvalitén på våra mätningar?

Innan vi börjar bedöma kvalitén på vårt mätsystem, kanske vi ska fundera igenom vad som är vårt mätsystem? Det första som man kommer att tänka på är vanligen de instrument som används vid mätningen, men även mätmetoder, fixturer och kablage, mjukvara, operatör och omgivning utgör del av ditt mätsystem och kommer att påverka mätningarna.

Mätsystemanalys går ut på att bedöma kvalitén på dina mätningar genom att titta på de olika källor till variationer som kan uppkomma i ditt mätsystem, inkluderade hela ditt mätsystem. För att vara rättvisande måste analysen genomföras med multipla mätningar under stabila förutsättningar. Det vi vill åstadkomma i en mätsystemanalys är att beräkna bidraget som varje källa till variation bidrar med och se hur stor del av den totala variationen som denna variationskälla utgör.

Variation och variationskällor

Variation definieras genom att beräkna de statistiska egenskaperna, medelvärde och standardavvikelse. Det trevliga med både medelvärde (μ) och standardavvikelse (σ) är att de har samma mätenhet som själva mätvärdena har och blir då lätta att tolka. Då de flesta mätningar är normalfördelade vet vi att teoretiskt ligger 99.73% av alla mätvärden inom +/- 3σ från medelvärdet.

I ett mätsystem definieras de olika variationskällorna som dels variationer i testobjektet och dels variationer i mätsystemet. Hur kan vi då räkna ut fördelningen mellan dessa två källor till variation? Tyvärr är inte standardavvikelsen summerbar, men det visar sig att kvadraten av standardavvikelsen, variansen, går att summera. Enligt nedanstående formel:

Den totala variansen är lika med summan av variansen av part-to-part, dvs. variation mellan de olika testobjekten, och variationen i mätsystemet. Helst vill vi att alla variationer är part-to-part och mätsystemet inte bidrar alls, men verkligheten visar sig inte vara på detta sätt.

Variationen i mätsystemet kan nu i sin tur delas upp i två olika delar och vi får nu nedanstående formel:

Mätsystemets variation består nu av två olika delar variationer beroende på repeatability och variationer beroende på reproducibility. Innan vi går in närmare på dessa två källor, är det nu dags att beskriva hur en mätsystemanalys (MSA) går till rent praktiskt. En klassisk MSA genomförs genom att utföra ett antal kontrollerade mätningar där ca 10 mätobjektet mäts 3 gånger vardera av tre olika appraiser i slumpvis ordning. En appraiser kan antingen vara en operatör, en maskin, en testutrustning eller en position på en PCBA testplatta.

Nu kan vi definiera:

  • Repeatability – kan en appraiser repetera samma mätresultat för samma mätobjekt?
  • Reproducibility – är det skillnad mellan hur de olika appraisers mäter?

Gage R & R – Repeatability and Reproducibility Study

Denna typ av mätsystemanalys kallas Gage R&R och är den vanligaste mätsystemanalys och definieras av en svårtolkad AIAG/ISO16049 standard. Resultatet av mätningarna ställs samman i en symmerisk tabell och nu kan vi beräkna variationerna mellan de olika källorna med hjälp av en s.k. ANOVA – Analysis of Variance. Mycket förenklat är grundtanken att medelvärdet beräknas för de olika mätningarna i olika led, och en viktad varians beräknas, se figur nedan. Dessa beräkningar är svårt att utföra manuellt utan verktygstöd som t.ex. AddQs QRM eller Minitab, varför detta rekommenderas starkt.

Resultatet av en Gage R&R är ett mått på precision, men inte ett mått på absolut noggrannhet (som genomförs med en s.k. Gage Study Type I, mer om detta i en kommande blogg).

Presentationen av Gage R&R resultatet kan dels ses i en tabell, se nedan där en Gage R&R tabell från QRM visas. De intressanta värdena är markerade med fet stil. %Contribution som anger hur stor del av variationerna som ligger i mätsystemet, Total Gage R&R, och som beror på Part-to-Part. Total Gage R&R redovisas också som en uppdelning av Repeatability bidraget och Reproducibility bidraget.

Enligt AIAG standarden ska totala bidraget till variansen i ett acceptabelt mätsystem vara <1% och potentiellt acceptabelt om bidraget är <9%. I praktiken är det mycket svårt att nå upp till <1%, allt beroende på vilka krav som ställs på mätsystemet och i vilket sammanhang det användas, så är <9% ofta tillräckligt.

Det andra resultatet som är av intresse är P/T (precision-to-tolerance), vilket anges som %Tolerance i tabellen ovan. Detta mått kan beräknas om det finns en kravgränskopplat till mätningen. P/T anger hur mycket av kravet som ”äts” upp av variationerna i mätsystemet. Enligt AIAG standarden är kravet <10% för att vara acceptabelt och <30% för att vara potentiellt acceptabelt. Varför är det då 9% i ena fallet och 30% i andra fallet? Jo, kom ihåg att det ena kravet är för varians och det andra för standardavvikelsen. Kvadratroten ur 9% är just 30%, så kravnivåerna är samma. Det gäller att inte jämföra äpple med päron! Det går även att presentera Gage R&R resultatet som ett stapeldiagram, se nedan.

I kommande blogg fördjupar vi oss i hur resultatet från en Gage R&R analys ska tolkas och vad man bör se upp med.

Referenser:

  • Bass, Issa, 2007: Six Sigma Statistics with Excel and Minitab. ISBN: 978-0-07-149646-9
  • AIAG Manual Measurement System Analysis 4th Edition. ISBN: 978-1605342115
  • Wheeler, Donald J: Evaluating the Measurement Process EMP III. ISBN: 978-0945320678

Om författaren:

Mattias Ericsson har jobbat med test- och mätsystem i 15 år. Han är R&D manager inom AddQ Göteborg och jobbar med framtagningen av AddQs resultathanteringssystmet QRM när han inte är upptagen med kundprojekt.