Hvordan bestemmes og beregnes nøyaktigheten til et digitalt multimeter?
Nøyaktigheten til et multimeter, også kjent som usikkerhet av noen produsenter, er generelt oppgitt som "innen ett år etter at de forlater fabrikken, målt ved driftstemperaturer på 18 grader C, 28 grader C (64 grader F), 82 grader F, og relativ fuktighet mindre enn 80 %, ± (0,8 % leser+2 brukere er ikke veldig klare om dette). Jeg antar her at det er et instrument som i et visst område, som DC 200V, er skrevet slik, og den målte verdien vises som 100,0 på instrumentet. Så, hva bør være den riktige verdien på dette tidspunktet. Jeg tror for vanlige brukere kan de fullstendig ignorere nøyaktighetsberegninger og ganske enkelt anta at DC 100V er tilstrekkelig. I henhold til produsentens nøyaktighetsberegning, når man måler 100V (viser 100,0), er feilen ± (0,8 % * 1000+2)=± 10, som er en feil på 1,0V. Når du erstatter avlesningen, må du ikke vurdere desimaltegnet, bruk den viste verdien for å beregne. Den beregnede verdien bør legge til desimaltegnet og deretter bruke den opprinnelige avlesningen for å beregne fraktkostnaden. For eksempel er den riktige verdien 100,0 ± 1,0, som bør være mellom 99,0" og 101,0V DC.
Hva er forskjellen mellom tre og et halvt siffer og fire og et halvt siffer på et digitalt multimeter?
Tre og et halvt siffer kalles også 3 1/2 siffer (uttales som 3 og 1/2 siffer), og fire og et halvt siffer kalles også 4 1/2 siffer (uttales som 4 og 1/2 siffer). Vi vet at nøyaktigheten til en analog mengde, etter kvantisering og konvertering til et tall, er relatert til antall sifre. Jo flere sifre det er, jo nærmere den er den opprinnelige verdien og desto mer nøyaktig er den (generelt sett, uten å ta hensyn til andre situasjoner, hvis den kvantiserte verdien er 1,00000V, er representasjon av den med ett siffer det samme som å representere den med N sifre). Så generelt, jo flere siffer det er, jo mer nøyaktig er det, det vil si at fire og et halvt siffer er mer nøyaktig enn tre og et halvt siffer.
