如何比较最大允许误差与相对误差的大小?
我们都知道,相对误差=示值绝对误差/实际值,可是为什么很多送检证书上给出的都是示值绝对误差/标称值的呢?
比如一个电阻箱X1000档为0.1级(即最大允许误差为0.1%),那么它在1000Ω的最大允许误差应该为±1Ω(注意:在这里我们用的是标称值算得的最大允许误差);可是当我们在计算其相对误差的时候根据相对误差的概念,分母用的却是1000Ω时的实际值。
再比如在判断多功能校准仪是否合格时,准确度都是±(读数%+满量程%),这里都是用到标称值来计算最大允许误差的。那么如果我用相对误差怎么来判断示值是否超差的呢?
希望能得到各位前辈的赐教,谢谢了!
化成绝对误差不就好了? 吴下阿蒙 发表于 2017-1-4 09:09
化成绝对误差不就好了?
是的,您说的这个方法肯定是最可靠的。然而,工作中往往数据量太大,比如多功能校准仪,检定证书给的都是示值绝对误差/标称值的相对误差,而且多达100多个点,如果每个点都要换算回绝对误差,显然工作量太大。
其实,我问题的关键点在于:如果我检定一个电阻箱,我应该用“相对误差”还是“示值绝对误差/标称值”的误差来判断其符合某一个等级更为合适。
本帖最后由 吴下阿蒙 于 2017-1-4 10:56 编辑
lfs690716653 发表于 2017-1-4 09:23
是的,您说的这个方法肯定是最可靠的。然而,工作中往往数据量太大,比如多功能校准仪,检定证书 ...
我们都知道,相对误差=示值绝对误差/实际值,可是为什么很多送检证书上给出的都是示值绝对误差/标称值的呢?确定除的是标称值,而不是因为修约了小数位数?
我认为按照相对误差定义来算,一点问题都不会有吧。
而且你的那个表格中修约的话,根本没那么多问题的,如果你这测得值100003只能精确到1的话,那么100003和平均值0.00XXX,按修约减不减都一样。而算相对误差时,3/100003的值其实只有一位有效数字,这和3/100000应该不会有区别。这两个值至少在四五位有效数字时才会有差别。而这是根本没必要的。。
因为一般标称值≈实际值,为了计算方便,所以经常用标称值代替实际值的。 这是基础知识的问题。看一下基础知识教材里讲到相对误差的计算时是有两个计算公式的:δ=Δ/Xs ×100%,在误差的绝对值较小的情况下,也可用δ=Δ/X ×100%计算,Xs 是标准值,X是你说的标称值。我在上学时,老师说过,这个公式δ=Δ/X ×100%多用于电学仪表。 精确计算分母都是“标准的示值”或“标准的标称值”,对于被校仪器是固定标称值的情况下标准的示值会有小数值或非整数值,如电阻箱1000Ω档位标准表可能显示1000.0011Ω,假若用笔计算而非电脑自动计算用1000作分母比1000.0011作分母容易很多了,因此,用被检的标称值作分母只是不影响结果的近似计算罢了。 规程要求为准,电学通常看相对吧
页:
[1]