检定钢直尺示值误差如何计算?
用三等金属标准线纹尺检定钢直尺时,示值误差如何得出?一般来说:示值误差=读数-真值,那这个读数是在标准尺上读还是在被侧尺上读?规程里写要在标准尺上读,我怎么觉得有些奇怪?
要是标准尺是(1000+0.02)mm,在标准尺上读被侧尺1000mm刻线是+0.03mm,那么示值误差就是+0.01mm,可是我认为被侧尺的实际偏差都已经是+0.05mm啊,
钢卷尺规程里写到:示值误差是受检点的读数值与标准尺修正值的代数和,这句话又是怎么理解?
请各位高手指教! 要是标准尺是(1000+0.02)mm,在标准尺上读被侧尺1000mm刻线是+0.03mm,那么示值误差就是+0.05mm。 标准尺是(1000+0.02)mm,在标准尺上读被侧尺1000mm刻线是+0.03mm,那么示值误差就是+0.01mm
这种算法不对,示值误差是+0.05mm
问题出在:钢卷尺检定时,是被测尺在标准尺上读数。而不是像示值误差定义的那样,用标准尺在被测尺上读数
如果你这里想通了,就能理解了 要是标准尺是(1000+0.02)mm,在标准尺上读被侧尺1000mm刻线是+0.03mm,那么示值误差就是-0.05mm。
示值误差=标称值-实际值 赞同4楼的观点
就看用什么读数了,显微镜读数的话,就是偏差=被测对齐线减标准对齐线 请问你们检钢直尺的时候 对零是怎么对的? 假如钢直尺端面和尺面不垂直的话,怎么对零 是对底面那条边 还是尺面的那条边?
页:
[1]