Что Такое Основная И Дополнительная Погрешности Средств Измерений?

Что Такое Основная И Дополнительная Погрешности Средств Измерений
Основная – это погрешность средства измерения при нормальных условиях; (ГОСТ 8.395-80) дополнительная погрешность – это составляющая погрешности средства измерения, дополнительно возникающая из-за отклонения какой-либо из влияющих величин от нормативного значения или выход за пределы нормальной области значений.

Что такое дополнительная погрешность средств измерений?

Физические величины и погрешности их измерений — Задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Сразу оговоримся, что при выборе измерительного оборудования часто нужно также знать диапазон измерения и какое именно значение интересует: например, среднеквадратическое значение (СКЗ) измеряемой величины в определённом интервале времени, или требуется измерять среднеквадратическое отклонение (СКО) (для измерения переменной составляющей величины), или требуется измерять мгновенное (пиковое) значение.

  1. При измерении переменных физических величин (например, напряжение переменного тока) требуется знать динамические характеристики измеряемой физической величины: диапазон частот или максимальную скорость изменения физической величины,
  2. Эти данные, необходимые при выборе измерительного оборудования, зависят от физического смысла задачи измерения в конкретном физическом эксперименте,

Итак, повторимся: задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Эта задача решается с помощью прямых или косвенных измерений, При прямом измерении осуществляется количественное сравнение физической величины с соответствующим эталоном при помощи измерительных приборов.

  1. Отсчет по шкале прибора указывает непосредственно измеряемое значение.
  2. Например, термометр дает значения измеряемой температуры, а вольтметр – значение напряжения.
  3. При косвенных измерениях интересующая нас физическая величина находится при помощи математических операций над непосредственно измеренными физическими величинами (непосредственно измеряя напряжение U на резисторе и ток I через него, вычисляем значение сопротивления R = U / I ).

Точность прямых измерений некоторой величины X оценивается величиной погрешности или ошибки, измерений относительно действительного значения физической величины X Д, Действительное значение величины X Д (согласно РМГ 29-99 ) – это значение физической величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.

Различают абсолютную (∆ X) и относительную (δ) погрешности измерений. Абсолютная погрешность измерения – это п огрешность средства измерений, выраженная в единицах измеряемой физической величины, характеризующая абсолютное отклонение измеряемой величины от действительного значения физической величины: ∆X = X – X Д,

Относительная погрешность измерения – это п огрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины. Обычно относительную погрешность выражают в процентах: δ = (∆X / Xд) * 100%, При оценке точности косвенных измерений некоторой величины X 1, функционально связанной с физическими величинами X 2, X 3,, X 1 = F (X 2, X 3, ), учитывают погрешности прямых измерений каждой из величин X 2, X 3, и характер функциональной зависимости F (),

Что представляет собой дополнительная погрешность?

Дополнительная погрешность и как с ней бороться Любой потребитель при выборе датчиков давления ставит цель измерения давления с заявленной в тех документации точностью. Это является одним из критериев выбора датчика, В паспорте на датчик ГОСТы требуют указать допустимые значения основной погрешности измерений (+- от истинного давления). Эти значения по ГОСТ 22520 выбирают из ряда 0,075; 0,1; 0,15; 0,2; 0,25; 0,4; 0,5%; и т.д. в зависимости от технических возможностей изделия. Показатель основной погрешности нормируется для нормальных (т.е. идеальных) условий измерения. Нормальные условия определены по ГОСТ 12997, Эти условия указаны также в методике поверки средства измерения. Например по МИ1997 для определения основной погрешности нужно установить следующие условия окр. среды : — температура 23+-2оС, — влажность от 30 до 80%, — атм. давление 84-106,7 кПа, — питание 36+-0,72В, — отсутствие внешних магнитных полей и т.д. Как видите условия для работы датчика при определении основной погрешности практически идеальные. Поэтому каждая поверочная лаборатория должна иметь возможность их регулирования. Например, для регулирования температуры в помещении используют приборы микроклимата (обогреватель, кондиционер и др.). Но какие показания с датчика мы получим в реальных условиях эксплуатации на объекте, например при +80оС или -30оС – это вопрос. Ответ на этот вопрос дает показатель дополнительной погрешности, который тоже нормируется в ТУ и ГОСТах. Дополнительная погрешность — Отклонение функции преобразования, вызванное одной влияющей величиной (температура, давление, вибрация, радиопомехи, напряжение питания и пр.). Вычисляется как разность (без учета знака) между значением погрешности в рабочих (фактических) условиях измерения, и значением погрешности в нормальных условиях. Конечно, на выходной сигнал влияют все факторы условий эксплуатации. Но для датчиков (преобразователей) давления наиболее существенным воздействием является отклонение температуры окружающего воздуха. В ГОСТ 22520 дополнительную погрешность нормируют на каждые 10С отклонения от нормальных условий (т.е от 23оС ). Допуски по ГОСТ выглядят так:

Основная погрешность, +-% Дополнительная на 10оС, +-%
0.15 0.15
0.25 0.25
0.5 0.45
1.0 0.6

Если датчик при испытаниях на воздействие температур вложился в эти допуски, то он «соответствует ГОСТ 22520», что в большинстве случаев и пишут в тех документации на датчик. Давайте проанализируем точность датчика, который соответствует ГОСТ 22520, при воздействии температуры.

Какие бывают погрешности средств измерений?

Погрешность средств измерения и результатов измерения. Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).

  1. Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.
  2. Инструментальные и методические погрешности.
  3. Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях.
  4. Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений.

Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели. Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета.

Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается. Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены. Инструментальная погрешность обусловлена несовершенством применяемых средств измерений.

Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы. Статическая и динамическая погрешности.

Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей. Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях. Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий.

Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.

Что такое погрешность измерения и какая является допустимой?

Погре́шность измере́ния — отклонение измеренного значения величины от её истинного (действительного) значения. Погрешность измерения является характеристикой точности измерения. Выяснить с абсолютной точностью истинное значение измеряемой величины, как правило, невозможно, поэтому невозможно и указать величину отклонения измеренного значения от истинного.

  1. Это отклонение принято называть ошибкой измерения,
  2. Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов,
  3. На практике вместо истинного значения используют действительное значение величины х д, то есть значение физической величины, полученное экспериментальным путём и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него,

Такое значение обычно вычисляется как среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому при записи результатов измерений необходимо указывать их точность,

Например, запись T = 2,8 ± 0,1 с; P = 0,95 означает, что истинное значение величины T лежит в интервале от 2,7 с до 2,9 с с доверительной вероятностью 95 %. Количественная оценка величины погрешности измерения — мера «сомнения в измеряемой величине» — приводит к такому понятию, как « неопределённость измерения ».

В то же время иногда, особенно в физике, термин «погрешность измерения» ( англ. measurement error ) используется как синоним термина «неопределённость измерения» ( англ. measurement uncertainty ),

Что такое основная приведенная погрешность?

Приведенная погрешность (средства измерений) – это погрешность средства измерений, выраженная отношением абсолютной погрешности средства измерения к нормирующему значению величины.

Что такое основная погрешность датчика?

7. Требуемая точность измерений — При расчете погрешности измерений датчиков давления, необходимо учитывать, что помимо основной погрешности существует дополнительная погрешность. Основная погрешность – значение погрешности датчика давления относительно диапазона измерений, заявленная заводом изготовителем для нормальных условий эксплуатации.

Температура окружающей и рабочей среды – 20 °C; Давление рабочей среды – в пределах диапазона измерений датчика; Нормальное атмосферное давление; Отстуствие турбулентности потока или других явлений, в месте установки датчика, способных повлиять на показания.

Дополнительная погрешность — значение погрешности, вызванное отклонением условий эксплуатации от нормальных, ввиду особенностей данного конкретного применения. Одной из основных составляющих дополнительной погрешности является температурная погрешность, которая указывается в технической документации к датчикам давления и может быть рассчитана для конкретного значения температуры рабочей среды.

Что такое абсолютная и относительная погрешность измерения?

Что мы узнали? — Абсолютные и относительные погрешности используются для оценки точности измерений. Абсолютной погрешностью называют разницу между точным и приближенным числом. Относительная погрешность – это отношение абсолютной погрешности числа к самому числу. На практике используют относительную погрешность, так как она является более точной.

Чему равна погрешность измерения?

Измерение физических величин основано на том, что физика исследует объективные закономерности, которые происходят в природе. Найти значение физической величины — умножить конкретное число на единицу измерения данной величины, которая стандартизирована ( эталоны ).

расположение наблюдателя относительно измерительного прибора: если на линейку смотреть сбоку, погрешность измерений произойдёт по причине неточного определения полученного значения;деформация измерительного прибора: металлические и пластиковые линейки могут изогнуться, сантиметровая лента растягивается со временем;несоответствие шкалы прибора эталонным значениям: при множественном копировании эталонов может произойти ошибка, которая будет множиться;физический износ шкалы измерений, что приводит к невозможности распознавания значений.

Рассмотрим на примере измерения длины бруска линейкой с сантиметровой шкалой. Рис. \(1\). Линейка и брусок Внимательно рассмотрим шкалу. Расстояние между двумя соседними метками составляет \(1\) см. Если этой линейкой измерять брусок, который изображён на рисунке, то правый конец бруска будет находиться между \(9\) и \(10\) метками.

У нас есть два варианта определения длины этого бруска. \(1\). Если мы заявим, что длина бруска — \(9\) сантиметров, то недостаток длины от истинной составит более половины сантиметра (\(0,5\) см \(= 5\) мм). \(2\). Если мы заявим, что длина бруска — \(10\) сантиметров, то избыток длины от истинной составит менее половины сантиметра (\(0,5\) см \(= 5\) мм).

Погрешность измерений — это отклонение полученного значения измерения от истинного. Погрешность измерительного прибора равна цене деления прибора. Для первой линейки цена деления составляет \(1\) сантиметр. Значит, погрешность этой линейки \(1\) см. Если нам необходимо произвести более точные измерения, то следует поменять линейку на другую, например, с миллиметровыми делениями. Рис. \(2\). Деревянная линейка Если же необходимы ещё более точные измерения, то нужно найти прибор с меньшей ценой деления, например, штангенциркуль. Существуют штангенциркули с ценой деления \(0,1\) мм и \(0,05\) мм, Рис. \(3\). Штангенциркуль На процесс измерения влияют следующие факторы: масштаб шкалы прибора, который определяет значения делений и расстояние между ними; уровень экспериментальных умений. Считается, что погрешность прибора превосходит по величине погрешность метода вычисления, поэтому за абсолютную погрешность принимают погрешность прибора.

Как классифицируют виды погрешностей?

Погрешности измерения классифицируются: 1) По способу выражения – абсолютные – относительные 2) По источнику возникновения – инструментальные – составляющая погрешности, которая зависит от свойств СИТ (класс точности, цена деления и т.д.). Этот вид погрешности легко предсказуем и заранее просчитываемый, и как следствие можно его учесть при помощи ввода поправок, либо другим способом.

  1. Методические – составляющая общей погрешности измерения, которая обусловлена несовершенством метода измерения.
  2. Так, например, при измерении сопротивления на участке цепи при помощи омметра, величина измеренного сопротивления будет иметь методическую погрешность, за счет входного сопротивления самого омметра.

– личные, или субъективные – погрешность оператора 3) По закономерностям возникновения и проявления – ситематические – составляющие общей погрешности измерения, которая остается постоянной, либо закономерно изменяется при повторных измерениях одной и той же величины. Систематическую погрешность можно учесть при большом количестве повторный измерений (?50) одной величины, произведенных при одинаковых условиях. Существует много методов снизить систематическую погрешность, если это нужно. – случайные – составляющая общей погрешности измерения, которая изменяется случайным образом как по величине и по знаку при повторных измерениях одной и той же величины. Причины возникновения случайных погрешностей могут быть самые различные: конструктивные недостатки и неточности приборов, случайные внешние колебания случайных величин (к примеру, колебания температуры окружающей среды), ошибки оператора, шумы, вибрации, нестабильность питания приборов, внешние колебания электро – магнитных полей и много др. – среднее арифметическое всех результатов измерений однако, поскольку не возможно чтобы количество измерений было бесконечным, то при большом количестве измерений – грубая погрешность – это погрешность, которая существенно превышает ожидаемую в данных условиях погрешность.

Что такое погрешность средства измерения?

Погрешность средства измерений (англ. error (of indication) of a measuring instrument) – разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины.

Как оценить погрешность измерения?

1.1 Результат измерения — Рассмотрим простейший пример: измерение длины стержня с помощью линейки. Линейка проградуирована производителем с помощью некоторого эталона длины — таким образом, сравнивая длину стержня с ценой деления линейки, мы выполняем косвенное сравнение с общепринятым стандартным эталоном.

  1. Допустим, мы приложили линейку к стержню и увидели на шкале некоторый результат x = x изм,
  2. Можно ли утверждать, что x изм — это длина стержня? Во-первых, значение x не может быть задано точно, хотя бы потому, что оно обязательно округлено до некоторой значащей цифры: если линейка «обычная», то у неё есть цена деления ; а если линейка, к примеру, «лазерная» — у неё высвечивается конечное число значащих цифр на дисплее.

Во-вторых, мы никак не можем быть уверенны, что длина стержня на самом деле такова хотя бы с точностью до ошибки округления. Действительно, мы могли приложить линейку не вполне ровно; сама линейка могла быть изготовлена не вполне точно; стержень может быть не идеально цилиндрическим и т.п.

И, наконец, если пытаться хотя бы гипотетически переходить к бесконечной точности измерения, теряет смысл само понятие «длины стержня». Ведь на масштабах атомов у стержня нет чётких границ, а значит говорить о его геометрических размерах в таком случае крайне затруднительно! Итак, из нашего примера видно, что никакое физическое измерение не может быть произведено абсолютно точно, то есть у любого измерения есть погрешность,

Замечание. Также используют эквивалентный термин ошибка измерения (от англ. error). Подчеркнём, что смысл этого термина отличается от общеупотребительного бытового: если физик говорит «в измерении есть ошибка», — это не означает, что оно неправильно и его надо переделать.

  1. Имеется ввиду лишь, что это измерение неточно, то есть имеет погрешность,
  2. Количественно погрешность можно было бы определить как разность между измеренным и «истинным» значением длины стержня: δ ⁢ x = x изм — x ист,
  3. Однако на практике такое определение использовать нельзя: во-первых, из-за неизбежного наличия погрешностей «истинное» значение измерить невозможно, и во-вторых, само «истинное» значение может отличаться в разных измерениях (например, стержень неровный или изогнутый, его торцы дрожат из-за тепловых флуктуаций и т.д.).

Поэтому говорят обычно об оценке погрешности. Об измеренной величине также часто говорят как об оценке, подчеркивая, что эта величина не точна и зависит не только от физических свойств исследуемого объекта, но и от процедуры измерения. Замечание. Термин оценка имеет и более формальное значение.

Сколько видов погрешности?

1) систематические погрешности ; 2) случайные погрешности. В процессе измерения могут также появиться грубые погрешности и промахи. Систематическая погрешность — это составная часть всей погрешности результата измерения, не изменяющаяся или изменяющаяся закономерно при многократных измерениях одной и той же величины.

Что называется максимально допустимой погрешностью измерения?

Погрешность является одной из наиболее важных метрологических характеристик средства измерений (технического средства, предназначенного для измерений). Она соответствует разнице между показаниями средства измерений и истинным значением измеряемой величины.

Чем меньше погрешность, тем более точным считается средство измерений, тем выше его качество. Наибольшее возможное значение погрешности для определенного типа средств измерений при определенных условиях (например, в заданном диапазоне значений измеряемой величины) называется пределом допускаемой погрешности.

Обычно устанавливают пределы допускаемой погрешности, т.е. нижнюю и верхнюю границы интервала, за которые не должна выходить погрешность. Как сами погрешности, так и их пределы, принято выражать в форме абсолютных, относительных или приведенных погрешностей.

Конкретная форма выбирается в зависимости от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения средств измерений. Абсолютную погрешность указывают в единицах измеряемой величины, а относительную и приведённую — обычно в процентах. Относительная погрешность может характеризовать качество средства измерения гораздо более точно, чем приведённая, о чем будет рассказано далее более подробно.

Связь между абсолютной (Δ), относительной (δ) и приведённой (γ) погрешностями определяется по формулам: δ=Δ/Х (1) γ=Δ/Х N (2) где X — значение измеряемой величины, X N — нормирующее значение, выраженное в тех же единицах, что и Δ. Критерии выбора нормирующего значения X N устанавливаются ГОСТ 8.401-80 в зависимости от свойств средства измерений, и обычно оно должно быть равно пределу измерений (X K ), т.е.

γ=Δ/Х K (3) Пределы допускаемых погрешностей рекомендуется выражать в форме приведённых в случае, если границы погрешностей можно полагать практически неизменными в пределах диапазона измерений (например, для стрелочных аналоговых вольтметров, когда границы погрешности определяются в зависимости от цены деления шкалы, независимо от значения измеряемого напряжения).

В противном случае рекомендуется выражать пределы допускаемых погрешностей в форме относительных согласно ГОСТ 8.401-80. Однако на практике выражение пределов допускаемых погрешностей в форме приведённых погрешностей ошибочно используется в случаях, когда границы погрешностей никак нельзя полагать неизменными в пределах диапазона измерений.

Как определить допустимую погрешность измерения?

В.Д. Гвоздев. Допустимая погрешность измерений: выбор значения («Законодательная и прикладная метрология», 2013, №2) Аннотация Объектом анализа являются рекомендации по выбору допустимой погрешности измерений, содержащиеся в нормативных документах и публикациях по метрологии.

  1. Основное внимание уделено допусковому контролю качества.
  2. Подчеркивается, что концепция контроля точности линейных размеров, принятая в ГОСТ 24356, может быть причиной брака.
  3. Ключевые слова: измерения, контроль, допустимая погрешность измерений, допускаемая погрешность измерений, допуск, оценка соответствия Для обеспечения единства измерений необходимо, чтобы характеристики погрешности/неопределенности (далее погрешность — Δ) результата измерений не выходили за заданные (допустимые) границы.

Методы определения характеристик точности результатов измерений – основная тема метрологии. Выбору значений допустимой погрешности уделяется немного внимания. Часто авторы книг ограничиваются указанием, что выбор допустимой (допускаемой) погрешности производится исходя из задач измерений.

  • Связано это с тем, что в рамках метрологии обосновать выбор значения допустимой погрешности невозможно.
  • Однако оставить тему выбора допустимой погрешности без рассмотрения также нельзя, хотя бы потому, что при метрологической экспертизе проектов нормативных документов, конструкторской и технологической документации обязательно проверяют оптимальность требований к точности измерений.

Задача измерений – определение значения величины. Цели могут быть разные. Разделим их условно на две группы: 1 — получение информации о величине и 2 — контроль качества объектов. В первом случае значения допустимой погрешности измерений обусловлены влиянием неопределенности результата измерений на последствия от принятия решения на его основе.

Например: -если ставится задача повышения точности оценки какой-либо количественной характеристики по отношению к уже достигнутому уровню, допустимая погрешность измерения будет определяться разрядом последней цифры, надежность которой должна быть обеспечена; -для научных и практических исследований, во многих случаях, допустимую погрешность измерений устанавливают из условия сопоставимости их результатов; -в медицине точность измерений обусловливается взаимосвязью между изменением параметра и самочувствием пациента; -в спорте выбор разрешающей способности средств измерений и погрешности измерений связаны с плотностью результатов спортсменов; -при осуществлении торговых операций с продуктами, характеризуемыми массой или объемом, поставке электроэнергии, тепла, горючих и смазочных материалов и др.

от значения допустимой погрешности измерений напрямую зависят экономические показатели поставщика и потребителя; -при оценке характеристик точности технологических процессов, применении статистических методов контроля технологических процессов, статистическом приемочном контроле и входном контроле качества продукции исходят из критерия ничтожной погрешности измерения по отношению к технологическому допуску.

Что такое погрешность средства измерения?

Погрешность средства измерений (англ. error (of indication) of a measuring instrument) – разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины.

Что такое приведенная погрешность простыми словами?

Приведённая погрешность — погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.

Как классифицируют виды погрешностей?

1. По способу выражения их делят на абсолютные и относительные погрешности измерений, — Абсолютная погрешность измерения — по грешность, выраженная в единицах измеряемой величины. Так, погрешность ?X в формуле (2.1) является абсолютной погрешностью. Недостатком такого способа выражения этих величин является то, что их нельзя использовать для сравнительной оценки точности разных измерительных технологий. Таким образом, относительная погрешность измерения — отношение абсолютной погрешности измерения к истинному значе нию измеряемой величины или результату измерений. Для характеристики точности СИ часто применяют понятие « приведенная погрешность », определяемое формулой где Хн — значение измеряемой величины, условно принятое за нормирующее значение диапазона СИ. Чаще всего в качестве Хн — принимают разность между верхним и нижним пределами этого диапазона. Таким образом, приведенная погрешность средства измерения — отношение абсолютной погрешности средства измерения в данной точке диапазона СИ к нормирующему значению этого диапазона.

Как определить погрешность измерения прибора?

Измерение физических величин основано на том, что физика исследует объективные закономерности, которые происходят в природе. Найти значение физической величины — умножить конкретное число на единицу измерения данной величины, которая стандартизирована ( эталоны ).

расположение наблюдателя относительно измерительного прибора: если на линейку смотреть сбоку, погрешность измерений произойдёт по причине неточного определения полученного значения;деформация измерительного прибора: металлические и пластиковые линейки могут изогнуться, сантиметровая лента растягивается со временем;несоответствие шкалы прибора эталонным значениям: при множественном копировании эталонов может произойти ошибка, которая будет множиться;физический износ шкалы измерений, что приводит к невозможности распознавания значений.

Рассмотрим на примере измерения длины бруска линейкой с сантиметровой шкалой. Рис. \(1\). Линейка и брусок Внимательно рассмотрим шкалу. Расстояние между двумя соседними метками составляет \(1\) см. Если этой линейкой измерять брусок, который изображён на рисунке, то правый конец бруска будет находиться между \(9\) и \(10\) метками.

У нас есть два варианта определения длины этого бруска. \(1\). Если мы заявим, что длина бруска — \(9\) сантиметров, то недостаток длины от истинной составит более половины сантиметра (\(0,5\) см \(= 5\) мм). \(2\). Если мы заявим, что длина бруска — \(10\) сантиметров, то избыток длины от истинной составит менее половины сантиметра (\(0,5\) см \(= 5\) мм).

Погрешность измерений — это отклонение полученного значения измерения от истинного. Погрешность измерительного прибора равна цене деления прибора. Для первой линейки цена деления составляет \(1\) сантиметр. Значит, погрешность этой линейки \(1\) см. Если нам необходимо произвести более точные измерения, то следует поменять линейку на другую, например, с миллиметровыми делениями. Рис. \(2\). Деревянная линейка Если же необходимы ещё более точные измерения, то нужно найти прибор с меньшей ценой деления, например, штангенциркуль. Существуют штангенциркули с ценой деления \(0,1\) мм и \(0,05\) мм, Рис. \(3\). Штангенциркуль На процесс измерения влияют следующие факторы: масштаб шкалы прибора, который определяет значения делений и расстояние между ними; уровень экспериментальных умений. Считается, что погрешность прибора превосходит по величине погрешность метода вычисления, поэтому за абсолютную погрешность принимают погрешность прибора.