Что Такое Допустимая Погрешность Измерения?

Что Такое Допустимая Погрешность Измерения
Погрешность является одной из наиболее важных метрологических характеристик средства измерений (технического средства, предназначенного для измерений). Она соответствует разнице между показаниями средства измерений и истинным значением измеряемой величины.

Чем меньше погрешность, тем более точным считается средство измерений, тем выше его качество. Наибольшее возможное значение погрешности для определенного типа средств измерений при определенных условиях (например, в заданном диапазоне значений измеряемой величины) называется пределом допускаемой погрешности.

Обычно устанавливают пределы допускаемой погрешности, т.е. нижнюю и верхнюю границы интервала, за которые не должна выходить погрешность. Как сами погрешности, так и их пределы, принято выражать в форме абсолютных, относительных или приведенных погрешностей.

  • Конкретная форма выбирается в зависимости от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения средств измерений.
  • Абсолютную погрешность указывают в единицах измеряемой величины, а относительную и приведённую — обычно в процентах.
  • Относительная погрешность может характеризовать качество средства измерения гораздо более точно, чем приведённая, о чем будет рассказано далее более подробно.

Связь между абсолютной (Δ), относительной (δ) и приведённой (γ) погрешностями определяется по формулам: δ=Δ/Х (1) γ=Δ/Х N (2) где X — значение измеряемой величины, X N — нормирующее значение, выраженное в тех же единицах, что и Δ. Критерии выбора нормирующего значения X N устанавливаются ГОСТ 8.401-80 в зависимости от свойств средства измерений, и обычно оно должно быть равно пределу измерений (X K ), т.е.

γ=Δ/Х K (3) Пределы допускаемых погрешностей рекомендуется выражать в форме приведённых в случае, если границы погрешностей можно полагать практически неизменными в пределах диапазона измерений (например, для стрелочных аналоговых вольтметров, когда границы погрешности определяются в зависимости от цены деления шкалы, независимо от значения измеряемого напряжения).

В противном случае рекомендуется выражать пределы допускаемых погрешностей в форме относительных согласно ГОСТ 8.401-80. Однако на практике выражение пределов допускаемых погрешностей в форме приведённых погрешностей ошибочно используется в случаях, когда границы погрешностей никак нельзя полагать неизменными в пределах диапазона измерений.

Что такое предел допускаемой погрешности средства измерений?

Предел допускаемой погрешности средства измерений – наибольшее значение погрешности средств измерений, устанавливаемое нормативным документом для данного типа средств измерений, при котором оно еще признается годным к применению.

Как определить допустимую погрешность измерения?

В.Д. Гвоздев. Допустимая погрешность измерений: выбор значения («Законодательная и прикладная метрология», 2013, №2) Аннотация Объектом анализа являются рекомендации по выбору допустимой погрешности измерений, содержащиеся в нормативных документах и публикациях по метрологии.

  1. Основное внимание уделено допусковому контролю качества.
  2. Подчеркивается, что концепция контроля точности линейных размеров, принятая в ГОСТ 24356, может быть причиной брака.
  3. Ключевые слова: измерения, контроль, допустимая погрешность измерений, допускаемая погрешность измерений, допуск, оценка соответствия Для обеспечения единства измерений необходимо, чтобы характеристики погрешности/неопределенности (далее погрешность — Δ) результата измерений не выходили за заданные (допустимые) границы.

Методы определения характеристик точности результатов измерений – основная тема метрологии. Выбору значений допустимой погрешности уделяется немного внимания. Часто авторы книг ограничиваются указанием, что выбор допустимой (допускаемой) погрешности производится исходя из задач измерений.

Связано это с тем, что в рамках метрологии обосновать выбор значения допустимой погрешности невозможно. Однако оставить тему выбора допустимой погрешности без рассмотрения также нельзя, хотя бы потому, что при метрологической экспертизе проектов нормативных документов, конструкторской и технологической документации обязательно проверяют оптимальность требований к точности измерений.

Задача измерений – определение значения величины. Цели могут быть разные. Разделим их условно на две группы: 1 — получение информации о величине и 2 — контроль качества объектов. В первом случае значения допустимой погрешности измерений обусловлены влиянием неопределенности результата измерений на последствия от принятия решения на его основе.

Например: -если ставится задача повышения точности оценки какой-либо количественной характеристики по отношению к уже достигнутому уровню, допустимая погрешность измерения будет определяться разрядом последней цифры, надежность которой должна быть обеспечена; -для научных и практических исследований, во многих случаях, допустимую погрешность измерений устанавливают из условия сопоставимости их результатов; -в медицине точность измерений обусловливается взаимосвязью между изменением параметра и самочувствием пациента; -в спорте выбор разрешающей способности средств измерений и погрешности измерений связаны с плотностью результатов спортсменов; -при осуществлении торговых операций с продуктами, характеризуемыми массой или объемом, поставке электроэнергии, тепла, горючих и смазочных материалов и др.

от значения допустимой погрешности измерений напрямую зависят экономические показатели поставщика и потребителя; -при оценке характеристик точности технологических процессов, применении статистических методов контроля технологических процессов, статистическом приемочном контроле и входном контроле качества продукции исходят из критерия ничтожной погрешности измерения по отношению к технологическому допуску.

Что такое погрешность измерения и какая является допустимой?

Погре́шность измере́ния — отклонение измеренного значения величины от её истинного (действительного) значения. Погрешность измерения является характеристикой точности измерения. Выяснить с абсолютной точностью истинное значение измеряемой величины, как правило, невозможно, поэтому невозможно и указать величину отклонения измеренного значения от истинного.

Это отклонение принято называть ошибкой измерения, Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов, На практике вместо истинного значения используют действительное значение величины х д, то есть значение физической величины, полученное экспериментальным путём и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него,

Такое значение обычно вычисляется как среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому при записи результатов измерений необходимо указывать их точность,

Например, запись T = 2,8 ± 0,1 с; P = 0,95 означает, что истинное значение величины T лежит в интервале от 2,7 с до 2,9 с с доверительной вероятностью 95 %. Количественная оценка величины погрешности измерения — мера «сомнения в измеряемой величине» — приводит к такому понятию, как « неопределённость измерения ».

В то же время иногда, особенно в физике, термин «погрешность измерения» ( англ. measurement error ) используется как синоним термина «неопределённость измерения» ( англ. measurement uncertainty ),

Читайте также:  Что Такое Техника Безопасности На Производстве?

Какие погрешности измерения включает допускаемая погрешность измерения?

Допускаемая погрешность измерения включает случайные и неучтенные систематические погрешности измерения.

В чем измеряется погрешность?

Погрешность средств измерения и результатов измерения. Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).

  • Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.
  • Инструментальные и методические погрешности.
  • Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях.
  • Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений.

Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели. Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета.

Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается. Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены. Инструментальная погрешность обусловлена несовершенством применяемых средств измерений.

Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы. Статическая и динамическая погрешности.

Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей. Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях. Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий.

Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.

Что представляет собой дополнительная погрешность?

Дополнительная погрешность и как с ней бороться Любой потребитель при выборе датчиков давления ставит цель измерения давления с заявленной в тех документации точностью. Это является одним из критериев выбора датчика, В паспорте на датчик ГОСТы требуют указать допустимые значения основной погрешности измерений (+- от истинного давления). Эти значения по ГОСТ 22520 выбирают из ряда 0,075; 0,1; 0,15; 0,2; 0,25; 0,4; 0,5%; и т.д. в зависимости от технических возможностей изделия. Показатель основной погрешности нормируется для нормальных (т.е. идеальных) условий измерения. Нормальные условия определены по ГОСТ 12997, Эти условия указаны также в методике поверки средства измерения. Например по МИ1997 для определения основной погрешности нужно установить следующие условия окр. среды : — температура 23+-2оС, — влажность от 30 до 80%, — атм. давление 84-106,7 кПа, — питание 36+-0,72В, — отсутствие внешних магнитных полей и т.д. Как видите условия для работы датчика при определении основной погрешности практически идеальные. Поэтому каждая поверочная лаборатория должна иметь возможность их регулирования. Например, для регулирования температуры в помещении используют приборы микроклимата (обогреватель, кондиционер и др.). Но какие показания с датчика мы получим в реальных условиях эксплуатации на объекте, например при +80оС или -30оС – это вопрос. Ответ на этот вопрос дает показатель дополнительной погрешности, который тоже нормируется в ТУ и ГОСТах. Дополнительная погрешность — Отклонение функции преобразования, вызванное одной влияющей величиной (температура, давление, вибрация, радиопомехи, напряжение питания и пр.). Вычисляется как разность (без учета знака) между значением погрешности в рабочих (фактических) условиях измерения, и значением погрешности в нормальных условиях. Конечно, на выходной сигнал влияют все факторы условий эксплуатации. Но для датчиков (преобразователей) давления наиболее существенным воздействием является отклонение температуры окружающего воздуха. В ГОСТ 22520 дополнительную погрешность нормируют на каждые 10С отклонения от нормальных условий (т.е от 23оС ). Допуски по ГОСТ выглядят так:

Основная погрешность, +-% Дополнительная на 10оС, +-%
0.15 0.15
0.25 0.25
0.5 0.45
1.0 0.6

Если датчик при испытаниях на воздействие температур вложился в эти допуски, то он «соответствует ГОСТ 22520», что в большинстве случаев и пишут в тех документации на датчик. Давайте проанализируем точность датчика, который соответствует ГОСТ 22520, при воздействии температуры.

Как определить погрешность измерения прибора?

Измерение физических величин основано на том, что физика исследует объективные закономерности, которые происходят в природе. Найти значение физической величины — умножить конкретное число на единицу измерения данной величины, которая стандартизирована ( эталоны ).

расположение наблюдателя относительно измерительного прибора: если на линейку смотреть сбоку, погрешность измерений произойдёт по причине неточного определения полученного значения;деформация измерительного прибора: металлические и пластиковые линейки могут изогнуться, сантиметровая лента растягивается со временем;несоответствие шкалы прибора эталонным значениям: при множественном копировании эталонов может произойти ошибка, которая будет множиться;физический износ шкалы измерений, что приводит к невозможности распознавания значений.

Рассмотрим на примере измерения длины бруска линейкой с сантиметровой шкалой. Рис. \(1\). Линейка и брусок Внимательно рассмотрим шкалу. Расстояние между двумя соседними метками составляет \(1\) см. Если этой линейкой измерять брусок, который изображён на рисунке, то правый конец бруска будет находиться между \(9\) и \(10\) метками.

У нас есть два варианта определения длины этого бруска. \(1\). Если мы заявим, что длина бруска — \(9\) сантиметров, то недостаток длины от истинной составит более половины сантиметра (\(0,5\) см \(= 5\) мм). \(2\). Если мы заявим, что длина бруска — \(10\) сантиметров, то избыток длины от истинной составит менее половины сантиметра (\(0,5\) см \(= 5\) мм).

Погрешность измерений — это отклонение полученного значения измерения от истинного. Погрешность измерительного прибора равна цене деления прибора. Для первой линейки цена деления составляет \(1\) сантиметр. Значит, погрешность этой линейки \(1\) см. Если нам необходимо произвести более точные измерения, то следует поменять линейку на другую, например, с миллиметровыми делениями. Рис. \(2\). Деревянная линейка Если же необходимы ещё более точные измерения, то нужно найти прибор с меньшей ценой деления, например, штангенциркуль. Существуют штангенциркули с ценой деления \(0,1\) мм и \(0,05\) мм, Рис. \(3\). Штангенциркуль На процесс измерения влияют следующие факторы: масштаб шкалы прибора, который определяет значения делений и расстояние между ними; уровень экспериментальных умений. Считается, что погрешность прибора превосходит по величине погрешность метода вычисления, поэтому за абсолютную погрешность принимают погрешность прибора.

Что такое приведенная погрешность простыми словами?

Приведённая погрешность — погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.

Для чего нужна погрешность измерения?

Каждое физическое измерение в исследованиях и промышленности сопровождается определенной погрешностью. Даже незначительные колебания в условиях окружающей среды могут влиять на измерение и вызывать отклонения, которые делают результат измерения ненадежным.

  1. Для получения правильных результатов измерений необходимо учитывать связанную с результатами погрешность.
  2. Погрешность измерений указывает на недостающую информацию о настоящем значении измеряемой величины.
  3. Она определяется параметром, выраженным в процентах и относящимся к результату измерения, который обозначает отклонение значений, которое обоснованно можно присвоить измеряемой величине на основе имеющейся информации.

Другими словами, это диапазон, в пределах которого с определенной вероятностью находится истинное значение измеряемой величины.

Чем нормируется допускаемая погрешность измерения линейных размеров?

РУКОВОДЯЩИЙ НОРМАТИВНЫЙ ДОКУМЕНТ РД 50-98-86 МЕТОДИЧЕСКИЕ УКАЗАНИЯ Выбор универсальных средств измерений линейных размеров до 500 мм (По применению ГОСТ 8.051-81) Содержание 1. Погрешности, допускаемые при измерении линейных размеров до 500 мм 2. Выбор универсальных средств для измерения линейных размеров Настоящие методические указания предусматривают выбор средств измерений линейных размеров (диаметров и длин) и величин радиального и торцового биения в диапазоне размеров до 500 мм.

  • Выбор средств измерений, с учетом условий измерений, по настоящим методическим указаниям обеспечивает измерение диаметров и длин с погрешностями, не превышающими значений, допускаемых ГОСТ 8.051-81,1.
  • ПОГРЕШНОСТИ, ДОПУСКАЕМЫЕ ПРИ ИЗМЕРЕНИИ ЛИНЕЙНЫХ РАЗМЕРОВ ДО 500 мм ГОСТ 8.051-81 установлены: а) значения допускаемых погрешностей измерений, б) приемочные границы с учетом допускаемых погрешностей измерений.1.1.

Значения допускаемых погрешностей измерений. В стандарте содержатся значения допускаемых погрешностей измерений, установленные в зависимости от номинальных размеров и допусков на изготовление. Значения погрешностей установлены для квалитетов IT2-IT17, для номинальных размеров до 500 мм.

Величины погрешностей приняты равными от 20 % (для IT10 и грубее) до 35 % (для IT2-IT5) с округлениями, учитывающими реальные значения погрешностей измерений измерительными средствами. Допускаемые погрешности измерений, установленные стандартом, охватывают не только погрешности измерительных средств, но и составляющие от других источников погрешности, оказывающих влияние на погрешность измерения (установочные меры, базирование, температурные деформации и т.д.).

Погрешности измерения

Допускаемые погрешности измерений относятся к случайным и неучтенным систематическим погрешностям измерений. Случайную составляющую погрешности можно выявить практически при всех видах измерений. Однако эту часть погрешности иногда принимают за всю погрешность измерения.

Вот почему в стандарте было признано необходимым отдельно указать, что случайная часть погрешности измерения не должна превышать 0,6 от нормируемой допускаемой погрешности измерения. Ограничивать неучтенную систематическую погрешность измерения не представляется возможным, поскольку для ее непосредственного определения необходимо иметь образцовые меры, что, особенно при точных измерениях, практически невозможно сделать.

Допускаемые значения случайной погрешности измерения, установленные в стандарте, приняты равными 2s. Допускаемые погрешности измерений нормируются вне зависимости от способа измерения размеров диаметров и длин при приемочном контроле.1.2. Приемочные границы с учетом нормируемых допускаемых погрешностей измерений

Чему равен класс точности?

Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 24 мая 2018 года; проверки требуют 13 правок, Класс точности — обобщённая характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений.

результату измерения (по относительной погрешности)

в этом случае, по ГОСТ 8.401-80, цифровое обозначение класса точности (в процентах) заключается в кружок.

длине (верхнему пределу) шкалы измерительного прибора (по приведенной погрешности).

Для стрелочных приборов принято указывать класс точности, записываемый в виде числа, например, 0,05 или 4,0. Это число дает максимально возможную погрешность прибора, выраженную в процентах от наибольшего значения величины, измеряемой в данном диапазоне работы прибора.

  • Так, для вольтметра, работающего в диапазоне измерений 0—30 В, класс точности 1,0 определяет, что указанная погрешность при положении стрелки в любом месте шкалы не превышает 0,3 В.
  • Относительная погрешность результата, полученного с помощью указанного вольтметра, зависит от значения измеряемого напряжения, становясь недопустимо высокой для малых напряжений.

При измерении напряжения 0,5 В погрешность составит 60 %. Как следствие, такой прибор не годится для исследования процессов, в которых напряжение меняется на 0,1—0,5 В. Обычно цена наименьшего деления шкалы стрелочного прибора согласована с погрешностью самого прибора.

Если класс точности используемого прибора неизвестен, за погрешность s прибора всегда принимают половину цены его наименьшего деления. Понятно, что при считывании показаний со шкалы нецелесообразно стараться определить доли деления, так как результат измерения от этого не станет точнее. Следует иметь в виду, что понятие класса точности встречается в различных областях техники.

Так, в станкостроении имеется понятие класса точности металлорежущего станка, класса точности электроэрозионных станков (по ГОСТ 20551). Обозначения класса точности могут иметь вид заглавных букв латинского алфавита, римских цифр и арабских цифр с добавлением условных знаков.

Если класс точности обозначается латинскими буквами, то класс точности определяется пределами абсолютной погрешности. Если класс точности обозначается арабскими цифрами без условных знаков, то класс точности определяется пределами приведённой погрешности и в качестве нормирующего значения используется наибольший по модулю из пределов измерений.

Если класс точности обозначается арабскими цифрами с галочкой, то класс точности определяется пределами приведённой погрешности, но в качестве нормирующего значения используется длина шкалы. Если класс точности обозначается римскими цифрами, то класс точности определяется пределами относительной погрешности.

Что такое абсолютная погрешность в физике?

Физические величины и погрешности их измерений — Задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Сразу оговоримся, что при выборе измерительного оборудования часто нужно также знать диапазон измерения и какое именно значение интересует: например, среднеквадратическое значение (СКЗ) измеряемой величины в определённом интервале времени, или требуется измерять среднеквадратическое отклонение (СКО) (для измерения переменной составляющей величины), или требуется измерять мгновенное (пиковое) значение.

  1. При измерении переменных физических величин (например, напряжение переменного тока) требуется знать динамические характеристики измеряемой физической величины: диапазон частот или максимальную скорость изменения физической величины,
  2. Эти данные, необходимые при выборе измерительного оборудования, зависят от физического смысла задачи измерения в конкретном физическом эксперименте,

Итак, повторимся: задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Эта задача решается с помощью прямых или косвенных измерений, При прямом измерении осуществляется количественное сравнение физической величины с соответствующим эталоном при помощи измерительных приборов.

  • Отсчет по шкале прибора указывает непосредственно измеряемое значение.
  • Например, термометр дает значения измеряемой температуры, а вольтметр – значение напряжения.
  • При косвенных измерениях интересующая нас физическая величина находится при помощи математических операций над непосредственно измеренными физическими величинами (непосредственно измеряя напряжение U на резисторе и ток I через него, вычисляем значение сопротивления R = U / I ).

Точность прямых измерений некоторой величины X оценивается величиной погрешности или ошибки, измерений относительно действительного значения физической величины X Д, Действительное значение величины X Д (согласно РМГ 29-99 ) – это значение физической величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.

Различают абсолютную (∆ X) и относительную (δ) погрешности измерений. Абсолютная погрешность измерения – это п огрешность средства измерений, выраженная в единицах измеряемой физической величины, характеризующая абсолютное отклонение измеряемой величины от действительного значения физической величины: ∆X = X – X Д,

Относительная погрешность измерения – это п огрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины. Обычно относительную погрешность выражают в процентах: δ = (∆X / Xд) * 100%, При оценке точности косвенных измерений некоторой величины X 1, функционально связанной с физическими величинами X 2, X 3,, X 1 = F (X 2, X 3, ), учитывают погрешности прямых измерений каждой из величин X 2, X 3, и характер функциональной зависимости F (),

Как определяются пределы допускаемой погрешности СИ?

Погрешность является одной из наиболее важных метрологических характеристик средства измерений (технического средства, предназначенного для измерений). Она соответствует разнице между показаниями средства измерений и истинным значением измеряемой величины.

  1. Чем меньше погрешность, тем более точным считается средство измерений, тем выше его качество.
  2. Наибольшее возможное значение погрешности для определенного типа средств измерений при определенных условиях (например, в заданном диапазоне значений измеряемой величины) называется пределом допускаемой погрешности.

Обычно устанавливают пределы допускаемой погрешности, т.е. нижнюю и верхнюю границы интервала, за которые не должна выходить погрешность. Как сами погрешности, так и их пределы, принято выражать в форме абсолютных, относительных или приведенных погрешностей.

Конкретная форма выбирается в зависимости от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения средств измерений. Абсолютную погрешность указывают в единицах измеряемой величины, а относительную и приведённую — обычно в процентах. Относительная погрешность может характеризовать качество средства измерения гораздо более точно, чем приведённая, о чем будет рассказано далее более подробно.

Связь между абсолютной (Δ), относительной (δ) и приведённой (γ) погрешностями определяется по формулам: δ=Δ/Х (1) γ=Δ/Х N (2) где X — значение измеряемой величины, X N — нормирующее значение, выраженное в тех же единицах, что и Δ. Критерии выбора нормирующего значения X N устанавливаются ГОСТ 8.401-80 в зависимости от свойств средства измерений, и обычно оно должно быть равно пределу измерений (X K ), т.е.

γ=Δ/Х K (3) Пределы допускаемых погрешностей рекомендуется выражать в форме приведённых в случае, если границы погрешностей можно полагать практически неизменными в пределах диапазона измерений (например, для стрелочных аналоговых вольтметров, когда границы погрешности определяются в зависимости от цены деления шкалы, независимо от значения измеряемого напряжения).

В противном случае рекомендуется выражать пределы допускаемых погрешностей в форме относительных согласно ГОСТ 8.401-80. Однако на практике выражение пределов допускаемых погрешностей в форме приведённых погрешностей ошибочно используется в случаях, когда границы погрешностей никак нельзя полагать неизменными в пределах диапазона измерений.

Что такое приведенная погрешность простыми словами?

Приведённая погрешность — погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.

Что такое условие измерения?

Условия измерения, характеризуемые совокупностью значений или областей значений влияющих величин, при которых изменением результата измерений пренебрегают вследствие малости.