Как Рассчитать Точность Измерения?

Как Рассчитать Точность Измерения
Физические величины и погрешности их измерений — Задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Сразу оговоримся, что при выборе измерительного оборудования часто нужно также знать диапазон измерения и какое именно значение интересует: например, среднеквадратическое значение (СКЗ) измеряемой величины в определённом интервале времени, или требуется измерять среднеквадратическое отклонение (СКО) (для измерения переменной составляющей величины), или требуется измерять мгновенное (пиковое) значение.

При измерении переменных физических величин (например, напряжение переменного тока) требуется знать динамические характеристики измеряемой физической величины: диапазон частот или максимальную скорость изменения физической величины, Эти данные, необходимые при выборе измерительного оборудования, зависят от физического смысла задачи измерения в конкретном физическом эксперименте,

Итак, повторимся: задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Эта задача решается с помощью прямых или косвенных измерений, При прямом измерении осуществляется количественное сравнение физической величины с соответствующим эталоном при помощи измерительных приборов.

Отсчет по шкале прибора указывает непосредственно измеряемое значение. Например, термометр дает значения измеряемой температуры, а вольтметр – значение напряжения. При косвенных измерениях интересующая нас физическая величина находится при помощи математических операций над непосредственно измеренными физическими величинами (непосредственно измеряя напряжение U на резисторе и ток I через него, вычисляем значение сопротивления R = U / I ).

Точность прямых измерений некоторой величины X оценивается величиной погрешности или ошибки, измерений относительно действительного значения физической величины X Д, Действительное значение величины X Д (согласно РМГ 29-99 ) – это значение физической величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.

Различают абсолютную (∆ X) и относительную (δ) погрешности измерений. Абсолютная погрешность измерения – это п огрешность средства измерений, выраженная в единицах измеряемой физической величины, характеризующая абсолютное отклонение измеряемой величины от действительного значения физической величины: ∆X = X – X Д,

Относительная погрешность измерения – это п огрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины. Обычно относительную погрешность выражают в процентах: δ = (∆X / Xд) * 100%, При оценке точности косвенных измерений некоторой величины X 1, функционально связанной с физическими величинами X 2, X 3,, X 1 = F (X 2, X 3, ), учитывают погрешности прямых измерений каждой из величин X 2, X 3, и характер функциональной зависимости F (),

Как оценить точность измерений?

1. Оценку точности измерений производят — предварительно до начала измерений путем обработки результатов специально выполненных наблюдений; — после окончания измерений путем обработки результатов наблюдений, выполненных в процессе этих измерений.2. Для оценки точности измерений используют многократные наблюдения параметра в одном из установленных сечений (мест) или двойные наблюдения параметра в разных сечениях (местах) одного или нескольких объектов измерений.

Общее число наблюдений М, необходимое для оценки точности результата измерений, составляет: для предварительной оценки — 20; для оценки точности выполненных измерений — не менее 6. Для уменьшения влияния систематических погрешностей измерения выполняют в соответствии с требованиями настоящего стандарта (ГОСТ 26433.0-85): Наблюдения производят в прямом и обратном направлениях, на разных участках шкалы отсчетного устройства, меняя установку и настройку прибора и соблюдая другие приемы, указанные в инструкции по эксплуатации на средства измерения.

При этом должны быть соблюдены условия равноточности наблюдений (выполнение наблюдений одним наблюдателем, тем же методом, с помощью одного и того же прибора и в одинаковых условиях). Перед началом наблюдений средства измерений следует выдерживать на месте измерений до выравнивания температур этих средств и окружающей среды.3. Таблица 1. Среднюю квадратическую погрешность измерения при многократных наблюдениях параметра определяют по формуле Если при измерениях используются средства и методы, для которых из специально выполненных ранее измерений или из эксплуатационной документации установлена средняя квадратическая погрешность наблюдения, то действительную погрешность измерения определяют по формуле 5. Действительную погрешность результата измерения при двойных наблюдениях параметра в одном из установленных сечений (местах) оценивают по формуле где вычисляемая величина — это абсолютное значение остаточной систематической погрешности, численное значение которой определено из обработки ряда двойных наблюдений.

Что такое точность измерения прибора?

То́чность измере́ний, точность результата измерения — близость измеренного значения к истинному значению измеряемой величины, Точность измерений описывает качество измерений в целом, объединяя понятия правильность измерений и прецизионность измерений,

Как правильно записать погрешность измерения?

Результаты измерения записывают в виде A = a ± Δ a, где A — измеряемая величина, a — средний результат полученных измерений, Δ a — абсолютная погрешность измерений.

Как рассчитать погрешность измерительного прибора?

Программа КИП и А Дмитрий Бебякин, инженер — метролог, ИЛИМ Позволю себе вначале небольшое отступление. Такие понятия как погрешность, класс точности довольно подробно описываются в нормативной документации ГОСТ 8.009-84 «Нормируемые метрологические характеристики средств измерений», ГОСТ 8.401-80 «Классы точности средств измерений.

Общие требования» и им подобных. Но открывая эти документы сразу возникает чувство тоски Настолько сухо и непонятно простому начинающему «киповцу», объяснены эти понятия. Давайте же пока откинем такие вычурные и непонятные нам определения, как « среднее квадратическое отклонение случайной составляющей погрешности » или « нормализованная автокорреляционная функция » или « характеристика случайной составляющей погрешности от гистерезиса — вариация Н выходного сигнала (показания) средства измерений » и т.п.

Попробуем разобраться, а затем свести в одну небольшую, но понятную табличку, что же такое «погрешность» и какая она бывает. Погрешности измерений – отклонения результатов измерения от истинного значения измеряемой величины. Погрешности неизбежны, выявить истинное значение невозможно.

  1. Абсолютная погрешность: Δ = X д — X изм, выражается в единицах измеряемой величины, например в килограммах (кг), при измерении массы. где X д – действительное значение измеряемой величины, принимаются обычно показания эталона, образцового средства измерений; X изм – измеренное значение.
  2. Относительная погрешность: δ = (Δ ⁄ X д ) · 100, выражается в % от действительного значения измеренной величины.
  3. Приведённая погрешность: γ = (Δ ⁄ X н ) · 100, выражается в % от нормирующего значения. где X н – нормирующее значение, выраженное в тех же единицах, что и Δ, обычно принимается диапазон измерения СИ (шкала).

По характеру проявления:

  • систематические (могут быть исключены из результатов);
  • случайные;
  • грубые или промахи (как правило не включаются в результаты измерений).

В зависимости от эксплуатации приборов:

  • основная – это погрешность средства измерения при нормальных условиях; (ГОСТ 8.395-80)
  • дополнительная погрешность – это составляющая погрешности средства измерения, дополнительно возникающая из-за отклонения какой-либо из влияющих величин от нормативного значения или выход за пределы нормальной области значений. Например: измерение избыточного давления в рабочих условиях цеха, при температуре окружающего воздуха 40 ºС, относительной влажности воздуха 18% и атмосферном давлении 735 мм рт. ст., что не соответствует номинальным значениям влияющих величин при проведении поверки.
Читайте также:  В Чем Измеряется Погрешность?
Наимено вание погреш ности Формула Форма выражения, записи Обозначение класса точности
В докумен тации На сред стве изме рений
Абсолют ная Δ = X д — X изм Δ = ±50 мг Примеры: Номинальная масса гири 1 кг ±50 мг Диапазон измерения весов среднего III класса точности от 20 г до 15 кг ±10 г Класс точности: М 1 Класс точности: средний III Примечание: на многие виды измерений есть свои НД по выражению погрешностей, здесь для примера взято для гирь и весов. М 1
Относи тельная δ = (Δ ⁄ X д ) · 100 δ = ±0,5 Пример: Измеренное значение изб.

Как оценить ошибку измерений?

1.1 Результат измерения — Рассмотрим простейший пример: измерение длины стержня с помощью линейки. Линейка проградуирована производителем с помощью некоторого эталона длины — таким образом, сравнивая длину стержня с ценой деления линейки, мы выполняем косвенное сравнение с общепринятым стандартным эталоном.

  1. Допустим, мы приложили линейку к стержню и увидели на шкале некоторый результат x = x изм,
  2. Можно ли утверждать, что x изм — это длина стержня? Во-первых, значение x не может быть задано точно, хотя бы потому, что оно обязательно округлено до некоторой значащей цифры: если линейка «обычная», то у неё есть цена деления ; а если линейка, к примеру, «лазерная» — у неё высвечивается конечное число значащих цифр на дисплее.

Во-вторых, мы никак не можем быть уверенны, что длина стержня на самом деле такова хотя бы с точностью до ошибки округления. Действительно, мы могли приложить линейку не вполне ровно; сама линейка могла быть изготовлена не вполне точно; стержень может быть не идеально цилиндрическим и т.п.

И, наконец, если пытаться хотя бы гипотетически переходить к бесконечной точности измерения, теряет смысл само понятие «длины стержня». Ведь на масштабах атомов у стержня нет чётких границ, а значит говорить о его геометрических размерах в таком случае крайне затруднительно! Итак, из нашего примера видно, что никакое физическое измерение не может быть произведено абсолютно точно, то есть у любого измерения есть погрешность,

Замечание. Также используют эквивалентный термин ошибка измерения (от англ. error). Подчеркнём, что смысл этого термина отличается от общеупотребительного бытового: если физик говорит «в измерении есть ошибка», — это не означает, что оно неправильно и его надо переделать.

Имеется ввиду лишь, что это измерение неточно, то есть имеет погрешность, Количественно погрешность можно было бы определить как разность между измеренным и «истинным» значением длины стержня: δ ⁢ x = x изм — x ист, Однако на практике такое определение использовать нельзя: во-первых, из-за неизбежного наличия погрешностей «истинное» значение измерить невозможно, и во-вторых, само «истинное» значение может отличаться в разных измерениях (например, стержень неровный или изогнутый, его торцы дрожат из-за тепловых флуктуаций и т.д.).

Поэтому говорят обычно об оценке погрешности. Об измеренной величине также часто говорят как об оценке, подчеркивая, что эта величина не точна и зависит не только от физических свойств исследуемого объекта, но и от процедуры измерения. Замечание. Термин оценка имеет и более формальное значение.

Что такое точность в метрологии?

Точность — это качество измерений, отражающее близость их результатов к истинному значению измеряемой величины. Количественная оценка точности — обратная величина модуля относительной погрешности.

В чем измеряется класс точности?

Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 24 мая 2018 года; проверки требуют 13 правок, Класс точности — обобщённая характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений.

результату измерения (по относительной погрешности)

в этом случае, по ГОСТ 8.401-80, цифровое обозначение класса точности (в процентах) заключается в кружок.

длине (верхнему пределу) шкалы измерительного прибора (по приведенной погрешности).

Для стрелочных приборов принято указывать класс точности, записываемый в виде числа, например, 0,05 или 4,0. Это число дает максимально возможную погрешность прибора, выраженную в процентах от наибольшего значения величины, измеряемой в данном диапазоне работы прибора.

Так, для вольтметра, работающего в диапазоне измерений 0—30 В, класс точности 1,0 определяет, что указанная погрешность при положении стрелки в любом месте шкалы не превышает 0,3 В. Относительная погрешность результата, полученного с помощью указанного вольтметра, зависит от значения измеряемого напряжения, становясь недопустимо высокой для малых напряжений.

При измерении напряжения 0,5 В погрешность составит 60 %. Как следствие, такой прибор не годится для исследования процессов, в которых напряжение меняется на 0,1—0,5 В. Обычно цена наименьшего деления шкалы стрелочного прибора согласована с погрешностью самого прибора.

  • Если класс точности используемого прибора неизвестен, за погрешность s прибора всегда принимают половину цены его наименьшего деления.
  • Понятно, что при считывании показаний со шкалы нецелесообразно стараться определить доли деления, так как результат измерения от этого не станет точнее.
  • Следует иметь в виду, что понятие класса точности встречается в различных областях техники.

Так, в станкостроении имеется понятие класса точности металлорежущего станка, класса точности электроэрозионных станков (по ГОСТ 20551). Обозначения класса точности могут иметь вид заглавных букв латинского алфавита, римских цифр и арабских цифр с добавлением условных знаков.

Если класс точности обозначается латинскими буквами, то класс точности определяется пределами абсолютной погрешности. Если класс точности обозначается арабскими цифрами без условных знаков, то класс точности определяется пределами приведённой погрешности и в качестве нормирующего значения используется наибольший по модулю из пределов измерений.

Если класс точности обозначается арабскими цифрами с галочкой, то класс точности определяется пределами приведённой погрешности, но в качестве нормирующего значения используется длина шкалы. Если класс точности обозначается римскими цифрами, то класс точности определяется пределами относительной погрешности.

Чем отличается погрешность от точности?

Погрешность и точность — Часто понятия погрешность и точность рассматриваются как синонимы. Однако, эти термины имеют совершенно различные значения. Погрешность показывает, насколько близко измеренное значение к его реальной величине, то есть отклонение между измеренным и фактическим значением.

  • Точность относится к случайному разбросу измеряемых величин.
  • Когда мы проводим некоторое число измерений до момента стабилизации напряжения или же какого-то другого параметра, то в измеренных значениях будет наблюдаться некоторая вариация.
  • Это вызвано тепловым шумом в измерительной цепи измерительного оборудования и измерительной установки.

Ниже, на левом графике показаны эти изменения. Как Рассчитать Точность Измерения Определения неопределенностей. Слева — серия измерений. Справа — значения в виде гистограммы.

Что такое точность метода?

Терминология и требования к точности методов и результатов измерений регламентированы в комплексе из шести государственных стандартов РФ – ГОСТ Р ИСО 5725 под общим заголовком «Точность (правильность и прецизионность) методов и результатов измерений», введенных в действие в 2002 году (далее Стандарт 5725).

  • Стандарты ГОСТ Р ИСО являются переводом с английского языка международных стандартов ИСО 5725:1994.
  • Слово «метод» в Стандарте 5725 охватывает и собственно метод измерений и методику их выполнения и должно трактоваться в том или ином смысле (или в обоих смыслах) в зависимости от контекста.
  • Поскольку Стандарт 5725 указывает, каким образом можно обеспечить необходимую точность измерения, в принципе становится возможным сравнивать по точности различные методы измерений, методики их выполнения, организации (лаборатории) и персонал (операторов), осуществляющих измерения.

Появление Стандарта 5725 было вызвано возрастанием роли рыночных стимулов к качественному выполнению измерений, данный стандарт даёт ответы на такие острые вопросы, как: что такое качество измерений и как его измерять; можно ли определить, насколько при измерении той или иной величины один метод (методика) совершеннее другого или одна испытательная организация лучше другой; в какой степени следует доверять измеренным и зафиксированным значениям; и т.п.

В отечественной метрологии погрешность результатов измерений, как правило, определяется сравнением результата измерений с истинным или действительным значением измеряемой величины. Истинное значение – значение, которое идеальным образом характеризует в качественном и количественном отношении соответствующую величину.

Действительное значение – значение величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него. В условиях отсутствия необходимых эталонов, обеспечивающих воспроизведение, хранение и передачу соответствующих значений величин, необходимых для определения погрешности (точности) результатов измерений, в отечественной и международной практике за действительное значение зачастую принимают общее среднее значение (математическое ожидание) заданной совокупности результатов измерений, выражаемое в отдельных случаях в условных единицах.

  1. Эта ситуация и отражена в термине «принятое опорное значение» и рекомендуется для использования в отечественной практике.
  2. Понятие принятого опорного значения является более универсальным, чем понятие «действительное значение».
  3. Оно определяется не только как условно истинное значение измеряемой величины через теоретические константы и (или) эталоны, но и (в их отсутствии) как ее среднее значение по большому числу предварительно выполненных измерений в представительном множестве лабораторий.

Таким образом, принятым опорным значением может быть как эталонное, так и среднее значение измеряемой характеристики. Точность – степень близости результата измерений к принятому опорному значению. В рамках обеспечения единства измерений вводится термин «правильность» – степень близости к принятому опорному значению среднего значения серии результатов измерений.

В чем измеряется погрешность?

Погрешность средств измерения и результатов измерения. Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).

  1. Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.
  2. Инструментальные и методические погрешности.
  3. Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях.
  4. Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений.

Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели. Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета.

  • Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается.
  • Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены.
  • Инструментальная погрешность обусловлена несовершенством применяемых средств измерений.

Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы. Статическая и динамическая погрешности.

Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей. Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях. Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий.

Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.

Как найти абсолютную погрешность пример?

Абсолютная погрешность — Абсолютной погрешностью числа называют разницу между этим числом и его точным значением. Рассмотрим пример : в школе учится 374 ученика. Если округлить это число до 400, то абсолютная погрешность измерения равна 400-374=26. Для подсчета абсолютной погрешности необходимо из большего числа вычитать меньшее.

  1. Существует формула абсолютной погрешности.
  2. Обозначим точное число буквой А, а буквой а – приближение к точному числу.
  3. Приближенное число – это число, которое незначительно отличается от точного и обычно заменяет его в вычислениях.
  4. Тогда формула будет выглядеть следующим образом: Δа=А-а.
  5. Как найти абсолютную погрешность по формуле, мы рассмотрели выше.

На практике абсолютной погрешности недостаточно для точной оценки измерения. Редко когда можно точно знать значение измеряемой величины, чтобы рассчитать абсолютную погрешность. Измеряя книгу в 20 см длиной и допустив погрешность в 1 см, можно считать измерение с большой ошибкой.

  • Но если погрешность в 1 см была допущена при измерении стены в 20 метров, это измерение можно считать максимально точным.
  • Поэтому в практике более важное значение имеет определение относительной погрешности измерения.
  • Записывают абсолютную погрешность числа, используя знак ±.
  • Например, длина рулона обоев составляет 30 м ± 3 см.

Границу абсолютной погрешности называют предельной абсолютной погрешностью.

Сколько раз нужно повторять одинаковые измерения?

В физике и технике не существует абсолютно точных измерительных приборов, следовательно, нет и абсолютно точных результатов измерения. Поэтому, числовые значения всех физических величин являются приближенными, то есть, измеряются с погрешностями и, поэтому любые измерения необходимо повторить два — три раза!

Как определить цену деления и погрешность?

Найти две соседних отметки шкалы, возле которых написаны величины, соответствующие этим отметкам шкалы; найти разность этих величин; сосчитать количество промежутков между величинами отметок шкалы; полученную разность величин разделить на количество промежутков.

Каким способом можно повысить точность измерений?

Повысить точность измерения можно, прибегая к следующим методам: замене средств измерений более точными; использованию более точной формулы измерений ; структурной информационной избыточности — тестовым методам; функциональной информационной избыточности.

Как определить класс точности?

Что такое класс точности манометра, и как его определить — Класс точности манометра является одной из основных величин, характеризующих прибор. Это процентное выражение максимально допустимая погрешность измерителя, приведенная к его диапазону измерений.

  1. Абсолютная погрешность представляет собой величину, которая характеризует отклонение показаний измерительного прибора от действительного значения давления.
  2. Также выделяют основную допустимую погрешность, которая представляет собой процентное выражение абсолютного допустимого значения отклонения от номинального значения.

Именно с этой величиной связан класс точности. Существует два типа измерителей давления — рабочие и образцовые. Рабочие применяются для практического измерения давления в трубопроводах и оборудовании. Образцовые — специальные измерители, которые служат для поверки показаний рабочих приборов и позволяют оценить степень их отклонения.

0,15; 0,25; 0,4; 0,6; 1,0; 1,5; 2,5; 4,0.

Таким образом, этот показатель имеет прямую зависимость с погрешностью. Чем он ниже, тем ниже максимальное отклонение, которое может давать измеритель давления, и наоборот. Соответственно, от этого параметра зависит, насколько точными являются показания измерителя.

  • Высокое значение указывает на меньшую точность измерений, а низкое соответствует повышенной точности.
  • Чем ниже значение класса точности, тем более высокой является цена устройства.
  • Узнать этот параметр достаточно просто.
  • Он указан на шкале в виде числового значения, перед которым размещаются литеры KL или CL.

Значение указывается ниже последнего деления шкалы. Указанная на приборе величина является номинальной. Чтобы определить фактический класс точности, нужно выполнить поверку и рассчитать его. Для этого проводят несколько измерений давления образцовым и рабочим манометром.

Какой показатель является мерой точности измерения?

Погрешность измерения — Оценка отклонения измеренного значения величины от её истинного значения. Погрешность измерения является характеристикой (мерой) точности измерения. Поскольку выяснить с абсолютной точностью истинное значение любой величины невозможно, то невозможно и указать величину отклонения измеренного значения от истинного.

Это отклонение принято называть ошибкой измерения. В ряде источников, например, в Большой советской энциклопедии, термины ошибка измерения и погрешность измерения используются как синонимы, но согласно РМГ 29-99 термин ошибка измерения не рекомендуется применять как менее удачный). Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов,

На практике вместо истинного значения используют действительное значение величины х д, то есть значение физической величины, полученное экспериментальным путём и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него,

Такое значение, обычно, вычисляется как среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому в измерениях необходимо указывать, какова их точность, Для этого вместе с полученным результатом указывается погрешность измерений.

Например, запись T=2,8±0,1 c. означает, что истинное значение величины T лежит в интервале от 2,7 с. до 2,9 с. с некоторой оговорённой вероятностью (см. доверительный интервал, доверительная вероятность, стандартная ошибка ).

Что такое правильность измерений?

Правильность измерений – это близость среднего арифметического бесконечно большого числа повторно измеренных значений величины к опорному значению величины. Правильность измерений не является величиной и поэтому не может быть выражена численно, однако соответствующие показатели приведены в ISO 5725.

В чем разница между точностью измерения и Прецизионностью?

Прецизионность (precision) — это мера повторяемости или степень близости друг к другу результатов измерений. Точность (accuracy) — это степень близости результата измерений к цели (истинному значению). Конечно, для измерительного прибора важны как точность, так и прецизионность.

Что такое достоверность результатов измерений?

В нормативных документах по метрологии термин » достоверность измерений » встречается часто, но официально утвержденного определения данному термину не дано. Принято считать, что достоверность измерений — это характеристика, определяющая степень доверия к полученным результатам измерений.

  • Согласно приведенному определению достоверность может иметь какую либо величину (степень), которая во первых, должна быть оценена на достаточность степени достоверности, во вторых — должны быть разарботаны методики проведения оценки достоверности результатов измерений.
  • Федеральный закон 102-ФЗ от 26.06.2008 г.

«Об обеспечении единства измерений» содержит следующие положения относительно достоверности измерений:

  • ст.1 п.1 «Целями настоящего федерального закона является:,2) защита прав и законных интересов граждан, общества и государства от отрицательных последствий недостоверных результатов измерений»; 3) обеспечение потребности граждан, общества и государства в получении объективных, достоверных и сопоставимых результатов измерений,»;
  • ст.2 п.24 «технические требования к средствам измерений — требования, которые определяют особенности конструкции средств измерений (без ограничения их технического совершенствования) в целях сохранения их метрологических характеристик в процессе эксплуатации средств измерений, достижения достоверности результата измерений, предотвращения несанкционированных настройки и вмешательства, а также требования, обеспечивающие безопасность и электромагнитную совместимость средств измерений».

Таким образом, обеспечение достоверности измерений является одной из целей закона «Об обеспечении единства измерений». Процесс обеспечения достоверности измерений требует комплексного подхода, при котором будет обеспечено выполнение всех необходимых для достижения достоверности требований, а именно:

требования к измерениям: — измерения должны проводиться по аттестованным методикам; — применяемые средства измерений должны быть утвержденного типа; — применяемые средства измерений должны подтвердить установленные для них метрологические характеристики (быть поверены); — результаты измерений должны быть выражены в единицах, допущенных к применению в Российской Федерации.

Кроме этого, РМГ 29-2013 содержат следующее определение термина «измерение (величины)»:

«процесс эеспериментального получения одного или более значений величины, которые могут быть обоснованно приписаны величине».

Следовательно результат измерений можно считать достоверным только в случае наличия объективных данных, подтверждающих обоснованность присвоения полученного результата измерений. Основываясь на изложенных выше данных можно сделать следующие выводы:

  1. Достоверность измерений является целью и итогом комплекса действий, включающего в себя методы, средства и способы достижения поставленных целей.
  2. Согласно действующему законодательству предполагается, что при выполнении установленных норм и правил результаты измерений будут достоверными.
  3. Границы погрешности, приписанные результату измерений, не являются параметром, характеризующим его достоверность, но отсутствие сведений о приписанных методике или средству измерений границах погрешности не позволит подтвердить факт достоверности полученных результатов измерений и соответственно достоверности выводов, сделанных на основании результатов измерения.
Adblock
detector