Физические величины и погрешности их измерений — Задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Сразу оговоримся, что при выборе измерительного оборудования часто нужно также знать диапазон измерения и какое именно значение интересует: например, среднеквадратическое значение (СКЗ) измеряемой величины в определённом интервале времени, или требуется измерять среднеквадратическое отклонение (СКО) (для измерения переменной составляющей величины), или требуется измерять мгновенное (пиковое) значение.
При измерении переменных физических величин (например, напряжение переменного тока) требуется знать динамические характеристики измеряемой физической величины: диапазон частот или максимальную скорость изменения физической величины, Эти данные, необходимые при выборе измерительного оборудования, зависят от физического смысла задачи измерения в конкретном физическом эксперименте,
Итак, повторимся: задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Эта задача решается с помощью прямых или косвенных измерений, При прямом измерении осуществляется количественное сравнение физической величины с соответствующим эталоном при помощи измерительных приборов.
Отсчет по шкале прибора указывает непосредственно измеряемое значение. Например, термометр дает значения измеряемой температуры, а вольтметр – значение напряжения. При косвенных измерениях интересующая нас физическая величина находится при помощи математических операций над непосредственно измеренными физическими величинами (непосредственно измеряя напряжение U на резисторе и ток I через него, вычисляем значение сопротивления R = U / I ).
Точность прямых измерений некоторой величины X оценивается величиной погрешности или ошибки, измерений относительно действительного значения физической величины X Д, Действительное значение величины X Д (согласно РМГ 29-99 ) – это значение физической величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.
Различают абсолютную (∆ X) и относительную (δ) погрешности измерений. Абсолютная погрешность измерения – это п огрешность средства измерений, выраженная в единицах измеряемой физической величины, характеризующая абсолютное отклонение измеряемой величины от действительного значения физической величины: ∆X = X – X Д,
Относительная погрешность измерения – это п огрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины. Обычно относительную погрешность выражают в процентах: δ = (∆X / Xд) * 100%, При оценке точности косвенных измерений некоторой величины X 1, функционально связанной с физическими величинами X 2, X 3,, X 1 = F (X 2, X 3, ), учитывают погрешности прямых измерений каждой из величин X 2, X 3, и характер функциональной зависимости F (),
Как оценить точность измерений?
1. Оценку точности измерений производят — предварительно до начала измерений путем обработки результатов специально выполненных наблюдений; — после окончания измерений путем обработки результатов наблюдений, выполненных в процессе этих измерений.2. Для оценки точности измерений используют многократные наблюдения параметра в одном из установленных сечений (мест) или двойные наблюдения параметра в разных сечениях (местах) одного или нескольких объектов измерений.
Общее число наблюдений М, необходимое для оценки точности результата измерений, составляет: для предварительной оценки — 20; для оценки точности выполненных измерений — не менее 6. Для уменьшения влияния систематических погрешностей измерения выполняют в соответствии с требованиями настоящего стандарта (ГОСТ 26433.0-85): Наблюдения производят в прямом и обратном направлениях, на разных участках шкалы отсчетного устройства, меняя установку и настройку прибора и соблюдая другие приемы, указанные в инструкции по эксплуатации на средства измерения.
При этом должны быть соблюдены условия равноточности наблюдений (выполнение наблюдений одним наблюдателем, тем же методом, с помощью одного и того же прибора и в одинаковых условиях). Перед началом наблюдений средства измерений следует выдерживать на месте измерений до выравнивания температур этих средств и окружающей среды.3. Таблица 1. Среднюю квадратическую погрешность измерения при многократных наблюдениях параметра определяют по формуле Если при измерениях используются средства и методы, для которых из специально выполненных ранее измерений или из эксплуатационной документации установлена средняя квадратическая погрешность наблюдения, то действительную погрешность измерения определяют по формуле 5. Действительную погрешность результата измерения при двойных наблюдениях параметра в одном из установленных сечений (местах) оценивают по формуле где вычисляемая величина — это абсолютное значение остаточной систематической погрешности, численное значение которой определено из обработки ряда двойных наблюдений.
Что такое точность измерения прибора?
То́чность измере́ний, точность результата измерения — близость измеренного значения к истинному значению измеряемой величины, Точность измерений описывает качество измерений в целом, объединяя понятия правильность измерений и прецизионность измерений,
Как правильно записать погрешность измерения?
Результаты измерения записывают в виде A = a ± Δ a, где A — измеряемая величина, a — средний результат полученных измерений, Δ a — абсолютная погрешность измерений.
Как рассчитать погрешность измерительного прибора?
Программа КИП и А Дмитрий Бебякин, инженер — метролог, ИЛИМ Позволю себе вначале небольшое отступление. Такие понятия как погрешность, класс точности довольно подробно описываются в нормативной документации ГОСТ 8.009-84 «Нормируемые метрологические характеристики средств измерений», ГОСТ 8.401-80 «Классы точности средств измерений.
Общие требования» и им подобных. Но открывая эти документы сразу возникает чувство тоски Настолько сухо и непонятно простому начинающему «киповцу», объяснены эти понятия. Давайте же пока откинем такие вычурные и непонятные нам определения, как « среднее квадратическое отклонение случайной составляющей погрешности » или « нормализованная автокорреляционная функция » или « характеристика случайной составляющей погрешности от гистерезиса — вариация Н выходного сигнала (показания) средства измерений » и т.п.
Попробуем разобраться, а затем свести в одну небольшую, но понятную табличку, что же такое «погрешность» и какая она бывает. Погрешности измерений – отклонения результатов измерения от истинного значения измеряемой величины. Погрешности неизбежны, выявить истинное значение невозможно.
- Абсолютная погрешность: Δ = X д — X изм, выражается в единицах измеряемой величины, например в килограммах (кг), при измерении массы. где X д – действительное значение измеряемой величины, принимаются обычно показания эталона, образцового средства измерений; X изм – измеренное значение.
- Относительная погрешность: δ = (Δ ⁄ X д ) · 100, выражается в % от действительного значения измеренной величины.
- Приведённая погрешность: γ = (Δ ⁄ X н ) · 100, выражается в % от нормирующего значения. где X н – нормирующее значение, выраженное в тех же единицах, что и Δ, обычно принимается диапазон измерения СИ (шкала).
По характеру проявления:
- систематические (могут быть исключены из результатов);
- случайные;
- грубые или промахи (как правило не включаются в результаты измерений).
В зависимости от эксплуатации приборов:
- основная – это погрешность средства измерения при нормальных условиях; (ГОСТ 8.395-80)
- дополнительная погрешность – это составляющая погрешности средства измерения, дополнительно возникающая из-за отклонения какой-либо из влияющих величин от нормативного значения или выход за пределы нормальной области значений. Например: измерение избыточного давления в рабочих условиях цеха, при температуре окружающего воздуха 40 ºС, относительной влажности воздуха 18% и атмосферном давлении 735 мм рт. ст., что не соответствует номинальным значениям влияющих величин при проведении поверки.
Наимено вание погреш ности | Формула | Форма выражения, записи | Обозначение класса точности | |
В докумен тации | На сред стве изме рений | |||
Абсолют ная | Δ = X д — X изм | Δ = ±50 мг Примеры: Номинальная масса гири 1 кг ±50 мг Диапазон измерения весов среднего III класса точности от 20 г до 15 кг ±10 г | Класс точности: М 1 Класс точности: средний III Примечание: на многие виды измерений есть свои НД по выражению погрешностей, здесь для примера взято для гирь и весов. | М 1 |
Относи тельная | δ = (Δ ⁄ X д ) · 100 | δ = ±0,5 Пример: Измеренное значение изб.
Как оценить ошибку измерений?1.1 Результат измерения — Рассмотрим простейший пример: измерение длины стержня с помощью линейки. Линейка проградуирована производителем с помощью некоторого эталона длины — таким образом, сравнивая длину стержня с ценой деления линейки, мы выполняем косвенное сравнение с общепринятым стандартным эталоном.
Во-вторых, мы никак не можем быть уверенны, что длина стержня на самом деле такова хотя бы с точностью до ошибки округления. Действительно, мы могли приложить линейку не вполне ровно; сама линейка могла быть изготовлена не вполне точно; стержень может быть не идеально цилиндрическим и т.п.
Замечание. Также используют эквивалентный термин ошибка измерения (от англ. error). Подчеркнём, что смысл этого термина отличается от общеупотребительного бытового: если физик говорит «в измерении есть ошибка», — это не означает, что оно неправильно и его надо переделать.
Поэтому говорят обычно об оценке погрешности. Об измеренной величине также часто говорят как об оценке, подчеркивая, что эта величина не точна и зависит не только от физических свойств исследуемого объекта, но и от процедуры измерения. Замечание. Термин оценка имеет и более формальное значение. Что такое точность в метрологии?Точность — это качество измерений, отражающее близость их результатов к истинному значению измеряемой величины. Количественная оценка точности — обратная величина модуля относительной погрешности. В чем измеряется класс точности?Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 24 мая 2018 года; проверки требуют 13 правок, Класс точности — обобщённая характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений. результату измерения (по относительной погрешности) в этом случае, по ГОСТ 8.401-80, цифровое обозначение класса точности (в процентах) заключается в кружок. длине (верхнему пределу) шкалы измерительного прибора (по приведенной погрешности). Для стрелочных приборов принято указывать класс точности, записываемый в виде числа, например, 0,05 или 4,0. Это число дает максимально возможную погрешность прибора, выраженную в процентах от наибольшего значения величины, измеряемой в данном диапазоне работы прибора. Так, для вольтметра, работающего в диапазоне измерений 0—30 В, класс точности 1,0 определяет, что указанная погрешность при положении стрелки в любом месте шкалы не превышает 0,3 В. Относительная погрешность результата, полученного с помощью указанного вольтметра, зависит от значения измеряемого напряжения, становясь недопустимо высокой для малых напряжений. При измерении напряжения 0,5 В погрешность составит 60 %. Как следствие, такой прибор не годится для исследования процессов, в которых напряжение меняется на 0,1—0,5 В. Обычно цена наименьшего деления шкалы стрелочного прибора согласована с погрешностью самого прибора.
Так, в станкостроении имеется понятие класса точности металлорежущего станка, класса точности электроэрозионных станков (по ГОСТ 20551). Обозначения класса точности могут иметь вид заглавных букв латинского алфавита, римских цифр и арабских цифр с добавлением условных знаков.
Если класс точности обозначается арабскими цифрами с галочкой, то класс точности определяется пределами приведённой погрешности, но в качестве нормирующего значения используется длина шкалы. Если класс точности обозначается римскими цифрами, то класс точности определяется пределами относительной погрешности. Чем отличается погрешность от точности?Погрешность и точность — Часто понятия погрешность и точность рассматриваются как синонимы. Однако, эти термины имеют совершенно различные значения. Погрешность показывает, насколько близко измеренное значение к его реальной величине, то есть отклонение между измеренным и фактическим значением.
Ниже, на левом графике показаны эти изменения. Что такое точность метода?Терминология и требования к точности методов и результатов измерений регламентированы в комплексе из шести государственных стандартов РФ – ГОСТ Р ИСО 5725 под общим заголовком «Точность (правильность и прецизионность) методов и результатов измерений», введенных в действие в 2002 году (далее Стандарт 5725).
Появление Стандарта 5725 было вызвано возрастанием роли рыночных стимулов к качественному выполнению измерений, данный стандарт даёт ответы на такие острые вопросы, как: что такое качество измерений и как его измерять; можно ли определить, насколько при измерении той или иной величины один метод (методика) совершеннее другого или одна испытательная организация лучше другой; в какой степени следует доверять измеренным и зафиксированным значениям; и т.п.
Действительное значение – значение величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него. В условиях отсутствия необходимых эталонов, обеспечивающих воспроизведение, хранение и передачу соответствующих значений величин, необходимых для определения погрешности (точности) результатов измерений, в отечественной и международной практике за действительное значение зачастую принимают общее среднее значение (математическое ожидание) заданной совокупности результатов измерений, выражаемое в отдельных случаях в условных единицах.
Таким образом, принятым опорным значением может быть как эталонное, так и среднее значение измеряемой характеристики. Точность – степень близости результата измерений к принятому опорному значению. В рамках обеспечения единства измерений вводится термин «правильность» – степень близости к принятому опорному значению среднего значения серии результатов измерений. В чем измеряется погрешность?Погрешность средств измерения и результатов измерения. Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).
Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели. Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета.
Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы. Статическая и динамическая погрешности. Статическая погрешность измерений – погрешность результата измерений, свойственная условиям статического измерения, то есть при измерении постоянных величин после завершения переходных процессов в элементах приборов и преобразователей. Статическая погрешность средства измерений возникает при измерении с его помощью постоянной величины. Если в паспорте на средства измерений указывают предельные погрешности измерений, определенные в статических условиях, то они не могут характеризовать точность его работы в динамических условиях. Динамическая погрешность измерений – погрешность результата измерений, свойственная условиям динамического измерения. Динамическая погрешность появляется при измерении переменных величин и обусловлена инерционными свойствами средств измерений. Динамической погрешностью средства измерений является разность между погрешностью средсва измерений в динамических условиях и его статической погрешностью, соответствующей значению величины в данный момент времени. При разработке или проектировании средства измерений следует учитывать, что увеличение погрешности измерений и запаздывание появления выходного сигнала связаны с изменением условий. Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины. Как найти абсолютную погрешность пример?Абсолютная погрешность — Абсолютной погрешностью числа называют разницу между этим числом и его точным значением. Рассмотрим пример : в школе учится 374 ученика. Если округлить это число до 400, то абсолютная погрешность измерения равна 400-374=26. Для подсчета абсолютной погрешности необходимо из большего числа вычитать меньшее.
На практике абсолютной погрешности недостаточно для точной оценки измерения. Редко когда можно точно знать значение измеряемой величины, чтобы рассчитать абсолютную погрешность. Измеряя книгу в 20 см длиной и допустив погрешность в 1 см, можно считать измерение с большой ошибкой.
Границу абсолютной погрешности называют предельной абсолютной погрешностью. Сколько раз нужно повторять одинаковые измерения?В физике и технике не существует абсолютно точных измерительных приборов, следовательно, нет и абсолютно точных результатов измерения. Поэтому, числовые значения всех физических величин являются приближенными, то есть, измеряются с погрешностями и, поэтому любые измерения необходимо повторить два — три раза! Как определить цену деления и погрешность?Найти две соседних отметки шкалы, возле которых написаны величины, соответствующие этим отметкам шкалы; найти разность этих величин; сосчитать количество промежутков между величинами отметок шкалы; полученную разность величин разделить на количество промежутков. Каким способом можно повысить точность измерений?Повысить точность измерения можно, прибегая к следующим методам: замене средств измерений более точными; использованию более точной формулы измерений ; структурной информационной избыточности — тестовым методам; функциональной информационной избыточности. Как определить класс точности?Что такое класс точности манометра, и как его определить — Класс точности манометра является одной из основных величин, характеризующих прибор. Это процентное выражение максимально допустимая погрешность измерителя, приведенная к его диапазону измерений.
Именно с этой величиной связан класс точности. Существует два типа измерителей давления — рабочие и образцовые. Рабочие применяются для практического измерения давления в трубопроводах и оборудовании. Образцовые — специальные измерители, которые служат для поверки показаний рабочих приборов и позволяют оценить степень их отклонения. 0,15; 0,25; 0,4; 0,6; 1,0; 1,5; 2,5; 4,0. Таким образом, этот показатель имеет прямую зависимость с погрешностью. Чем он ниже, тем ниже максимальное отклонение, которое может давать измеритель давления, и наоборот. Соответственно, от этого параметра зависит, насколько точными являются показания измерителя.
Значение указывается ниже последнего деления шкалы. Указанная на приборе величина является номинальной. Чтобы определить фактический класс точности, нужно выполнить поверку и рассчитать его. Для этого проводят несколько измерений давления образцовым и рабочим манометром. Какой показатель является мерой точности измерения?Погрешность измерения — Оценка отклонения измеренного значения величины от её истинного значения. Погрешность измерения является характеристикой (мерой) точности измерения. Поскольку выяснить с абсолютной точностью истинное значение любой величины невозможно, то невозможно и указать величину отклонения измеренного значения от истинного. Это отклонение принято называть ошибкой измерения. В ряде источников, например, в Большой советской энциклопедии, термины ошибка измерения и погрешность измерения используются как синонимы, но согласно РМГ 29-99 термин ошибка измерения не рекомендуется применять как менее удачный). Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов, На практике вместо истинного значения используют действительное значение величины х д, то есть значение физической величины, полученное экспериментальным путём и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него, Такое значение, обычно, вычисляется как среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому в измерениях необходимо указывать, какова их точность, Для этого вместе с полученным результатом указывается погрешность измерений. Например, запись T=2,8±0,1 c. означает, что истинное значение величины T лежит в интервале от 2,7 с. до 2,9 с. с некоторой оговорённой вероятностью (см. доверительный интервал, доверительная вероятность, стандартная ошибка ). Что такое правильность измерений?Правильность измерений – это близость среднего арифметического бесконечно большого числа повторно измеренных значений величины к опорному значению величины. Правильность измерений не является величиной и поэтому не может быть выражена численно, однако соответствующие показатели приведены в ISO 5725. В чем разница между точностью измерения и Прецизионностью?Прецизионность (precision) — это мера повторяемости или степень близости друг к другу результатов измерений. Точность (accuracy) — это степень близости результата измерений к цели (истинному значению). Конечно, для измерительного прибора важны как точность, так и прецизионность. Что такое достоверность результатов измерений?В нормативных документах по метрологии термин » достоверность измерений » встречается часто, но официально утвержденного определения данному термину не дано. Принято считать, что достоверность измерений — это характеристика, определяющая степень доверия к полученным результатам измерений.
«Об обеспечении единства измерений» содержит следующие положения относительно достоверности измерений:
Таким образом, обеспечение достоверности измерений является одной из целей закона «Об обеспечении единства измерений». Процесс обеспечения достоверности измерений требует комплексного подхода, при котором будет обеспечено выполнение всех необходимых для достижения достоверности требований, а именно: требования к измерениям: — измерения должны проводиться по аттестованным методикам; — применяемые средства измерений должны быть утвержденного типа; — применяемые средства измерений должны подтвердить установленные для них метрологические характеристики (быть поверены); — результаты измерений должны быть выражены в единицах, допущенных к применению в Российской Федерации. Кроме этого, РМГ 29-2013 содержат следующее определение термина «измерение (величины)»: «процесс эеспериментального получения одного или более значений величины, которые могут быть обоснованно приписаны величине». Следовательно результат измерений можно считать достоверным только в случае наличия объективных данных, подтверждающих обоснованность присвоения полученного результата измерений. Основываясь на изложенных выше данных можно сделать следующие выводы:
detector |