Методика поверки «Стенд динамометрический AVL LIST GmbH» (ИЦРМ-МП-212-18)

Методика поверки

Тип документа

Стенд динамометрический AVL LIST GmbH

Наименование

ИЦРМ-МП-212-18

Обозначение документа

ООО «ИЦРМ»

Разработчик

904 Кб
1 файл

ЗАГРУЗИТЬ ДОКУМЕНТ

  

СОГЛАСОВАНО

. Генеральный директор ООО «АВЛ»

УТВЕРЖДАЮ

Технический директор

ООО «ИЦРМ»

Стенд динамометрический AVL LIST GmbH

Методика поверки

ИЦРМ-МП-212-18

г. Москва

2018 г.

Содержание

  • 1 Вводная часть..................................................................................... 3

  • 2 Операции поверки.................................................................................................................

  • 3 Средства поверки...................................................................................................................

  • 4 Требования к квалификации поверителей..........................................................................

  • 5 Требования безопасности.....................................................................................................

  • 6 Условия поверки....................................................................................................................

  • 7 Подготовка к поверке............................................................................................................

  • 8 Проведение поверки..............................................................................................................

  • 9 Оформление результатов поверки.....................................................................................1

1 ВВОДНАЯ ЧАСТЬ
  • 1.1 Настоящая методика поверки устанавливает методы и средства первичной и периодической поверок стенда динамометрического AVL LIST GmbH (далее - стенд).

  • 1.2 Стенд подлежит поверке с периодичностью, устанавливаемой потребителем с учётом режимов и интенсивности эксплуатации, но не реже одного раза в год.

  • 1.3 На первичную поверку следует предъявлять стенд до ввода в эксплуатацию, а также после ремонта.

  • 1.4 Основные метрологические характеристики приведены в таблице 1.

Таблица 1 - Метрологические характеристики стенда

Наименование характеристики

Количество каналов

Значение

Пределы допускаемой относительной (8) или абсолютной (А) погрешности измерений

Крутящий момент силы на валу двигателя, Нм

1

от 5 до 300

8 =±0,5%

Частота вращения вала, об/мин

1

от 500 до 7000

5 =±0,5 %

Температура всасываемого воздуха, °C

1

от 0 до 40

А=±1 °C

Температура охлаждающей жидкости, °C

1

от 5 до 110

А=±2°С

Температура масла, °C

1

от 5 до 140

Д=±2°С

Температура топлива, °C

1

от 0 до 40

А=±2°С

Температура отработавших газов, °C

1

от 5 до 900

А=±20°C

Барометрическое давление, кПа

1

от 90 до 110

Д=±200 Па

Давление масла, кПа

1

от 5 до 500

А=±20 кПа

Давление отработавших газов, кПа

1

от 0,02 до 100

5=±3%

Массовый расход топлива, кг/ч

1

от 2 до 60

5 =±0,5%

Объемный расход картерных газов, л/мин

1

от 1,5 до 75

8=±2%

2 ОПЕРАЦИИ ПОВЕРКИ

  • 2.1 При проведении поверки выполняют операции, указанные в таблице 2.

Таблица 2

Наименование операции поверки

Номер пункта методики поверки

Необходимость выполнения

при первичной поверке

при периодической поверке

Внешний осмотр

8.1

Да

Да

Опробование и подтверждение соответствия программного обеспечения

8.2

Да

Да

Определение метрологических характеристик

8.3

Да

Да

  • 2.2 Последовательность проведения операций поверки обязательна.

  • 2.3 При получении отрицательного результата в процессе выполнения любой из операций поверки стенд бракуют и его поверку прекращают.

  • 2.4 Допускается проведение поверки конкретных измерительных каналов в соответствии с заявлением владельца СИ, с обязательным указанием в свидетельстве о поверке информации об объеме проведенной поверки, в соответствии с приказом от 02.07.2015 г. № 1815 Министерства Промышленности и Торговли Российской Федерации.

3 СРЕДСТВА ПОВЕРКИ
  • 3.1  При проведении поверки рекомендуется применять средства поверки, приведённые в таблице 3.

  • 3.2 Применяемые средства поверки должны быть исправны, средства измерений поверены и иметь действующие документы о поверке. Испытательное оборудование должно быть аттестовано.

  • 3.3 Допускается применение аналогичных средств поверки, обеспечивающих определение метрологических характеристик поверяемого стенда с требуемой точностью.

Таблица 3

Наименование средства поверки

Номер пункта Метода ки

Рекомендуемый тип средства поверки и его регистрационный номер в Федеральном информационном фонде или метрологические характеристики

Основные средства поверки

1

Рабочие эталоны 4-го разряда по приказу Госстандарта от 29.12.2018 г. №2818 «Об утверждении Г осударственной поверочной схемы для средств измерений массы» гири номинальной массы от 0,5 до 20 кг класса точности Mi по ГОСТ OIML 111-1-2009. «Гири классов Ei, Ег, Fi, F2, Mi, Mi-2, М2, М2-3 и Мз. Метрологические и технические требования»

8.3

Гири класса точности Mi по ГОСТ OIML 111-1-2009 номинальной массой 500 г; 5 кг; 10 кг; 20 кг

2

Тахометр электронный

8.3

Тахометр электронный ПрофКиП ТЦ-36, per. №54909-13

3

Преобразователь давления эталонный

8.3

Преобразователь давления эталонный ПДЭ-020, per. № 58668-14

4

Термометр сопротивления платиновый вибропрочный

8.3

Термометр сопротивления платиновый вибропрочный эталонный ПТСВ-9-2, per. № 65421-16

5

Калибратор температуры эталонный

8.3

Калибратор температуры эталонный КТ-1100, per. №26113-03

6

Термометр цифровой

8.3

Термометр цифровой эталонный ТЦЭ-005,

Наименование средства поверки

Номер пункта Метода ки

Рекомендуемый тип средства поверки и его регистрационный номер в Федеральном информационном фонде или метрологические характеристики

эталонный

per. №40719-15

7

Калибратор универсальный

8.3

Калибратор универсальный 9100, per. № 25985-09

Вспомогательные средства поверки (оборудование)

8

Помпа пневматическая ручная

8.3

Помпа пневматическая ручная Элемер PV-60 (диапазон воспроизведений от -0,095 до 6 МПа)

9

Термостат переливной прецизионный

8.3

Термостат переливной прецизионный ТПП-

1, per. № 33744-07

10

Герметичный сосуд

8.3

Сосуд, способный выдержать в течение длительного времени влияние давления не менее 1 МПа, объём сосуда должен составлять не менее 2 л.

11

Термогигрометр электронный

8.3

Термогигрометр электронный «CENTER» модель 313, per. № 22129-09

12

Барометр-анероид метеорологический

8.3

Барометр-анероид метеорологический БАММ-1, per. № 5738-76

Компьютер

13

Персональный компьютер (далее - ПК)

8.2, 8.3

Персональный компьютер (интерфейс Ethernet; объем оперативной памяти не менее 1 Гб; объем жесткого диска не менее 10 Гб; дисковод для чтения CD-ROM; операционная система Windows) с установленным программным обеспечением

4 ТРЕБОВАНИЯ К КВАЛИФИКАЦИИ ПОВЕРИТЕЛЕЙ
  • 4.1 К проведению поверки допускаются лица, изучившие настоящую методику, эксплуатационную документацию на стенд и средства поверки.

  • 4.2 К проведению поверки допускаются лица, являющиеся специалистами органа метрологической службы, юридического лица или индивидуального предпринимателя, аккредитованного на право поверки, непосредственно осуществляющие поверку средств измерений.

5 ТРЕБОВАНИЯ БЕЗОПАСНОСТИ
  • 5.1 Работу со стендом может производить персонал, имеющий группу по электробезопасности не ниже III, допущенный к работе на электроустановках до 1000 В.

  • 5.2 При проведении поверки необходимо соблюдать требования безопасности, установленные по ГОСТ 12.2.007.0-75, «Правила технической эксплуатации электроустановок потребителей», «Правила техники безопасности при эксплуатации электроустановок потребителей» и указаниям по технике безопасности, оговоренными в технических описаниях, инструкциях по эксплуатации применяемых средств измерений и средств вычислительной техники

  • 5.3 Для защитного заземления технологического оборудования и измерительной аппаратуры болты и клеммы, возле которых имеются знаки заземления, необходимо присоединить к контуру заземления, имеющемуся в помещении.

6 УСЛОВИЯ ПОВЕРКИ
  • 6.1 При проведении поверки должны соблюдаться следующие условия:

  • - температура окружающего воздуха от +15 до +25 °C;

  • - относительная влажность воздуха от 30 до 80 %;

  • - атмосферное давление от 84 до 107 кПа.

  • 6.2 Для контроля температуры окружающей среды и относительной влажности воздуха используется термогигрометр электронный «CENTER» модель 313, для контроля атмосферного давления используется барометр-анероид метеорологический БАММ-1.

7 ПОДГОТОВКА К ПОВЕРКЕ
  • 7.1 Перед проведением поверки необходимо выполнить следующие подготовительные работы:

  • - изучить эксплуатационные документы на поверяемый стенд, а также руководства по эксплуатации на применяемые средства поверки;

  • - выдержать стенд в условиях окружающей среды, указанных в п. 6.1, не менее 4 ч, если он находился в климатических условиях, отличающихся от указанных в п. 6.1;

  • - подготовить к работе средства поверки и выдержать во включенном состоянии в соответствии с указаниями руководств по эксплуатации.

8 ПРОВЕДЕНИЕ ПОВЕРКИ
  • 8.1 Внешний осмотр

Перед проведением поверки убедиться, что первичные преобразователи (измеритель расхода топлива AVL 733S и измеритель расхода картерных газов AVL442-75) имеют действующие свидетельства о поверке.

  • 8.1.1 Проверка внешнего вида.

При проверке внешнего вида визуально оценивают:

  • - надежность крепления всех элементов стенда;

  • - отсутствие механических повреждений;

  • - состояние лакокрасочных покрытий и четкость маркировок.

Результат проверки считают положительным, если соблюдаются вышеуказанные требования.

8.2. Опробование и подтверждение соответствия программного обеспечения

8.2.1. При опробовании осуществляется проверка правильности прохождения теста при включении стенда в соответствии с эксплуатационной документацией.

Результат проверки считают положительным, если при прохождении теста отсутствуют ошибки.

  • 8.2.2 Подтверждение соответствия программного обеспечения осуществляется в следующей последовательности:

  • 1) Подготовить и включить стенд в соответствии с эксплуатационной документацией.

  • 2) Запустить на рабочем месте оператора программное обеспечение.

  • 3) В открывшемся экране на ПК зафиксировать версию ПО, а также идентификационное наименование.

Результат проверки считают положительным, если номер версии и идентификационное наименование ПО совпадает с данными, представленными в таблице 4.

Таблица 4

Идентификационные данные (признаки)

Значение

Идентификационное наименование ПО

AVL PUMA Open 2012

Номер версии (идентификационный номер) ПО

Puma Open vl.5.3

Цифровой идентификатор ПО

  • 8.3 Определение метрологических характеристик

  • 8.3.1 Определение относительной погрешности измерений крутящего момента силы на валу двигателя

Определение относительной погрешности измерений крутящего момента силы на валу двигателя производится в следующем порядке:

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Для создания на валу двигателя стенда крутящего момента силы используется метод передачи физической величины силы с помощью рычага, входящего в комплект стенда, и набора эталонных гирь.

  • 3) Датчик из состава стенда равномерно нагружают, а затем разгружают через поверочный рычаг из состава стенда эталонными гирями номинальной массой 500 г; 5 кг; 10 кг; 20 кг последовательно в пяти точках диапазона измерений крутящего момента силы соответствующих общей массе грузов (0,5; 10; 15; 20; 30) кг.

  • 4) Нагружения проводить плавно без ударов и рывков. Перемены знака нагрузки до окончания нагружения не допускаются.

  • 5) Считать результаты измерений Мам в окне на экране компьютера при нагружении (прямой ход) и при разгружении (обратный ход).

  • 6) Значения величины крутящего момента силы Мдейств, Нм, рассчитать по формуле (1):

Mieeam = P-g-L                              (1)

где Р - масса груза (общая масса грузов), кг;

g- ускорение свободного падения по широте г. Владивосток (9,8045 м/с2);

L - длина плеча поверочного рычага (L = 1,0197 м), м.

  • 7) Значение относительной погрешности измерений крутящего момента силы на валу двигателя дизм, %, рассчитать по формуле (2):

8^ = 100%

^действ

где Мдейств - величина приложенного крутящего момента (действительное значение), Нм;

Мам - измеренное значение крутящего момента силы на валу двигателя, Н м.

  • 8) Результаты измерений и полученные значения погрешностей занести в таблицу

5.

Таблица 5

Величина приложенного крутящего момента Мдейств, Нм

Измеренное значение крутящего момента силы на валу двигателя Мам, Нм

Полученные значения относительной погрешности измерений крутящего момента силы на валу двигателя дизм, %

Пределы допускаемой относительной погрешности измерений крутящего момента силы на валу двигателя %

±0,5

Величина приложенного крутящего МОМеНТа ^/действу Нм

Измеренное значение крутящего момента силы на валу двигателя Мам, Нм

Полученные значения относительной погрешности измерений крутящего момента силы на валу двигателя Зизм, %

Пределы допускаемой относительной погрешности измерений крутящего момента силы на валу двигателя 3, %

Результат проверки считают положительным, если полученные значения относительной погрешности измерений крутящего момента силы на валу двигателя не превышают ±0,5 %.

  • 8.3.2 Определение относительной погрешности измерений частоты вращения вала

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Установить контрастную метку на вал стенда.

  • 3) Направить тахометр электронный ПрофКиП ТЦ-36 на контрастную метку на валу, измерения провести в пяти точках диапазона, соответствующих (500,2125,3750,5375, 7000) об/мин.

  • 4) Считать результаты измерений Nusm в окне на экране монитора компьютера.

  • 5) Значение относительной погрешности измерений частоты вращения вала Зизму %, рассчитать по формуле (3):

■ 100% (3) N действ

где Ndeucme - действительная величина частоты вращения вала, об/мин (показания тахометра);

Nusm - измеренное значение частоты вращения вала, об/мин.

6) Результаты измерений и вычисленные значения погрешностей занести в таблицу 6.

Таблица 6

Действительная величина частоты вращения вала N действу Об/мИН

Измеренное значение частоты вращения вала Nusm, об/мин

Полученные значения относительной погрешности измерений частоты вращения вала Зизм, %

Пределы допускаемой относительной погрешности измерений частоты вращения вала 3, %

±0,5

Результат проверки считают положительным, если полученные значения относительной погрешности измерений частоты вращения вала не превышают ±0,5 %.

  • 8.3.3 Определение абсолютной погрешности измерений температуры всасываемого воздуха

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Поместить термогигрометр НМТ330 из состава стенда в термостат переливной прецизионный ТПП-1 (далее - термостат).

  • 3) Установить на термостате пять значений температуры, равномерно распределенных внутри диапазона измерений, например, 0,10,20,30,40 °C.

  • 4) Значение температуры контролировать при помощи термометра сопротивления платинового вибропрочного эталонного ПТСВ-9-2 (далее - ПТСВ-9-2) с подключенным к нему термометром цифровым эталонным ТЦЭ-005 (далее - ТЦЭ).

  • 5) Считать результаты измерений Тизм в окне на экране монитора компьютера.

  • 6) Значение абсолютной погрешности измерений температуры всасываемого воздуха Лиам, °C, рассчитать по формуле (4):

(4) где Тдейств - действительное значение температуры, установленное на калибраторе температуры эталонном КТ-1100 или измеренное при помощи ПТСВ-9-2 и ТЦЭ, °C;

Тизм ~ измеренное значение температуры, °C.

7) Результаты измерений и вычисленные значения погрешностей занести в таблицу 7.

Таблица 7

Действительное значение температуры всасываемого ВОЗДуха Тдейств, °C

Измеренное значение температуры всасываемого воздуха Тизм, °C

Полученные значения абсолютной погрешности измерений температуры всасываемого воздуха &U3M, °C

Пределы допускаемой абсолютной погрешности измерений температуры всасываемого воздуха Д, °C

±1,0

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений температуры всасываемого воздуха не превышают ±1,0 °C.

  • 8.3.4 Определение абсолютной погрешности измерений температуры охлаждающей жидкости

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Поместить датчик температуры охлаждающей жидкости РТ100, С091В из состава стенда в термостат.

  • 3) Установить на термостате пять значений температуры, равномерно распределенных внутри диапазона измерений, например, 5; 31,3; 57,5; 83,8; 110 °C.

  • 4) Значение температуры контролировать при помощи ПТСВ-9-2 с подключенным к нему ТЦЭ.

  • 5) Считать результаты измерений    в окне на экране монитора компьютера.

  • 6) Значение абсолютной погрешности измерений температуры охлаждающей жидкости Дизм, °C, рассчитать по формуле (4).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в таблицу 8.

Таблица 8

Действительное значение температуры охлаждающей ЖИДКОСТИ Тдейств, °C

Измеренное значение температуры охлаждающей ЖИДКОСТИ Тузмз °C

Полученные значения абсолютной погрешности измерений температуры охлаждающей ЖИДКОСТИ Аиэии, °C

Пределы допускаемой абсолютной погрешности измерений температуры охлаждающей жидкости А, °C

±2,0

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений температуры охлаждающей жидкости не превышают ±2,0 °C.

  • 8.3.5 Определение абсолютной погрешности измерений температуры масла

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Поместить датчик температуры масла РТ100, С091В из состава стенда в термостат.

  • 3) Установить на термостате пять значений температуры, равномерно распределенных внутри диапазона измерений, например, 5; 38,8; 72,5; 106,3; 140 °C.

  • 4) Значение температуры контролировать при помощи ПТСВ-9-2 с подключенным к нему ТЦЭ.

  • 5) Считать результаты измерений Тизм в окне на экране монитора компьютера.

  • 6) Значение абсолютной погрешности измерений температуры масла Аизм, °C, рассчитать по формуле (4).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в

    8.3.6 Определение абсолютной погрешности измерений температуры топлива

    • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

    • 2) Поместить датчик температуры топлива РТ100, С091В из состава стенда в термостат.

    • 3) Установить на термостате пять значений температуры, равномерно

таблицу 9. Таблица 9

Действительное значение температуры Масла Тдейств, °C

Измеренное значение температуры масла Тизм9 °C

Полученные значения абсолютной погрешности измерений температуры масла Аизм> °C

Пределы допускаемой абсолютной погрешности измерений температуры масла А, °C

±2,0

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений температуры масла не превышают ±2,0 °C.

распределенных внутри диапазона измерений, например, 0; 10; 20; 30; 40 °C.

  • 4) Значение температуры контролировать при помощи ПТСВ-9-2 с подключенным к нему ТЦЭ.

  • 5) Считать результаты измерений Тизм в окне на экране монитора компьютера.

  • 6) Значение абсолютной погрешности измерений температуры топлива A^, °C, рассчитать по формуле (4).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в

таблицу 10. Таблица 10

Действительное значение температуры ТОПЛИВа Тдейству °C

Измеренное значение температуры топлива Тизм9 °C

Полученные значения абсолютной погрешности измерений температуры топлива Аизм, °C

Пределы допускаемой абсолютной погрешности измерений температуры топлива А, °C

±2,0

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений температуры топлива не превышают ±2,0 °C.

  • 8.3.7 Определение абсолютной погрешности измерений температуры отработавших газов

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Поместить датчик температуры отработавших газов EZ1351, NiCr-Ni, С091В из состава стенда в термостат (для значений температуры от 90 до 300 °C включ.) или калибратор температуры эталонный КТ-1100 (для значений температуры св. 300 до 900 °C).

  • 3) Установить на термостате пять значений температуры, равномерно распределенных внутри диапазона измерений, например, 5; 228,8; 452,5; 676,3; 900 °C.

  • 4) Значение температуры контролировать при помощи ПТСВ-9-2 с подключенным к нему ТЦЭ (при использовании термостата).

  • 5) Считать результаты измерений Тизм в окне на экране монитора компьютера.

  • 6) Значение абсолютной погрешности измерений температуры отработавших газов Авом, °C, рассчитать по формуле (4).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в таблицу 11.

Таблица 11

Действительное значение температуры отработавших ГаЗОВ Тдейств, °C

Измеренное значение температуры отработавших газов Tu3Mf °C

Полученные значения абсолютной погрешности измерений температуры отработавших газов Аизм3 °C

Пределы допускаемой абсолютной погрешности измерений температуры отработавших газов А, °C

±20,0

Действительное значение температуры отработавших ГаЗОВ Тдейств, °C

Измеренное значение температуры отработавших газов ТцЗМ, °C

Полученные значения абсолютной погрешности измерений температуры отработавших газов AuSMj °C

Пределы допускаемой абсолютной погрешности измерений температуры отработавших газов А, °C

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений температуры отработавших газов не превышают ±20,0 °C.

  • 8.3.8 Определение абсолютной погрешности измерений барометрического давления

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Поместить датчик барометрического давления EZ0328 CANOPEN Ваго из состава стенда, а также преобразователь давления эталонный ПДЭ-020 (далее - ПДЭ-020) в герметичный сосуд.

  • 3) Подсоединить датчик барометрического давления EZ0328 CANOPEN Ваго и ПДЭ-020 к персональному компьютеру.

  • 4) Подсоединить помпу пневматическую ручную Элемер PV-60 (далее - помпа) к герметичному сосуду.

  • 5) Проконтролировать текущее барометрическое (атмосферное) давление при помощи ПДЭ-020 и ПК.

  • 6) Считать результаты измерений Ризм в окне на экране монитора компьютера.

  • 7) Откачать или создать с помощью помпы несколько значения барометрического давления, равномерно распределенных внутри диапазона измерений, например, 90,95,105, 110 кПа.

  • 8) Проконтролировать барометрическое (атмосферное) давление при помощи ПДЭ-020 и ПК.

  • 9) Считать результаты измерений Ризм в окне на экране монитора компьютера.

  • 10) Значение абсолютной погрешности измерений барометрического давления Аизм» Па (кПа), рассчитать по формуле (5):

&изм “ ^изм ~ ^действ                                       (5)

где Рдейств - действительное значение давления, измеренное ПДЭ-020, кПа;

Ризм - измеренное значение давления, кПа.

  • 11) Результаты измерений и вычисленные значения погрешностей занести в

таблицу 12. Таблица 12

Действительное значение барометрического давления Рдейств, кПа

Измеренное значение барометрического давления Ризм, кПа

Полученные значения абсолютной погрешности измерений барометрического давления Аизм, Па

Пределы допускаемой абсолютной погрешности измерений барометрического давления А, Па

±200

Результат проверки считают положительным, если полученные значения

абсолютной погрешности измерений барометрического давления не превышают ±200 Па.

  • 8.3.9 Определение абсолютной погрешности измерений давления масла

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Подсоединить к датчику давления масла EZ0326 CANOPEN 0-10 Ваг из состава стенда помпу пневматическую ручную Элемер PV-60 и преобразователь давления эталонный ПДЭ-020 (далее - ПДЭ-020) совместно с ПК.

  • 3) Воспроизвести с помощью помпы пять значений давления масла, равномерно распределенных внутри диапазона измерений, например, 5; 128,8; 252,5; 376,3; 500 кПа.

  • 4) Считать результаты измерений Ризм в окне на экране монитора компьютера.

  • 5) Значение абсолютной погрешности измерений давления масла Дмаи, кПа, рассчитать по формуле (5).

  • 6) Результаты измерений и вычисленные значения погрешностей занести в

таблицу 13. Таблица 13

Действительное значение давления масла Рдейств, кПа

Измеренное значение давления масла Ризм, кПа

Полученные значения абсолютной погрешности измерений давления масла Аизм, кПа

Пределы допускаемой абсолютной погрешности измерений давления масла А, кПа

±20

Результат проверки считают положительным, если полученные значения абсолютной погрешности измерений давления масла не превышают ±20 кПа.

  • 8.3.10 Определение относительной погрешности измерений давления отработавших газов

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Подсоединить к датчику давления отработавших газов EZ0322 CANOPEN 0-1 Ваг из состава стенда помпу пневматическую ручную Элемер PV-60 и ПДЭ-020 совместно с ПК.

  • 3) Воспроизвести с помощью помпы пять значений давления отработавших газов, равномерно распределенных внутри диапазона измерений, например, 0,02, 25, 50, 75, 100 кПа.

  • 4) Считать результаты измерений Ризм в окне на экране монитора компьютера.

  • 5) Значение относительной погрешности измерений давления отработавших газов дизм, %, рассчитать по формуле (6):

^ = Р|Ш,~7>^а1-100% (6) действ

где Рдейств - действительное значение давления, измеренное ПДЭ-020, кПа;

Ризм - измеренное значение давления, кПа.

  • 6) Результаты измерений и вычисленные значения погрешностей занести в таблицу 14.

Таблица 14

Действительное значение давления отработавших газов 7^действу кПа

Измеренное значение давления отработавших газов Ризи, кПа

Полученные значения относительной погрешности измерений давления отработавших газов ^иЗМ) %

Пределы допускаемой относительной погрешности измерений давления отработавших газов 3, %

±3,0

Результат проверки считают положительным, если полученные значения относительной погрешности измерений давления отработавших газов не превышают ±3,0 %.

  • 8.3.11 Определение относительной погрешности измерений массового расхода топлива

Определение относительной погрешности измерений массового расхода топлива измерительного канала производится для каждого измерительного канала расчетноэкспериментальным путем и состоит из следующих пунктов:

  • - экспериментальной проверки относительной погрешности измерений массового расхода топлива 5ИЗм.э электрической части измерительного канала (под электрической частью измерительного канала понимается часть канала, начиная с выходным клемм датчика и заканчивая дисплеем компьютера рабочего места оператора);

  • - расчета относительной погрешности измерений массового расхода топлива 8пп измерительного канала с учетом первичных преобразователей - датчиков физических величин.

  • 8.3.11.1 Экспериментальная проверка относительной погрешности измерений массового расхода топлива 8ИЗм.э электрической части измерительного канала проводится в следующей последовательности:

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Подключить к измерительному каналу калибратор универсальный 9100 (далее -9100), присоединить выходные зажимы 9100 к входным клеммам измерительного канала.

  • 3) Подать при помощи 9100 сигнал напряжения постоянного тока от 0 до плюс 10 В.

  • 4) Пересчитать значение напряжения постоянного тока в массовый расход топлива вдейст по формуле (7):

• (а - б»)+(7)

V в '■'я

где U - действительное значение напряжения постоянного тока, заданное с помощью 9100, В;

Ue, UH - верхнее и нижнее значения напряжения постоянного тока, В;

Qe, Qh - верхнее и нижнее значения расхода, кг/ч (л/мин).

  • 5) Считать результаты измерений Qua* в окне на экране монитора компьютера.

  • 6) Значение относительной погрешности измерений массового расхода топлива электрической части измерительного канала Зизм.э> %, рассчитать по формуле (8):

<5ЯЗИ.Э =              -100%

(8)

^действ

где Qdeucme - действительная величина расхода, кг/ч (л/мин), рассчитанная по формуле (7);

Qusm - измеренное значение расхода, кг/час (л/мин).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в преобразователей

    таблицу 15. Таблица 15

    Чяпяннпе значения напряжения постоянного тока, В

    Действительная величина массового расхода топлива QdeOcmet Кг/ч

    Измеренное значение массового расхода топлива Qu3Mt кг/ч

    Полученные значения относительной погрешности измерений массового расхода топлива электрической ЧаСТИ ИК Згамл, %

    Полученные значения относительной погрешности измерений массового расхода топлива <%

    Пределы допускаемой относительной погрешности измерений массового расхода топлива <5,%

    ±0,5

    8.3.1

    .2 Расчет погрешности измерительного канала с учетом первичных

Относительная погрешность измерений массового расхода топлива измерительного канала рассчитывается по формуле (9):

$ик = М ’ у1^»зм.э +^лл                                    ( )

ГДе дизм.э ’ относительная погрешность измерений расхода электрической части измерительного канала, полученная экспериментально в реальных условиях эксплуатации, %;

Sm - относительная погрешность измерений расхода первичного преобразователя, указанная в описании типа на первичный преобразователь, %

Результат проверки считают положительным, если полученные значения относительной погрешности измерений массового расхода топлива измерительного канала не превышают ±0,5 %.

  • 8.3.12 Определение относительной погрешности измерений объемного расхода картерных газов

Определение относительной погрешности измерений объемного расхода картерных газов измерительного канала производится для каждого измерительного канала расчетно-экспериментальным путем и состоит из следующих пунктов:

  • - экспериментальной проверки относительной погрешности измерений объемного расхода картерных газов 5изм.э электрической части измерительного канала (под электрической частью измерительного канала понимается часть канала, начиная с выходным клемм датчика и заканчивая дисплеем компьютера рабочего места оператора);

  • - расчета относительной погрешности измерений объемного расхода картерных газов 8ПП измерительного канала с учетом первичных преобразователей - датчиков физических величин.

  • 8.3.12.1 Экспериментальная проверка относительной погрешности измерений объемного расхода картерных газов Зизм.э электрической части измерительного канала проводится в следующей последовательности:

  • 1) Подготовить стенд, основные эталонные средства и оборудование в соответствии с эксплуатационной документацией.

  • 2) Подключить к измерительному каналу 9100, присоединить выходные зажимы 9100 к входным клеммам измерительного канала.

  • 3) Подать при помощи 9100 сигнал напряжения постоянного тока от минус 10 до плюс 10 В.

  • 4) Пересчитать значение напряжения постоянного тока в значение объемного расхода картерных газов gdeucm по формуле (7).

  • 5) Считать результаты измерении в окне на экране монитора компьютера.

  • 6) Значение относительной погрешности измерений объемного расхода картерных газов электрической части измерительного канала дизм.э, %, рассчитать по формуле (8).

  • 7) Результаты измерений и вычисленные значения погрешностей занести в таблицу 16.

Таблица 16

Относительная погрешность измерений объемного расхода картерных газов измерительного канала рассчитывается по формуле (9).

Результат проверки считают положительным, если полученные значения относительной погрешности измерений объемного расхода картерных газов измерительного канала не превышают ±2,0 %.

Заданное значения напряжения постоянного тока, В

Действительная величина объемного расхода картерных газов Qdetcme, л/мин

Измеренное значение объемного расхода картерных газов л/мин

Полученные значения относительной погрешности измерении объемного расхода картерных газов электрической части ИК бизмл, %

Полученные значения относительной погрешности измерений объемного расхода картерных газов 5ик,%

Пределы допускаемой относительной погрешности измерений объемного расхода картерных газов <5, %

±2,0

8.3.12.2 Расчет погрешности измерительного канала с учетом первичных преобразователей

9 ОФОРМЛЕНИЕ РЕЗУЛЬТАТОВ ПОВЕРКИ
  • 9.1 По завершении операций поверки оформляется протокол поверки в произвольной форме с указанием следующих сведений:

  • - полное наименование аккредитованной на право поверки организации;

  • - номер и дата протокола поверки;

  • - наименование и обозначение поверенного средства измерений;

  • - заводской (серийный) номер;

  • - обозначение документа, по которому выполнена поверка;

  • - наименования, обозначения и заводские (серийные) номера использованных при поверке средств поверки (со сведениями о поверке последних);

~ температура, влажность и атмосферное давление в помещении;

  • - фамилия лица, проводившего поверку;

  • - результаты каждой из операций поверки.

Допускается не оформлять протокол поверки отдельным документом, а результаты операций поверки указывать на оборотной стороне свидетельства о поверке.

  • 9.2 При положительном результате поверки выдается свидетельство о поверке и наносится знак поверки в соответствии с Приказом Министерства промышленности и торговли РФ от 2 июля 2015 г. № 1815.

  • 9.3 Знак поверки наносится на свидетельство о поверке и (или) в паспорт.

  • 9.4 При отрицательном результате поверки, выявленных при любой из операций поверки, описанных в таблице 2, выдается извещение о непригодности в соответствии с Приказом Министерства промышленности и торговли РФ от 02.07.2015 г. № 1815.

Инженер отдела испытаний ООО «ИЦРМ»

Стр. 17 из 17

Настройки внешнего вида
Цветовая схема

Ширина

Левая панель