Методика поверки «ГСИ. Системы мониторинга выбросов автоматизированные Kontram» (МП 242-1982-2015)

Методика поверки

Тип документа

ГСИ. Системы мониторинга выбросов автоматизированные Kontram

Наименование

МП 242-1982-2015

Обозначение документа

ВНИИМ им. Д.И. Менделеева

Разработчик

916 Кб
1 файл

ЗАГРУЗИТЬ ДОКУМЕНТ

  

УТВЕРЖДАЮ

Директор

Ханов

2015 г.

Государственная система обеспечения единства измерений Системы мониторинга выбросов автоматизированные Kontram МЕТОДИКА ПОВЕРКИ МП 242-1982-2015

Руководитель НИО госэталонов

в области физико-химических измерений

ФГУП «ВНИИМ им.

-

Научный сотрудник

Менделеева»

Л.А. Конопелько

ФГУП «ВНИИМ им. Д.И. Менделеева»

Н.Б. Шор

Санкт-Петербург 2015 г.

Настоящая методика поверки распространяется на системы мониторинга выбросов автоматизированные Kontram (далее - системы) и устанавливает методы и средства их первичной поверки до ввода в эксплуатацию и после ремонта и периодической поверки в процессе эксплуатации.

Интервал между поверками: один год.

1 Операции поверки
  • 1.1 При проведении поверки должны быть выполнены операции, указанные в таблице 1.

Таблица 1

Наименование операции

Номер пункта методики поверки

Обязательность проведения операции

при первичной поверке

при периодической поверке

1 Внешний осмотр

6.1

Да

Да

2 Опробование

6.2

2.1 Проверка общего функционирования

6.2.1

Да

Да

2.2 Подтверждение соответствия программного обеспечения

6.2.2

Да

Нет

3 Определение метрологических характеристик

6.3

3.1 Определение основной погрешности измерительных каналов при комплектной поверке*

6.3.1

Да

Да

3.2 Определение основной погрешности измерительных каналов при поэлементной поверке *

6.3.2

Да

Да

Примечание: * см. п.п.1.4.- 1.7

  • 1.2 Допускается проведение поверки отдельных измерительных каналов системы в соответствии с заявлением владельца СИ, с обязательным указанием в свидетельстве о поверке информации об объеме проведенной поверки.

  • 1.3 Если при проведении той или иной операции поверки измерительного канала системы получен отрицательный результат, дальнейшая поверка данного канала прекращается.

  • 1.4  Комплектная поверка проводится без демонтажа первичных измерительных преобразователей (ПИП) и внешнего программно-аппаратного комплекса (далее - PIMS), входящих в состав системы, при выполнении следующих условий:

а) свободный доступ к измерительному каналу системы (к ПИП), непосредственно на месте установки;

б) выполнение требований, приведенных в разделе 4 настоящей методики поверки;

в) наличие средств поверки, указанных в таблице 2.

  • 1.5 При невозможности выполнения условий, указанных в п. 1.4, проводится поэлементная поверка. Поверка ПИП, имеющих аналоговый выходной сигнал от 4 до 20 мА, выполняется в лабораторных условиях после их демонтажа. Поверка PIMS проводится на месте установки компьютера в составе PIMS.

  • 1.6 При проведении поверки обеспечивают одновременную фиксацию показаний дисплея приборов и дисплея компьютера.

2 Средства поверки

2.1 При проведении поверки должны применяться средства поверки, указанные в таблице 2. Таблица 2

Номер пункта методики поверки

Наименование основного или вспомогательного средства поверки. Требования к средству поверки.

Основные метрологические или технические характеристики.

4,6

Прибор комбинированный Testo-622, регистрационный номер 53505-13:

  • - диапазон измерения температуры: от минус 10 до 60 °C, пределы допускаемой абсолютной погрешности ±0,4 °C;

  • - диапазон измерения относительной влажности: от 10 до 95 %, пределы допускаемой абсолютной погрешности ±3 %;

  • - диапазон измерений абсолютного давления: от 300 до 1200 гПа, пределы допускаемой абсолютной погрешности ±5 гПа.

6.3.1

Стандартные образцы состава - газовые смеси (ГС) в баллонах под давлением по ТУ 6-16-2956-92 приведенные в таблице А.1 Приложения А

Поверочный нулевой газ (ПНГ) - воздух в баллонах под давлением по ТУ6-21-5-82 или азот газообразный в баллонах под давлением по ГОСТ 9293-74

Ротаметр РМ-А-0,063 ГУЗ, ГОСТ 13045-81, верхняя граница диапазона измерений объемного расхода 0,063 м3/ч, кл. точности 4

Трубка фторопластовая по ТУ 6-05-2059-87, диаметр условного прохода 5 мм, толщина стенки 1 мм

Вентиль точной регулировки ВТР-1 (или ВТР-1-М160), диапазон рабочего давления (0-150) кгс/см2, диаметр условного прохода 3 мм

6.3.1.3,

6.3.2.1

Калибратор давления портативный Метран 501-ПКД-Р по ТУ 4212-006-36897690-03, регистрационный номер 22307-04, диапазон измерений абсолютного давления (90 - 110 кПа, погрешность измерений давления ±0,05% от верхнего предела измерений

Калибратор температуры DBC модели 150-ТС с диапазоном воспроизводимых температур от минус 20 до 150 °C и модели 650-ТС с диапазоном воспроизводимых температур от 50 до 650 °C, регистрационный номер 26617-04

6.3.2.1

Рулетки измерительные металлические 2-го класса точности, штангенциркуль 1-го класса точности, стенд СКС-6

6.3.2.2

Калибратор многофункциональный портативный Метран 510-ПКМ, регистрационный номер № 26044-07, измерение силы постоянного тока до 22 мА, измерение напряжения постоянного тока до 11 В, измерение сопротивлению постоянному тока 2 кОм

  • 2.2 Допускается применение иных средств поверки, не уступающих по метрологическим характеристикам.

  • 2.3 Все средства поверки должны иметь действующие свидетельства о поверке, ГС в баллонах под давлением - действующие паспорта.

3 Требования безопасности
  • 3.1 Требования техники безопасности при эксплуатации ГС в баллонах под давлением должны соответствовать Федеральным нормам и правилам в области промышленной безопасности «Правила промышленной безопасности опасных производственных объектов, на которых используется оборудование, работающее под избыточным давлением», утвержденным приказом Федеральной службы по экологическому, технологическому и атомному надзору от 25.03.2014 г. № 116.

  • 3.2 При работе с приборами необходимо соблюдать «Правила технической эксплуатации электроустановок потребителей», утверждённые приказом Минэнерго РФ № 6 от!3.01.2003 и «Правила по охране труда при эксплуатации электроустановок», утверждённые приказом Минтруда России № 328н от 24.07.2013. введённые в действие с 04.08.2014.

  • 3.3 Сброс ГС должен осуществляться за пределы рабочего помещения.

4 Условия поверки

При проведении поверки должны быть соблюдены следующие условия:

температура окружающей среды (20±5) °C;

атмосферное давление от 84 до 106,7 кПа;

относительная влажность воздуха от 30 до 80 %.

5 Подготовка к поверке
  • 5.1 Перед проведением поверки выполняют следующие подготовительные работы:

  • 1) подготавливают средства измеренийи и устройства, входящие в состав системы, к работе в соответствии с требованиями РЭ изготовителя;

  • 2) проверяют наличие паспортов и сроки годности ГС;

  • 3) баллоны с ГС выдерживают в помещении, в котором проводят поверку, в течение 24 ч;

  • 4) подготавливают к работе средства поверки в соответствии с требованиями их эксплуатационной документации;

  • 5) предупреждают эксплуатационный персонал о выполняемой операции.

  • 6) обеспечивают одновременную фиксацию показаний дисплея приборов и дисплея компьютера в составе PIMS.

  • 5.2 При проведении комплектной поверки газоаналитических измерительных каналов подсоединяют фторопластовую трубку с выхода вентиля точной регулировки, установленного на баллоне с ГС, через байпас (тройник) к входу поверяемого газоанализатора. Расход ГС должен быть на 10-20 % выше расхода, потребляемого газоанализатором. Контроль расхода на сбросе осуществляют при помощи ротаметра, подключенного к тройнику.

При поверке газоаналитических измерительных каналов в комплекте с пробоотборным устройством подсоединяют фторопластовую трубку с выхода вентиля точной регулировки ко входу указанного устройства.

  • 5.3  Перед проведением поверки системы выполняют регламентные работы, предусмотренные эксплуатационной документацией изготовителя, в т.ч. корректировка нулевых показаний и чувствительности в соответствии с РЭ на средства измерений.

6 Проведение поверки
  • 6.1 Внешний осмотр

    • 6.1.1 При внешнем осмотре средств измерений и устройств, входящих в состав системы, должно быть установлено отсутствие внешних повреждений, влияющих на работоспособность, в т.ч. на пробоотборный зонд.

    • 6.1.2 Комплектность должна соответствовать указанной в Руководстве по эксплуатации.

    • 6.1.3 Для средств измерений, входящих в состав комплекса, должны быть установлены:

  • - исправность органов управления, настройки и коррекции;

  • - четкость всех надписей на лицевых панелях средств измерений;

  • - четкость и контрастность цифровых дисплеев средств измерений.

  • 6.1.4 Система считается выдержавшей внешний осмотр удовлетворительно, если она соответствует всем перечисленным выше требованиям.

  • 6.2 Опробование

    • 6.2.1 Проверка общего функционирования

Проверку общего функционирования средств измерений и устройств в составе системы проводят в процессе тестирования при их запуске в соответствии с РЭ на приборы.

Результаты проверки считают положительными, если все технические тесты завершились успешно.

  • 6.2.2 Подтверждение соответствия программного обеспечения

Операция «Подтверждение соответствия программного обеспечения» состоит из следующих этапов:

  • - определение идентификационного наименования и номера версии (идентификационного номера) автономного программного обеспечения ПО PI Server (далее — ПО PI Server);

  • - определение контрольной суммы ПО PI Server.

  • 6.2.2.1   Определение идентификационного наименования и номера версии

(идентификационного номера) ПО PI Server.

Для определения наименования и номера версии автономного ПО PI Server запускают ПО PI System Explorer. В главном окне ПО PI System Explorer открывают меню «Help», затем подменю «About PI System Explorer», при этом открывается окно с наименованием и номером версии ПО PI Server (см. Рисунок 1).

PI System Explorer 2015

64-bit Edition

OSIsoft, LLC

€ 2003-2015, OSIsoft, LLC

PI AF Server (SYK-VS31) Version 2.7.5.7166

Explorer Version 2,7.0.6937. Assembly Version: 4.0.0.0. .NET: v4.0.30319

Ar SDK Version 2.7.0.6937. Assembly Version: 4.0,0.0. .NET: v4.0.303 jo

1

Plug-In

File Version

Assembly Version

.NET

Anal ysisManagernentExplor...

2.7.0.6937

1.0.0.0

v4.0.30319

AssetsExplorerPkigln

2.7.0.6937

4.0.0.0

74.0.30319

■JGMExpiorerPlugin

2.7.0.6937

4.0.U.0

'.'4.0.30319

U.S GOVERNMENT rights

v=s.- кз.» tr*C.S. Э-гётг??: =      ta rj-iirotc-s s« fsn:

’ :r> OSisft. LLC жв         »r: = = p-:-v ж ' DEARS 22" .72'2. DEARS

2:222~-*2'2. FAR‘2.2'2, FAR :222". sps sifet OSIsi-ft.

Рисунок 1 - Определения идентификационного наименования и номера версии автономного ПО PI Server.

  • 6.2.2.2 Определение контрольной суммы автономного ПО PI Server .

Контрольную сумму автономного ПО PI Server определяют по файлу AFService.exe с помощью программы «Total commander» (или аналогичной программы) по алгоритму MD 5.

Результат подтверждения соответствия программного обеспечения считается положительным, если полученные идентификационные данные программного обеспечения СИ (идентификационное наименование, номер версии и контрольная сумма) соответствует идентификационным данным, указанным в разделе «Программное обеспечение» описания типа средства измерений (приложение к свидетельству об утверждении типа).

6.3 Определение метрологических характеристик

  • 6.3.1 Определение основной погрешности измерительных каналов при комплектной поверке

Комплектная поверка проводится при выполнении условий, указанных в п.п.1.4 - 1.6 настоящей методики.

  • 6.3.1.1 Определение основной погрешности газоаналитических измерительных каналов при комплектной поверке.

Определение основной погрешности проводят при поочередной подаче ГС:

  • - на вход газоанализатора модели 601 в последовательности: №№ 1-2-3-2-1-3 (для каждого определяемого компонента);

  • - на вход пробоотборного устройства в последовательности: №№ 1 - 3 (для оксида азота NO),

и считывании показаний с дисплея газоанализатора и монитора персонального компьютера (ПК) программно-аппаратного комплекса (PIMS). Подачу ГС проводят в соответствии с пунктом

  • 5.2. Номинальные значения содержания измеряемых компонентов в ГС приведены в таблице А.1 Приложения А.

Примечание: При наличии действующих свидетельств о поверке газоанализаторов допускается проводить определение погрешности по меньшему числу ГС - №№ 1- 3, число циклов не менее 2-х.

Основную абсолютную погрешность (для канала кислорода), J, % (об.) в каждой точке для диапазонов измерений, приведенных в таблице Б.1 Приложения Б, рассчитывают по формуле:

Д=Х„-Хд,                                  (1)

где Хи - измеренное значение объемной доли определяемого компонента (показания монитора ПК PIMS, % об.);

Хд - действительное значение объемной доли определяемого компонента в ГС, % (об.).

Основную приведенную погрешность (у, %) в каждой точке для диапазонов измерений, приведенных в таблице Б.1 Приложения Б, рассчитывают по формуле:

7=С/ССд-100,                            (2)

с в

где Си - измеренное значение массовой концентрации определяемого компонента (показания монитора ПК PIMS, мг/м3);

Сд - действительное значение массовой концентрации определяемого компонента в ГС, мг/м3;

С« - верхний предел измерений (см. таблица Б. 1 Приложение Б), мг/м3.

Основную относительную погрешность (д', %) в каждой точке для диапазонов измерений, приведенных в таблице Б.1 Приложения Б, рассчитывают по формуле:

сип

8= Иг Д-100 ,                                   (3)

Результаты определения считают положительными, если:

- полученные значения основной погрешности не превышают значений, указанных в таблице Б. 1 Приложения Б;

  • - расхождение показаний дисплея газоанализатора и показаний мониторов ПК PIMS не превышает 0,2 долей от предела допускаемой основной погрешности;

  • - расхождение показаний системы, полученных при подаче ГС на вход газоанализатора и пробоотборного устройства не превышает 0,2 долей от предела допускаемой основной погрешности.

  • 6.3.1.2 Определение основной погрешности канала измерения общей серы (TRS) при комплектной поверке.

Определение основной погрешности по каналу измерения общей серы (TRS) проводят при поочередной подаче ГС сероводорода (ГЬБ) на вход конвертера пробоотборного устройства в последовательности: №№ 1-2-3-2-1-3, и считывании показаний с монитора персонального компьютера (ПК) программно-аппаратный комплекс PIMS и с дисплея газоанализатора. Подачу ГС проводят в соответствии с пунктом 5.2. Номинальные значения содержания измеряемых компонентов в ГС приведены в таблице А.1 Приложения А.

Основную погрешность в каждой точке для диапазонов измерений, приведенных в таблице Б.1 Приложения Б, рассчитывают по формулам (2) и (3), где

Сд - действительное значение массовой концентрации общей серы (TRS) в ГС, мг/м3, определенное по формуле:

(4)

мг/м3.

где Cd(H2s> - действительное значение массовой концентрации сероводорода (H2S) в ГС,

Результаты определения считают положительными, если:

  • - полученные значения основной погрешности не превышают значений, указанных в таблице Б. 1 Приложения Б;

  • - расхождение показаний дисплея газоанализатора и показаний мониторов ПК PIMS не превышает 0,2 долей от предела допускаемой основной погрешности.

  • 6.3.1.3 Определение основной погрешности измерительных каналов параметров газового потока (температуры и давления) при комплектной поверке.

Определение проводится в соответствии с Приложением В.

Результаты определения считаются удовлетворительными, если полученные значения погрешности не превышают значений, приведенных в таблице Б.2 Приложения Б.

6.3.2 Определение основной погрешности измерительных каналов параметров газового потока (поэлементная поверка)

При поэлементной поверке проводится отдельно поверка датчиков и определение основной погрешности PIMS.

Определение основной погрешности каналов параметров газового потока- температуры, давления, скорости (объемного расхода), имеющим в своем составе первичный измерительный преобразователь (ПИП) с аналоговым выходным сигналом проводят поэлементно в следующем порядке:

  • - определение основной погрешности ПИП;

  • - определение основной погрешности PIMS.

  • 6.3.2.1. Определение основной погрешности первичных преобразователей (датчиков).

Определение основной погрешности первичных преобразователей (датчиков) выполняется в лабораторных условиях после их демонтажа в соответствии с утвержденными методиками поверки.

Определяют основную погрешность ПИП на основании результатов поверки ПИП (по свидетельству о поверке и, при наличии, протоколу поверки).

Результаты определения считаются положительными, если полученные значения основной погрешности датчиков не превышают значений, приведенных в таблицах Б.2 и Б.З Приложения Б.

  • 6.3.2.2. Определение основной погрешности PIMS.

Определение основной погрешности PIMS проводят на месте установки компьютера в составе PIMS.

Входными сигналами каналов передачи информации системы являются унифицированные токовые сигналы стандартных преобразователей объемного расхода, давления и температуры в диапазоне от 4 до 20 мА.

На вход PIMS подают унифицированный токовый сигнал в диапазоне от 4 до 20 мА от источника постоянного тока (калибратора тока). При поверке PIMS выполняют по одному измерению в каждой выбранной точке поверки.

Значения выходных величин выводят на экран монитора ПК PIMS.

Определение основной погрешности PIMS проводят в следующей последовательности:

Отключают первичные преобразователи и подключают средства поверки к соответствующим каналам, включая линии связи.

С помощью калибратора устанавливают на входе канала ввода аналогового сигнала электрические сигналы (от 4 до 20 мА), соответствующие значениям измеряемого параметра. Задают не менее пяти значений измеряемого параметра, равномерно распределенных в пределах диапазона измерений (например, 0 %, 25 %, 50 %, 75 % и 100 %) и через 10 секунд считывают значение параметра с экрана компьютера с ПО.

Значение измеряемой величины д), соответствующее заданному значению силы постоянного тока 13 , мА, рассчитывают по формуле:

(5)

где I3 - показания калибратора в каждой точке проверки, мА;

Ао - нижний предел измерений (в единицах измеряемой величины);

К - коэффициент преобразования, рассчитываемый по формуле, единица измеряемой величины/мА

А-Ан

(6)

К I -I ’ в 1н

где Ав. А„ - верхний и нижний пределы измерений, соответственно, в единицах измеряемой величины.

/«, /„ - верхний и нижний пределы измерений аналогового выхода, соответственно, мА.

а) Значение основной абсолютной погрешности PIMS (J,, в единицах измеряемой величины) в каждой точке проверки рассчитывают по формуле

(7)

где А, - измеренное системой значение определяемого параметра (по монитор} компьютера с ПО), в единицах измеряемой величины;

б) Значение основной приведенной погрешности PIMS (у,, в %) рассчитывают для каждой точки проверки по формуле

J1 н

в) Значение основной относительной погрешности PIMS в (8П в %) рассчитывают для каждой точки проверки по формуле

д'„=^-^100 ,                  (9)

А(> - действительное значение определяемого параметра, рассчитанное по формуле 5, в единицах измеряемой величины.

Результаты определения считают положительными, если полученные значения основной погрешности PIMS не превышают 0,2 долей от предела допускаемой основной погрешности канала измерений каждого параметра.

7 Оформление результатов поверки
  • 7.1 При проведении поверки системы составляется протокол результатов измерений, в котором указывается соответствие системы предъявляемым к ней требованиям. Форма протокола поверки приведена в Приложении Г.

  • 7.2 Системы, удовлетворяющие требованиям методики поверки, признаются годными к применению.

  • 7.3 Положительные результаты поверки оформляются свидетельством о поверке по форме, установленной приказом Минпромторга РФ № 1815 от 02.07.2015 г.

  • 7.4 При отрицательных результатах поверки применение системы запрещается и выдается извещение о непригодности.

  • 7.5 Знак поверки наносится на дверцу шкафа с внешней стороны (в левом верхнем углу) или наклеивается на свидетельство о поверке на систему.

Приложение А

(обязательное)

Таблица А.1 - Перечень и метрологические характеристики поверочных газовых смесей, используемых при поверке системы

Определяемый компонент

Диапазон измерений, млн'1 (ppm)

Номинальное значение объемной доли (X) определяемого компонента в ГС, пределы допускаемого отклонения, млн'1

Источник получения ГС (Номер ГСО по ТУ 6-16-2956-92

Пределы допускаемой относительной погрешности, %

ГС№1

ГС №2

ГС №3

Оксид азота (NO)

от 0 до 50 включ.

св. 50 до 150

ПНГ

50± 10

125 ±25

ГСО 10323-2013

no/n2

-15,15-Х±4,015

Диоксид азота (NO2), сумма оксидов азота (NOX) в пересчете на no2

от 0 до 50 включ.

св. 50 до 150

ПНГ

50± 10

125 ±25

ГСОЮ331-2013

no2/n2

-15,15-Х±4,015

Оксид углерода (СО)

от 0 до 100 включ.

св. 100 до 2500

ПНГ

100 ± 10

-

ГСО 9744-2011

co/n2

2,0

-

2250 ±225

ГСО 10240-2013

co/n2

-2,5-Х±2,75

Диоксид серы (SO2)

от 0 до 50 включ.

св. 50 до 200

ПНГ

50 ± 10

170 ±30

ГСО 10342-2013

SO2/N2

-15,15-Х±4,015

Сероводород (H2S) (канал TRS)

от 0 до 20 включ.

св. 20 до 100

ПНГ

20 ±4

80± 15

ГСО 10328-2013

h2s/n2

-15,15-Х±4,015

Кислород (О2)

от 0 до 22 % (об.)

Азот

10 ±0,5 % (об.)

-

ГСО 10253-2013

O2/N2

-0,046-Х±1,523

-

21 ± 1 % (об.)

-0,008-Х±0,76

Примечания:

  • 1 ПНГ (поверочный нулевой газ) -воздух по ТУ 6-21-5-82 (кроме кислорода ) или азот газообразный по ГОСТ 9293-74 (для всех компонентов, в т.ч. и для кислорода).

  • 2 Пересчет значений объемной доли X в млн'1 (ppm) в массовую концентрацию С, мг/м3, проводят по формуле:

С = X-M/Vm

где М - молярная масса компонента, г/моль, Vm - молярный объем газа-разбавителя (азот или воздух), равный 22,4, при условиях 0 °C и 101,3 кПа (в соответствии с РД 52.04.186-89), дм3/моль.

Приложение Б

(обязательное) Метрологические характеристики измерительных каналов системы

Таблица Б.1 - Метрологические характеристики для газоаналитических каналов

Определяемый компонент

Диапазоны измерений

Пределы допускаемой основной погрешности

Номинальная цена единицы наименьшего разряда

объемной доли, млн’1 (ppm)

массовой концентрации, мг/м3*

приведенной, у, % или абсолютной, А, % (об.)

относительн

ой, 6, %

Оксид азота (NO)

от 0 до 50 включ.

св. 50 до 150

от 0 до 70 включ.

св. 70 до 200

±10

±10

0,1 мг/м3

Диоксид азота (NO2), сумма оксидов азота (NOX) в пересчете на no2

от 0 до 50 включ.

св. 50 до 150

от 0 до 100 включ.

св. 100 до 300

±10

±10

0,1 мг/м3

Оксид углерода (СО)

от 0 до 100 включ.

св. 100 до 2500

от 0 до 130 включ.

св. 130 до 3000

±5

±5

0,1 мг/м3

Диоксид серы (SO2)

от 0 до 50 включ.

св. 50 до 200

от 0 до 150 включ.

св. 150 до 600

±10

±10

0,1 мг/м3

Общая сера (TRS) за вычетом SO2

(в пересчете на S)**

от 0 до 20 включ.

св. 20 до 100

от 0 до 30 включ.

св. 30 до 150

±15

±15

0,1 мг/м3

Кислород (О2)

от 0 до 22 % (об.)

-

±0,2 % (об.)

-

0,1 % (об.)

Примечания:

* Пересчет объемной доли млн'1 (ppm) в массовую концентрацию компонента (мг/м3) проводится с использованием коэффициента, равного для SO2 - 2,86; NO - 1,34; NO2 - 2,05; СО - 1,25; S - 1,43 (при 0 °C и 760 мм рт. ст. в соответствии с РД 52.04.186-89)

** Градуировка измерительного канала TRS проводится по H2S. Пересчет объемной доли H2S млн'1 (ppm) в массовую концентрацию TRS (мг/м3) проводится с использованием коэффициента, равного 1,43.

Таблица Б.2 - Метрологические характеристики для измерительных каналов параметров газового потока

Определяемый параметр

Единицы измерений

Диапазон измерений

Пределы допускаемой погрешности

Номинальная цена единицы наименьшего разряда

Температура газовой пробы

°C

от 0 до 400

±2 °C (абс.)

0,1

Абсолютное давление

кПа

от 0 до 160

±1,5 % (привед.)

0,1

Таблица Б.З -

объемного

Определяемый параметр

Единицы измерений

Источник выбросов

Диапазон объемного расхода*

Пределы допускаемой относительной погрешности

Номинальная цена единицы наименьшего разряда

Объемный расход

м3

Дымоход котельной ЦКРИ

от 5,6-104 до 10,8-104

±10 % (отн.)

1

Дымоход котельной ТЭЦ

от 0,3-106 до 1,4-106

Примечания: *расчетное значение

  • 1 *расчетное значение

  • 2 Дымоход котельной ЦКРИ: диапазон скоростей газового потока от 5 до 10 м/с; дымоход котельной ТЭЦ: диапазон скоростей газового потока от 5 до 24 м/с

Приложение В (обязательное)

Определение основной погрешности по каналам давления и температуры при комплектной поверке

Определение основной погрешности проводится при последовательном задании значений измеряемой величины на калибраторе, соответствующих 5 %, 30 %, 50 %, 70 %, 95 % диапазона измерений с допускаемым отклонением ±5%

Число измерений - не менее двух.

а) Определение основной абсолютной погрешности системы по измерительному каналу температуры газового потока.

Снимите датчик температуры с газохода и установите его в эталонное СИ температуры (например, калибратор температуры DBC модели 150-ТС), размещенное рядом с местом эксплуатации датчика.

Основную абсолютную погрешность (At, %) в каждой точке для диапазонов измерений температуры, приведенных в таблице Б.2 Приложения Б, рассчитывают по формуле:

(1)

где 7и - измеренное значение температуры (показания монитора ПК PIMS), °C;

Тд - действительное значение температуры, установленное на калибраторе DBC, °C.

Результаты определения считаются удовлетворительными, если полученные значения абсолютной погрешности не превышают значений, приведенных в таблице Б.2. Приложения Б.

б) Определение приведенной погрешности системы по измерительному каналу давления газового потока

Отсоедините входной штуцер датчика абсолютного давления от системы и присоедините его к эталонному СИ давления (калибратору давления Метран 501-ПКД-Р).

Основную приведенную погрешность (уР, %) в каждой точке для диапазона измерений абсолютного давления, приведенного в таблице Б. 1 Приложения Б настоящей методики поверки, рассчитывают по формуле

Р -Рл

(2)

кПа;

где Ри - измеренное значение абсолютного давления (показания монитора ПК PIMS), кПа; Рд - действительное значение давления, установленное на калибраторе Метран 501-ПКД-Р,

Рв - верхний предел измерений абсолютного давления (см. таблица Б.1 Приложение Б настоящей методики поверки), кПа.

Результаты определения считаются удовлетворительными, если полученные значения основной приведенной погрешности не превышают значений, приведенных в таблице Б.1 Приложения Б настоящей методики поверки.

Приложение Г (обязательное)

Протокол поверки

Наименование СИ:______________________________________________________

Зав. №_____________________

Дата выпуска________________

Регистрационный номер:____________.

Заказчик:____________________________________________________________________________

Серия и номер клейма предыдущей поверки:__________________________________

Дата предыдущей поверки:______________________________________

Методика поверки:_________________________________________

Основные средства поверки:_________________________________________________

Условия поверки:

температура окружающей среды                    °C

относительная влажность воздуха                     %

атмосферное давление                             кПа

РЕЗУЛЬТАТЫ ПОВЕРКИ

  • 1 Результаты внешнего осмотра_________________________________________________

  • 2 Результаты опробования

    • 2.1 Проверка общего функционирования___________________________________________

2.2. Подтверждение соответствия программного обеспечения_________________________

  • 3 Результаты определение метрологических характеристик

    • 3.1 Результаты определения основной погрешности измерительных каналов при комплектной

поверке_____________________________________________

  • 3.2 Результаты определения основной погрешности измерительных каналов при поэлементной

поверке_____________________________________________

Заключение: на основании результатов первичной (или периодической) поверки система признана соответствующей установленным в описании типа метрологическим требованиям и пригодна к применению.

Поверку произвёл:________________

Дата поверки:_______________

Настройки внешнего вида
Цветовая схема

Ширина

Левая панель