SlideShare a Scribd company logo
1 of 3
Download to read offline
101№3 • март 2009
НЕФТЕГАЗОВЫЕ
Т Е Х Н О Л О Г И И
HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ
ПРОГНОЗ КЛЮЧЕВЫХ ПАРАМЕТРОВ
ПРИ ПОМОЩИ ИСКУССТВЕННЫХ
НЕЙРОННЫХ СЕТЕЙ
K. R. Ramakumar, НПЗ Гуджарарт, Indian Oil Corporation, Вадодара, Индия
Искусственные нейронные сети (artificial neutral
networks – ANN) служат мощным инструментом
моделирования нелинейных процессов. Это процес-
сы, протекающие в системах, параметры которых не
подчиняются линейным отношениям между собой.
Один из способов работы с такими сложными сис-
темами – ANN. Обычно ANN используют для уста-
новления соответствия между набором входных и
выходных данных.
ЗНАКОМСТВО С ОСНОВАМИ
Получив входные данные (x1, x2,..., xn) и весо-
вые коэффициенты, приписанные каждому потоку
((w1, w2, . . ., wn), нейрон, элемент NN, обрабаты-
вает суммарный вход X1 w1 + x2w2 + ... + xn wn)
и выдает выходные данные, руководствуясь задан-
ной функции активации или передаточной функци-
ей (рис.  1). Выходные данные, в свою очередь, мо-
гут быть входными для следующего нейрона. Цикл
продолжается, пока не будут получены ожидаемые
выходные данные. Подобный цикл обработки ин-
формации представлен на рис. 2. Самый распростра-
ненный тип ANN состоит из трех групп (или слоев)
элементов: слой «входных» элементов соединяется
со слоем «скрытых» элементов, который, в свою оче-
редь, соединяется со слоем «выходных» элементов.
Скрытые элементы могут отобразить входные дан-
ные по-своему. Весовые коэффициенты между вход-
ными и скрытыми элементами определяют, будет ли
активен каждый из скрытых элементов, поэтому, из-
меняя эти коэффициенты, скрытый элемент может
«выбрать», что ему отображать. Весовые коэффици-
енты приписываются случайным образом (между 0 и
1) перед началом цикла упреждения.
ЭТАПЫ ПОСТРОЕНИЯ МОДЕЛИ
Определение параметров.
• Определить входные данные (x1, x2, . . . , xn);
входные нейроны = n.
• Реальный выход = Y; Y = f(x1, x2, . . . , xn); вы-
ходные нейроны = 1.
• Определить количество скрытых слоев и коли-
чество нейронов в каждом.
• Определить весовые коэффициенты (w1,w2, . . . ,
wn).Обучение модели.
• Запустить в прямую цепь результаты первого
наблюдения с приписанными весовыми коэффици-
ентами.
• Модель прогнозирует выходные данные.
• Ошибка = реальный выход – предсказанный вы-
ход.
• Настроить весовые коэффициенты так, чтобы
свести ошибку к минимуму.
• Запустить в прямую цепь результаты второго
наблюдения и повторить предыдущие этапы.
• Продолжать до последнего наблюдения. Первый
цикл обучения завершен
• Чтобы свести ошибку к минимуму может потре-
боваться много таких циклов
С учетом ошибки начинается обратное распро-
странение сигнала по сети для обучения нейронов,
настройки весовых коэффициентов и, в итоге, мини-
мизации ошибки:
E = У[(реальная величина)n — (предсказанная
величина)n]2
.
Настройка весовых коэффициентов осуществля-
ется по методу градиентного спуска:
y
F
W1
W2
WN
XN
X2
X1
Рис. 1. Базовая функциональная схема ANN
Входные данные Нейрон
Выходные
данные
Сумматор
Функция
активации
Рис. 2. Простейшая нейронная сеть
Входные
Скрытые
Выходные
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
102
НЕФТЕГАЗОВЫЕ
Т Е Х Н О Л О Г И И№3 март • 2009
HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ
W’ = W+ a (dE/dW),
где W’ = новый масс-коэффициент, W = старый масс-
коэффициент, б = параметр обучения (0 < б <1).
Для более точной настройки масс-коэффициенты
можно представить в следующем виде:
W(n+1) = W(n) + б{dE/dW(n)} + в{W(n) – W(n-1)},
где в = момент (0 < в < 1).
Пример 1. Прогнозирование температур вспышки.
М.Р. Риаци и Т.Е. Дауберт предложили формулу для
оценки температуры вспышки бензиновой фракции
на основе температуры кипения для 10 %-ной фракции
по ASTM. Формула была незначительно модифициро-
вана, и для более точной оценки в формулу, предло-
женную К.Р. Рамакумаром[1] подставили усредненное
значение между IBP, ASTM 5 % и ASTM 10 %.
Сетевая архитектура. Определение сетевых
входов:
Количество входных сигналов = 3 (IBP, 5 % и
10 %), количество выходных сигналов = 1 (температу-
ра вспышки), количество скрытых слоев = 1 (состоя-
щий из двух нейронов), начальный весовой коэффици-
ент = 0,5 (случайно), параметр обучения = 0,5 (слу-
чайно), момент = 0, количество наблюдений  = 39,
количество циклов обучения = 500.
В качестве проверочного набора решено было слу-
чайным образом выбрать 10 % данных. На рис. 3–5 и
в  табл. представлены среднеквадратические откло-
нения и наблюдения.
Результаты. После выполнения обучения и про-
верки данных наблюдений, в сеть были введены ис-
ходные данные: IBP, 5 % и 10 % и NN смогла точно
предсказать температуру вспышки, как показано на
рис. 6.
Пример 2. Прогноз содержания O2 в отходящем
газе. Для последующего использования в сетевой мо-
Результаты наблюдений
Вспышка (ожидание) Т (IBP) Т (5 %) Т (10 %)
49 198 252 267
49 200 245 265
45 160 180 187
40 150 168 178
45 160 180 188
46 162 180 188
43 162 177 183
43 158 180 188
44 163 179 186
46 160 180 187
44 153 164 170
42 149 161 167
39 140 156 170
45 155 168 171
44 153 164 169
45 157 163 166
39 134 156 175
45 156 165 170
37 136 160 175
45 152 162 168
40 135 155 168
46 155 161 170
39 136 155 172
45 158 164 166
41 143 163 171
42 141 161 170
42 143 162 175
44 152 160 165
40 148 165 174
39 148 160 170
46 153 164 169
45 152 167 170
49 164 182 193
40 150 162 175
48 153 168 175
49 176 190 214
49 164 183 192
48 160 170 175
49 165 180 190
IBP
5%
10%
0.000
0 100 200 300 400 500 600
2.000
4.000
6.000
8.000
10.000
12.000
0 100 200 300 400 500 600
0.000
5.000
10.000
15.000
20.000
Рис. 3. Структура модели ANN
Входной слой (3)
Кривая
логической
сигма-функции
Скрытый слой (2)
Выходной слой (1)
Температура
вспышки
Рис. 4. Среднеквадратическое отклонение при обучении сети
Период, итерации
Среднеквадратическое
отклонение
Среднеквадратическое отклонение
(исходный масштаб)
Рис. 5. Среднеквадратическое отклонение при проверке
Период, итерации
Среднеквадратическое
отклонение
Среднеквадратическое отклонение
(исходный масштаб)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
103№3 • март 2009
НЕФТЕГАЗОВЫЕ
Т Е Х Н О Л О Г И И
HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ
дели исследовалось влияние всех возможных пара-
метров на содержание O2 в отходящем газе двухре-
жимной печи: на жидком (ЖТ) и газообразном (ГТ)
топливах.
Число входных сигналов равно 7 (поток воздуха,
давление воздуха, давление ЖТ, давление ГТ, тем-
пература отходящего газа, температура на выходе
из печи и расход вещества, поступающего в печь),
число выходных сигналов равно 1 (содержание O2),
число скрытых слоев равно 2 (состоящих из трех и
двух нейронов), начальный весовой коэффициент
потоков равен 0,5 (случайно), параметр обучения
равен 0,5 (случайно), момент равен 0,5, число на-
блюдений равно 1088, число циклов обучения рав-
но 250.
В качестве проверочного набора было решено
случайным образом выбрать 10 % данных. Поскольку
наблюдений было много, таблица с данными не при-
водится. На рис. 7 и 8 представлены среднеквадрати-
ческие отклонения.
Результаты. Результаты оказались не очень
точными – ошибка составила от +0,5 до +1,8 %. .
Модель требовала дальнейшей корректировки.
Приведенный пример просто показал, как сетевое
моделирование может быть полезно в предсказании
ключевых параметров.
Однако, поскольку расход питающего потока
в печи был практически постоянным, этот параметр
исключили, после чего результаты работы сети стали
лучше.
Таким образом, в данном случае потребовалось
оптимизация моделирования, которая заключалась
в выборе исходных параметров, влияющих на желае-
мый параметр или параметры. Что касается функции
активации, то для предыдущих моделей была выбра-
на логическая сигма-функция (ex
/1+ex
).
Перевел А. Локтионов
СПИСОК ЛИТЕРАТУРЫ
1. 	Ramakumar, K. R., «Develop more accurate prediction
of flash points», Hydrocarbon Processing, May 2008.
K. R. Ramakumar (К. Р. Рамакумар) рабо-
тает производственным инженером на
установке гидрокрекинга НПЗ Гуджарат,
Вадодара, Индия. Он окончил колледж с зо-
лотой медалью по химическому машино-
строению, затем окончил Национальный
Технологический Университет им. Сардара Валлаббаби,
Гуджарат с дипломом бакалавра. Г-н Рамакумар опублико-
вал насколько работ по различным вопросам химического
машиностроения.
30
35
40
45
50
HSD1 HSD2 HSD3 HSD4 HSD5 HSD6
0 50 100 150 200 250 300
0,000
0,020
0,040
0,060
0,080
0,100
0,120
0,140
0,000
0,050
0,100
0,150
0,200
0 50 100 150 200 250 300
0,00
2,00
4,00
6,00
8,00
1 2 3 4 5 6 7 8
Рис. 6. Сравнение температуры вспышки (ТВ) по прогнозам
ANN с реальной (ТВ)
Образцы
ТВ,°С
Результаты прогнозов ANN
Реальная ТВ
Предсказанная ТВ
Рис. 7. Среднеквадратическое отклонение проверочного
набора
Период, итерации
Среднеквадратическое
отклонение
Среднеквадратическое
отклонение
Рис. 8. Среднеквадратическое отклонение проверочного
набора
Период, итерации
Среднеквадратическое
отклонение
Среднеквадратическое
отклонение
Рис. 9. Разница между предсказанными и реальными величи-
нами
Наблюдения
СодержаниеО2
вотходящемгазе,%
Разница между предсказанными и реальными величинами
Предсказанное
Реальное
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

More Related Content

Similar to 284.прогноз ключевых параметров при помощи искусственных нейронных сетей

якобовский - введение в параллельное программирование (2)
якобовский - введение в параллельное программирование (2)якобовский - введение в параллельное программирование (2)
якобовский - введение в параллельное программирование (2)Michael Karpov
 
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...ITMO University
 
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Natalia Polkovnikova
 
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...ITMO University
 
Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptAleksandrGozhyj
 
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...Vladimir Bakhrushin
 
методические указания к практическим занятиям «показатели значений центра и р...
методические указания к практическим занятиям «показатели значений центра и р...методические указания к практическим занятиям «показатели значений центра и р...
методические указания к практическим занятиям «показатели значений центра и р...Иван Иванов
 
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...RF-Lab
 
алгоритмизация
алгоритмизацияалгоритмизация
алгоритмизацияisva69
 
Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Andrii Gakhov
 
394.аналитический метод расчета коэффициента гидравлического трения
394.аналитический метод расчета коэффициента гидравлического трения394.аналитический метод расчета коэффициента гидравлического трения
394.аналитический метод расчета коэффициента гидравлического тренияivanov1566359955
 
лекция по обработка данных на 27 марта
лекция по обработка данных на 27 марталекция по обработка данных на 27 марта
лекция по обработка данных на 27 мартаGorelkin Petr
 
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...ITMO University
 
Распознавание лиц с помощью экстремального обучения нейронов
Распознавание лиц с помощьюэкстремального обучения нейроновРаспознавание лиц с помощьюэкстремального обучения нейронов
Распознавание лиц с помощью экстремального обучения нейроновАнастасия Вязьмина
 

Similar to 284.прогноз ключевых параметров при помощи искусственных нейронных сетей (20)

лекция 37
лекция 37лекция 37
лекция 37
 
37359 (1).pptx
37359 (1).pptx37359 (1).pptx
37359 (1).pptx
 
якобовский - введение в параллельное программирование (2)
якобовский - введение в параллельное программирование (2)якобовский - введение в параллельное программирование (2)
якобовский - введение в параллельное программирование (2)
 
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...
ПРЕДСТАВЛЕНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ДАННЫХ ОБ ОПТИЧЕСКИХ ПАРАМЕТРАХ АТМОСФЕРЫ АНА...
 
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
 
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...
ДЕТЕКТОРЫ ОСОБЕННОСТЕЙ В МЕТОДЕ ВИОЛЫ–ДЖОНСА, ПОСТРОЕННЫЕ НА ОСНОВЕ КОНЕЧНЫХ ...
 
Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.ppt
 
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...
ПРИМЕНЕНИЕ СТАТИСТИЧЕСКИХ МЕТОДОВ ПРИ ОБРАБОТКЕ РЕЗУЛЬТАТОВ ПРОИЗВОДСТВЕННОГО...
 
методические указания к практическим занятиям «показатели значений центра и р...
методические указания к практическим занятиям «показатели значений центра и р...методические указания к практическим занятиям «показатели значений центра и р...
методические указания к практическим занятиям «показатели значений центра и р...
 
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...
2007 Никольская "Разработка программных средств для помехоустойчивого кодиров...
 
лекция 32
лекция 32лекция 32
лекция 32
 
алгоритмизация
алгоритмизацияалгоритмизация
алгоритмизация
 
Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014Data Mining - lecture 6 - 2014
Data Mining - lecture 6 - 2014
 
394.аналитический метод расчета коэффициента гидравлического трения
394.аналитический метод расчета коэффициента гидравлического трения394.аналитический метод расчета коэффициента гидравлического трения
394.аналитический метод расчета коэффициента гидравлического трения
 
Gonch niz nov3
Gonch niz nov3Gonch niz nov3
Gonch niz nov3
 
Gonch niz nov3
Gonch niz nov3Gonch niz nov3
Gonch niz nov3
 
лекция по обработка данных на 27 марта
лекция по обработка данных на 27 марталекция по обработка данных на 27 марта
лекция по обработка данных на 27 марта
 
Введение в алгоритмы и структуры данных
Введение в алгоритмы и структуры данныхВведение в алгоритмы и структуры данных
Введение в алгоритмы и структуры данных
 
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...
УСЛОВНОЕ КОНТРОЛИРУЕМОЕ ФАЗОВОЕ ПРЕОБРАЗОВАНИЕ КВАНТОВЫХ СОСТОЯНИЙ ЭЛЕКТРОМАГ...
 
Распознавание лиц с помощью экстремального обучения нейронов
Распознавание лиц с помощьюэкстремального обучения нейроновРаспознавание лиц с помощьюэкстремального обучения нейронов
Распознавание лиц с помощью экстремального обучения нейронов
 

More from ivanov1566359955 (20)

7365
73657365
7365
 
7364
73647364
7364
 
7363
73637363
7363
 
7362
73627362
7362
 
7361
73617361
7361
 
7360
73607360
7360
 
7359
73597359
7359
 
7358
73587358
7358
 
7357
73577357
7357
 
7356
73567356
7356
 
7355
73557355
7355
 
7354
73547354
7354
 
7353
73537353
7353
 
7352
73527352
7352
 
7351
73517351
7351
 
7350
73507350
7350
 
7349
73497349
7349
 
7348
73487348
7348
 
7347
73477347
7347
 
7346
73467346
7346
 

284.прогноз ключевых параметров при помощи искусственных нейронных сетей

  • 1. 101№3 • март 2009 НЕФТЕГАЗОВЫЕ Т Е Х Н О Л О Г И И HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ ПРОГНОЗ КЛЮЧЕВЫХ ПАРАМЕТРОВ ПРИ ПОМОЩИ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ K. R. Ramakumar, НПЗ Гуджарарт, Indian Oil Corporation, Вадодара, Индия Искусственные нейронные сети (artificial neutral networks – ANN) служат мощным инструментом моделирования нелинейных процессов. Это процес- сы, протекающие в системах, параметры которых не подчиняются линейным отношениям между собой. Один из способов работы с такими сложными сис- темами – ANN. Обычно ANN используют для уста- новления соответствия между набором входных и выходных данных. ЗНАКОМСТВО С ОСНОВАМИ Получив входные данные (x1, x2,..., xn) и весо- вые коэффициенты, приписанные каждому потоку ((w1, w2, . . ., wn), нейрон, элемент NN, обрабаты- вает суммарный вход X1 w1 + x2w2 + ... + xn wn) и выдает выходные данные, руководствуясь задан- ной функции активации или передаточной функци- ей (рис.  1). Выходные данные, в свою очередь, мо- гут быть входными для следующего нейрона. Цикл продолжается, пока не будут получены ожидаемые выходные данные. Подобный цикл обработки ин- формации представлен на рис. 2. Самый распростра- ненный тип ANN состоит из трех групп (или слоев) элементов: слой «входных» элементов соединяется со слоем «скрытых» элементов, который, в свою оче- редь, соединяется со слоем «выходных» элементов. Скрытые элементы могут отобразить входные дан- ные по-своему. Весовые коэффициенты между вход- ными и скрытыми элементами определяют, будет ли активен каждый из скрытых элементов, поэтому, из- меняя эти коэффициенты, скрытый элемент может «выбрать», что ему отображать. Весовые коэффици- енты приписываются случайным образом (между 0 и 1) перед началом цикла упреждения. ЭТАПЫ ПОСТРОЕНИЯ МОДЕЛИ Определение параметров. • Определить входные данные (x1, x2, . . . , xn); входные нейроны = n. • Реальный выход = Y; Y = f(x1, x2, . . . , xn); вы- ходные нейроны = 1. • Определить количество скрытых слоев и коли- чество нейронов в каждом. • Определить весовые коэффициенты (w1,w2, . . . , wn).Обучение модели. • Запустить в прямую цепь результаты первого наблюдения с приписанными весовыми коэффици- ентами. • Модель прогнозирует выходные данные. • Ошибка = реальный выход – предсказанный вы- ход. • Настроить весовые коэффициенты так, чтобы свести ошибку к минимуму. • Запустить в прямую цепь результаты второго наблюдения и повторить предыдущие этапы. • Продолжать до последнего наблюдения. Первый цикл обучения завершен • Чтобы свести ошибку к минимуму может потре- боваться много таких циклов С учетом ошибки начинается обратное распро- странение сигнала по сети для обучения нейронов, настройки весовых коэффициентов и, в итоге, мини- мизации ошибки: E = У[(реальная величина)n — (предсказанная величина)n]2 . Настройка весовых коэффициентов осуществля- ется по методу градиентного спуска: y F W1 W2 WN XN X2 X1 Рис. 1. Базовая функциональная схема ANN Входные данные Нейрон Выходные данные Сумматор Функция активации Рис. 2. Простейшая нейронная сеть Входные Скрытые Выходные Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
  • 2. 102 НЕФТЕГАЗОВЫЕ Т Е Х Н О Л О Г И И№3 март • 2009 HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ W’ = W+ a (dE/dW), где W’ = новый масс-коэффициент, W = старый масс- коэффициент, б = параметр обучения (0 < б <1). Для более точной настройки масс-коэффициенты можно представить в следующем виде: W(n+1) = W(n) + б{dE/dW(n)} + в{W(n) – W(n-1)}, где в = момент (0 < в < 1). Пример 1. Прогнозирование температур вспышки. М.Р. Риаци и Т.Е. Дауберт предложили формулу для оценки температуры вспышки бензиновой фракции на основе температуры кипения для 10 %-ной фракции по ASTM. Формула была незначительно модифициро- вана, и для более точной оценки в формулу, предло- женную К.Р. Рамакумаром[1] подставили усредненное значение между IBP, ASTM 5 % и ASTM 10 %. Сетевая архитектура. Определение сетевых входов: Количество входных сигналов = 3 (IBP, 5 % и 10 %), количество выходных сигналов = 1 (температу- ра вспышки), количество скрытых слоев = 1 (состоя- щий из двух нейронов), начальный весовой коэффици- ент = 0,5 (случайно), параметр обучения = 0,5 (слу- чайно), момент = 0, количество наблюдений  = 39, количество циклов обучения = 500. В качестве проверочного набора решено было слу- чайным образом выбрать 10 % данных. На рис. 3–5 и в  табл. представлены среднеквадратические откло- нения и наблюдения. Результаты. После выполнения обучения и про- верки данных наблюдений, в сеть были введены ис- ходные данные: IBP, 5 % и 10 % и NN смогла точно предсказать температуру вспышки, как показано на рис. 6. Пример 2. Прогноз содержания O2 в отходящем газе. Для последующего использования в сетевой мо- Результаты наблюдений Вспышка (ожидание) Т (IBP) Т (5 %) Т (10 %) 49 198 252 267 49 200 245 265 45 160 180 187 40 150 168 178 45 160 180 188 46 162 180 188 43 162 177 183 43 158 180 188 44 163 179 186 46 160 180 187 44 153 164 170 42 149 161 167 39 140 156 170 45 155 168 171 44 153 164 169 45 157 163 166 39 134 156 175 45 156 165 170 37 136 160 175 45 152 162 168 40 135 155 168 46 155 161 170 39 136 155 172 45 158 164 166 41 143 163 171 42 141 161 170 42 143 162 175 44 152 160 165 40 148 165 174 39 148 160 170 46 153 164 169 45 152 167 170 49 164 182 193 40 150 162 175 48 153 168 175 49 176 190 214 49 164 183 192 48 160 170 175 49 165 180 190 IBP 5% 10% 0.000 0 100 200 300 400 500 600 2.000 4.000 6.000 8.000 10.000 12.000 0 100 200 300 400 500 600 0.000 5.000 10.000 15.000 20.000 Рис. 3. Структура модели ANN Входной слой (3) Кривая логической сигма-функции Скрытый слой (2) Выходной слой (1) Температура вспышки Рис. 4. Среднеквадратическое отклонение при обучении сети Период, итерации Среднеквадратическое отклонение Среднеквадратическое отклонение (исходный масштаб) Рис. 5. Среднеквадратическое отклонение при проверке Период, итерации Среднеквадратическое отклонение Среднеквадратическое отклонение (исходный масштаб) Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
  • 3. 103№3 • март 2009 НЕФТЕГАЗОВЫЕ Т Е Х Н О Л О Г И И HYDROCARBON PROCESSING: КОНТРОЛЬ И ИНФОРМАЦИОННЫЕ СИСТЕМЫ дели исследовалось влияние всех возможных пара- метров на содержание O2 в отходящем газе двухре- жимной печи: на жидком (ЖТ) и газообразном (ГТ) топливах. Число входных сигналов равно 7 (поток воздуха, давление воздуха, давление ЖТ, давление ГТ, тем- пература отходящего газа, температура на выходе из печи и расход вещества, поступающего в печь), число выходных сигналов равно 1 (содержание O2), число скрытых слоев равно 2 (состоящих из трех и двух нейронов), начальный весовой коэффициент потоков равен 0,5 (случайно), параметр обучения равен 0,5 (случайно), момент равен 0,5, число на- блюдений равно 1088, число циклов обучения рав- но 250. В качестве проверочного набора было решено случайным образом выбрать 10 % данных. Поскольку наблюдений было много, таблица с данными не при- водится. На рис. 7 и 8 представлены среднеквадрати- ческие отклонения. Результаты. Результаты оказались не очень точными – ошибка составила от +0,5 до +1,8 %. . Модель требовала дальнейшей корректировки. Приведенный пример просто показал, как сетевое моделирование может быть полезно в предсказании ключевых параметров. Однако, поскольку расход питающего потока в печи был практически постоянным, этот параметр исключили, после чего результаты работы сети стали лучше. Таким образом, в данном случае потребовалось оптимизация моделирования, которая заключалась в выборе исходных параметров, влияющих на желае- мый параметр или параметры. Что касается функции активации, то для предыдущих моделей была выбра- на логическая сигма-функция (ex /1+ex ). Перевел А. Локтионов СПИСОК ЛИТЕРАТУРЫ 1. Ramakumar, K. R., «Develop more accurate prediction of flash points», Hydrocarbon Processing, May 2008. K. R. Ramakumar (К. Р. Рамакумар) рабо- тает производственным инженером на установке гидрокрекинга НПЗ Гуджарат, Вадодара, Индия. Он окончил колледж с зо- лотой медалью по химическому машино- строению, затем окончил Национальный Технологический Университет им. Сардара Валлаббаби, Гуджарат с дипломом бакалавра. Г-н Рамакумар опублико- вал насколько работ по различным вопросам химического машиностроения. 30 35 40 45 50 HSD1 HSD2 HSD3 HSD4 HSD5 HSD6 0 50 100 150 200 250 300 0,000 0,020 0,040 0,060 0,080 0,100 0,120 0,140 0,000 0,050 0,100 0,150 0,200 0 50 100 150 200 250 300 0,00 2,00 4,00 6,00 8,00 1 2 3 4 5 6 7 8 Рис. 6. Сравнение температуры вспышки (ТВ) по прогнозам ANN с реальной (ТВ) Образцы ТВ,°С Результаты прогнозов ANN Реальная ТВ Предсказанная ТВ Рис. 7. Среднеквадратическое отклонение проверочного набора Период, итерации Среднеквадратическое отклонение Среднеквадратическое отклонение Рис. 8. Среднеквадратическое отклонение проверочного набора Период, итерации Среднеквадратическое отклонение Среднеквадратическое отклонение Рис. 9. Разница между предсказанными и реальными величи- нами Наблюдения СодержаниеО2 вотходящемгазе,% Разница между предсказанными и реальными величинами Предсказанное Реальное Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»