SlideShare a Scribd company logo
1 of 41
Казанский государственный технический университет им. А.Н. Туполева
Факультет технической кибернетики и информатики
Направление 210200 «Проектирование и технология электронных средств»
Дисциплина «Информационные технологии электромагнитной совместимости ЭС»

Лекция №32 «Прогнозирование электромагнитного
излучения от электронных средств искусственными
нейронными сетями и методика прогнозирования
ЭМИ от межсоединений печатных плат»
Автор - Чермошенцев С.Ф.

Казань 2008
Прогнозирование электромагнитного излучения от
электронных средств искусственными нейронными сетями
и методика прогнозирования ЭМИ от межсоединений
печатных плат

1.Свойства биологических нейросетей.
2.Искусственная нейронная сеть.
3.Прогнозирование ЭМИ с использованием искусственной нейронной сети.
4.Примеры прогнозирования ЭМИ от одиночного проводника на двусторонней
печатной плате (пример №1)
5.Пример прогнозирования ЭМИ от печатной платы с 10 проводниками (пример
№2).
6.Методика прогнозирования ЭМИ от межсоединений печатных плат цифровых
ЭС.
7.Результаты применения методики прогнозирования ЭМИ от межсоединений
печатных плат цифровых ЭС.
1. Свойства биологических нейросетей.

Термин «нейронные сети» сформировался в 40-х годах XX века в среде
исследователей, изучавших принципы организации и функционирования биологических
нейронных сетей.
Искусственные нейронные сети (ИНС) — совокупность моделей биологических
нейронных сетей [29]. ИНС представляют собой сеть элементов — искусственных
нейронов

—

связанных

между

собой

синаптическими

соединениями.

Сеть

обрабатывает входную информацию и в процессе изменения своего состояния во
времени формирует совокупность выходных сигналов. Работа сети состоит в
преобразовании входных сигналов во времени, в результате чего меняется внутреннее
состояние сети и формируются выходные воздействия. Обычно ИНС оперирует
цифровыми, а не символьными величинами.
Важнейшие свойства биологических нейросетей:
1.Параллельность обработки информации. Каждый нейрон формирует свой выход
только на основе своих входов и собственного внутреннего состояния под воздействием
общих механизмов регуляции нервной системы.
2.Способность к полной обработке информации. Все известные человеку задачи
решаются нейронными сетями. К этой группе свойств относятся ассоциативность (сеть
может восстанавливать полный образ по его части), способность к классификации,
обобщению,
абстрагированию и множество других. Они до конца
не
систематизированы.
3.Самоорганизация. В процессе работы биологические нейронные сети
самостоятельно,
под
воздействием
внешней
среды,
обучаются
решению
разнообразных задач. Неизвестно никаких принципиальных ограничений на сложность
задач, решаемых биологическими нейронными сетями. Нервная система сама
формирует алгоритмы своей деятельности, уточняя и усложняя их в течение жизни.
4.Биологические нейронные сети являются аналоговыми системами. Информация
поступает в сеть по большому количеству каналов и кодируется по пространственному
принципу: вид информации определяется номером нервного волокна, по которому она
передается. Амплитуда входного воздействия кодируется плотностью нервных
импульсов, передаваемых по волокну.
5.Надежность. Биологические нейронные сети обладают фантастической
надежностью: выход из строя даже 10% нейронов в нервной системе не прерывает ее
работы. По сравнению с последовательными ЭВМ, основанными на принципах фонНеймана, где сбой одной ячейки памяти или одного узла в аппаратуре приводит к краху
системы.
Нейронные сети превосходят последовательные машины в решении тех же задач, в
которых

машину

превосходит

человек.

Задачи,

требующие

большого

объема

вычислений или высокой точности лучше выполняются обычной ЭВМ.
К задачам, успешно решаемым нейронными сетями на данном этапе их развития
относятся: распознавание зрительных и слуховых образов; ассоциативный поиск
информации и создание ассоциативных моделей; формирование моделей и различных
нелинейных и трудно описываемых математически систем, прогнозирование развития
этих систем во времени; применение на производстве; прогнозирование развития
циклонов и других природных процессов, прогнозирование изменений курсов валют и
других финансовых процессов; системы управления и регулирования с предсказанием;
управление роботами, другими сложными устройствами.
Уникальное свойство нейросетей — универсальность. Хотя почти для всех
перечисленных задач существуют эффективные математические методы решения и
несмотря на то, что нейронные сети проигрывают специализированным методам для
конкретных задач, благодаря универсальности и перспективности для решения
глобальных задач, например, построения искусственного интеллекта и моделирования
процесса мышления, они являются важным направлением исследования, требующим
тщательного изучения.
Биологический нейрон — сложная система, математическая модель которого до
сих пор полностью не построена. Введено множество моделей, различающихся
вычислительной сложностью и сходством с реальным нейроном. Одна из важнейших —
формальный нейрон (рис. 5.16). Несмотря на простоту формального нейрона, сети,
построенные из них, могут сформировать произвольную многомерную функцию на
выходе.

Рис. 5.16. Формальный нейрон
Нейрон

состоит

из

взвешенного

сумматора

и

нелинейного

элемента.

Функционирование нейро-на определяется формулами:

(5.27)
где xi — входные сигналы, совокупность всех входных сигналов нейрона образует
вектор х;
wi, — весовые коэффициенты, совокупность весовых коэффициентов образует
вектор весов w;
NET — взвешенная сумма входных сигналов, значение NET передается на
нелинейный элемент;
Θ — пороговый уровень данного нейрона;
F — нелинейная функция, называемая функцией активации.
Нейрон имеет несколько входных сигналов х и один выходной сигнал OUT.
Параметрами нейрона, определяющими его работу, являются: вектор весов w,
пороговый уровень q и вид функции активации F.
В общем случае, нейрон — это составная часть нейронной сети. На рис. 5.17
показана его структура.

Рис. 5.17 Структура искусственного нейрона
В состав нейрона входят умножители (синапсы), сумматор и нелинейный
преобразователь. Синапсы осуществляют связь между нейронами и умножают входной
сигнал на число, характеризующее силу связи, — вес синапса. Сумматор выполняет
сложение сигналов, поступающих по синаптическим связям от других нейронов, и
внешних входных сигналов.
Нелинейный преобразователь реализует нелинейную функцию одного аргумента —
выхода сумматора. Эта функция называется «функция активации» или «передаточная
функция» нейрона. Нейрон в целом реализует скалярную функцию векторного
аргумента. Математическая модель нейрона описывается соотношением:

(5.28)

где Wi — вес синапса (i = 1,...,n); b — значение смещения; s — результат
суммирования; xi- — компонента входного вектора (входной сигнал) (i=1,...,n); у —
выходной сигнал нейрона; n — число входов нейрона; f — нелинейное преобразование
(функция активации или передаточная функция).
В общем случае входной сигнал, весовые коэффициенты и значения смещения могут
принимать действительные значения. Выход (у) определяется видом функции
активации и может быть как действительным, так и целым. Во многих практических
задачах входы, веса и смещения могут принимать лишь некоторые фиксированные
значения.
Таким образом, нейрон полностью описывается своими весами Wi и передаточной
функцией f(s). Получив набор чисел (вектор) Xi в качестве входов, нейрон выдает
некоторое число у на выходе.
Описанный вычислительный элемент можно считать упрощенной математической
моделью биологических нейронов — клеток, из которых состоит нервная система
человека и животных.
Чтобы подчеркнуть различие нейронов биологических и математических, вторые
иногда называют нейроноподобными элементами или формальными нейронами.
2. Искусственная нейронная сеть.

Искусственная нейронная сеть [29] — это набор нейронов, соединенных между
собой. Как правило, передаточные (активационные) функции всех нейронов в сети
фиксированы, а веса являются параметрами сети и могут изменяться. Некоторые
входы нейронов помечены как внешние входы сети, а некоторые выходы — как
внешние выходы сети. Подавая любые числа на входы сети, мы получаем какой-то
набор чисел на выходах сети. Таким образом, работа нейросети состоит в
преобразовании входного вектора X в выходной вектор Y, причем это преобразование
задается весами сети. Практически любую задачу можно свести к задаче, решаемой
нейросетью.
Существует ряд ограничений на использование модели нейрона [29]:
Вычисления выхода нейрона предполагаются мгновенными, не вносящими
задержки.

Непосредственно

моделировать

динамические

системы,

имеющие

"внутреннее состояние", с помощью таких нейронов нельзя.
В модели отсутствуют нервные импульсы. Нет модуляции уровня сигнала
плотностью импульсов, как в нервной системе. Не появляются эффекты синхронизации,
когда скопления нейронов обрабатывают информацию синхронно, под управлением
периодических волн возбуждения-торможения.
Нет четких алгоритмов для выбора функции активации.
Нет механизмов, регулирующих работу сети в целом (пример - гормональная
регуляция активности в биологических нервных сетях).
Чрезмерная формализация понятий: "порог", "весовые коэффициенты". В реальных
нейронах нет числового порога, он динамически меняется в зависимости от активности
нейрона и общего состояния сети. Весовые коэффициенты синапсов тоже не
постоянны. "Живые" синапсы обладают пластичностью и стабильностью: весовые
коэффициенты настраиваются в зависимости от сигналов, проходящих через синапс.
Модель формального нейрона не является биоподобной и скорее похожа на
математическую абстракцию, чем на живой нейрон. Тем удивительнее оказывается
многообразие задач, решаемых с помощью таких нейронов и универсальность
получаемых алгоритмов.
Формальные нейроны могут объединяться в сети различным образом. Самым
распространенным видом сети стал многослойный перцептрон (рис. 5.18).

Рис. 5.18 Многослойный персептрон

Сеть состоит из произвольного количества слоев нейронов. Нейроны каждого слоя
соединяются с нейронами предыдущего и последующего слоев по принципу "каждый с
каждым". Первый слой (слева) называется сенсорным или входным, внутренние слои
называются скрытыми или ассоциативными, последний (самый правый, на рисунке
состоит из одного нейрона) — выходным или результативным. Количество нейронов в
слоях может быть произвольным. Обычно во всех скрытых слоях одинаковое
количество нейронов.
Обозначим количество слоев и нейронов в слое. Входной слой: NI нейронов; NH
нейронов в каждом скрытом слое; NO выходных нейронов, х — вектор входных сигналы
сети, у - вектор выходных сигналов.
Существует путаница с подсчетом количества слоев в сети. Входной слой не
выполняет никаких вычислений, а лишь распределяет входные сигналы, поэтому иногда
его считают, иногда — нет. Обозначим через NL полное количество слоев в сети, считая
входной.

Работа многослойного перцептрона описывается формулами:

(5.29)

где индексом i всегда будем обозначать номер входа, j — номер нейрона в слое, l —
номер слоя.
Хijl, — i-и входной сигнал j-го нейрона в слое l;
Wijl, — весовой коэффициент i-го входа нейрона номеру в слое l;
NETjl, — сигнал NET j-го нейрона в слое l;
OUTjl — выходной сигнал нейрона;
θjl— пороговый уровень нейрона j в слое l;
Введем обозначения: wil — вектор-столбец весов для всех входов нейрона j в слое l;
Wl —матрица весов всех нейронов в слоя l. В столбцах матрицы расположены вектора
wjl. Аналогично xjl — входной вектор-столбец слоя l.
Каждый слой рассчитывает нелинейное преобразование от линейной комбинации
сигналов предыдущего слоя. Отсюда видно, что линейная функция активации может
применяться только для тех моделей сетей, где не требуется последовательное
соединение слоев нейронов друг за другом. Для многослойных сетей функция
активации

должна

быть

нелинейной,

иначе

можно

построить

эквивалентную

однослойную сеть, и многослойность оказывается ненужной. Если применена линейная
функция активации, то каждый слой будет давать на выходе линейную комбинацию
входов. Следующий слой даст линейную комбинацию выходов предыдущего, а это
эквивалентно одной линейной комбинации с другими коэффициентами, и может быть
реализовано в виде одного слоя нейронов.
Многослойная сеть может формировать на выходе произвольную многомерную
функцию при соответствующем выборе количества слоев, диапазона изменения
сигналов и параметров нейронов. Как и ряды, многослойные сети оказываются
универсальным инструментом аппроксимации функций.
Рассмотрим более подробно такой вид ИНС, как обобщенно-регрессионная
нейронная сеть (generalized regression neural network, GRNN). Для данной сети в точке
расположения каждого обучающего наблюдения помещается гауссова ядерная
функция. Считается, что каждое наблюдение свидетельствует о некоторой уверенности
наблюдателя в том, что поверхность отклика в данной точке имеет определенную
высоту, и эта уверенность убывает при отходе в сторону от точки. GRNN-сеть копирует
внутрь себя все обучающие наблюдения и использует их для оценки отклика в
произвольной точке. Окончательная выходная оценка сети получается как взвешенное
среднее выходов по всем обучающим наблюдениям:

(5.30)

где Xk, yk — точки обучающей выборки.
Первый промежуточный слой сети GRNN состоит из радиальных элементов. Второй
промежуточный слой содержит элементы, которые помогают оценить взвешенное
среднее.
Каждый выход имеет в этом слое свой элемент, формирующий для него взвешенную
сумму. Чтобы получить из взвешенной суммы взвешенное среднее, эту сумму нужно
поделить

на

сумму

весовых

коэффициентов.

Последнюю

сумму

вычисляет

специальный элемент второго слоя. После этого в выходном слое производится
собственно деление (с помощью специальных элементов «деления»). Таким образом,
число элементов во втором промежуточном слое на единицу больше, чем в выходном
слое. Как правило, в задачах регрессии требуется оценить одно выходное значение, и,
соответственно, второй промежуточный слой содержит два элемента.
Можно модифицировать GRNN-сеть таким образом, чтобы радиальные элементы
соответствовали не отдельным обучающим случаям, а их кластерам. Это уменьшает
размеры сети и увеличивает скорость обучения. Центры для таких элементов можно
выбирать с помощью любого предназначенного для этой цели алгоритма (выборки из
выборки, K-средних или Кохонена).
Достоинства и недостатки у сетей GRNN в основном таковы:
GRNN-сеть обучается почти мгновенно, но может получиться большой и медленной
(хоть здесь, в отличие от ИНС другого типа, и не обязательно иметь по одному
радиальному элементу на каждый обучающий пример, но их число все равно будет
большим).
сеть GRNN не обладает способностью экстраполировать данные.
Архитектура сети показана на рис. 5.19.

Рис. 5.19 Элемент GRNN-сети
где: R – число элементов входного вектора
Q – соответственно число нейронов первого слоя, второго слоя, число
обучающих пар
ail – i-й элемент вектора al
iIW1,1 – вектор, состоящий из i-го ряда IW1,1
Сеть состоит из радиально-базисного слоя и специального линейного слоя. Здесь на
вход радиально-базисной (radbas) передаточной функции подается вектор смещения
между вектором весов W и входным вектором P, помноженный на вектор смещения b.
(Блок ||dist|| на рис. 5.19 получает входной вектор p и один ряд матрицы весов IW11 и
рассчитывает их скалярное произведение).
Передаточная функция нейрона следующая:

radbas (n) = e

−n2

Ниже представлен график передаточной функции
radbas:

Рис. 5.20 Радиально-базисная
функция

(5.31)
Радиально-базисная функция имеет максимум в единице, когда n=0. По мере того,
как разница между w и p уменьшается, значение функции растет. Таким образом
радиально-базисный нейрон выступает в качестве детектора, который образует 1, когда
вектор входных элементов p идентичен вектору своих весов w. Смещение b radbas
нейрона позволяет увеличить его чувствительность. Вектор смещений b1 и результат
выполнения функции ||dist|| почленно перемножаются с помощью оператора (.*). В
первом слое сети число нейронов равно числу входных/целевых векторов в P. Веса
первого слоя устанавливаются равными транспонированной матрице P. Вектор
смещения b1 – вектор столбец равный 0,8326/(диапазон отклонения).
Чтобы понять, как работает сеть, проследим за движением входного вектора p через
всю сеть. Если мы подадим данный вектор на вход сети, каждый нейрон радиальнобазисного слоя выдаст значение в соответствии с тем, насколько близок входной вектор
вектору весов каждого нейрона. Таким образом радиально-базисные нейроны с
векторами весов, достаточно близкими входному вектору p, имеют на выходе значения,
близкие нулю. Эти небольшие значения оказывают незначительное влияние на
выходной линейный слой нейронов. И наоборот, радиально-базисные нейроны, вектор
весов которых достаточно близок вектору p, имеют на выходе значения, близкие
единице. Если нейрон имеет на выходе 1, его выходные веса передают свое значение
линейным нейронам второго слоя. Реально только один радиально-базисный нейрон
имеет на выходе 1, а все остальные – 0 (или близки 0).
Рассмотрим детально, как работает первый слой. Взвешенный вход каждого нейрона
представляет собой разницу между входным вектором и его весовым вектором,
рассчитанной с помощью функции dist. Сетевой вход каждого нейрона – это результат
поэлементного умножения с помощью функции netprod его взвешенных входов и его
смещения. Выход нейрона – это результат преобразования его сетевого входа с
помощью функции radbas. Если весовой вектор нейрона равен его входному вектору
(транспонированному), его весовой вход равен 0, сетевой вход, равен нулю, выход – 1.
Если вектор весов нейрона лежит в пределах диапазона отклонения от входного
вектора, его взвешенный вход равен диапазону отклонения, сетевой вход равен sqrt(log(.5)) (или 0,8326), таким образом, на выходе – 0,5. Пользователь сам выбирает
диапазон отклонения.
Во втором слое число нейронов также равно числу входных/целевых векторов, но
здесь веса LW{2,1} устанавливаются равными T.
Допустим, на вход подается вектор p, близкий вектору pi, одному из входных
векторов среди пар входных векторов/уставок, использованных при создании весов
первого слоя. Тогда выход первого слоя ai становится близким единице. В связи с этим
выход второго слоя будет близок ti, одной из целевых уставок, использованных при
создании весов второго слоя.
Больший диапазон отклонения ведет к увеличению области вокруг входного вектора,
где нейроны первого слоя будут давать значащий результат. Таким образом если
используется небольшой диапазон отклонения, то радиально-базисная функция будет
очень крутой, так что нейроны с вектором весов, близким ко входному, будут иметь
значительно больший выход, чем остальные нейроны. Сеть будет склонна отвечать
выходным вектором, ассоциированным с ближайшим уставочным входным вектором.
По мере увеличения отклонения радиально-базисная функция становится более
гладкой и уже несколько нейронов может отвечать входному вектору. Тогда сеть
выбирает средневзвешенное значение между целевыми векторами, чьи входные
вектора наиболее близки новому поданному входному вектору. Чем больше растет
отклонение, тем больше и больше нейронов участвуют в среднем, и в результате
функция сети становится более гладкой.
3. Прогнозирование ЭМИ с использованием искусственной
нейронной сети

Прогнозирование ЭМИ с использованием ИНС проводилось в пакете Neural
Networks Toolbox среды MatLab 7.0.
Пакет Neural Networks Toolbox (нейронные сети) содержит средства для
проектирования, моделирования, обучения и использования множества известных
парадигм аппарата искусственных нейронных сетей, от базовых моделей персептрона
до самых современных ассоциативных и самоорганизующихся сетей [55]. Пакет может
быть использован для решения множества разнообразных задач, таких как обработка
сигналов, нелинейное управление, финансовое моделирование и т. п.
Для каждого типа архитектуры и обучающего алгоритма ИНС имеются функции
инициализации, обучения, адаптации, создания и моделирования, демонстрации и
примеры применения.
В состав пакета Neural Networks входят более 150 различных функций, образуя
собой своеобразный макроязык программирования и позволяя пользователю
создавать, обучать и использовать самые различные НС.
Для целей нашей задачи будем использовать GRNN-сети, как простые быстрые
сети для интерполяции данных.
4. Примеры прогнозирования ЭМИ от одиночного
проводника на двусторонней печатной плате (пример
№1)

Пример№1. Для примера рассматривался одиночный проводник на двусторонней
печатной плате. Нижний слой – слой земли. Проводник имеет размеры 82х2 мм,
печатная плата – 100х60х1,3 мм, диэлектрическая проницаемость 4,5. Проводник имеет
источник напряжения частотой 500 МГц и нагружен на резистивную нагрузку 50 Ом.
Промоделируем данную структуру в среде HFSS 9.0. Расчет электромагнитного поля
будем

проводить

в

объеме

2х2х2

м.

Чтобы

промоделировать

распространяющееся поле, окружим данный объем PML-слоем.

бесконечно
Рис. 5.21 Модель печатной платы с одиночным проводником в HFSS 9.0
Моделирование было произведено за 5
итераций:

Рис. 5.22. График сходимости модели
Модель была построена при помощи 377400 тетраэдров за 41 час реального
времени.
Чтобы построить ИНС, необходимо получить множество случайных точек в данном
объеме и значения напряженности электрического поля в них. Множества нормально
распределенных случайных точек легко получить с помощью Matlab 7.0. Значения поля
в данных точках рассчитываем при помощи функции Export подпрограммы Field
Calculator среды HFSS 9.0. Итак мы получили обучающие наборы для создания ИНС.
Чтобы проанализировать зависимость точности работы сети от числа обучающих
значений, было создано 7 выборок размером 100, 250, 500, 1000, 5000, 10000 точек
соответственно. Чтобы оценить точность работы нейронной сети, создадим тестовую
выборку размером 100 точек. Для каждой из 7 созданных сетей оценим среднюю
погрешность для каждой из точек и среднюю погрешность для всех точек выборки:

−E
HFSS ИНС ; i =1,n
δi =
E
HFSS
E

δ ср =

δi
n

; i =1,n

(5.32)

(5.33)
Зависимость средней в выборке погрешности интерполяции значения поля от числа
точек в обучающей выборке приведена в таб. 16.
Таблица 16
Зависимость погрешности интерполяции от числа точек

N

δср

100

0,1659

250

0,2325

500

0,1236

1000

0,0384

5000

0,0293

10000

0,0232

Как видно из графика на рис. 5.23 средняя погрешность в основном падает с ростом
числа точек в обучающей выборке.
25

Отн.
погрешность

20

15

10
5

0

100

250

500

1000

5000

10000

Количеств о точек наблюдения

Рис. 5.23. Зависимость точности прогнозирования от объема
выборки.
Также

для

более

детальной

оценки

работы

сети

приведем

результаты

прогнозирования ЭМИ и погрешности интерполяции:
E, В/м
0,1
0,08
0,06
0,04
0,02
0
1

EHFSS

EИНС

N
10

19

28

37

46

55

64

73

82

91

100

Рис. 5.24. Сравнительные результаты прогнозирования ЭМИ с помощью ЭСАПР и
ИНС.
Таким образом, было проведено прогнозирования значения электромагнитного поля
от одиночно проводника на печатной плате. Было показано, что нейронные сети
способны прогнозировать значения электрического поля в заданном объеме с
достаточной точностью. При этом точность прогнозирования растет с увеличением
числа точек в обучающей выборке.
5. Пример прогнозирования ЭМИ от печатной платы с 10
проводниками (пример №2).

Рассмотрим задачу более близкую к реальным задачам оценки ЭМС печатных
плат. Рассмотрим печатную плату тех же габаритов, что и в предыдущем примере, но с
10 проводниками произвольной конфигурации. Проводники также имеют нагрузку 50 Ом
и источник частотой 500 МГц.
Промоделируем данную структуру в HFSS 9.0 (рис. 5.25). Будем рассматривать
также объем 2х2х2 м вокруг печатной платы.
Рис.5.25. Модель печатной платы с 10 проводниками в HFSS
9.0
Моделирование было произведено за 4
итерации:

Рис. 5.26 График сходимости модели
Модель была построена при помощи 368029 тетраэдров за 160 часов реального
времени.
Найдем значения напряженности электрического поля данной структуры в тех же
точках что и в предыдущем примере. На полученных обучающих выборках построим
нейронные сети. Далее произведем анализ построенных сетей при помощи тестовой
выборки и оценим погрешность прогнозирования поля нейронной сетью.
Таблица 17
Зависимость погрешности интерполяции от числа точек

N

δср

100

0,3335

250

0,149

500

0,1662

1000

0,095

5000

0,0519

10000

0,0196
0,4
0,35

Отн.
погрешность

0,3
0,25
0,2
0,15
0,1
0,05
0
100

250

500

1000

5000

10000

Количество точек наблюдения

Рис. 5.27. Зависимость точности прогнозирования от объема выборки.
Также для более детальной оценки работы сети приведем результаты
прогнозирования ЭМИ и погрешности интерполяции:
EHFSS

E, В/м

EИНС

0,06
0,05
0,04
0,03
0,02
0,01
0

N
1

10

19

28

37

46

55

64

73

82

91

100

Рис. 5.28. Сравнительные результаты прогнозирования ЭМИ с помощью ЭСАПР и ИНС
Таким образом, на основании вышеприведенных результатов можно сделать вывод о
допустимости применения ИНС в задачах прогнозирования ЭМИ от ЭС.
Следует отметить, что в отечественной практике проектирования ЭС практически не
применяются программные методы расчета характеристик ЭМС (и ЭМИ в том числе),
крайне редко используются специализированные средства контроля характеристик
ЭМС (помехоэмиссии и помехоустойчивости) в процессе проектирования. Для
большинства разработчиков и изготовителей ЭС характерно стремление исключить
испытания для проверки характеристик ЭМС из производственного процесса, что
мотивируется необходимостью экономии средств [49]. Однако даже если разработчик
ЭС желает исследовать свое изделие на ЭМИ, он сталкивается с отсутствием методики
прогнозирования ЭМИ от ЭС.
6. Методика прогнозирования ЭМИ от межсоединений
печатных плат цифровых ЭС.

Исследования ЭМИ от межсоединений печатных плат электронных средств [19]
показывают необходимость создания методики прогнозирования данного явления, причем
данная методика должна применяться на этапе проектирования ЭС как в целом, так и на
этапе проектирования ПП ЭС [3].
Ниже приведем методику прогнозирования ЭМИ от межсоединений ПП ЭС (рис.
5.29):
I.В данном пункте определяются исходные данные для проектирования ПП: тип и
конструкция ПП (одно-, двух- или многослойная); тип применяемой элементной базы;
Помимо этого следует учитывать, что при прогнозировании ЭМИ с учетом аспекта защиты
информации необходимо исследовать лишь потенциально информативные излучатели.
Исходные данные также должны включать условия работы проектируемого ЭС.
II.На этом этапе исследователь должен определить: все ли параметры (например,
параметры межсоединений и их конфигурация, параметры ПП) объекта исследования
известны?
III.Если известны все параметры объекта исследования, то осуществляется
определение критического набора сигналов, для чего применяются методы логического
программирования с использованием системы логического программирования Visual
Prolog (см. раздел 2).
IV.Данный этап выполняется в том случае, если неизвестны все параметры
исследуемого объекта; однако в распоряжении исследователя имеется измерительная
аппаратура. Требования к средствам измерений приводятся в ГОСТ Р 51319-99
«Совместимость технических средств электромагнитная. Приборы для измерения
индустриальных радиопомех. Технические требования и методы испытаний». Точки
измерения могут быть расположены произвольно.
V.Выбор метода (аналитический или численный) осуществляется в зависимости от
структуры объекта исследования и от требуемой точности решения задачи. На выбор
метода оказывают влияние, например, такие факторы, как: необходимость учета формы
поперечного сечения межсоединения; взаимное расположение проводников; количество
слоев ПП и учет их электрофизических параметров и т.д.
VI.После проведения измерений ЭМИ осуществляется поиск эквивалентного набора
элементарных излучателей генетическим алгоритмом. По окончании поиска возможно
прогнозирование ЭМИ в точках, расположенных за пределами помещения, в котором
проводились измерения .
VII.В

случае

выбора

аналитического

метода

осуществляется

представление

печатных проводников диполями Герца. Задача прогнозирования ЭМИ в этом случае
сводится к решению интеграла Зоммерфельда, для решения которого применяется
метод седловой точки.
VIII.В случае сложной конфигурации проводников, неидеального слоя земли
применяется МКЭ с идеальным согласованным слоем в качестве граничного условия.
Пакетом электромагнитного моделирования, использующим МКЭ и пригодным для
использования в методике прогнозирования ЭМИ, является HFSS. Для ускорения
получения данных о величине создаваемого ЭМИ можно использовать ИНС.
IX.На

данном

этапе

производится

сравнение

полученных

результатов

с

требованиями Заказчика. В качестве таких требований могут выступать ограничения по:
ГОСТ 12.1.002-84, ГОСТ 12.1.006-84, ГОСТ 12.1.045-84; ГОСТ Р 51318.22-99; СанПиН
2.2.4/2.1.8.055-96, СанПиН 2.2.2.542-96 и т.д..
В случае удовлетворения требованиям норм изделие отправляется на изготовление
и

последующую

эксплуатацию.

В

случае

же

несоответствия

нормам должны

приниматься такие меры, как: изменение конструкции ПП (увеличение числа слоев,
изменение материала ПП); изменение конструкции ЭС (добавление экранов на
определенные ПП, изменение положения ПП в ЭС); изменение принципиальной схемы
ЭС. После проведения данных мер для проверки их эффективности необходимо
повторное использование методики.
I. Определение исходных
данных для
прогнозирования ЭМИ

II. Известны все
параметры объекта
исследования

да

IV. Определение
напряженности поля
исследуемого объекта

III. Определение
критического набора
сигналов

аналит
.

VII. Представление
проводников диполями
Герца. Решение
интеграла Зоммерфельда

VI. Поиск
эквивалентного набора
диполей, определение
ЭМИ в заданной точке

числ
.

V. Выбор метода
исследования

нет

VIII. Решение
уравнения Гельмгольца
методом конечных
элементов

IX. Анализ полученных
результатов и сравнение с
требованиями норм

X. Проверка
выполнения
требования норм
да
XV. Выход

нет

XI. Изменение
топологии
межсоединений
XII. Изменение
конструкции
печатной платы
XIII. Изменение
конструкции ЭС
XIV. Изменение
принципиальной
схемы ЭС
7. Результаты применения методики прогнозирования
ЭМИ от межсоединений печатных плат цифровых
ЭС.

В табл. 18 сведены отдельные результаты применения данной методики.
Таблица 18
Результаты применения разработанной методики
№

Объект

Расстояние,
частота

Е, дБмкВ/м

1

Двусторонняя плата, 10 проводников

2м, 500МГц

92

2

Двусторонняя плата, 7 проводников

5м, 400МГц

17

3

4-хслойная ПП (2 сигнальных)

3м, 1000 МГц

32

4

Двусторонняя плата, 1 проводник

3м, 350 МГц

15

5

Двусторонняя плата, 4 проводника, переход со слоя на слой

3м, 700 МГц

62

6

Плата со сплошным слоем земли

1м, 700 МГц

84

7

Плата с вырезом в слое земли

1м, 700 МГц

108

Таким образом, разработанная методика прогнозирования ЭМИ от межсоединений
печатных плат ЭС позволяет осуществлять прогнозирование ЭМИ для многослойных
печатных плат с произвольной конфигурацией сигнальных проводников и сложной
геометрией потенциальных слоев.
Контрольные вопросы:

1.Назовите основные свойства искусственных нейронных сетей?
2.Назовите основные достоинства и недостатки ИНС, использующихся при
прогнозировании ЭМИ от ЭС.
3.Поясните смысл термина «формальный нейрон»?
4.Объясните структуру искусственного нейрона?
5.Поясните смысл термина «искусственная нейронная сеть»?
6.Назовите достоинства и недостатки обобщенно-регрессионной нейронной сети?
7.Приведите передаточную функцию нейрона?
8.Поясните пример решения задачи ЭМИ от проводников печатной платы с помощью
искусственных нейронных сетей?
9.Поясните цель и преимущества методики прогнозирования ЭМИ от межсоединений
печатных плат?
10.Назовите основные этапы методики прогнозирования ЭМИ от межсоединений
печатных плат электронных средств.

More Related Content

Similar to лекция 32

Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptAleksandrGozhyj
 
Нейрокомпьютеры и нейросети
Нейрокомпьютеры и нейросетиНейрокомпьютеры и нейросети
Нейрокомпьютеры и нейросетиrefasw
 
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...ITMO University
 
исследования возможностей нейронных сетей в задачах медицинской диагностики
исследования возможностей нейронных сетей в задачах медицинской диагностикиисследования возможностей нейронных сетей в задачах медицинской диагностики
исследования возможностей нейронных сетей в задачах медицинской диагностикиLelya321
 
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Natalia Polkovnikova
 
Анализ структуры магистральных электросетей методами теории сложных сетей
Анализ структуры магистральных электросетей  методами теории сложных сетейАнализ структуры магистральных электросетей  методами теории сложных сетей
Анализ структуры магистральных электросетей методами теории сложных сетейСергей Макрушин
 
284.прогноз ключевых параметров при помощи искусственных нейронных сетей
284.прогноз ключевых параметров при помощи искусственных нейронных сетей284.прогноз ключевых параметров при помощи искусственных нейронных сетей
284.прогноз ключевых параметров при помощи искусственных нейронных сетейivanov1566359955
 
Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей" Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей" Technosphere1
 
Тестирование Нейронных сетей
Тестирование Нейронных сетейТестирование Нейронных сетей
Тестирование Нейронных сетейSQALab
 
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...Semen Martynov
 
нейронная сеть кохонена
нейронная сеть кохоненанейронная сеть кохонена
нейронная сеть кохоненаbu33ard
 
Введение в архитектуры нейронных сетей / HighLoad++ 2016
Введение в архитектуры нейронных сетей / HighLoad++ 2016Введение в архитектуры нейронных сетей / HighLoad++ 2016
Введение в архитектуры нейронных сетей / HighLoad++ 2016Grigory Sapunov
 
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)Ontico
 

Similar to лекция 32 (20)

0907.0229
0907.02290907.0229
0907.0229
 
37359 (1).pptx
37359 (1).pptx37359 (1).pptx
37359 (1).pptx
 
Многослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.pptМногослойній перцептрон- АОРО.ppt
Многослойній перцептрон- АОРО.ppt
 
Нейрокомпьютеры и нейросети
Нейрокомпьютеры и нейросетиНейрокомпьютеры и нейросети
Нейрокомпьютеры и нейросети
 
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
РЕАЛИЗАЦИЯ РАДИАЛЬНО-БАЗИСНОЙ НЕЙРОННОЙ СЕТИ НА МАССИВНО-ПАРАЛЛЕЛЬНОЙ АРХИТЕК...
 
исследования возможностей нейронных сетей в задачах медицинской диагностики
исследования возможностей нейронных сетей в задачах медицинской диагностикиисследования возможностей нейронных сетей в задачах медицинской диагностики
исследования возможностей нейронных сетей в задачах медицинской диагностики
 
Нейросети
НейросетиНейросети
Нейросети
 
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
Нейросетевые технологии, нечёткая кластеризация и генетические алгоритмы в эк...
 
Анализ структуры магистральных электросетей методами теории сложных сетей
Анализ структуры магистральных электросетей  методами теории сложных сетейАнализ структуры магистральных электросетей  методами теории сложных сетей
Анализ структуры магистральных электросетей методами теории сложных сетей
 
284.прогноз ключевых параметров при помощи искусственных нейронных сетей
284.прогноз ключевых параметров при помощи искусственных нейронных сетей284.прогноз ключевых параметров при помощи искусственных нейронных сетей
284.прогноз ключевых параметров при помощи искусственных нейронных сетей
 
Лекция 1
Лекция 1Лекция 1
Лекция 1
 
лекция 1
лекция 1лекция 1
лекция 1
 
Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей" Лекция №11 "Основы нейронных сетей"
Лекция №11 "Основы нейронных сетей"
 
Моделирование поведения сложных динамических систем
Моделирование поведения сложных динамических системМоделирование поведения сложных динамических систем
Моделирование поведения сложных динамических систем
 
Тестирование Нейронных сетей
Тестирование Нейронных сетейТестирование Нейронных сетей
Тестирование Нейронных сетей
 
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...
Задача выделения объекта на изображении: хаотично-фазовая синхронизация и аси...
 
нейронная сеть кохонена
нейронная сеть кохоненанейронная сеть кохонена
нейронная сеть кохонена
 
Введение в архитектуры нейронных сетей / HighLoad++ 2016
Введение в архитектуры нейронных сетей / HighLoad++ 2016Введение в архитектуры нейронных сетей / HighLoad++ 2016
Введение в архитектуры нейронных сетей / HighLoad++ 2016
 
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
Введение в архитектуры нейронных сетей / Григорий Сапунов (Intento)
 
Mod Film
Mod FilmMod Film
Mod Film
 

More from student_kai

презентация
презентацияпрезентация
презентацияstudent_kai
 
презентации продолжение банкета
презентации продолжение банкетапрезентации продолжение банкета
презентации продолжение банкетаstudent_kai
 
основы программирования на языке C
основы программирования на языке Cосновы программирования на языке C
основы программирования на языке Cstudent_kai
 
презентация курсовой работы
презентация курсовой работыпрезентация курсовой работы
презентация курсовой работыstudent_kai
 
лекция№34
лекция№34лекция№34
лекция№34student_kai
 
лекция№32
лекция№32лекция№32
лекция№32student_kai
 
лекция№33
лекция№33лекция№33
лекция№33student_kai
 
лекция№31
лекция№31лекция№31
лекция№31student_kai
 
лекция№30
лекция№30лекция№30
лекция№30student_kai
 
лекция№29
лекция№29лекция№29
лекция№29student_kai
 
лекция№28
лекция№28лекция№28
лекция№28student_kai
 
лекция№27
лекция№27лекция№27
лекция№27student_kai
 
лекция№26
лекция№26лекция№26
лекция№26student_kai
 
лекция№25
лекция№25лекция№25
лекция№25student_kai
 
лекция№25
лекция№25лекция№25
лекция№25student_kai
 
лекция№24
лекция№24лекция№24
лекция№24student_kai
 
лекция№23
лекция№23лекция№23
лекция№23student_kai
 
лекция№22
лекция№22лекция№22
лекция№22student_kai
 
лекция№21
лекция№21лекция№21
лекция№21student_kai
 
лекция№20
лекция№20лекция№20
лекция№20student_kai
 

More from student_kai (20)

презентация
презентацияпрезентация
презентация
 
презентации продолжение банкета
презентации продолжение банкетапрезентации продолжение банкета
презентации продолжение банкета
 
основы программирования на языке C
основы программирования на языке Cосновы программирования на языке C
основы программирования на языке C
 
презентация курсовой работы
презентация курсовой работыпрезентация курсовой работы
презентация курсовой работы
 
лекция№34
лекция№34лекция№34
лекция№34
 
лекция№32
лекция№32лекция№32
лекция№32
 
лекция№33
лекция№33лекция№33
лекция№33
 
лекция№31
лекция№31лекция№31
лекция№31
 
лекция№30
лекция№30лекция№30
лекция№30
 
лекция№29
лекция№29лекция№29
лекция№29
 
лекция№28
лекция№28лекция№28
лекция№28
 
лекция№27
лекция№27лекция№27
лекция№27
 
лекция№26
лекция№26лекция№26
лекция№26
 
лекция№25
лекция№25лекция№25
лекция№25
 
лекция№25
лекция№25лекция№25
лекция№25
 
лекция№24
лекция№24лекция№24
лекция№24
 
лекция№23
лекция№23лекция№23
лекция№23
 
лекция№22
лекция№22лекция№22
лекция№22
 
лекция№21
лекция№21лекция№21
лекция№21
 
лекция№20
лекция№20лекция№20
лекция№20
 

лекция 32

  • 1. Казанский государственный технический университет им. А.Н. Туполева Факультет технической кибернетики и информатики Направление 210200 «Проектирование и технология электронных средств» Дисциплина «Информационные технологии электромагнитной совместимости ЭС» Лекция №32 «Прогнозирование электромагнитного излучения от электронных средств искусственными нейронными сетями и методика прогнозирования ЭМИ от межсоединений печатных плат» Автор - Чермошенцев С.Ф. Казань 2008
  • 2. Прогнозирование электромагнитного излучения от электронных средств искусственными нейронными сетями и методика прогнозирования ЭМИ от межсоединений печатных плат 1.Свойства биологических нейросетей. 2.Искусственная нейронная сеть. 3.Прогнозирование ЭМИ с использованием искусственной нейронной сети. 4.Примеры прогнозирования ЭМИ от одиночного проводника на двусторонней печатной плате (пример №1) 5.Пример прогнозирования ЭМИ от печатной платы с 10 проводниками (пример №2). 6.Методика прогнозирования ЭМИ от межсоединений печатных плат цифровых ЭС. 7.Результаты применения методики прогнозирования ЭМИ от межсоединений печатных плат цифровых ЭС.
  • 3. 1. Свойства биологических нейросетей. Термин «нейронные сети» сформировался в 40-х годах XX века в среде исследователей, изучавших принципы организации и функционирования биологических нейронных сетей. Искусственные нейронные сети (ИНС) — совокупность моделей биологических нейронных сетей [29]. ИНС представляют собой сеть элементов — искусственных нейронов — связанных между собой синаптическими соединениями. Сеть обрабатывает входную информацию и в процессе изменения своего состояния во времени формирует совокупность выходных сигналов. Работа сети состоит в преобразовании входных сигналов во времени, в результате чего меняется внутреннее состояние сети и формируются выходные воздействия. Обычно ИНС оперирует цифровыми, а не символьными величинами.
  • 4. Важнейшие свойства биологических нейросетей: 1.Параллельность обработки информации. Каждый нейрон формирует свой выход только на основе своих входов и собственного внутреннего состояния под воздействием общих механизмов регуляции нервной системы. 2.Способность к полной обработке информации. Все известные человеку задачи решаются нейронными сетями. К этой группе свойств относятся ассоциативность (сеть может восстанавливать полный образ по его части), способность к классификации, обобщению, абстрагированию и множество других. Они до конца не систематизированы. 3.Самоорганизация. В процессе работы биологические нейронные сети самостоятельно, под воздействием внешней среды, обучаются решению разнообразных задач. Неизвестно никаких принципиальных ограничений на сложность задач, решаемых биологическими нейронными сетями. Нервная система сама формирует алгоритмы своей деятельности, уточняя и усложняя их в течение жизни. 4.Биологические нейронные сети являются аналоговыми системами. Информация поступает в сеть по большому количеству каналов и кодируется по пространственному принципу: вид информации определяется номером нервного волокна, по которому она передается. Амплитуда входного воздействия кодируется плотностью нервных импульсов, передаваемых по волокну. 5.Надежность. Биологические нейронные сети обладают фантастической надежностью: выход из строя даже 10% нейронов в нервной системе не прерывает ее работы. По сравнению с последовательными ЭВМ, основанными на принципах фонНеймана, где сбой одной ячейки памяти или одного узла в аппаратуре приводит к краху системы.
  • 5. Нейронные сети превосходят последовательные машины в решении тех же задач, в которых машину превосходит человек. Задачи, требующие большого объема вычислений или высокой точности лучше выполняются обычной ЭВМ. К задачам, успешно решаемым нейронными сетями на данном этапе их развития относятся: распознавание зрительных и слуховых образов; ассоциативный поиск информации и создание ассоциативных моделей; формирование моделей и различных нелинейных и трудно описываемых математически систем, прогнозирование развития этих систем во времени; применение на производстве; прогнозирование развития циклонов и других природных процессов, прогнозирование изменений курсов валют и других финансовых процессов; системы управления и регулирования с предсказанием; управление роботами, другими сложными устройствами. Уникальное свойство нейросетей — универсальность. Хотя почти для всех перечисленных задач существуют эффективные математические методы решения и несмотря на то, что нейронные сети проигрывают специализированным методам для конкретных задач, благодаря универсальности и перспективности для решения глобальных задач, например, построения искусственного интеллекта и моделирования процесса мышления, они являются важным направлением исследования, требующим тщательного изучения.
  • 6. Биологический нейрон — сложная система, математическая модель которого до сих пор полностью не построена. Введено множество моделей, различающихся вычислительной сложностью и сходством с реальным нейроном. Одна из важнейших — формальный нейрон (рис. 5.16). Несмотря на простоту формального нейрона, сети, построенные из них, могут сформировать произвольную многомерную функцию на выходе. Рис. 5.16. Формальный нейрон Нейрон состоит из взвешенного сумматора и нелинейного элемента. Функционирование нейро-на определяется формулами: (5.27) где xi — входные сигналы, совокупность всех входных сигналов нейрона образует вектор х; wi, — весовые коэффициенты, совокупность весовых коэффициентов образует вектор весов w; NET — взвешенная сумма входных сигналов, значение NET передается на нелинейный элемент; Θ — пороговый уровень данного нейрона; F — нелинейная функция, называемая функцией активации.
  • 7. Нейрон имеет несколько входных сигналов х и один выходной сигнал OUT. Параметрами нейрона, определяющими его работу, являются: вектор весов w, пороговый уровень q и вид функции активации F. В общем случае, нейрон — это составная часть нейронной сети. На рис. 5.17 показана его структура. Рис. 5.17 Структура искусственного нейрона В состав нейрона входят умножители (синапсы), сумматор и нелинейный преобразователь. Синапсы осуществляют связь между нейронами и умножают входной сигнал на число, характеризующее силу связи, — вес синапса. Сумматор выполняет сложение сигналов, поступающих по синаптическим связям от других нейронов, и внешних входных сигналов.
  • 8. Нелинейный преобразователь реализует нелинейную функцию одного аргумента — выхода сумматора. Эта функция называется «функция активации» или «передаточная функция» нейрона. Нейрон в целом реализует скалярную функцию векторного аргумента. Математическая модель нейрона описывается соотношением: (5.28) где Wi — вес синапса (i = 1,...,n); b — значение смещения; s — результат суммирования; xi- — компонента входного вектора (входной сигнал) (i=1,...,n); у — выходной сигнал нейрона; n — число входов нейрона; f — нелинейное преобразование (функция активации или передаточная функция). В общем случае входной сигнал, весовые коэффициенты и значения смещения могут принимать действительные значения. Выход (у) определяется видом функции активации и может быть как действительным, так и целым. Во многих практических задачах входы, веса и смещения могут принимать лишь некоторые фиксированные значения. Таким образом, нейрон полностью описывается своими весами Wi и передаточной функцией f(s). Получив набор чисел (вектор) Xi в качестве входов, нейрон выдает некоторое число у на выходе.
  • 9. Описанный вычислительный элемент можно считать упрощенной математической моделью биологических нейронов — клеток, из которых состоит нервная система человека и животных. Чтобы подчеркнуть различие нейронов биологических и математических, вторые иногда называют нейроноподобными элементами или формальными нейронами.
  • 10. 2. Искусственная нейронная сеть. Искусственная нейронная сеть [29] — это набор нейронов, соединенных между собой. Как правило, передаточные (активационные) функции всех нейронов в сети фиксированы, а веса являются параметрами сети и могут изменяться. Некоторые входы нейронов помечены как внешние входы сети, а некоторые выходы — как внешние выходы сети. Подавая любые числа на входы сети, мы получаем какой-то набор чисел на выходах сети. Таким образом, работа нейросети состоит в преобразовании входного вектора X в выходной вектор Y, причем это преобразование задается весами сети. Практически любую задачу можно свести к задаче, решаемой нейросетью.
  • 11. Существует ряд ограничений на использование модели нейрона [29]: Вычисления выхода нейрона предполагаются мгновенными, не вносящими задержки. Непосредственно моделировать динамические системы, имеющие "внутреннее состояние", с помощью таких нейронов нельзя. В модели отсутствуют нервные импульсы. Нет модуляции уровня сигнала плотностью импульсов, как в нервной системе. Не появляются эффекты синхронизации, когда скопления нейронов обрабатывают информацию синхронно, под управлением периодических волн возбуждения-торможения. Нет четких алгоритмов для выбора функции активации. Нет механизмов, регулирующих работу сети в целом (пример - гормональная регуляция активности в биологических нервных сетях). Чрезмерная формализация понятий: "порог", "весовые коэффициенты". В реальных нейронах нет числового порога, он динамически меняется в зависимости от активности нейрона и общего состояния сети. Весовые коэффициенты синапсов тоже не постоянны. "Живые" синапсы обладают пластичностью и стабильностью: весовые коэффициенты настраиваются в зависимости от сигналов, проходящих через синапс.
  • 12. Модель формального нейрона не является биоподобной и скорее похожа на математическую абстракцию, чем на живой нейрон. Тем удивительнее оказывается многообразие задач, решаемых с помощью таких нейронов и универсальность получаемых алгоритмов. Формальные нейроны могут объединяться в сети различным образом. Самым распространенным видом сети стал многослойный перцептрон (рис. 5.18). Рис. 5.18 Многослойный персептрон Сеть состоит из произвольного количества слоев нейронов. Нейроны каждого слоя соединяются с нейронами предыдущего и последующего слоев по принципу "каждый с каждым". Первый слой (слева) называется сенсорным или входным, внутренние слои называются скрытыми или ассоциативными, последний (самый правый, на рисунке состоит из одного нейрона) — выходным или результативным. Количество нейронов в слоях может быть произвольным. Обычно во всех скрытых слоях одинаковое количество нейронов.
  • 13. Обозначим количество слоев и нейронов в слое. Входной слой: NI нейронов; NH нейронов в каждом скрытом слое; NO выходных нейронов, х — вектор входных сигналы сети, у - вектор выходных сигналов. Существует путаница с подсчетом количества слоев в сети. Входной слой не выполняет никаких вычислений, а лишь распределяет входные сигналы, поэтому иногда его считают, иногда — нет. Обозначим через NL полное количество слоев в сети, считая входной. Работа многослойного перцептрона описывается формулами: (5.29) где индексом i всегда будем обозначать номер входа, j — номер нейрона в слое, l — номер слоя. Хijl, — i-и входной сигнал j-го нейрона в слое l; Wijl, — весовой коэффициент i-го входа нейрона номеру в слое l; NETjl, — сигнал NET j-го нейрона в слое l; OUTjl — выходной сигнал нейрона; θjl— пороговый уровень нейрона j в слое l;
  • 14. Введем обозначения: wil — вектор-столбец весов для всех входов нейрона j в слое l; Wl —матрица весов всех нейронов в слоя l. В столбцах матрицы расположены вектора wjl. Аналогично xjl — входной вектор-столбец слоя l. Каждый слой рассчитывает нелинейное преобразование от линейной комбинации сигналов предыдущего слоя. Отсюда видно, что линейная функция активации может применяться только для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом. Для многослойных сетей функция активации должна быть нелинейной, иначе можно построить эквивалентную однослойную сеть, и многослойность оказывается ненужной. Если применена линейная функция активации, то каждый слой будет давать на выходе линейную комбинацию входов. Следующий слой даст линейную комбинацию выходов предыдущего, а это эквивалентно одной линейной комбинации с другими коэффициентами, и может быть реализовано в виде одного слоя нейронов. Многослойная сеть может формировать на выходе произвольную многомерную функцию при соответствующем выборе количества слоев, диапазона изменения сигналов и параметров нейронов. Как и ряды, многослойные сети оказываются универсальным инструментом аппроксимации функций.
  • 15. Рассмотрим более подробно такой вид ИНС, как обобщенно-регрессионная нейронная сеть (generalized regression neural network, GRNN). Для данной сети в точке расположения каждого обучающего наблюдения помещается гауссова ядерная функция. Считается, что каждое наблюдение свидетельствует о некоторой уверенности наблюдателя в том, что поверхность отклика в данной точке имеет определенную высоту, и эта уверенность убывает при отходе в сторону от точки. GRNN-сеть копирует внутрь себя все обучающие наблюдения и использует их для оценки отклика в произвольной точке. Окончательная выходная оценка сети получается как взвешенное среднее выходов по всем обучающим наблюдениям: (5.30) где Xk, yk — точки обучающей выборки. Первый промежуточный слой сети GRNN состоит из радиальных элементов. Второй промежуточный слой содержит элементы, которые помогают оценить взвешенное среднее.
  • 16. Каждый выход имеет в этом слое свой элемент, формирующий для него взвешенную сумму. Чтобы получить из взвешенной суммы взвешенное среднее, эту сумму нужно поделить на сумму весовых коэффициентов. Последнюю сумму вычисляет специальный элемент второго слоя. После этого в выходном слое производится собственно деление (с помощью специальных элементов «деления»). Таким образом, число элементов во втором промежуточном слое на единицу больше, чем в выходном слое. Как правило, в задачах регрессии требуется оценить одно выходное значение, и, соответственно, второй промежуточный слой содержит два элемента. Можно модифицировать GRNN-сеть таким образом, чтобы радиальные элементы соответствовали не отдельным обучающим случаям, а их кластерам. Это уменьшает размеры сети и увеличивает скорость обучения. Центры для таких элементов можно выбирать с помощью любого предназначенного для этой цели алгоритма (выборки из выборки, K-средних или Кохонена). Достоинства и недостатки у сетей GRNN в основном таковы: GRNN-сеть обучается почти мгновенно, но может получиться большой и медленной (хоть здесь, в отличие от ИНС другого типа, и не обязательно иметь по одному радиальному элементу на каждый обучающий пример, но их число все равно будет большим). сеть GRNN не обладает способностью экстраполировать данные.
  • 17. Архитектура сети показана на рис. 5.19. Рис. 5.19 Элемент GRNN-сети где: R – число элементов входного вектора Q – соответственно число нейронов первого слоя, второго слоя, число обучающих пар ail – i-й элемент вектора al iIW1,1 – вектор, состоящий из i-го ряда IW1,1
  • 18. Сеть состоит из радиально-базисного слоя и специального линейного слоя. Здесь на вход радиально-базисной (radbas) передаточной функции подается вектор смещения между вектором весов W и входным вектором P, помноженный на вектор смещения b. (Блок ||dist|| на рис. 5.19 получает входной вектор p и один ряд матрицы весов IW11 и рассчитывает их скалярное произведение). Передаточная функция нейрона следующая: radbas (n) = e −n2 Ниже представлен график передаточной функции radbas: Рис. 5.20 Радиально-базисная функция (5.31)
  • 19. Радиально-базисная функция имеет максимум в единице, когда n=0. По мере того, как разница между w и p уменьшается, значение функции растет. Таким образом радиально-базисный нейрон выступает в качестве детектора, который образует 1, когда вектор входных элементов p идентичен вектору своих весов w. Смещение b radbas нейрона позволяет увеличить его чувствительность. Вектор смещений b1 и результат выполнения функции ||dist|| почленно перемножаются с помощью оператора (.*). В первом слое сети число нейронов равно числу входных/целевых векторов в P. Веса первого слоя устанавливаются равными транспонированной матрице P. Вектор смещения b1 – вектор столбец равный 0,8326/(диапазон отклонения). Чтобы понять, как работает сеть, проследим за движением входного вектора p через всю сеть. Если мы подадим данный вектор на вход сети, каждый нейрон радиальнобазисного слоя выдаст значение в соответствии с тем, насколько близок входной вектор вектору весов каждого нейрона. Таким образом радиально-базисные нейроны с векторами весов, достаточно близкими входному вектору p, имеют на выходе значения, близкие нулю. Эти небольшие значения оказывают незначительное влияние на выходной линейный слой нейронов. И наоборот, радиально-базисные нейроны, вектор весов которых достаточно близок вектору p, имеют на выходе значения, близкие единице. Если нейрон имеет на выходе 1, его выходные веса передают свое значение линейным нейронам второго слоя. Реально только один радиально-базисный нейрон имеет на выходе 1, а все остальные – 0 (или близки 0).
  • 20. Рассмотрим детально, как работает первый слой. Взвешенный вход каждого нейрона представляет собой разницу между входным вектором и его весовым вектором, рассчитанной с помощью функции dist. Сетевой вход каждого нейрона – это результат поэлементного умножения с помощью функции netprod его взвешенных входов и его смещения. Выход нейрона – это результат преобразования его сетевого входа с помощью функции radbas. Если весовой вектор нейрона равен его входному вектору (транспонированному), его весовой вход равен 0, сетевой вход, равен нулю, выход – 1. Если вектор весов нейрона лежит в пределах диапазона отклонения от входного вектора, его взвешенный вход равен диапазону отклонения, сетевой вход равен sqrt(log(.5)) (или 0,8326), таким образом, на выходе – 0,5. Пользователь сам выбирает диапазон отклонения. Во втором слое число нейронов также равно числу входных/целевых векторов, но здесь веса LW{2,1} устанавливаются равными T. Допустим, на вход подается вектор p, близкий вектору pi, одному из входных векторов среди пар входных векторов/уставок, использованных при создании весов первого слоя. Тогда выход первого слоя ai становится близким единице. В связи с этим выход второго слоя будет близок ti, одной из целевых уставок, использованных при создании весов второго слоя. Больший диапазон отклонения ведет к увеличению области вокруг входного вектора, где нейроны первого слоя будут давать значащий результат. Таким образом если используется небольшой диапазон отклонения, то радиально-базисная функция будет очень крутой, так что нейроны с вектором весов, близким ко входному, будут иметь значительно больший выход, чем остальные нейроны. Сеть будет склонна отвечать выходным вектором, ассоциированным с ближайшим уставочным входным вектором.
  • 21. По мере увеличения отклонения радиально-базисная функция становится более гладкой и уже несколько нейронов может отвечать входному вектору. Тогда сеть выбирает средневзвешенное значение между целевыми векторами, чьи входные вектора наиболее близки новому поданному входному вектору. Чем больше растет отклонение, тем больше и больше нейронов участвуют в среднем, и в результате функция сети становится более гладкой.
  • 22. 3. Прогнозирование ЭМИ с использованием искусственной нейронной сети Прогнозирование ЭМИ с использованием ИНС проводилось в пакете Neural Networks Toolbox среды MatLab 7.0. Пакет Neural Networks Toolbox (нейронные сети) содержит средства для проектирования, моделирования, обучения и использования множества известных парадигм аппарата искусственных нейронных сетей, от базовых моделей персептрона до самых современных ассоциативных и самоорганизующихся сетей [55]. Пакет может быть использован для решения множества разнообразных задач, таких как обработка сигналов, нелинейное управление, финансовое моделирование и т. п. Для каждого типа архитектуры и обучающего алгоритма ИНС имеются функции инициализации, обучения, адаптации, создания и моделирования, демонстрации и примеры применения. В состав пакета Neural Networks входят более 150 различных функций, образуя собой своеобразный макроязык программирования и позволяя пользователю создавать, обучать и использовать самые различные НС. Для целей нашей задачи будем использовать GRNN-сети, как простые быстрые сети для интерполяции данных.
  • 23. 4. Примеры прогнозирования ЭМИ от одиночного проводника на двусторонней печатной плате (пример №1) Пример№1. Для примера рассматривался одиночный проводник на двусторонней печатной плате. Нижний слой – слой земли. Проводник имеет размеры 82х2 мм, печатная плата – 100х60х1,3 мм, диэлектрическая проницаемость 4,5. Проводник имеет источник напряжения частотой 500 МГц и нагружен на резистивную нагрузку 50 Ом. Промоделируем данную структуру в среде HFSS 9.0. Расчет электромагнитного поля будем проводить в объеме 2х2х2 м. Чтобы промоделировать распространяющееся поле, окружим данный объем PML-слоем. бесконечно
  • 24. Рис. 5.21 Модель печатной платы с одиночным проводником в HFSS 9.0
  • 25. Моделирование было произведено за 5 итераций: Рис. 5.22. График сходимости модели
  • 26. Модель была построена при помощи 377400 тетраэдров за 41 час реального времени. Чтобы построить ИНС, необходимо получить множество случайных точек в данном объеме и значения напряженности электрического поля в них. Множества нормально распределенных случайных точек легко получить с помощью Matlab 7.0. Значения поля в данных точках рассчитываем при помощи функции Export подпрограммы Field Calculator среды HFSS 9.0. Итак мы получили обучающие наборы для создания ИНС. Чтобы проанализировать зависимость точности работы сети от числа обучающих значений, было создано 7 выборок размером 100, 250, 500, 1000, 5000, 10000 точек соответственно. Чтобы оценить точность работы нейронной сети, создадим тестовую выборку размером 100 точек. Для каждой из 7 созданных сетей оценим среднюю погрешность для каждой из точек и среднюю погрешность для всех точек выборки: −E HFSS ИНС ; i =1,n δi = E HFSS E δ ср = δi n ; i =1,n (5.32) (5.33)
  • 27. Зависимость средней в выборке погрешности интерполяции значения поля от числа точек в обучающей выборке приведена в таб. 16. Таблица 16 Зависимость погрешности интерполяции от числа точек N δср 100 0,1659 250 0,2325 500 0,1236 1000 0,0384 5000 0,0293 10000 0,0232 Как видно из графика на рис. 5.23 средняя погрешность в основном падает с ростом числа точек в обучающей выборке.
  • 28. 25 Отн. погрешность 20 15 10 5 0 100 250 500 1000 5000 10000 Количеств о точек наблюдения Рис. 5.23. Зависимость точности прогнозирования от объема выборки. Также для более детальной оценки работы сети приведем результаты прогнозирования ЭМИ и погрешности интерполяции: E, В/м 0,1 0,08 0,06 0,04 0,02 0 1 EHFSS EИНС N 10 19 28 37 46 55 64 73 82 91 100 Рис. 5.24. Сравнительные результаты прогнозирования ЭМИ с помощью ЭСАПР и ИНС.
  • 29. Таким образом, было проведено прогнозирования значения электромагнитного поля от одиночно проводника на печатной плате. Было показано, что нейронные сети способны прогнозировать значения электрического поля в заданном объеме с достаточной точностью. При этом точность прогнозирования растет с увеличением числа точек в обучающей выборке.
  • 30. 5. Пример прогнозирования ЭМИ от печатной платы с 10 проводниками (пример №2). Рассмотрим задачу более близкую к реальным задачам оценки ЭМС печатных плат. Рассмотрим печатную плату тех же габаритов, что и в предыдущем примере, но с 10 проводниками произвольной конфигурации. Проводники также имеют нагрузку 50 Ом и источник частотой 500 МГц. Промоделируем данную структуру в HFSS 9.0 (рис. 5.25). Будем рассматривать также объем 2х2х2 м вокруг печатной платы.
  • 31. Рис.5.25. Модель печатной платы с 10 проводниками в HFSS 9.0
  • 32. Моделирование было произведено за 4 итерации: Рис. 5.26 График сходимости модели
  • 33. Модель была построена при помощи 368029 тетраэдров за 160 часов реального времени. Найдем значения напряженности электрического поля данной структуры в тех же точках что и в предыдущем примере. На полученных обучающих выборках построим нейронные сети. Далее произведем анализ построенных сетей при помощи тестовой выборки и оценим погрешность прогнозирования поля нейронной сетью. Таблица 17 Зависимость погрешности интерполяции от числа точек N δср 100 0,3335 250 0,149 500 0,1662 1000 0,095 5000 0,0519 10000 0,0196
  • 34. 0,4 0,35 Отн. погрешность 0,3 0,25 0,2 0,15 0,1 0,05 0 100 250 500 1000 5000 10000 Количество точек наблюдения Рис. 5.27. Зависимость точности прогнозирования от объема выборки. Также для более детальной оценки работы сети приведем результаты прогнозирования ЭМИ и погрешности интерполяции: EHFSS E, В/м EИНС 0,06 0,05 0,04 0,03 0,02 0,01 0 N 1 10 19 28 37 46 55 64 73 82 91 100 Рис. 5.28. Сравнительные результаты прогнозирования ЭМИ с помощью ЭСАПР и ИНС
  • 35. Таким образом, на основании вышеприведенных результатов можно сделать вывод о допустимости применения ИНС в задачах прогнозирования ЭМИ от ЭС. Следует отметить, что в отечественной практике проектирования ЭС практически не применяются программные методы расчета характеристик ЭМС (и ЭМИ в том числе), крайне редко используются специализированные средства контроля характеристик ЭМС (помехоэмиссии и помехоустойчивости) в процессе проектирования. Для большинства разработчиков и изготовителей ЭС характерно стремление исключить испытания для проверки характеристик ЭМС из производственного процесса, что мотивируется необходимостью экономии средств [49]. Однако даже если разработчик ЭС желает исследовать свое изделие на ЭМИ, он сталкивается с отсутствием методики прогнозирования ЭМИ от ЭС.
  • 36. 6. Методика прогнозирования ЭМИ от межсоединений печатных плат цифровых ЭС. Исследования ЭМИ от межсоединений печатных плат электронных средств [19] показывают необходимость создания методики прогнозирования данного явления, причем данная методика должна применяться на этапе проектирования ЭС как в целом, так и на этапе проектирования ПП ЭС [3]. Ниже приведем методику прогнозирования ЭМИ от межсоединений ПП ЭС (рис. 5.29): I.В данном пункте определяются исходные данные для проектирования ПП: тип и конструкция ПП (одно-, двух- или многослойная); тип применяемой элементной базы; Помимо этого следует учитывать, что при прогнозировании ЭМИ с учетом аспекта защиты информации необходимо исследовать лишь потенциально информативные излучатели. Исходные данные также должны включать условия работы проектируемого ЭС.
  • 37. II.На этом этапе исследователь должен определить: все ли параметры (например, параметры межсоединений и их конфигурация, параметры ПП) объекта исследования известны? III.Если известны все параметры объекта исследования, то осуществляется определение критического набора сигналов, для чего применяются методы логического программирования с использованием системы логического программирования Visual Prolog (см. раздел 2). IV.Данный этап выполняется в том случае, если неизвестны все параметры исследуемого объекта; однако в распоряжении исследователя имеется измерительная аппаратура. Требования к средствам измерений приводятся в ГОСТ Р 51319-99 «Совместимость технических средств электромагнитная. Приборы для измерения индустриальных радиопомех. Технические требования и методы испытаний». Точки измерения могут быть расположены произвольно. V.Выбор метода (аналитический или численный) осуществляется в зависимости от структуры объекта исследования и от требуемой точности решения задачи. На выбор метода оказывают влияние, например, такие факторы, как: необходимость учета формы поперечного сечения межсоединения; взаимное расположение проводников; количество слоев ПП и учет их электрофизических параметров и т.д. VI.После проведения измерений ЭМИ осуществляется поиск эквивалентного набора элементарных излучателей генетическим алгоритмом. По окончании поиска возможно прогнозирование ЭМИ в точках, расположенных за пределами помещения, в котором проводились измерения .
  • 38. VII.В случае выбора аналитического метода осуществляется представление печатных проводников диполями Герца. Задача прогнозирования ЭМИ в этом случае сводится к решению интеграла Зоммерфельда, для решения которого применяется метод седловой точки. VIII.В случае сложной конфигурации проводников, неидеального слоя земли применяется МКЭ с идеальным согласованным слоем в качестве граничного условия. Пакетом электромагнитного моделирования, использующим МКЭ и пригодным для использования в методике прогнозирования ЭМИ, является HFSS. Для ускорения получения данных о величине создаваемого ЭМИ можно использовать ИНС. IX.На данном этапе производится сравнение полученных результатов с требованиями Заказчика. В качестве таких требований могут выступать ограничения по: ГОСТ 12.1.002-84, ГОСТ 12.1.006-84, ГОСТ 12.1.045-84; ГОСТ Р 51318.22-99; СанПиН 2.2.4/2.1.8.055-96, СанПиН 2.2.2.542-96 и т.д.. В случае удовлетворения требованиям норм изделие отправляется на изготовление и последующую эксплуатацию. В случае же несоответствия нормам должны приниматься такие меры, как: изменение конструкции ПП (увеличение числа слоев, изменение материала ПП); изменение конструкции ЭС (добавление экранов на определенные ПП, изменение положения ПП в ЭС); изменение принципиальной схемы ЭС. После проведения данных мер для проверки их эффективности необходимо повторное использование методики.
  • 39. I. Определение исходных данных для прогнозирования ЭМИ II. Известны все параметры объекта исследования да IV. Определение напряженности поля исследуемого объекта III. Определение критического набора сигналов аналит . VII. Представление проводников диполями Герца. Решение интеграла Зоммерфельда VI. Поиск эквивалентного набора диполей, определение ЭМИ в заданной точке числ . V. Выбор метода исследования нет VIII. Решение уравнения Гельмгольца методом конечных элементов IX. Анализ полученных результатов и сравнение с требованиями норм X. Проверка выполнения требования норм да XV. Выход нет XI. Изменение топологии межсоединений XII. Изменение конструкции печатной платы XIII. Изменение конструкции ЭС XIV. Изменение принципиальной схемы ЭС
  • 40. 7. Результаты применения методики прогнозирования ЭМИ от межсоединений печатных плат цифровых ЭС. В табл. 18 сведены отдельные результаты применения данной методики. Таблица 18 Результаты применения разработанной методики № Объект Расстояние, частота Е, дБмкВ/м 1 Двусторонняя плата, 10 проводников 2м, 500МГц 92 2 Двусторонняя плата, 7 проводников 5м, 400МГц 17 3 4-хслойная ПП (2 сигнальных) 3м, 1000 МГц 32 4 Двусторонняя плата, 1 проводник 3м, 350 МГц 15 5 Двусторонняя плата, 4 проводника, переход со слоя на слой 3м, 700 МГц 62 6 Плата со сплошным слоем земли 1м, 700 МГц 84 7 Плата с вырезом в слое земли 1м, 700 МГц 108 Таким образом, разработанная методика прогнозирования ЭМИ от межсоединений печатных плат ЭС позволяет осуществлять прогнозирование ЭМИ для многослойных печатных плат с произвольной конфигурацией сигнальных проводников и сложной геометрией потенциальных слоев.
  • 41. Контрольные вопросы: 1.Назовите основные свойства искусственных нейронных сетей? 2.Назовите основные достоинства и недостатки ИНС, использующихся при прогнозировании ЭМИ от ЭС. 3.Поясните смысл термина «формальный нейрон»? 4.Объясните структуру искусственного нейрона? 5.Поясните смысл термина «искусственная нейронная сеть»? 6.Назовите достоинства и недостатки обобщенно-регрессионной нейронной сети? 7.Приведите передаточную функцию нейрона? 8.Поясните пример решения задачи ЭМИ от проводников печатной платы с помощью искусственных нейронных сетей? 9.Поясните цель и преимущества методики прогнозирования ЭМИ от межсоединений печатных плат? 10.Назовите основные этапы методики прогнозирования ЭМИ от межсоединений печатных плат электронных средств.