Обработка знаний в нейронных сетях

Нейроны в сетях группируются по слоям. Имеются различные типы слоев. Например, входной слой состоит из нейронов, которые получают вход из внешней среды. Выходной слои состоит из нейронов, которые связывают выход системы с пользователем или внешней средой.

Данные, вводимые во входной слой, отображают факты о проблеме принятия решения, например о применении закладной на кредит. После ввода данных в сеть нейроны входного слоя возбуждаются и создают выход на другие слои системы. Обработка знаний в нейронной сети состоит из взаимодействия между слоями нейронов в системе. Эта обработка продолжается до удовлетворения некоторого условия, после чего нейроны выходного слоя возбуждаются и передают их выход во внешнюю среду.

Таким образом, проектирование связей между нейронами эквивалентно программированию системы для обработки входа и создания желаемого выхода. Проектирование нейронной сети состоит из:

• упорядочивания нейронов по слоям;

• определения связей между нейронами различных слоев, так же, как и между нейронами внутри слоя;

• решения о том, каким образом нейрон получает вход и как создает выход;

• определения силы связей внутри сети, чтобы узнать соответствующие значения весов путем использования контрольного набора данных.

В нейронной сети обычно имеется много связей между нейронами. Они группируются по слоям и в каждом слое располагаются нейроны одного типа. Нейроны в слое могут иметь или не иметь связи между собой – так ведут себя во многих простых проектах нейроны одного слоя.

Нейронная сеть может иметь один (однослойная) или много (многослойная) слоев. При иерархической связи нейроны нижнего слоя связаны только с нейронами следующего уровня. Если связь не иерархического типа, то нейроны одного слоя могут посылать свои выходы не только нейронам следующего слоя, но и другим слоям.

Простейшая нейронная сеть состоит из одного слоя нейронов и показана на рисунке 1.8. Вершины-круги слева служат лишь для распределения входных сигналов, не выполняют каких-либо вычислений и поэтому не считаются слоем. Элементы из множества входов Х отдельными весами соединены с искусственными нейронами.

Рисунок 1.8. Однослойная искусственная нейронная сеть

Искусственные нейронные сети с многочисленными слоями нейронов обладают большими возможностями и позволяют наиболее полно моделировать работу мозга. В последние годы были разработаны алгоритмы для их обучения. Выход одного слоя является входом другого (рису-
нок 1.9).



Выход двухслойной нейронной сети вычисляется путем умножения входного вектора на первую весовую матрицу с последующим умножением результирующего вектора на вторую весовую матрицу, т.е.:

Y = (XW1)×W2 = X (W1W2).

Рисунок 1.9. Двухслойная искусственная нейронная сеть

Персептрон – это первая нейронная сеть, разработанная Ф. Розенблатом в 1957 году с целью моделирования психологических аспектов мозга. Модель показала, что сеть может моделировать средства ассоциативной памяти мозга с их прямыми связями между слоями нейронов, которые способны обучаться, когда внешний вход имеет шумы и неточности

На идеях персептрона был разработан компьютер, который распознавал изображения, в виде символов.

Персептрон имеет трехслойную, иерархическую структуру с отсутствием связей между нейронами одного слоя. Первый слой является входным слоем, который получает внешние данные (рисунок 1.10). Нейроны входного слоя посылают сигналы нейронам (всем или некоторому числу) следующего слоя. Весовые коэффициенты между первым и вторым слоем фиксированы и равны 1. Поэтому первый слой функционирует как входной буфер, который получает внешние импульсы и посылает их всем или некоторым нейронам второго слоя без изменения весовых коэффициентов.

Рисунок 1.10. Персептрон со многими выходами

Нейроны второго слоя отмечают свойства некоторого примера или изображения. Третий слой является выходным и каждый нейрон в нем выдает или не выдает сигнал. Этот слой имеет обратную связь со вторым слоем. В начале работы персептрон не имеет полной связи между вторым и третьим слоями. Она будет создаваться в процессе обучения персептрона.



Обучение персептрона

Процесс обучения заключается в формировании весов связей между вторым и третьим слоями в соответствии со следующим уравнением:

,

где wji – весовая связь нейрона j второго слоя с нейроном i третьего слоя, DESOUT, – “желаемый” или правильный выход нейрона i третьего слоя и OUTi – реальный выход нейрона i.

Уравнение обучения персептрона имеет простое объяснение. Если нейрон i посылает правильный импульс (выход) во внешнюю среду, то веса к нейронам второго слоя не изменяются. Однако, если выход нейрона i равен единице, когда он должен быть равен нулю, то весовые связи с нейронами второго слоя уменьшаются путем умножения на величину a. Если, с другой стороны, нейрон i имеет выход 0, когда правильный импульс равен 1, то весовые связи к нейронам второго слоя увеличиваются путем умножения на величину a, где 0 £ a £ 1. Значение должно быть положительным, меньшим или равным единице.

Обучение персептрона происходит следующим образом. На вход персептрона подают по одному множество образов и подстраивают веса до тех пор, пока не будет достигнут требуемый выход. Допустим, что образ (символ) изображен на странице в клетку и от каждой клетки на персептрон подается вход. Если в клетке имеется линия (часть изображения), то от нее подается 1, в противном случае – 0. Таким образом, множество клеток задаёт, таким образом, множество нулей и единиц, которое подается на вход персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного.

Обучение персептрона состоит в том, что на его вход подается образ Х и вычисляется вы-
ход Y. Если Y является правильным, то веса не меняются. Однако, если выход неправилен, то веса изменяются так, чтобы уменьшить ошибочный результат.

За конечное число шагов сеть научится разделять страницы с изображениями, соответ-ствующими четным и нечетным числам. Это значит, что для всех страниц с нечетными числами выход будет больше порога, а для всех страниц с четными – меньше.

МОДЕЛИ ПРЕДСТАВЛЕНИЯ ЗНАНИЙ


6523239936007062.html
6523282083489273.html
    PR.RU™