Купить Matlab  |  Mathematica  |  Mathcad  |  Maple  |  Statistica  |  Другие пакеты Поиск по сайту
Internet-класс  |  Примеры  |  Методики  |  Форум  |  Download
https://hub.exponenta.ru/


 
Моделирование процессов обучения в нейронных сетях
выполнил: студент В.Борисов
Санкт-Петербургский Государственный Технический Университет
Кафедра распределенных вычислений и компьютерных сетей
Санкт-Петербург
2001

Вернуться на страницу <Model Vision Studium>
В начало

Модели нейронных сетей. Персептрон Розенблата.

Алгоритмы обучения персептрона. 
  1. Простой метод.

Персептрон является двухуровневой, нерекуррентной сетью, вид которой показан на рис. ниже. Она использует алгоритм обучения с учителем; другими словами, обучающая выборка состоит из множества входных векторов, для каждого из которых указан свой требуемый вектор цели. Компоненты входного вектора представлены непрерывным диапазоном значений; компоненты вектора цели являются двоичными величинами (0 или 1). После обучения сеть получает на входе набор непрерывных входов и вырабатывает требуемый выход в виде вектора с бинарными компонентами.

 

(Однослойная нейронная сеть)

 Обучение осуществляется следующим образом:

Рандомизируются все веса сети в малые величины.

На вход сети подается входной обучающий вектор Х и вычисляется сигнал NET от каждого нейрона, используя стандартное выражение

.

Вычисляется значение пороговой функции активации для сигнала NET от каждого нейрона следующим образом:

OUTj = 1, если NETj больше чем порог θj,

OUTj = 0 в противном случае.

Здесь θj представляет собой порог, соответствующий нейрону j (в простейшем случае, все нейроны имеют один и тот же порог).

Вычисляется ошибка для каждого нейрона посредством вычитания полученного выхода из требуемого выхода:

errorj = targetj – OUTj.

Каждый вес модифицируется следующим образом:

Wij(t+1) = wij(t) +a xierrorj.

Повторяются шаги со второго по пятый до тех пор, пока ошибка не станет достаточно малой.

  1. Метод обучения Уидроу-Хоффа.

Как мы видели, персептрон ограничивается бинарными выходами. Уидроу вместе со студентом университета Хоффом расширили алгоритм обучения персептрона на случай непрерывных выходов, используя сигмоидальную функцию. Кроме того, они разработали математическое доказательство того, что сеть при определенных условиях будет сходиться к любой функции, которую она может представить. Их первая модель – Адалин – имеет один выходной нейрон, более поздняя модель – Мадалин – расширяет ее на случай с многими выходными нейронами.

Выражения, описывающие процесс обучения Адалина, очень схожи с персептронными. Существенные отличия имеются в четвертом шаге, где используются непрерывные сигналы NET вместо бинарных OUT. Модифицированный шаг 4 в этом случае реализуется следующим образом:

4. Вычисляется ошибка для каждого нейрона посредством вычитания полученного выхода из требуемого выхода:

errorj = targetj – NETj.

В начало
Вернуться на страницу <Model Vision Studium>

| На первую страницу | Поиск | Купить Matlab

Исправляем ошибки: Нашли опечатку? Выделите ее мышкой и нажмите Ctrl+Enter


Copyright © 1993-2024. Компания Softline. Все права защищены.

Дата последнего обновления информации на сайте: 04.03.17
Сайт начал работу 01.09.00