Основы теории нейронных сетей

         

Функционирование сетей APT


Рассмотрим более детально пять фаз процесса функционирования APT: инициализацию, распознавание, сравнение, поиск и обучение.

Инициализация. Перед началом процесса обучения сети все весовые векторы

Функционирование сетей APT
и
Функционирование сетей APT
, а также параметр сходства
Функционирование сетей APT
, должны быть установлены в начальные значения.

Веса векторов

Функционирование сетей APT
все инициализируются в одинаковые малые значения. Эти значения должны удовлетворять условию

Функционирование сетей APT

где

Функционирование сетей APT
— количество компонент входного вектора,
Функционирование сетей APT

— константа, большая 1 (обычно

Функционирование сетей APT
).

Эта величина является критической; если она слишком большая, сеть может распределить все нейроны распознающего слоя одному входному вектору.

Веса векторов

Функционирование сетей APT
все инициализируются в единичные значения, так что

Функционирование сетей APT

Эти значения также являются критическими; показано, что слишком маленькие веса приводят к отсутствию соответствия в слое сравнения и отсутствию обучения.

Параметр сходства

Функционирование сетей APT
устанавливается в диапазоне от 0 до 1 в зависимости от требуемой степени сходства между запомненным образом и входным вектором. При высоких значениях
Функционирование сетей APT
сеть относит к одному классу только очень слабо отличающиеся образы. С другой стороны, малое значение
Функционирование сетей APT
заставляет сеть группировать образы, которые имеют слабое сходство между собой. Для выработки точной классификации полезна возможность изменять коэффициент сходства на протяжении процесса обучения, обеспечивая только грубую классификацию в начале процесса обучения и затем постепенно увеличивая коэффициент сходства. Распознавание. Появление на входе сети входного вектора
Функционирование сетей APT

инициализирует фазу распознавания. Так как вначале выходной вектор слоя распознавания отсутствует, сигнал

Функционирование сетей APT
устанавливается в 1 функцией ИЛИ вектора
Функционирование сетей APT
, обеспечивая все нейроны слоя сравнения одним из двух входов, необходимых для их возбуждения (как требует правило двух третей). В результате любая компонента вектора
Функционирование сетей APT
, равная единице, обеспечивает второй единичный вход, заставляя соответствующий нейрон слоя сравнения возбуждаться и устанавливая его выход в единицу. Таким образом, в этот момент времени вектор
Функционирование сетей APT
идентичен вектору
Функционирование сетей APT
.




Как обсуждалось ранее, распознавание реализуется вычислением свертки для каждого нейрона слоя распознавания, определяемой следующим выражением:

Функционирование сетей APT


где
Функционирование сетей APT
— весовой вектор, соответствующий нейрону
Функционирование сетей APT
в слое распознавания,
Функционирование сетей APT
— выходной вектор нейронов слоя сравнения (в этот момент
Функционирование сетей APT
равно
Функционирование сетей APT
),
Функционирование сетей APT
— возбуждение нейрона
Функционирование сетей APT
в слое распознавания.

Функционирование сетей APT
является пороговой функцией, определяемой следующим образом:

Функционирование сетей APT


где
Функционирование сетей APT
представляет собой порог.



В соответствии с алгоритмом обучения возможно, что другой нейрон в слое распознавания будет обеспечивать более хорошее соответствие, превышая требуемый уровень сходства, несмотря на то, что свертка между его весовым вектором и входным вектором может иметь меньшее значение. Пример такой ситуации показан ниже.

Если сходство ниже требуемого уровня, запомненные образы могут быть просмотрены, чтобы найти образ, наиболее соответствующий входному вектору. Если такой образ отсутствует, вводится новый несвязанный нейрон, который в дальнейшем будет обучен. Чтобы инициализировать поиск, сигнал сброса тормозит возбужденный нейрон в слое распознавания на время проведения поиска, сигнал
Функционирование сетей APT


устанавливается в единицу и другой нейрон в слое распознавания выигрывает соревнование. Его запомненный образ затем проверяется на сходство, и процесс повторяется до тех пор, пока конкуренцию не выиграет нейрон из слоя распознавания со сходством, большим требуемого уровня (успешный поиск), либо пока все связанные нейроны не будут проверены и заторможены (неудачный поиск).

Неудачный поиск будет автоматически завершаться на несвязанном нейроне, так как его веса все равны единице, своему начальному значению. Поэтому правило двух третей приведет к идентичности вектора
Функционирование сетей APT


входному вектору
Функционирование сетей APT
, сходство
Функционирование сетей APT
примет значение единицы и критерий сходства будет удовлетворен.

Обучение. Обучение представляет собой процесс, в котором набор входных векторов подается последовательно на вход сети, а веса сети изменяются при этом таким образом, чтобы сходные векторы активизировали соответствующие им нейроны. Заметим, что это - неуправляемое обучение, здесь нет учителя и нет целевого вектора, определяющего требуемый ответ.

Различают два вида обучения: медленное и быстрое. При медленном обучении входной вектор предъявляется настолько кратковременно, что веса сети не успевают достигнуть своих ассимптотических значений при единичном предъявлении. В этом случае значения весов будут определяться, скорее, статистическими характеристиками входных векторов, чем характеристиками какого-то одного входного вектора.



Динамика сети в процессе медленного обучения описывается дифференциальными уравнениями.

Быстрое обучение является специальным случаем медленного обучения, когда входной вектор прикладывается на достаточно длительный срок, чтобы позволить весам приблизиться к их окончательным значениям. В этом случае процесс обучения описывается только алгебраическими выражениями. Кроме того, компоненты весовых векторов
Функционирование сетей APT
принимают двоичные значения, в отличие от непрерывного диапазона значений, требуемого в случае быстрого обучения. В данной лекции мы опишем только быстрое обучение.

Рассмотренный далее обучающий алгоритм используется как в случае успешного, так и в случае неуспешного поиска.

Пусть вектор весов
Функционирование сетей APT
(связанный с возбужденным нейроном
Функционирование сетей APT


распознающего слоя) равен нормализованной величине вектора
Функционирование сетей APT
. Эти веса вычисляются следующим образом:

Функционирование сетей APT


где
Функционирование сетей APT
Функционирование сетей APT
-я компонента выходного вектора слоя сравнения,
Функционирование сетей APT
— номер выигравшего нейрона в слое распознавания,
Функционирование сетей APT
— вес связи, соединяющей нейрон
Функционирование сетей APT
в слое сравнения с нейроном
Функционирование сетей APT
в слое распознавания,
Функционирование сетей APT
— константа > 1 (обычно 2).

Компоненты вектора весов
Функционирование сетей APT
, связанного с новым запомненным вектором, изменяются таким образом, что становятся равны соответствующим двоичным величинам вектора
Функционирование сетей APT
:

Функционирование сетей APT


где
Функционирование сетей APT
является весом связи между выигравшим нейроном
Функционирование сетей APT
в слое распознавания и нейроном
Функционирование сетей APT
в слое сравнения.


Характеристики АРТ


Системы APT имеют ряд важных характеристик, не являющихся очевидными. Формулы и алгоритмы могут казаться произвольными, в то время как в действительности они были тщательно отобраны и соответствуют требованиям теорем относительно производительности систем APT. В данном разделе описываются некоторые алгоритмы APT, раскрывающие отдельные вопросы инициализации и обучения.



Инициализация весов bij


Инициализация весов

Функционирование сетей APT
малыми значениями является существенной для корректного функционирования систем APT. Если они слишком большие, входной вес вектора, который уже был запомнен, станет скорее активизировать несвязанный нейрон, чем ранее обученный.

Установка этих весов в малые величины гарантирует, что несвязанные нейроны не будут получать возбуждения большего, чем обученные нейроны в слое распознавания. Используя предыдущий пример с

Функционирование сетей APT
,
Функционирование сетей APT
и
Функционирование сетей APT
, произвольно установим
Функционирование сетей APT
. С такими весами предъявление вектора, которому сеть была ранее обучена, приведет к более высокому уровню активации для правильно обученного нейрона в слое распознавания, чем для несвязанного нейрона. Например, для несвязанного нейрона
Функционирование сетей APT
будет производить возбуждение 1/6, в то время как
Функционирование сетей APT
будет производить возбуждение 1/2; и то, и другое ниже возбуждения для обученных нейронов.

Поиск. Может показаться, что в описанных алгоритмах отсутствует необходимость фазы поиска, за исключением случая, когда для входного вектора должен быть распределен новый несвязанный нейрон. Это не совсем так: предъявление входного вектора, сходного, но не абсолютно идентичного одному из запомненных образов, может при первом испытании не обеспечить выбор нейрона слоя распознавания с уровнем сходства, большим р, хотя такой нейрон будет существовать; и, тем самым, без поиска не обойтись.

Как и в предыдущем примере, предположим, что сеть обучается следующим двум векторам:

Функционирование сетей APT

с векторами весов

Функционирование сетей APT
, обученными следующим образом:

Функционирование сетей APT

Теперь приложим входной вектор

Функционирование сетей APT
. В этом случае возбуждение нейрона 1 в слое распознавания будет 1,0, а нейрона 2 только 2/3. Нейрон 1 выйдет победителем (хотя он не лучшим образом соответствует входному вектору), вектор
Функционирование сетей APT
получит значение 1 1 0 0 0,
Функционирование сетей APT

будет равно 1/2. Если уровень сходства установлен в 3/4, нейрон 1 будет заторможен и нейрон 2 выиграет состязание.

Функционирование сетей APT
станет равным 1 1 0 0 0,
Функционирование сетей APT

станет равным 1, критерий сходства будет удовлетворен, и поиск закончится.



Инициализация весовых векторов T


В ранее рассмотренном примере обучения сети можно было видеть, что правило двух третей приводит к вычислению вектора

Функционирование сетей APT
как функции И между входным вектором
Функционирование сетей APT
и выигравшим соревнование запомненным вектором
Функционирование сетей APT
. Следовательно, любая компонента вектора
Функционирование сетей APT
будет равна единице в том случае, если соответствующие компоненты обоих векторов равны единице. После обучения эти компоненты вектора
Функционирование сетей APT
остаются единичными; все остальные устанавливаются в нуль.

Это объясняет, почему веса

Функционирование сетей APT
должны инициализироваться единичными значениями. Если бы они были проинициализированы нулевыми значениями, все компоненты вектора
Функционирование сетей APT
были бы нулевыми независимо от значений компонент входного вектора, и обучающий алгоритм предохранял бы веса от изменения их нулевых значений.

Обучение может рассматриваться как процесс "сокращения" компонент запомненных векторов, которые не соответствуют входным векторам. Процесс необратим, если вес однажды установлен в нуль, — обучающий алгоритм никогда не восстановит его единичное значение.

Это свойство имеет важное отношение к процессу обучения. Предположим, что группа точно соответствующих векторов должна быть классифицирована как одна категория, определяемая возбуждением одного нейрона в слое распознавания. Если эти векторы последовательно предъявляются сети, то при предъявлении первого будет распределяться нейрон распознающего слоя и его веса будут обучены с целью соответствия входному вектору. Обучение при предъявлении остальных векторов будет приводить к обнулению весов в тех позициях, которые имеют нулевые значения в любом из входных векторов. Таким образом, запомненный вектор представляет собой логическое пересечение всех обучающих векторов и может включать существенные характеристики данной категории весов. Новый вектор, включающий только существенные характеристики, будет соответствовать этой категории. Таким образом, сеть корректно распознает образ, никогда не виденный ранее, т. е. реализуется возможность, напоминающая процесс восприятия в мозге человека.



Настройка весовых векторов Bj


Выражение, описывающее процесс настройки весов, является центральным для описания процесса функционирования сетей APT:

Функционирование сетей APT

Сумма в знаменателе представляет собой количество единиц на выходе слоя сравнения. Заданная величина может быть рассмотрена как "размер" этого вектора. В такой интерпретации "большие" векторы

Функционирование сетей APT
производят более маленькие величины весов
Функционирование сетей APT
, чем "маленькие" вектора
Функционирование сетей APT
. Это свойство самомасштабирования делает возможным разделение двух векторов в случае, когда один вектор является поднабором другого, т. е. когда набор единичных компонент одного вектора составляет подмножество единичных компонент другого.

Чтобы проиллюстрировать проблему, которая возникает при отсутствии масштабирования, используемого в данном выражении, предположим, что сеть обучена двум приведенным ниже входным векторам, при этом каждому распределен нейрон в слое распознавания.

Заметим, что

Функционирование сетей APT
является поднабором
Функционирование сетей APT
. В отсутствие свойства масштабирования веса
Функционирование сетей APT
и
Функционирование сетей APT
получат значения, идентичные значениям входных векторов. Если начальные значения выбраны равными 1,0, веса образов будут иметь следующие значения: если
Функционирование сетей APT

прикладывается повторно, оба нейрона в слое распознавания получают одинаковые активации; следовательно, нейрон 2 — ошибочный нейрон — выиграет конкуренцию.

Кроме выполнения некорректной классификации, может быть нарушен процесс обучения. Так как

Функционирование сетей APT
равно 1 1 1 0 0, только первая единица соответствует единице входного вектора, и
Функционирование сетей APT
устанавливается в 1 0 0 0 0; критерий сходства удовлетворяется и алгоритм обучения устанавливает вторую и третью единицы векторов
Функционирование сетей APT
и
Функционирование сетей APT
в нуль, разрушая запомненный образ.

Масштабирование весов

Функционирование сетей APT
позволяет избежать такого нежелательного течения событий. Предположим, что используется значение
Функционирование сетей APT
, тем самым определяя следующую формулу:

Функционирование сетей APT

Подавая на вход сети вектор

Функционирование сетей APT
, получим возбуждающее воздействие 1,0 для нейрона 1 в слое распознавания и
Функционирование сетей APT
для нейрона 2; таким образом, нейрон 1 (правильный) выиграет соревнование. Аналогично, предъявление вектора
Функционирование сетей APT
вызовет уровень возбуждения 1,0 для нейрона 1 и 3/2 для нейрона 2, тем самым снова правильно выбирая победителя.



Нерешенные проблемы и недостатки АРТ-1


Нейронные сети АРТ, при всех их замечательных свойствах, имеют ряд недостатков. Один из них — большое количество синаптических связей в сети, в расчете на единицу запоминаемой информации. При этом многие из весов этих связей (например, вектора
Функционирование сетей APT
) оказываются после обучения нулевыми. Эту особенность следует учитывать при аппаратных реализациях.

Сеть АРТ-1 приспособлена к работе только с битовыми векторами. Это неудобство преодолевается в сетях АРТ-2 и АРТ-3. Однако в этих архитектурах, равно как и в АРТ-1, сохраняется главный недостаток АРТ — локализованность памяти. Память нейросети АРТ не является распределенной, и некоторой заданной категории отвечает вполне конкретный нейрон слоя распознавания. При его разрушении теряется память обо всей категории. Эта особенность, увы, не позволяет говорить о сетях адаптивной резонансной теории как о прямых моделях биологических нейронных сетей. Память последних является распределенной.


Пример обучения сети АРТ


В общих чертах сеть обучается при помощи изменения весов таким образом, что предъявление входного вектора заставляет сеть активизировать нейроны в слое распознавания, связанные со сходным запомненным вектором. Кроме этого, обучение проводится в форме, не разрушающей запомненные ранее образы, и предотвращает тем самым временную нестабильность. Эта задача управляется на уровне выбора критерия сходства. Новый входной образ (который сеть раньше не видела) не будет соответствовать запомненным образам с точки зрения параметра сходства, тем самым формируя новый запоминаемый образ. Входной образ, в достаточной степени соответствующий одному из запомненных образов, не будет формировать нового экземпляра, он просто будет модифицировать тот, на который он похож. В результате при соответствующем выборе критерия сходства предотвращается запоминание ранее изученных образов и временная нестабильность.

На рис. 12.1 показан типичный сеанс обучения сети APT. Буквы изображены состоящими из маленьких квадратов, каждая буква размерностью

Функционирование сетей APT
. Каждый квадрат в левой части представляет компоненту вектора
Функционирование сетей APT
с единичным значением, не показанные квадраты являются компонентами с нулевыми значениями. Буквы справа представляют запомненные образы, каждый является набором величин компонент вектора
Функционирование сетей APT
.

Функционирование сетей APT

увеличить изображение
Рис. 12.1. 

Вначале на вход заново проинициированной системы подается буква "С". Так как отсутствуют запомненные образы, фаза поиска заканчивается неуспешно; новый нейрон выделяется в слое распознавания, и веса

Функционирование сетей APT

устанавливаются равными соответствующим компонентам входного вектора, при этом веса

Функционирование сетей APT
представляют масштабированную версию входного вектора.

Далее предъявляется буква "В". Она также вызывает неуспешное окончание фазы поиска и выделение нового нейрона. Аналогичный процесс повторяется для буквы "Е". Затем слабо искаженная версия буквы "Е" подается на вход сети. Она достаточно точно соответствует запомненной букве "Е", чтобы выдержать проверку на сходство, поэтому используется для обучения сети.




Отсутствующий пиксель в нижней ножке буквы "Е" устанавливает в 0 соответствующую компоненту вектора
Функционирование сетей APT
, заставляя обучающий алгоритм установить этот вес запомненного образа в нуль, тем самым воспроизводя искажения в запомненном образе. Дополнительный изолированный квадрат не изменяет запомненного образа, так как не соответствует единице в запомненном образе.
Четвертым символом является буква "Е" с двумя различными искажениями. Она не соответствует ранее запомненному образу (
Функционирование сетей APT

меньше чем
Функционирование сетей APT
), поэтому для ее запоминания выделяется новый нейрон.
Этот пример иллюстрирует важность выбора корректного значения критерия сходства. Если значение критерия слишком велико, большинство образов не будут подтверждать сходство с ранее запомненными и сеть будет выделять новый нейрон для каждого из них. Такой процесс приводит к плохому обобщению в сети, в результате даже незначительные изменения одного образа будут создавать отдельные новые категории; далее количество категорий увеличивается, все доступные нейроны распределяются, и способность системы к восприятию новых данных теряется. Наоборот, если критерий сходства слишком мал, сильно различающиеся образы будут группироваться вместе, искажая запомненный образ, до тех пор, пока в результате не получится очень малое сходство с одним из них.
К сожалению, отсутствует теоретическое обоснование выбора критерия сходства, и в каждом конкретном случае необходимо решить "волевым усилием", какая степень сходства должна быть принята для отнесения образов к одной категории. Границы между категориями часто неясны, и решение задачи для большого набора входных векторов может быть чрезмерно трудным.
Гроссберг предложил процедуру с использованием обратной связи для настройки коэффициента сходства, вносящую, однако, некоторые искажения в результаты классификации как "наказание" за внешнее вмешательство с целью увеличения коэффициента сходства. Такие системы требуют правил оценки корректности для производимой ими классификации.

Теоремы APT


Гроссберг доказал некоторые теоремы, которые описывают характеристики сетей APT. Четыре результата, приведенные ниже, являются одними из наиболее важных:

После стабилизации процесса обучения предъявление одного из обучающих векторов (или вектора с существенными характеристиками категории) будет активизировать требуемый нейрон слоя распознавания без поиска. Такая характеристика "прямого доступа" обеспечивает быстрый доступ к предварительно изученным образам.Процесс поиска является устойчивым. После определения выигравшего нейрона в сети не будет возбуждений других нейронов из-за изменения векторов выхода слоя сравнения

Функционирование сетей APT
; только сигнал сброса может вызвать такие изменения.Процесс обучения является устойчивым. Обучение не будет вызывать переключения с одного возбужденного нейрона слоя распознавания на другой.Процесс обучения конечен. Любая последовательность произвольных входных векторов будет производить стабильный набор весов после конечного количества обучающих серий. Повторяющиеся последовательности обучающих векторов не будут приводить к циклическому изменению весов.