Не задавайте глупых вопросов!


Мы учим сеть по обобщенным эталонам, несомненно, опираясь на здравомыслие пользователя. Так, применяя обобщенный эталон А1&В2&ВЗ&С1&С2&СЗ, мы предполагаем возникновение логичных вопросов типа «Какое решение принять, если Вася отправился в павильон "Роксана", куда накануне завезена большая партия косметики из Китая?» При А1 = ВЗ = С2 = 1 (на самом деле истинное происхождение косметики известно) задаем ясный вопрос и получаем столь же ясный ответ: «Принимай решение (или значение твоей прибыли) R2!»

Но что, если при сложившихся связях сформулировать вопрос: ВЗ=С1=С2=СЗ= 1 ? Максимального и равного возбуждения на выходе достигнет даже не один нейрон! Судить ли по неоднозначности ответа о том, что на входе произошло «объединение» вопросов? (Каков вопрос, таков ответ?) А всегда ли получается неоднозначный ответ?

Положим А2 =В1 = В2 = 1. Максимального возбуждения достигнет нейрон Вых5. Но предусматривалось ли решение R5 в ответ на такую ситуацию? Хотя завоз продукции фирм Красный киллер и Пират в палатки С\, С2 и СЗ накануне визита Пети вполне возможен.

Несомненно, для правильного ответа надо правильно ставить вопрос. Корректность использования нейросети обусловлена теми задачами и правилами, которые лежат в основе ее разработки. Если мы предположили, что события А, В, С обязательно должны участвовать в формировании вопросов, то при появлении других вопросов сеть необходимо дополнительно обучить.

Например, вопрос «Фирма ВЗ направила свою продукцию в палатки С\, С2 и СЗ. Что делать?» требует тщательной проработки нового ответа R6 на свободном нейроне Вых6 выходного слоя и трассировки пути возбуждения ВЗ, С1, С2, СЗ

Однако возможности неоднозначного ответа (получения одинаковой величины возбуждения нейронов выходного слоя) таким образом не избежать. Придется анализировать всю картину возбуждения нейронов выходного слоя и выдавать все ответы типа: «Продукция фирмы ВЗ поступила в палатки С1, С2, СЗ»; "Это впоследствии скорее всего приведет к решениям В2 и R4".

Нетрудно видеть, что такая ситуация приводит к необходимости надстройки сети вторым логическим уровнем, где выходной слой нейронов первого уровня становится возможно, в совокупности со своим входным слоем) входным слоем второго уровня. Так могут быть продолжены логические цепочки наших умозаключений.



Познание нового основа самообучения


Мы научили сеть множеству эталонов — вплоть до сформированных в обобщенные. Теперь, подавая на вход даже искаженные образы, можно ответить на вопрос «На какой эталон в большей мере он похож?» С помощью максимально возбужденного нейрона выходного слоя ответ будет найден. Рассмотрим далее более внимательно пороги.

Что если установить ограничение на величину возбуждения нейронов выходного слоя? А именно если величина максимального возбуждения меньше порога Н, следует считать, что сеть не знает, что за образ подан на ее вход, и вправе рассматривать его как новый эталон для обучения. Тогда необходимо найти свободный нейрон выходного слоя и по вышеприведенному алгоритму произвести трассировку.

Так проводится запоминание эталона. Для последующего использования новых знаний трудно обойтись без внешнего воздействия, без учителя, ибо неизбежен вопрос «Что это, и что из этого следует?» Ведь длителен путь эволюции, основанный на самообучении, без поддержки извне. Таким образом, решение, принимаемое при предъявлении нового эталона, выбирается на основе расчетов, моделирования, опыта, цели, экспертных оценок и т.д.

Представим себе возможный диалог между нейрокомпьютером (НК) и учителем (У):

НК (Величина возбуждения ни одного нейрона выходного слоя не преодолела порог): Это чтото новенькое! Повтори вопрос, может, величины возбуждения на входе малы?

У: Повторяю вопрос.

ИК (Результат тот же): Все же это чтото новенькое. Приводит ли это к одному из известных решений или решение новое?

У (Варианты):

1. Это должно привести к решению RS.

2. Это новое решение R6.
НК (Соответствующие варианты):


1. Произвожу трассировку по уточненному обобщенному эталону для решения R5.

2. Рассматриваю твой вопрос как новый обобщенный эталон. Провожу трассировку к выходному нейрону Вых6, соответствующему решению R6.

 

Здесь идет самообучение системы «учитель — нейрокомпьютер». Полное или близкое к нему самостоятельное обучение нейрокомпьютера возможно тогда, когда сеть многоуровневая, т. е. одни выводы являются посылками для других. При этом сеть должна быть знакома хотя бы с понятиями «хорошо» и «плохо», т. е. учитывать критериальную функцию, необходимую для моделирования. Это высшие сферы обучения (самообучения), которые мы здесь не рассматриваем.

Любая достаточно развитая нейросетевая система должна быть многоуровневой, допускающей цепочки выводов. Иначе трудно представить себе такие диалоговые системы, с помощью которых производится постепенное уточнение при успешном продвижении к истине.



в процессе медицинской диагностики формируется,


Например, диалог в процессе медицинской диагностики формируется, несомненно, на основе отработанной стратегии «допроса». Предполагается, что вопросы структурированы и даже соблюдают порядок следования, отображенный графически, так что одни вопросы исключают другие.

В то же время принцип нейросети применим и тогда, когда вопросы нелогичны, несовместимы. Возбуждения всех нейронов выходного слоя не превысят порога, и НК вступит в диалог с пользователем (П), подобный предыдущему. Если же ответ на логичный вопрос не был предусмотрен экспертами (учителем), то этот недостаток устраним трассировкой нового решения. Правда, новым решением — реакцией на вопрос может быть ответ: «Не задавай глупых вопросов!»

В общем случае диалог пользователя с нейрокомпьютером может выглядеть следующим образом:

 

НК (Первый вопрос после входа): Что у Вас болит?

П: Голова, живот, палец.

НК (После ввода и обработки сигналов — величин возбуждения нейронов входного слоя, соответствующих понятиям «голова», "живот", «левый указательный палец», максимально возбуждается нейрон промежуточного выходного слоя, инициирующий следующий вопрос): Молились ли Вы на сон грядущий?

Л: Да.

НК: Мыли ли Вы руки, ложась спать?

П (Варианты):

1. Я мою только ноги.

2. Нет.

НК (Варианты):

1. Не задавайте глупых вопросов!

2. (На правах рекламы) Не волнуйтесь, но Вы страдаете манией величия. Вам срочно необходимо обратиться в Пенсионный фонд Российской Федерации!



Рассмотрим проблему динамического включения новых


Рассмотрим проблему динамического включения новых частных эталонов в состав обобщенного на фоне уже произведенного частичного обучения нейросети.

Пусть предъявление эталонов А1&B1&C2 и А1&В1&С4 (обобщенный эталон А1&В1&С2&С4), требующих решения R1, а также предъявление обобщенных эталонов А1&В2&С1&С2&СЗ; А1&В2&С4&С5, A2&B3&C1&C2&C3&C4&C5, А2&В1&С1&С2&СЗ &С4&С5, требующих соответственно решений R2, КЗ, R4, R5, привели к трассировке нейросети, представленной на рис. 4.1. Здесь выделенные связи обладают максимальным значением веса (единичным). Нейросеть получена с помощью алгоритма трассировки, изложенного выше. Матрица следования S, соответствующая получившейся сети, показана на рис. 4.2.

Указанную нейросеть весьма утяжеляют дополнительные связи. Обучение всем обобщенным эталонам сразу (см. разд. 3) выявляет термы, использующиеся при получении различных решений. Здесь же термы не складывались, нейроны почти не использовались повторно. Это и привело к формированию большого числа дополнительных связей.




в процессе эксплуатации обученной сети


Пусть в процессе эксплуатации обученной сети выяснилось, что ситуации (эталоны) А1&В1&С1 и А1&В1&СЗ в дополнение к ранее предусмотренным не только возможны, но требуют того же решения R1. Это означает, что обобщенный эталон А1&В1&С2&С4 следует расширить до эталона А1&В1&С1&С2& С5&С4, требующего решения R1, т. е. необходимо построить путь возбуждения (трассу) В\, А\, С\, С2, С3, C4

 










допускать слияния, влияния строящейся трассы


Нельзя, однако, допускать слияния, влияния строящейся трассы на пути возбуждения, ведущие к другим нейронам выходного слоя, что происходит при повторном использовании нейронов. Ведь слияние двух путей возбуждения заключается в увеличении весов синапсических связей некоторых нейронов. Таким образом, некоторые нейроны могут получать сигналы возбуждения большего, чем прежде, числа нейронов. А если эти нейроны использовались для получения других решений?

В дополнение к алгоритму трассировки заметим следующее. Целесообразно при повторном использовании нейронов в процессе последовательного анализа обобщенных эталонов проследить за тем, участвует ли данный нейрон лишь в одном пути возбуждения к единственному нейрону выходного слоя и к какому именно или к более чем одному нейрону выходного слоя. Этого вполне достаточно.

Для нового обобщенного эталона на основе матрицы S построим матрицу СТРАТЕГИИ ОБУЧЕНИЯ И САМООБУЧЕНИЯ 4 Вых1] (рис. 4.3, а). В соответствии с правилом построения в ней представлены лишь те нейроны, для которых число единиц в строке равно соответствующему значению т. Для каждой строки, содержащей единичные элементы, указано использование нейрона для получения какоголибо единственного решения (признак Вых1) или не единственного (признак отсутствует).

Исключим из построенной матрицы строки и столбцы, соответствующие нейронам, участвующим в путях возбуждения, не ведущих к Вых\ (рис. 4.3, б).

В столбце, соответствующем нейрону С1, и в строке, не являющейся входом, находим первый сверху нулевой элемент. Полагаем его равным единице и отражаем введенное изменение в матрице S. Если нулевого элемента в столбце не нашлось, находим первый «пустой» или отмеченный транзитивной связью элемент и полагаем его равным единице. В результате получаем дополнительную связь С1

То же проделываем с нейроном СЗ, введя дополнительную связь с единичным весом СЗ


что наше решение основано на


Отметим, что наше решение основано на эвристике, и место появления новых возбужденных связей может быть оспорено. Например, могли быть построены связи СТРАТЕГИИ ОБУЧЕНИЯ И САМООБУЧЕНИЯ 5 9, или Вых1, СЗ СТРАТЕГИИ ОБУЧЕНИЯ И САМООБУЧЕНИЯ 5 9, или СТРАТЕГИИ ОБУЧЕНИЯ И САМООБУЧЕНИЯ 5 Вых1, и т.д.



Предлагаем читателю самостоятельно получить уточненную сеть, дополнив рис. 4.1.