Большое количество средств было израсходовано во всем мире на дорогостоящие эксперименты, в которых простые блоки мажоритарной логики настраивались («обучались») дихотомизации, т. е. умению различать два различных распределения сигналов на входах.
Пожалуй следует отметить, что если от перцептрона, настроенного отличать, скажем А от В, потребовать затем, чтобы он различал А и С, необходимо будет вновь представить ему А в процессе настройки. Другими словами, операция настройки перцептрона не требует какого-то особого способа обнаружения свойств, присущих А. Вместо этого он просто настраивается различать два определенных образа. Из описания работы простого демонстрационного перцептрона [12], видно, что он может лишь отнести к определенному классу символы F, L или даже X; важно лишь то, что все три буквы рассматриваются в равной степени отличающимися от У (или от 0).
При значительном усложнении можно было бы различать гораздо большее число различных образцов. Тем не менее очень сложные устройства не были реализованы практически, возможно, из-за чрезвычайно высокой стоимости.
Таким образом, в дополнение к многочисленным конструкциям, в которых применялась мажоритарная логика, появилась конструкция перцептрона со случайными перекрестными соединениями между 5- и Л-элементами. Кроме того, аналогичный подход был осуществлен в устройстве под названием «Адалин» и в устройстве, названном «Мадалин», объединяющем множество устройств «Адалин» общим выходом.
Этот же подход используется в так называемой сети Байеса, только здесь веса входов, задаваемые настройкой резисторов, обычно выбираются случайным образом в соответствии с логарифмом вероятности появления сигнала на различных входах.
Вернемся к основным многочисленным работам по устройствам, подобным перцептрону. Нивергелт показал, что эти устройства не могут распознавать простые геометрические свойства (например, «связность»), а устройство, способное распознавать треугольник или окружность, будет иметь слишком большие размеры [4]. Однако, несмотря на то что подход, реализуемый в таких устройствах, появившихся под множеством разнообразных названий, по всей видимости, мало перспективен, он, по крайней мере, использует мажоритарную логику как противоположность бинарной логике. Нервная система животных не бинарна ни структурно, ни функционально.
В некоторых перцептронах, например описанных Хейем и др.
[5] , или в модификации, созданной Тэйлором в Лондоне [6, 7], переменные резисторы приводятся в движение электрическим двигателем, осуществляя автоматическую установку величины сопротивления в зависимости от сигнала на выходе усилителя.
Модификация Тэйлора использовалась для различения 10 зрительных образцов, представляющих собой фотографии лиц; Холмс обнаруживал самолеты и здания [14].
Работы по перцептрону все еще получают финансовую поддержку. Например, в Англии делаются попытки миниатюризовать перцептрон за счет использования интегральной схемотехники. 208
В методе теневой маски, используемом иногда для оптического распознавания символов, предусматривается поочередное покрытие позитива распознаваемого изображения «позитивной маской» каждого из изображений, распознаваемых системой. Затем отдельно суммируются все участки поверхности тестируемой фигуры, лежащие вне каждой из позитивных эталонных масок. Подобным же образом негатив изображения, подлежащего распознаванию, сравнивается со всеми возможными негативами изображений и в каждом отдельном случае площади, лежащие вне каждой из эталонных масок, суммируются. Затем «позитивные» и «негативные» суммы складываются, после чего принимается решение относительно предъявляемого символа, которым является скорее всего тот, который дает минимальную полную сумму, иногда называемую «сумма-ошибка».
В Астонской кибернетической лаборатории этот метод исследовался Фишером с помощью ЦВМ [17]. Он назвал его методом внутреннего торможения. Для иллюстрации данного метода рассмотрим простую сетчатку, содержащую только девять клеток. При предъявлении такой сетчатке формализованных символов 1 и I результирующие наборы возбуждения будут выглядеть следующим образом:
Эти наборы возбуждений могут рассматриваться как позитивные и негативные маски, хранящиеся в памяти. При возникновении на сетчатке какого-либо неизвестного распределения возбуждения оно сравнивается с позитивными масками, а его инверсия — с негативными. Каждое из совпадений предъявленной информации и информации, хранящейся в памяти, засчитывается «за одно очко», тогда как несовпадения не учитываются.
Рассмотрим предъявление сетчатке символа 1. Соответствующие комбинации возбуждения, снимаемые с сетчатки, будут иметь вид:
0 10 —10—1
0 10 —10—1
0 10 —10—1
При предъявлении данного символа возбуждения в отдельных клетках сетчатки сравниваются с хранящейся в памяти информацией о возможных комбинациях. При сравнении этих эталонных
комбинаций с хранимой в памяти информацией относительно образов 1 и I получаются следующие результаты:
Сравнение с I Сравнение с I
Позитивная корреляция…………………… З………………. 3
Негативная корреляция……………………. 6………………. 2
Сумма……………………………………… 9………………. 5
Итак, при использовании этих сумм в качестве меры корреляции оказывается, что вероятность символа 1 почти в два раза превосходит вероятность символа I. Отметим, что на полное совпадение с предварительно запомненным образом указывает, как видно из примера, величина корреляции, равная числу клеток (в данном случае девяти).
Подобные методы иногда применяют при борьбе с шумами в сетчатках, содержащих огромное число элементов. Например, если менее пяти из девяти клеток любого квадрата «окрашено» черным, этот отдельный квадрат не рассматривается [15].