3Д БУМ

3Д принтеры и всё что с ними связано

ПЕРЦЕПТРОНЫ

Большое количество средств было израсходовано во всем мире на дорогостоящие эксперименты, в которых простые блоки мажори­тарной логики настраивались («обучались») дихотомизации, т. е. умению различать два различных распределения сигналов на входах.

Пожалуй следует отметить, что если от перцептрона, настроен­ного отличать, скажем А от В, потребовать затем, чтобы он раз­личал А и С, необходимо будет вновь представить ему А в процессе настройки. Другими словами, операция настройки перцептрона не требует какого-то особого способа обнаружения свойств, присущих А. Вместо этого он просто настраивается различать два определенных образа. Из описания работы простого демон­страционного перцептрона [12], видно, что он может лишь от­нести к определенному классу символы F, L или даже X; важно лишь то, что все три буквы рассматриваются в равной степени отличающимися от У (или от 0).

При значительном усложнении можно было бы различать го­раздо большее число различных образцов. Тем не менее очень сложные устройства не были реализованы практически, возможно, из-за чрезвычайно высокой стоимости.

Таким образом, в дополнение к многочисленным конструкциям, в которых применялась мажоритарная логика, появилась кон­струкция перцептрона со случайными перекрестными соедине­ниями между 5- и Л-элементами. Кроме того, аналогичный подход был осуществлен в устройстве под названием «Адалин» и в устрой­стве, названном «Мадалин», объединяющем множество устройств «Адалин» общим выходом.

Этот же подход используется в так называемой сети Байеса, только здесь веса входов, задаваемые настройкой резисторов, обычно выбираются случайным образом в соответствии с лога­рифмом вероятности появления сигнала на различных входах.

Вернемся к основным многочисленным работам по устройствам, подобным перцептрону. Нивергелт показал, что эти устройства не могут распознавать простые геометрические свойства (напри­мер, «связность»), а устройство, способное распознавать треуголь­ник или окружность, будет иметь слишком большие размеры [4]. Однако, несмотря на то что подход, реализуемый в таких устрой­ствах, появившихся под множеством разнообразных названий, по всей видимости, мало перспективен, он, по крайней мере, использует мажоритарную логику как противоположность би­нарной логике. Нервная система животных не бинарна ни струк­турно, ни функционально.

В некоторых перцептронах, например описанных Хейем и др.

[5] , или в модификации, созданной Тэйлором в Лондоне [6, 7], переменные резисторы приводятся в движение электрическим дви­гателем, осуществляя автоматическую установку величины сопро­тивления в зависимости от сигнала на выходе усилителя.

Модификация Тэйлора использовалась для различения 10 зрительных образцов, представляющих собой фотографии лиц; Холмс обнаруживал самолеты и здания [14].

Работы по перцептрону все еще получают финансовую под­держку. Например, в Англии делаются попытки миниатюризовать перцептрон за счет использования интегральной схемотехники. 208

В методе теневой маски, используемом иногда для оптического распознавания символов, предусматривается поочередное покры­тие позитива распознаваемого изображения «позитивной маской» каждого из изображений, распознаваемых системой. Затем от­дельно суммируются все участки поверхности тестируемой фи­гуры, лежащие вне каждой из позитивных эталонных масок. Подобным же образом негатив изображения, подлежащего рас­познаванию, сравнивается со всеми возможными негативами изо­бражений и в каждом отдельном случае площади, лежащие вне каждой из эталонных масок, суммируются. Затем «позитивные» и «негативные» суммы складываются, после чего принимается решение относительно предъявляемого символа, которым является скорее всего тот, который дает минимальную полную сумму, иногда называемую «сумма-ошибка».

В Астонской кибернетической лаборатории этот метод иссле­довался Фишером с помощью ЦВМ [17]. Он назвал его методом внутреннего торможения. Для иллюстрации данного метода рас­смотрим простую сетчатку, содержащую только девять клеток. При предъявлении такой сетчатке формализованных символов 1 и I результирующие наборы возбуждения будут выглядеть следу­ющим образом:

Эти наборы возбуждений могут рассматриваться как позитив­ные и негативные маски, хранящиеся в памяти. При возникнове­нии на сетчатке какого-либо неизвестного распределения возбу­ждения оно сравнивается с позитивными масками, а его инверсия — с негативными. Каждое из совпадений предъявленной информации и информации, хранящейся в памяти, засчитывается «за одно очко», тогда как несовпадения не учитываются.

Рассмотрим предъявление сетчатке символа 1. Соответству­ющие комбинации возбуждения, снимаемые с сетчатки, будут иметь вид:

0 10 —10—1

0 10 —10—1

0 10 —10—1

При предъявлении данного символа возбуждения в отдельных клетках сетчатки сравниваются с хранящейся в памяти информа­цией о возможных комбинациях. При сравнении этих эталонных

комбинаций с хранимой в памяти информацией относительно образов 1 и I получаются следующие результаты:

Сравнение с I Сравнение с I

Позитивная корреляция…………………… З………………. 3

Негативная корреляция……………………. 6………………. 2

Сумма……………………………………… 9………………. 5

Итак, при использовании этих сумм в качестве меры корре­ляции оказывается, что вероятность символа 1 почти в два раза превосходит вероятность символа I. Отметим, что на полное со­впадение с предварительно запомненным образом указывает, как видно из примера, величина корреляции, равная числу клеток (в данном случае девяти).

Подобные методы иногда применяют при борьбе с шумами в сет­чатках, содержащих огромное число элементов. Например, если менее пяти из девяти клеток любого квадрата «окрашено» черным, этот отдельный квадрат не рассматривается [15].

Для любых предложений по сайту: [email protected]