Добавлен: 30.06.2023
Просмотров: 73
Скачиваний: 3
Рисунок 1.2 – представление нейронной сети
На известны десятки, если не различных архитектур ИНС, хотя нас в будут сети, реализующие различные обработки информации, которых выделить старую проблему некоторой функции.
Отдельную нейронных составляют сети с обратной связью различными нейронов. Это так рекуррентные сети. Их черта в сигналов с либо скрытого слоя во слой.
Главная особенность, эта сети других нейронных сетей, - зависимости на этапе функционирования. Изменение одного отражается на всей сети обратной связи типа “один ко многим”. В сети некоторый процесс, который формированием устойчивого состояния, в общем от предыдущего. Если, как и прежде, активации нейрона обозначть f(u), где и — это сумма его возбуждений, то состояние можно выходным сигналом. во внимание, что при связи типа “один ко многим” роль импульсов для играют выходные сигналы нейронов, его может быть системой дифференциальных уравнений.
По с системами функцию можно нелинейной характеристикой нейрона. Коэффициент вычисляется как приращения выходной к вызвавшему его приращению входной. Он наклоном при определенном возбуждения и от значений при больших отрицательных (кривая горизонтатьна) до значения при возбуждении и уменьшается, возбуждение становится большим положительным. область функции, имеющая большой усиления, проблему фабых сигналов, в то время как с усилением на н концах подходят для возбуждений.
Среди конфигураций нейронных сетей встречаются такие, при которых по обучения, строго говоря, не ни с учителем, ни без учителя. В таких сетях коэффициенты рассчитываются однажды началом функционирования сети на информации об данных, и все обучение сети именно к расчету. С стороны, предъявление априорной можно расценивать, как учителя, но с - сеть фактически запоминает до того, как на ее вход реальные данные, н не изменять свое поведение, говорить о обратной связи с "миром" (учителем) не приходится. Из с логикой работы известна сеть Хопфнлда, обычно для организации памяти.
Обобщенная структура этой сети представляется, как правило, в виде с непосредственной обратной выхода со (рис. 1.3). особенность такой системы в том, что сигналы являются одновременно входными сети:, при этом вектор не выделяется. В классической Хопфилда связь с выходом, что wij = 0, а весов симметричной: W = WT.[13]
Рисунок 1.3 – структура сети Хопфилда
Процесс сети зоны (аттракции) некоторых равновесия, обучающим данным. При использовании ассоциативной с вектором х либо с этих векторов, которые в проводимого определяют конкретных аттракторов (точек притяжения). нейрон функцию типаsignum со ±1. Это означает, что сигнал определяется функцией
.
где N количество нейронов, N = п.
В функционирования сети можно два режима: и классификации. В обучения на известных обучающих х весовые wij. В классификации при значениях и конкретного состояния нейронов переходный процесс, в с заданными настройками сети и в из минимумов. Благодаря такому обучения веса значения, усреднением множества выборок.
Задача, данной в ассоциативной памяти, как правило, следующим образом. некоторый набор двоичных с сигнало (изображений, оцифровок, прочих данных, некие или процессов), которые считаются образцовыми. Сеть уметь из неидеального сигнала, поданного на ее вход, ("вспомнить" по информации) соответствующий (если есть) или "дать заключение" о том, что данные не ни из образцов.
По подбора сети их значения “замораживаются”, и сеть использоваться в распознавания. В этой фазе на вход сети подается тестовый вектор х и ее в виде, итерационный повторяется для последовательных вплоть до отклика.
При количестве образуются косвенные локальные минимумы, не ни из образов, но определяемые структурой функции сети. Процесс распознавания сойтись к из локальных минимумов, вследствие чего решение не соответствовать ни из нейронов, участие в обучения.
1.3. Однослойный персептрон
Искусственная сеть, из нейронов Мак-Каллока - показана на рисунке1.4. Она производит "групповое" (вычисление) информации, на её входа. [14]
Рисунок 1.4 – сеть Мак-Каллока – Питтса
Элемент Σ каждый вход х на вес w и суммирует взвешенные входы. Если эта больше порогового значения, выход равен единице, в случае – нулю. Эти (и им подобных) получили персептронов. Они из слоя искусственных нейронов, с весовых с входов, хотя в описываются и сложные системы.
В 1957 году Фрэнк Розенблатт и принцип – однослойной нейронной сети (Рисунок 1.5). Розенблатта моделировал распознавания образов и из рецепторного слоя (S), слоя нейронов (А) и слоя реагирующих нейронов (R). В Розенблатта имеет входов (дендритов) и один (аксон). возбуждается и импульс на свой выход, если число на входах число на тормозных входах на величину, порогом нейрона. В зависимости от внешнего раздражения, в S-слое некая совокупность импульсов, на А-слой, где в с совокупностью импульсов новые импульсы, на входы R-слоя.[15]
Рисунок 1.5 – схема перцептрона
S-элементы (сенсоры) - это элементы, которые от какого-либо из энергии (например, света, звука, давления, тепла и т. п.) сигнал. Если сигнал некоторый порог θ, на элемента +1, в случае 0.
Рисунок 1.6 – активации S-элемента
A-элементы (ассоциативные) логическими решающими элементами, дают сигнал +1, алгебраическая их входных равна или некоторую величину θ (говорят, что активный), в случае равен -1.
R-элементы (реагирующие, то есть действующие) называются элементы, выдают +1, если их сигналов является строго положительной, и -1, если их сигналов является строго отрицательной. Если входных равна нулю, считается либо нулю, либо неопределённым.[16]
Рисунок 1.7 – активации R-элемента
23 июня 1960 года машина «Марк-1», в Корнелльском (штат Нью-Йорк) Розенблаттом, проявила способности к самообучению: она узнавала, или круг ей показывают. образом, она представление об геометрических фигурах и квадрат, например, бы или он ни был. Чтобы «научить» классифицировать образы, был специальный итерационный обучения проб и ошибок, процесс обучения человека — коррекции ошибки. того, при той или иной буквы мог характерные буквы, чаще встречающиеся, чем отличия в случаях. Тем персептрон был обобщать буквы, различным (почерком), в один обобщённый образ.
Различают персептрон, в входные элементы напрямую с с системы и многослойный персептрон, в присутствуют слои A-элементов.
Обучение персептрона
Функцией F для однослойного персептрона является ступенька:[17]
Рисунок 2.5 активации элементарного персептрона
Обучение персептрона наличие обучающей - пар (Хs, Ds), где Х пары – это вектор персептрона, а D – это вектор персептрона, считается правильным при входном. на вход перcептрона Хs из множества и выход сети Ys. Сравним выход сети с Ds. Зная между ними, можно ввести для коэффициентов и уровней:
Если сети правильный (ds – ys = 0), то веса нейрона не изменяются.
Если больше правильного (ds – ys< 0), то веса нейрона должны уменьшаться.
Если меньше правильного (ds – ys> 0), то веса нейрона должны увеличиваться.
Перейти на шаг 1.
Для j-го нейрона в слое правило записать в виде дельта-правило:
Где ε - небольшое положительное число, скорость обучения; Δwij – коррекция, связанная с i-м нейрона; ΔΘj - порогового уровня j-го нейрона; wij(n+1) – веса коррекции; wij(n) - значение веса до коррекции; Θj(n+1) - порогового после коррекции; Θj(n) - порогового до коррекции.
За число шагов сеть давать ответы. При обучения веса и пороговые инициализируются значениями. таким образом сеть неадекватна задаче и генерировать на выходе шум. ошибка в обучения велика, и есть смысл вводить коррекции параметров. к обучения значительно снижается, и должны быть малыми. менять шагов по параметрам, расписание (learning schedule). Скорость обучения, от обучения: ε(t). скорость монотонно убывает с времени. Для алгоритма необходимо:
Часто выбирают ε(t) = 1/at, а > 0 или функции. с расписанием обучения быстрее, так как в используются коррекции, и дают точные за счет настройки в конце обучения.
2. ИСПОЛЬЗОВАНИЕ СЕТЕЙ В И БИЗНЕСЕ
Нейронные сети в 40-х годах, в и экономике их лишь в 80-х, была доказана сходимость классов сетей и улучшена точность распознавания.
Основные применения сетей в мире — котировок инструментов (курсов валют, бумаг, ГКО и др.) и определенных (например, подозрительных операций с картой).[18]
Получение с сети разделить на следующие этапы: сети, ее и решение задачи.
Сначала сеть строится, т. е. архитектура сети, количество слоев, функции, веса. этапом является обучение, при сети на вход значения, с известными ответами, сеть решение, и корректировка в соответствии с принятого решения. продолжается до тех пор, пока принятия сетью не удовлетворительными. После того, как сеть обучена, ее применять для практических задач. особенность мозга в том, что, однажды обучившись процессу, он верно и в тех ситуациях, в он не в обучения. Например, мы читать почти почерк, даже если его раз в жизни. Так же и нейросеть, грамотным обученная, с вероятностью реагировать на новые, не ей данные. подход особенно эффективен в экспертной по той причине, что он в себе способность к чисел и мозга к и распознаванию.
Примером сети, на зависимостей, можно привести на методики МГУА (метод учета аргументов), которая на обучающей построить одного параметра от в виде полинома. сеть не мгновенно выучить умножения, но и сложные зависимости в данных (например, финансовых), не стандартными статистическими методами.[19]
Кластеризация - это разнородного примеров на областей (кластеров), по каким-то признакам, число кластеров неизвестно. позволяет неоднородные данные в наглядном виде и далее для каждого кластера методы. Например, образом быстро выявить фальсифицированные случаи или предприятия.
2.1. нейронных при объектов
В проблема распознавания (ПРО) из двух частей: и распознавания. Обучение путем отдельных с их принадлежности тому или образу. В обучения распознающая система приобрести реагировать реакциями на все объекты образа и реакциями - на все отличимых образов. Очень важно, что обучения завершиться путем показов конечного объектов. В объектов могут быть использованы изображения объектов. Важно, что в обучения указываются только сами и их образу. За следует процесс распознавания объектов, характеризует уже обученной системы. этих и проблему обучения распознаванию образов.
Для задачи лиц различные методики, которых выделить подходы, на сетях, алгебраических моментах, одинаковой интенсивности, эластичных (деформируемых) сравнения.
Анализ выделения части показал, что для данной эффективным использование искусственных нейронных сетей, поскольку они возможность получения классификатора, моделирующего функцию изображений строений, тем увеличивая решения по с решениями, получаемыми методами.
Наиболее в распознавания и идентификации изображений классические архитектуры (многослойный персептрон, сети с радиально-базисной и др.), но применение классических архитектур в распознавания ряд недостатков, для данной целесообразно использовать рекурсивные сети (например Хопфилда), частичную устойчивость к масштаба, смещениям, поворотам, ракурса и прочим искажениям.
Архитектура сети большое количество чередующихся двух типов: слои и (рисунок 2.1).[20]
Рисунок 2.1 – использования сети для образов:
1 — вход; 2, 4, 6 — ассоциативные слои; 3, 5 — слои;
7 — слой из обычных нейронов; 8 — выход