Главная > Нейронные сети для обработки информации
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

10.2.3. Алгоритмы определения множества главных компонентов

Определение следующих компонентов РСА предполагает использование в выходном слое большого количества нейронов. Сеть содержит столько нейронов, сколько должно учитываться главных компонентов разложения. Они располагаются в одном слое, поэтому сеть РСА считается однослойной с линейными функциями активации нейронов (рис. 0.3).

Рис. 10.3. Линейная нейронная сеть РСА для определения К главных компонентов

Обобщенное правило Ойя для такой сети становится нелокальным и малопривлекательным с вычислительной точки зрения. Лучшие результаты дает применение правила Сенгера [141]. Если К линейных нейронов выходного слоя генерируют выходные сигналы согласно выражению

то уточнение весов сети производится по формуле [141]

для Если принять обозначение

то выражение (10.25) можно представить в форме

аналогичной формуле Ойя (10.22), соответствующей только одному нейрону. Поэтому даже при наличии в выходном слое К нейронов правило обучения все равно остается локальным при условии модификации значения входного сигнала Скалярные зависимости (10.26) и (10.27) можно записать в векторной форме

для Правило имеет локальный характер, поскольку для уточнения весов одного нейрона не требуется решать уравнения, описывающие всю сеть. Следует заметить, что для первого нейрона (первого главного компонента Для второго нейрона получаем: в этой формуле присутствуют только уже известные веса первого нейрона. Аналогично для третьего нейрона: и т.д. - модификация вектора х выражается через ранее определенные величины, и процесс обучения осуществляется, подобно алгоритму Ойи, с самонормализующимися векторами

Рис. 10.4. Образ "Лена", восстановленный сетью РСА при использовании различного количества главных компонентов: а) один главный компонент; б) три главных компонента; в) пять главных компонентов

В настоящее время существует много различных нейронных алгоритмов, позволяющих осуществить преобразование РСА. К наиболее серьезным, помимо алгоритма Сенгера, относятся алгоритмы Фолдяка, Рабнера, а также APEX

(англ.: Adaptive Principal component Extraction). Подробности их реализации можно найти в книге Диамантараса и Кунга [29].

Преобразование РСА чаще всего применяется для компрессии данных, при котором большое количество входной информации заменяется уменьшенной дозой, содержащейся в векторах . В зависимости от степени сжатия (количества главных компонентов РСА) можно получить различное качество восстановления данных.

Для примера на рис. 10.4 представлены три изображения "Лена", реконструированные на основе 1, 3 и 5 главных компонентов РСА [92]. Образ, подвергнутый компрессии, имел размер 512x512 пикселов и был разделен на кадры размером 8x8. Качество восстановленного изображения сильно зависит от количества К главных компонентов, учитываемых при восстановлении. Чем больше этих компонентов, тем выше качество изображения и одновременно тем меньше коэффициент компрессии. Изображение на рис. 10.4а соответствует коэффициенту компрессии около 64, на рис. 10.46 - около 21, а на рис. 10.4в - около 12. При наибольшей степени сжатия (при одном главном компоненте) на изображении сильно заметны отдельные кадры. Изображение, восстановленное на основе пяти главных компонентов, зрительно не отличается от оригинала. Коэффициенты PSNR, полученные для этих образов, равны соответственно 18,80 дБ, 25, 43 дБ и 27, 58 дБ.

1
Оглавление
email@scask.ru