Нейронные сети для обработки информации

  

Осовский С. Нейронные сети для обработки информации / Пер. с польского И.Д. Рудинского. - М.: Финансы и статистика, 2002. - 344 с.

Представлены важнейшие разделы теории искусственных нейронных сетей. Основное внимание уделяется алгоритмам обучения и их применению для обработки измерительной информации. Дается детальный обзор и описание важнейших методов обучения сетей различной структуры, иллюстрируемые численными экспериментами с практически подтвержденными результатами.

Для аспирантов и научных работников, интересующихся методами искусственного интеллекта. Может быть полезна специалистам в области информатики, статистики, физики и технических дисциплин, а также специалистам биомедицинских отраслей знаний.



Оглавление

К читателю
Предисловие к русскому изданию
Предисловие
Раздел 1. ВВЕДЕНИЕ
1.1. Биологические основы функционирования нейрона
1.2. Первые модели нейронной сети
1.3. Прикладные возможности нейронных сетей
Раздел 2. МОДЕЛИ НЕЙРОНОВ И МЕТОДЫ ИХ ОБУЧЕНИЯ
2.1. Персептрон
2.2. Сигмоидальный нейрон
2.3. Нейрон типа «адалайн»
2.4. Инстар и оутстар Гроссберга
2.5. Нейроны типа WTA
2.6. Модель нейрона Хебба
2.7. Стохастическая модель нейрона
Раздел 3. ОДНОНАПРАВЛЕННЫЕ МНОГОСЛОЙНЫЕ СЕТИ СИГМОИДАЛЬНОГО ТИПА
3.1. Однослойная сеть
3.2. Многослойный персептрон
3.2.2. Алгоритм обратного распространения ошибки
3.3. Потоковые графы и их применение для генерации градиента
3.4. Градиентные алгоритмы обучения сети
3.4.2. Алгоритм наискорейшего спуска
3.4.3. Алгоритм переменной метрики
3.4.4. Алгоритм Левенберга-Марквардта
3.4.5. Алгоритм сопряженных градиентов
3.5. Подбор коэффициента обучения
3.6. Эвристические методы обучения сети
3.7. Сравнение эффективности алгоритмов обучения
3.8. Элементы глобальной оптимизации
3.8.1. Алгоритм имитации отжига
3.8.2. Генетические алгоритмы
3.9. Методы инициализации весов
Раздел 4. ПРОБЛЕМЫ ПРАКТИЧЕСКОГО ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ
4.2. Подбор оптимальной архитектуры сети
4.2.2. Методы редукции сети с учетом чувствительности
4.2.3. Методы редукции сети с использованием штрафной функции
4.3. Методы наращивания сети
4.4. Подбор обучающих выборок
4.5. Добавление шума в обучающие выборки
4.6. Примеры использования персептронной сети
4.6.2. Нейронная сеть для сжатия данных
4.6.3. Идентификация динамических объектов
4.6.4. Прогнозирование нагрузок энергетической системы
Раздел 5. РАДИАЛЬНЫЕ НЕЙРОННЫЕ СЕТИ
5.2. Радиальная нейронная сеть
5.3. Методы обучения радиальных нейронных сетей
5.3.1. Применение процесса самоорганизации для уточнения параметров радиальных функций
5.3.2. Вероятностный алгоритм подбора параметров радиальных функций
5.3.3. Гибридный алгоритм обучения радиальных сетей
5.3.4. Алгоритмы обучения, основанные на обратном распространении ошибки
5.4. Пример использования радиальной сети
5.5. Методы подбора количества базисных функций
5.5.2. Метод ортогонализации Грэма-Шмидта
5.6. Сравнение радиальных и сигмоидальных сетей
Раздел 6. СПЕЦИАЛИЗИРОВАННЫЕ СТРУКТУРЫ НЕЙРОННЫХ СЕТЕЙ
6.1. Сеть каскадной корреляции Фальмана
6.2. Сеть Вольтерри
6.2.1. Структура и особенности обучения сети
6.2.2. Примеры использования сети Вольтерри
Раздел 7. РЕКУРРЕНТНЫЕ СЕТИ КАК АССОЦИАТИВНЫЕ ЗАПОМИНАЮЩИЕ УСТРОЙСТВА
7.2. Автоассоциативная сеть Хопфилда
7.2.2. Режим обучения сети Хопфилда
7.2.3. Режим распознавания сети Хопфилда
7.3. Сеть Хемминга
7.4. Сеть типа BAM
7.4.2. Модифицированный алгоритм обучения сети ВАМ
7.4.3. Модифицированная структура сети ВАМ
Раздел 8. РЕКУРРЕНТНЫЕ СЕТИ НА БАЗЕ ПЕРСЕПТРОНА
8.2. Персептронная сеть с обратной связью
8.2.2. Алгоритм обучения сети RMLP
8.2.3. Подбор коэффициента обучения
8.2.4. Коэффициент усиления сигнала
8.2.5. Результаты компьютерного моделирования
8.3. Рекуррентная сеть Эльмана
8.3.2. Алгоритм обучения сети Эльмана
8.3.3. Обучение с учетом момента
8.3.4. Пример компьютерного моделирования сети Эльмана
8.4. Сеть RTRN
8.4.2. Результаты вычислительных экспериментов
Раздел 9. СЕТИ С САМООРГАНИЗАЦИЕЙ НА ОСНОВЕ КОНКУРЕНЦИИ
9.1. Отличительные особенности сетей с самоорганизацией на основе конкуренции
9.1.1. Меры расстояния между векторами
9.1.2. Нормализация векторов
9.1.3. Проблема мертвых нейронов
9.2. Алгоритмы обучения сетей с самоорганизацией
9.2.1. Алгоритм Кохонена
9.2.2. Алгоритм нейронного газа
9.2.3. Сравнение алгоритмов самоорганизации
9.3. Сеть восстановления одно- и двухмерных данных
9.4. Восстановление Сэммона
9.5. Применение сетей с самоорганизацией
9.5.2. Диагностирование неисправностей оборудования
9.5.3. Краткосрочное прогнозирование нагрузок энергетической системы
9.6. Гибридная сеть
Раздел 10. СЕТИ С САМООРГАНИЗАЦИЕЙ КОРРЕЛЯЦИОННОГО ТИПА
10.2. Нейронные сети РСА
10.2.2. Определение первого главного компонента
10.2.3. Алгоритмы определения множества главных компонентов
10.3. Нейронные ICA-сети Херольта-Джуттена
10.3.2. Статистическая независимость сигналов
10.3.3. Рекуррентная структура разделяющей сети
10.3.4. Алгоритм Херольта-Джуттена для рекуррентной сети
10.3.5. Обобщенный алгоритм обучения рекуррентной сети
10.3.6. Однонаправленная сеть для разделения сигналов
Раздел 11. МАТЕМАТИЧЕСКИЕ ОСНОВЫ НЕЧЕТКИХ СИСТЕМ
11.1. Операции на нечетких множествах
11.2. Меры нечеткости нечетких множеств
11.3. Нечеткость и вероятность
11.4. Нечеткие правила вывода
11.5. Системы нечеткого вывода Мамдани-Заде
11.5.1. Фуззификатор
11.5.2. Дефуззификатор
11.5.3. Модель Мамдани-Заде как универсальный аппроксиматор
11.6. Модель вывода Такаги-Сугено-Канга
Раздел 12. НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ
12.1. Структура нечеткой сети TSK
12.2. Структура сети Ванга-Менделя
12.3. Гибридный алгоритм обучения нечетких сетей
12.4. Применение алгоритма самоорганизации для обучения нечеткой сети
12.4.2. Алгоритм пикового группирования
12.4.3. Алгоритм разностного группирования
12.4.4. Алгоритм нечеткой самоорганизации Густафсона-Кесселя
12.4.5. Сеть с нечеткой самоорганизацией в гибридной структуре
12.4.6. Примеры реализации нечетких сетей
12.5. Адаптивный алгоритм самоорганизации нечеткой сети
Литература
email@scask.ru