Professional Documents
Culture Documents
Використання Нейронних Мереж
Використання Нейронних Мереж
Мережі Кохонена
Тобто кожен нейрон Гроссберга дає на виході один зі своїх вагових коефіцієнтів,
номер якого збігається з номером активного нейрона Кохонена. Отже, шар
Гроссберга перетворить вихід шару Кохонена з кодуванням по номеру каналу в
довільний лінійний код на виході, породжується матриця коду, яка збігається з
матрицею вагових коефіцієнтів шару Гроссберга.
Мережа зустрічного поширення. Шар Гроссберга
Мережа навчається із учителем, хоча й містить у собі шар Кохонена.
Для навчання необхідна навчальна множина, що містить пари векторів
(xp, yp). Особливість МЗП у тім, що обидва вектори (xp, yp) подаються на
вхід, і знімаються з виходу мережі. Навчання відбувається в наступній
послідовності:
1. Подаємо на вхід вектор Визначаємо нейрон Кохонена, що
виграв, й розраховуємо вихід мережі.
2. Навчаємо шар Кохонена (проводимо тільки одну ітерацію навчання)
по звичайному алгоритмі без вчителя. При цьому вектор
Dp розглядається як вектор, що класифікується.
3. Знаючи необхідний вихідний вектор, проводимо корекцію ваг шару
Гроссберга так, щоб вихід наблизився до необхідного значення:
а
Навчання нейроконтролера
Обрана архітектура (три приховані осередки) визначена
методом проб і помилок. Вони можуть бути навчені зі 100%
точністю для всіх представлених прикладів.
Подаємо навчальні приклади. Потім виконується алгоритм
зворотного поширення з урахуванням бажаного результату і
дійсного результату.
Наприклад, якщо персонаж здоровий, має пістолет і бачить
одного ворога, бажана дія - атакувати. Але якщо персонаж
здоровий, має ніж та бачить кількох ворогів, то правильна дія -
сховатися.
Дані для тестування це кілька сценаріїв з набором дій.
Навчання нейроконтролера
Навчання нейроконтролера
Графік зниження середньої помилки
Тестування нейроконтролера
Визначимо як мережа буде реагувати на сценарії, про які їй нічого
не відомо.