ОСОБЛИВОСТІ ЗАЛЕЖНОСТІ ПОХИБКИ НАВЧАННЯ БАГАТОШАРОВІ НЕЙРОННІ МЕРЕЖІ ВІД ФУНКЦІЇ АКТИВАЦІЇ В ПРОЦЕСІ РОЗПІЗНАВАННЯ ДРУКОВАНИХ ЦИФР

Serhiy Sveleba, Ivan Katerynchuk, Ivan Kuno, Ostap Semotiuk, Yaroslav Shmyhelskyy, N. Sveleba

Анотація


В роботі проведено дослідження процесу навчання при розпізнаванні друкованих цифр залежно від виду функції активації. Дослідження впливу виду функції активації, кількість ітерацій на процес навчання нейронної системи здійснювався з використанням аналізу Фур’є спектрів функції похибки навчання та діаграм розгалуження. З цією метою в середовищі Phyton розроблена програма для багатошарової нейронної мережі, яка передбачає задання кількості прихованих шарів і кількості нейронів в них, та швидкості навчання Швидкість навчання розглядалась, як постійна величина і визначалось її оптимальне значення, при якому спостерігається найкраще навчання. Для аналізу впливу швидкості навчання на процес навчання, використовувалась логістична функція, яка описує процес подвоєння частоти. Показано, що функція похибки навчання характеризується біфуркаційними процесами, які приводять до хаотичного стану при η>0,8. Визначено оптимальне значення швидкості навчання, яке визначає появу процесу подвоєння кількості локальних мінімумів. Встановлено, що сигмоїдальна функція активації (в порівнянні з функціями активації ReLU та гіперболічний тангенс) найкраще задовольняє процес навчання трьох шарової нейронної мережі для розпізнавання цифр заданих масивом 4х7 нулів і одиниць. Порівняно з іншими функціями активації для неї спостерігається незначна зміна похибки навчання при переході від однієї цифри до іншої. Показано, що збільшення кількості прихованих шарів не приводить до різкого збільшення похибки навчання. Збільшення кількості ітерацій навчання супроводжується появою періодичних залежностей величини логістичної функції від швидкості навчання, період яких є змінною величиною від кількості ітерацій та швидкості навчання. Використовуючи Фур’є спектри функції похибки від величини швидкості навчання, можна стверджувати, що збільшення кількості ітерацій спричиняє збільшення кількості гармонік, які в кінцевому випадку приводять до появи хаотичного стану нейронної мережі.

Ключові слова: Багатошарова нейронна мережа, функція активації,  оптимальна швидкість навчання, розпізнавання цифр.


Повний текст:

PDF (English)

Посилання


[1] S. Mogilnyj Machine learning with the use of microcomputers: teaching book editors: O. Lisovyj and others. - K., 2019. - 226 p.

[2] I. Goodfellow, Y. Bengio, A. Courville. Deep Learning, 2016 URL: http://www.deeplearningbook.org

[3] S. Sveleba, I. Katerynchuk, I. Kuno, I. Karpa, O. Semotyuk, Ya. Shmygelsky, N. Sveleba, V. Kuno. Chaotic states of a multilayer neural network, Electronics and information technologies. 2021. Issue 16. P. 20-35.

[4] X.-S. Wei. Must Know Tips/Tricks in Deep Neural Networks URL: http://www.lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html

[5] J. Brownlee. A Gentle Introduction to the Rectified Linear Unit (ReLU) URL: https://machinelearningmastery.com/rectified-linear-activation-function-for-deep-learning-neural-networks/

[6] M. Nielsen Neural Networks and Deep Learning Chapter 1: Using neural nets to recognize handwritten digits URL: http://neuralnetworksanddeeplearning.com/chap1.html

[7] Yu. Olenych, S. Sveleba, I. Katerynchuk, I. Kunio, I. Karpa. Features of deep studyneural network. 2019. URL: https://openreviewhub.org/lea/paper-2019/features-deep-study-neural-network#

[8] Yu. Taranenko Information entropy of chaos URL: https://habr.com/ru/post/447874/




DOI: http://dx.doi.org/10.30970/eli.17.4

Посилання

  • Поки немає зовнішніх посилань.