Навчання глибоких моделей: алгоритми оптимiзацiї як
ключ до ефективностi
Анотація
Через надзвичайно велику кількість даних, які ми опрацьовуємо процес побудови та навчання моделі є дуже затратним і потребує великих обчилювальних ресурсів. Саме тому постає проблема як можна оптимізувати даний поцес від якого значною мірою залежить результат глибокого навчання. Ефективні алгоритми оптимізації можуть значно покращити здатність моделі до навчання, дозволяючи їй вловлювати складні закономірності, видобувати змістовні репрезентації та робити точні прогнози.
В межах цієї роботи було досліджено проблему оптимізації в навчанні глибоких моделей. Описано переваги та недоліки різних підходів до процесу оптимізації навчання. На прикладі стандартного набору даних MNIST було перевірено ефетивність таких стратегій оптимізації: алгоритми оптимізації з адитивною швидкістю навчання, наближені методи другого порядку, базові алгоритми оптимізації. Як результат перевірки проведено висновки щодо того, як різні оптимізатори впливають на зменшення похибки передбачень та як обирати алгоритм оптимізації в залежності від задачі, яку потрібно вирішити.
Ключові слова: алгоритми опимізації, глибокі моделі, навчання моделей, ефективність мережі, наближені методи другого порядку, адитивна швидкість навчання.
Повний текст:
PDFПосилання
Ian Goodfellow, Aaron Courville, Yoshua Bengio. Deep Learning. - 2015.
Mykel J. Kochenderfer,Tim A. Wheeler. Algorithms for Optimization // Massachusetts Institute of Technology - 2019
Quoc V., Jiquan Ngiam, Adam Coates, Abhik Lahiri, Bobby Prochnow, Andrew Y. // On optimization methods for deep learning // Computer Science Department,Stanford University, Stanford, CA 94305, USA - 2011
Lili Jiang. A Visual Explanation of Gradient Descent Methods (Momentum, Ada-Grad, RMSProp, Adam) [Електронний ресурс] // Jiang Lili - Jun, 2020. - Режим доступу:https://towardsdatascience.com/a-visual-explanation-of-gradient-descent-methods-momentum-adagrad-rmsprop-adam-f898b102325c
Hong Hui Tan, King Hann Lim. Review of second-order optimization techniques in artificial neural networks backpropagation. // Department of Electrical and Computer Engineering - Curtin University Malaysia // IOP Conf. Series: Materials Science and Engineering. - 2019
DOI: http://dx.doi.org/10.30970/vam.2024.33.12029
Посилання
- Поки немає зовнішніх посилань.
